Siga este link para ver outros tipos de publicações sobre o tema: Analyse des données géométriques.

Teses / dissertações sobre o tema "Analyse des données géométriques"

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Veja os 50 melhores trabalhos (teses / dissertações) para estudos sobre o assunto "Analyse des données géométriques".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Veja as teses / dissertações das mais diversas áreas científicas e compile uma bibliografia correta.

1

Feydy, Jean. "Analyse de données géométriques, au delà des convolutions". Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASN017.

Texto completo da fonte
Resumo:
Analyse de données géométriques, au delà des convolutionsPour modéliser des interactions entre points, une méthode simple est de se reposer sur des sommes pondérées communément appelées "convolutions". Au cours de la dernière décennie, cette opération est devenue la brique de construction essentielle à la révolution du "deep learning". Le produit de convolution est, toutefois, loin d'être l'alpha et l'oméga des mathématiques appliquées.Pour permettre aux chercheurs d'explorer de nouvelles directions, nous présentons des implémentations robustes et efficaces de trois opérations souvent sous-estimées:1. Les manipulations de tenseurs semi-symboliques, comme les matrices de distances ou de noyaux.2. Le transport optimal, qui généralise la notion de "tri" aux espaces de dimension D > 1.3. Le tir géodésique sur une variété Riemannienne, qui se substitue à l'interpolation linéaire sur des espaces de données où aucune structure vectorielle ne peut être correctement définie.Nos routines PyTorch/NumPy sont compatibles avec la différentiation automatique, et s'exécutent en quelques secondes sur des nuages de plusieurs millions de points. Elle sont de 10 à 1,000 fois plus performantes que des implémentations GPU standards et conservent une empreinte mémoire linéaire. Ces nouveaux outils sont empaquetés dans les bibliothèques "KeOps" et "GeomLoss", avec des applications qui vont de l'apprentissage automatique à l'imagerie médicale. Notre documentation est accessible aux adresses www.kernel-operations.io/keops et /geomloss
Geometric data analysis, beyond convolutionsTo model interactions between points, a simple option is to rely on weighted sums known as convolutions. Over the last decade, this operation has become a building block for deep learning architectures with an impact on many applied fields. We should not forget, however, that the convolution product is far from being the be-all and end-all of computational mathematics.To let researchers explore new directions, we present robust, efficient and principled implementations of three underrated operations: 1. Generic manipulations of distance-like matrices, including kernel matrix-vector products and nearest-neighbor searches.2. Optimal transport, which generalizes sorting to spaces of dimension D > 1.3. Hamiltonian geodesic shooting, which replaces linear interpolation when no relevant algebraic structure can be defined on a metric space of features.Our PyTorch/NumPy routines fully support automatic differentiation and scale up to millions of samples in seconds. They generally outperform baseline GPU implementations with x10 to x1,000 speed-ups and keep linear instead of quadratic memory footprints. These new tools are packaged in the KeOps (kernel methods) and GeomLoss (optimal transport) libraries, with applications that range from machine learning to medical imaging. Documentation is available at: www.kernel-operations.io/keops and /geomloss
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Chaouch, Mohamed. "Contribution à l'estimation non paramétrique des quantiles géométriques et à l'analyse des données fonctionnelles". Phd thesis, Université de Bourgogne, 2008. http://tel.archives-ouvertes.fr/tel-00364538.

Texto completo da fonte
Resumo:
Cette thèse est consacré à l'estimation non paramétrique des quantiles géométriques conditionnels ou non et à l'analyse des données fonctionnelles. Nous nous sommes intéressés, dans un premier temps, à l'étude des quantiles géométriques. Nous avons montré, avec plusieurs simulations, qu'une étape de Transformation-retransformation est nécessaire, pour estimer le quantile géométrique, lorsqu'on s'éloigne du cadre d'une distribution sphérique. Une étude sur des données réelles a confirmée que la modélisation des données est mieux adaptée lorsqu'on utilise les quantiles géométriques à la place des quantiles mariginaux, notamment lorsque les variables qui constituent le vecteur aléatoire sont corrélées. Ensuite nous avons étudié l'estimation des quantiles géométriques lorsque les observations sont issues d'un plan de sondage. Nous avons proposé un estimateur sans biais du quantile géométrique et à l'aide des techniques de linéarisation par les équations estimantes, nous avons déterminé la variance asymptotique de l'estimateur. Nous avons ensuite montré que l'estimateur de type Horvitz-Thompson de la variance converge en probabilité. Nous nous sommes placés par la suite dans le cadre de l'estimation des quantiles géométriques conditionnels lorsque les observations sont dépendantes. Nous avons démontré que l'estimateur du quantile géométrique conditionnel converge uniformement sur tout ensemble compact. La deuxième partie de ce mémoire est consacrée à l'étude des différents paramètres caractérisant l'ACP fonctionnelle lorsque les observations sont tirées selon un plan de sondage. Les techniques de linéarisation basées sur la fonction d'influence permettent de fournir des estimateurs de la variance dans le cadre asymptotique. Sous certaines hypothèses, nous avons démontré que ces estimateurs convergent en probabilité.
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Roudet, Céline. "Compression adaptative de surfaces par ondelettes géométriques". Phd thesis, Université Claude Bernard - Lyon I, 2008. http://tel.archives-ouvertes.fr/tel-00589400.

Texto completo da fonte
Resumo:
L'évolution de l'infographie et des techniques de numérisation a récemment ouvert la voie à une modélisation tridimensionnelle du monde qui nous entoure. Afin de s'adapter à l'hétérogénéité des ressources et médias manipulant ces objets 3D, des techniques basées sur l'analyse multirésolution sont généralement utilisées car elles fournissent une représentation "scalable" de ces modèles géométriques. C'est dans ce cadre de compression et de transmission progressive d'objets 3D (modélisées sous forme de maillages surfaciques) que se situe ce travail de thèse, réalisé dans le cadre du projet "CoSurf" (collaboration entre le laboratoire LIRIS et France Télécom R&D Rennes). Nous proposons ainsi une nouvelle méthode de compression hiérarchique s'appuyant sur une décomposition en ondelettes, outil d'analyse performant et robuste qui a fait ses preuves en termes de compression d'images et de vidéos. Notre méthode se démarque des techniques existantes, puisqu'elle s'appuie sur une segmentation préalable de la surface en régions d'amplitudes fréquentielles variables. Les partitions résultantes peuvent ainsi être traitées indépendamment durant les phases d'analyse multirésolution, de quantification et d'allocation binaire, de façon à s'adapter aux caractéristiques surfaciques locales des maillages et ainsi réduire les informations à coder. La contribution visuelle de chacune des partitions à l'ensemble de la surface est également un point important à considérer dans la phase d'optimisation des bits alloués à celles-ci, notamment pour des applications comme la transmission et la visualisation sélectives. D'autres applications telles que le tatouage, le filtrage ou le débruitage adaptatifs, l'indexation ou enfin la correction d'erreurs après transmission sur un canal bruité, pourraient bénéficier de ce concept générique que nous avons proposé.
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Bonaccorsi, Thomas. "Modélisation pluridisciplinaire d'expériences d'irradiation dans un réacteur d'irradiation technologique". Aix-Marseille 2, 2007. http://theses.univ-amu.fr.lama.univ-amu.fr/2007AIX22051.pdf.

Texto completo da fonte
Resumo:
Un réacteur d'irradiation technologique permet d'irradier des échantillons de matériaux sous des flux neutroniques et photoniques intenses. Ces expériences sont réalisées dans des dispositifs expérimentaux localisés soit au coeur du réacteur, soit en périphérie (ré- flecteur). Les outils de simulation dont disposent les physiciens ne traitent la plupart du temps qu'une seule discipline de manière très précise. C'est pourquoi les simulations multiphysiques des expériences d'irradiation nécessitent l'utilisation séquentielle de plusieurs codes de calcul et des échanges de données entre ces codes : il s'agit de problèmes de couplage. Afin de développer des simulations multiphysiques pour les réacteurs OSIRIS et RJH, les travaux de thèse ont mis en place un modèle de données à partir d'objets informatiques que nous avons appelés Entités Technologiques. Ce modèle, commun à chacune des disciplines, permet de définir la géométrie d'un dispositif d'irradiation de manière paramétrique et d'y associer des informations sur les matériaux le composant. Les simulations numériques sont encapsulées dans des classes informatiques présentant des interfaces (des méthodes et des attributs) spécifiques. De cette manière, les fonctionnalit és nécessaires à l'échanges de données et aux contrôles de l'exécution des calculs sont accessibles à partir des mêmes commandes informatiques (Mettre en données, lancer un calcul, post-traiter, récupérer des résultats. . . ), quelle que soit la simulation numérique traitée. Ainsi, une fois encapsulées, ces simulations numériques peuvent être réutilisées et échangées pour différentes études. Ce modèle de données est développé sous la forme d'un composant de la plate-forme SALOME. L'ensemble des études peut alors être réalisé dans SALOME. Le premier cas d'application a permis de traiter le cas des simulations neutronique (réacteurs OSIRIS et RJH) couplées avec des simulations du comportement du combustible. A terme, la thermohydraulique pourra également être prise en compte. Outre l'amélioration de la précision de calcul dû au couplage des phénomènes de physique, la durée du développement de telles simulations se trouve fortement réduite et la plate-forme de simulation ouvre la possibilité du traitement des incertitudes
A Material Testing Reactor (MTR) makes it possible to irradiate material samples under intense neutron and photonic fluxes. These experiments are carried out in experimental devices localised in the reactor core or in periphery (reflector). Available physics simulation tools only treat, most of the time, one physics field in a very precise way. Multiphysic simulations of irradiation experiments therefore require a sequential use of several calculation codes and data exchanges between these codes: this corresponds to problems coupling. In order to facilitate multiphysic simulations, this thesis sets up a data model based on data-processing objects, called Technological Entities. This data model is common to all of the physics fields. It permits defining the geometry of an irradiation device in a parametric way and to associate informations about materials to it. Numerical simulations are encapsulated into interfaces providing the ability to call specific functionalities with the same command ( to initialize data, to launch calculations, to post-treat, to get results,. . . ). Thus, once encapsulated, numerical simulations can be re-used for various studies. This data model is developed in a SALOME platform component. The first application case made it possible to perform neutronic simulations (OSIRIS reactor and RJH) coupled with fuel behavior simulations. In a next step, thermalhydraulics could also be taken into account. In addition to the improvement of the calculation accuracy due to the physical phenomena coupling, the time spent in the development phase of the simulation is largely reduced and the possibilities of uncertainty treatment are under consideration
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Bonis, Thomas. "Algorithmes d'apprentissage statistique pour l'analyse géométrique et topologique de données". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS459/document.

Texto completo da fonte
Resumo:
Dans cette thèse, on s'intéresse à des algorithmes d'analyse de données utilisant des marches aléatoires sur des graphes de voisinage, ou graphes géométriques aléatoires, construits à partir des données. On sait que les marches aléatoires sur ces graphes sont des approximations d'objets continus appelés processus de diffusion. Dans un premier temps, nous utilisons ce résultat pour proposer un nouvel algorithme de partitionnement de données flou de type recherche de modes. Dans cet algorithme, on définit les paquets en utilisant les propriétés d'un certain processus de diffusion que l'on approche par une marche aléatoire sur un graphe de voisinage. Après avoir prouvé la convergence de notre algorithme, nous étudions ses performances empiriques sur plusieurs jeux de données. Nous nous intéressons ensuite à la convergence des mesures stationnaires des marches aléatoires sur des graphes géométriques aléatoires vers la mesure stationnaire du processus de diffusion limite. En utilisant une approche basée sur la méthode de Stein, nous arrivons à quantifier cette convergence. Notre résultat s'applique en fait dans un cadre plus général que les marches aléatoires sur les graphes de voisinage et nous l'utilisons pour prouver d'autres résultats : par exemple, nous arrivons à obtenir des vitesses de convergence pour le théorème central limite. Dans la dernière partie de cette thèse, nous utilisons un concept de topologie algébrique appelé homologie persistante afin d'améliorer l'étape de "pooling" dans l'approche "sac-de-mots" pour la reconnaissance de formes 3D
In this thesis, we study data analysis algorithms using random walks on neighborhood graphs, or random geometric graphs. It is known random walks on such graphs approximate continuous objects called diffusion processes. In the first part of this thesis, we use this approximation result to propose a new soft clustering algorithm based on the mode seeking framework. For our algorithm, we want to define clusters using the properties of a diffusion process. Since we do not have access to this continuous process, our algorithm uses a random walk on a random geometric graph instead. After proving the consistency of our algorithm, we evaluate its efficiency on both real and synthetic data. We then deal tackle the issue of the convergence of invariant measures of random walks on random geometric graphs. As these random walks converge to a diffusion process, we can expect their invariant measures to converge to the invariant measure of this diffusion process. Using an approach based on Stein's method, we manage to obtain quantitfy this convergence. Moreover, the method we use is more general and can be used to obtain other results such as convergence rates for the Central Limit Theorem. In the last part of this thesis, we use the concept of persistent homology, a concept of algebraic topology, to improve the pooling step of the bag-of-words approach for 3D shapes
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Poupeau, Benoît. "Analyse et requêtes de données géographiques 3 D : contributions de la cristallographie géométrique". Phd thesis, Université Paris-Est, 2008. http://tel.archives-ouvertes.fr/tel-00481924.

Texto completo da fonte
Resumo:
Un des rôles des SIG 3D est d'intégrer et de mettre en cohérence des données issues de producteurs de données variés tout en respectant les choix faits en fonction des besoins des utilisateurs, en termes de géométrie et de topologie. Les SIG 3D actuels utilisent généralement une modélisation géométrique et topologique unique qui facilite, entre autres, les requêtes comme celles calculées à partir des modèles topologiques tels que le parcours de proche en proche des primitives géométriques d'un objet ou de ses voisins. En contrepartie, cette homogénéisation entraîne une perte des spécificités des modèles, de lourds calculs de conversion et ne corrige pas, sans une aide extérieure, les problèmes inhérents à l'acquisition et à la modélisation. Cette thèse propose un modèle d'analyse pour les SIG 3D permettant d'opérer des requêtes sur un objet (analyse intra-objet), quel que soit le choix technique de l'utilisateur, ou sur un ensemble d'objets (analyse inter-objets), même s'ils ne sont pas parfaitement cohérents. A partir de principes issus de la cristallographie, ce modèle, nommé Cristage, analyse les symétries de chaque objet pour décrire sa structure, c'est-à-dire la manière dont les primitives sont agencées entre elles. Complémentaire des modèles topologiques, cette première abstraction donne une vision globale de l'objet, ce qui facilite certaines requêtes comme l'extraction du toit d'une cavité ou la simplification géométrique d'un bâtiment 3D. L'analyse des différents éléments de symétrie (plans, axes et centre) offre une seconde abstraction : la maille. Considérée en cristallographie comme l'enveloppe du plus petit parallélépipède conservant les propriétés géométriques, elle est utilisée comme une boîte englobante adaptée à la forme de l'objet. Elle permet, en particulier, la mise en relation logique des objets géographiques, quelle que soit leur dimension. A l'aide des mailles, deux graphes sont calculés. Le premier, qualifié de graphe d'incidence, décrit les relations entre objets et facilite le parcours entre eux. Le second, appelé graphe temporel, dessine, pour un objet, l'évolution de ses relations avec son environnement
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Aamari, Eddie. "Vitesses de convergence en inférence géométrique". Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS203.

Texto completo da fonte
Resumo:
Certains jeux de données présentent des caractéristiques géométriques et topologiques non triviales qu'il peut être intéressant d'inférer.Cette thèse traite des vitesses non-asymptotiques d'estimation de différentes quantités géométriques associées à une sous-variété M ⊂ RD. Dans chaque cas, on dispose d'un n-échantillon i.i.d. de loi commune P ayant pour support M. On étudie le problème d'estimation de la sous-variété M pour la perte donnée par la distance de Hausdorff, du reach τM, de l'espace tangent TX M et de la seconde forme fondamentale I I MX, pour X ∈ M à la fois déterministe et aléatoire.Les vitesses sont données en fonction la taille $n$ de l'échantillon, de la dimension intrinsèque de M ainsi que de sa régularité.Dans l'analyse, on obtient des résultats de stabilité pour des techniques de reconstruction existantes, une procédure de débruitage ainsi que des résultats sur la géométrie du reach τM. Une extension du lemme d'Assouad est exposée, permettant l'obtention de bornes inférieures minimax dans des cadres singuliers
Some datasets exhibit non-trivial geometric or topological features that can be interesting to infer.This thesis deals with non-asymptotic rates for various geometric quantities associated with submanifolds M ⊂ RD. In all the settings, we are given an i.i.d. n-sample with common distribution P having support M. We study the optimal rates of estimation of the submanifold M for the loss given by the Hausdorff metric, of the reach τM, of the tangent space TX M and the second fundamental form I I MX, for X ∈ M both deterministic and random.The rates are given in terms of the sample size n, the instrinsic dimension of M, and its smoothness.In the process, we obtain stability results for existing reconstruction techniques, a denoising procedure and results on the geometry of the reach τM. An extension of Assouad's lemma is presented, allowing to derive minimax lower bounds in singular frameworks
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Magnet, Robin. "Robust spectral methods for shape analysis and deformation assessment". Electronic Thesis or Diss., Institut polytechnique de Paris, 2024. http://www.theses.fr/2024IPPAX043.

Texto completo da fonte
Resumo:
Le traitement et l’analyse automatiques des formes 3D est un domaine actif de la recherche moderne, avec des retombées dans de nombreux domaines.L'un des principaux défis de ce domaine réside dans la comparaison efficace des formes, par exemple pour détecter des anomalies dans les scanners d'organes, ce qui nécessite souvent d'établir des correspondances entre les surfaces.En particulier, le cadre des cartes fonctionnelles, basé sur l'analyse spectrale des formes, offre une approche flexible pour représenter et calculer ces correspondances, servant de base pour les analyses ultérieures.Cette thèse cherche à améliorer ces méthodes spectrales afin de réaliser des comparaisons de formes robustes et efficaces applicables aux données du monde réel. Dans la première partie, nous nous concentrons sur la caractérisation des différences entre les formes. Nous introduisons un descripteur des différences entre les formes, offrant des informations sur la distorsion autour de chaque point.Nous appliquons ensuite des outils similaires à un ensemble de scans de crânes afin de détecter une maladie craniofaciale, en mettant en évidence certaines exigences spécifiques des praticiens. Nous soulignons notamment l'importance de la continuité des correspondances et de l'application rapide des méthodes à des maillages denses.Dans la deuxième partie, nous répondons à ces besoins, tout d'abord en présentant un nouvel algorithme de correspondance de formes promouvant la continuité, ainsi qu'un nouveau jeu de données complexe pour l'évaluation. Nous nous concentrons ensuite sur l'amélioration des méthodes de cartes fonctionnelles afin de traiter des maillages réels de haute résolution.Nous présentons alors une approximation de la carte fonctionnelle, permettant le calcul rapide de correspondances sur des maillages possédant des centaines de milliers de sommets. Finalement, nous présentons une nouvelle approche d'apprentissage profond pour le calcul de cartes fonctionnelle, en supprimant le stockage de grandes matrices denses dans la mémoire du GPU, améliorant ainsi l'extensibilité de la méthode.Dans l'ensemble, cette thèse propose des outils efficaces pour analyser les différences entre les formes et fournit des méthodes générales pour simplifier et accélérer les calculs de correspondance, facilitant ainsi les applications en aval
Automatically processing and analyzing 3D shapes is an active area in modern research with implications in various fields.A key challenge in shape analysis lies in efficiently comparing shapes, for example to detect abnormalities in scans of organs, which often requires automatically deforming one shape into another, or establishing correspondences between surfaces.In this context, the functional map framework, based on spectral shape analysis, offers a flexible approach to representing and computing these correspondences, serving as a foundation for subsequent analysis.This thesis seeks to address the limitations of existing spectral methods, with the ultimate goal to achieve robust and efficient shape comparisons applicable to real-world data. In the first part, we concentrate on assessing deformations between shapes effectively, and introduce a descriptor of differences between shapes, capturing information about the distortion around each point.Next, we apply similar tools on a set of skull scans for craniofacial disease detection, highlighting the specific requirements of shape matching practitioners. Notably, we underscore the significance of correspondence smoothness and scalability to dense meshes.In the second part, we address these needs by extending existing functional map methods. Firstly, we introduce a novel shape correspondence pipeline, which explicitly promotes smoothness of computed correspondences, alongside a new challenging shape matching dataset. Secondly, we focus on enhancing the scalability of functional map pipelines to handle real-world dense meshes.For this, we present an approximation of the functional map, enabling the computation of correspondences on meshes with hundreds of thousands of vertices in a fraction of the processing time required by standard algorithms. Finally, we introduce a new learning-based approach, by modifying existing techniques for functional map computations, eliminating the need for large dense matrix storage in GPU memory, thereby improving scalability and numerical stability.Overall, our work contributes efficient tools for analyzing differences between shapes and provides general methods to simplify and accelerate correspondence computations, facilitating downstream applications
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Dary, Christophe. "Analyse géométrique d'image : application à la segmentation multi-échelle des images médicales". Nantes, 1992. http://www.theses.fr/1992NANT07VS.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

Nérot, Agathe. "Modélisation géométrique du corps humain (externe et interne) à partir des données externes". Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE1133.

Texto completo da fonte
Resumo:
Les modèles humains numériques sont devenus des outils indispensables à l’étude de la posture est du mouvement dans de nombreux domaines de la biomécanique visant des applications en ergonomie ou pour la clinique. Ces modèles intègrent une représentation géométrique de la surface du corps et un squelette filaire interne composé de segments rigides et d’articulations assurant leur mise en mouvement. La personnalisation des mannequins s'effectue d’abord sur les dimensions anthropométriques externes, servant ensuite de données d’entrée à l’ajustement des longueurs des segments du squelette en interne. Si les données externes sont de plus en plus facilement mesurables à l’aide des outils de scanning 3D actuels, l’enjeu scientifique est de pouvoir prédire des points caractéristiques du squelette en interne à partir de données uniquement externes. L’Institut de Biomécanique Humaine Georges Charpak (Arts et Métiers ParisTech) a développé des méthodes de reconstruction des os et de l’enveloppe externe à partir de radiographies biplanes obtenues avec le système basse dose EOS. En s’appuyant sur cette technologie, ces travaux ont permis de proposer de nouvelles relations statistiques externes-internes pour prédire des points du squelette longitudinal, en particulier l’ensemble des centres articulaires du rachis, à partir d’une base de données de 80 sujets. L'application de ce travail pourrait permettre d’améliorer le réalisme des modèles numériques actuels en vue de mener des analyses biomécaniques, principalement en ergonomie, nécessitant des informations dépendant de la position des articulations comme les mesures d’amplitude de mouvement et de charges articulaires
Digital human models have become instrumental tools in the analysis of posture and motion in many areas of biomechanics, including ergonomics and clinical settings. These models include a geometric representation of the body surface and an internal linkage composed of rigid segments and joints allowing simulation of human movement. The customization of human models first starts with the adjustment of external anthropometric dimensions, which are then used as input data to the adjustment of internal skeletal segments lengths. While the external data points are more readily measurable using current 3D scanning tools, the scientific challenge is to predict the characteristic points of the internal skeleton from external data only. The Institut de Biomécanique Humaine Georges Charpak (Arts et Métiers ParisTech) has developed 3D reconstruction methods of bone and external envelope from biplanar radiographs obtained from the EOS system (EOS Imaging, Paris), a low radiation dose technology. Using this technology, this work allowed proposing new external-internal statistical relationships to predict points of the longitudinal skeleton, particularly the complete set of spine joint centers, from a database of 80 subjects. The implementation of this work could improve the realism of current digital human models used for biomechanical analysis requiring information of joint center location, such as the estimation of range of motion and joint loading
Estilos ABNT, Harvard, Vancouver, APA, etc.
11

Bienaise, Solène. "Tests combinatoires en analyse géométrique des données - Etude de l'absentéisme dans les industries électriques et gazières de 1995 à 2011 à travers des données de cohorte". Phd thesis, Université Paris Dauphine - Paris IX, 2013. http://tel.archives-ouvertes.fr/tel-00941220.

Texto completo da fonte
Resumo:
La première partie de la thèse traite d'inférence combinatoire en Analyse Géométrique des Données (AGD). Nous proposons des tests multidimensionnels sans hypothèse sur le processus d'obtention des données ou les distributions. Nous nous intéressons ici aux problèmes de typicalité (comparaison d'un point moyen à un point de référence ou d'un groupe d'observations à une population de référence) et d'homogénéité (comparaison de plusieurs groupes). Nous utilisons des procédures combinatoires pour construire un ensemble de référence par rapport auquel nous situons les données. Les statistiques de test choisies mènent à des prolongements originaux : interprétation géométrique du seuil observé et construction d'une zone de compatibilité.La seconde partie présente l'étude de l'absentéisme dans les Industries Electriques et Gazières de 1995 à 2011 (avec construction d'une cohorte épidémiologique). Des méthodes d'AGD sont utilisées afin d'identifier des pathologies émergentes et des groupes d'agents sensibles.
Estilos ABNT, Harvard, Vancouver, APA, etc.
12

Bauchet, Jean-Philippe. "Structures de données cinétiques pour la modélisation géométrique d’environnements urbains". Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4091.

Texto completo da fonte
Resumo:
La modélisation géométrique d'objets urbains à partir de mesures physiques et leur représentation de manière efficace, compacte et précise est un problème difficile en vision par ordinateur et en infographie. Dans la littérature scientifique, les structures de données géométriques à l'interface entre les mesures physiques en entrée et les modèles produits en sortie passent rarement à l'échelle et ne permettent pas de partitionner des domaines fermés 2D et 3D représentant des scènes complexes. Dans cette thèse, on étudie une nouvelle famille de structures de données géométrique qui repose sur une formulation cinétique. Plus précisément, on réalise une partition de domaines fermés en détectant et en propageant au cours du temps des formes géométriques telles que des segments de droites ou des plans, jusqu'à collision et création de cellules polygonales. On propose en particulier deux méthodes de modélisation géométrique, une pour la vectorisation de régions d'intérêt dans des images, et une autre pour la reconstruction d'objets en maillages polygonaux concis à partir de nuages de points 3D. Les deux approches exploitent les structures de données cinétiques pour décomposer efficacement en cellules soit un domaine image en 2D, soit un domaine fermé en 3D. Les objets sont ensuite extraits de la partition à l’aide d’une procédure d’étiquetage binaire des cellules. Les expériences menées sur une grande variété de données en termes de nature, contenus, complexité, taille et caractéristiques d'acquisition démontrent la polyvalence de ces deux méthodes. On montre en particulier leur potentiel applicatif sur le problème de modélisation urbaine à grande échelle à partir de données aériennes et satellitaires
The geometric modeling of urban objects from physical measurements, and their representation in an accurate, compact and efficient way, is an enduring problem in computer vision and computer graphics. In the literature, the geometric data structures at the interface between physical measurements and output models typically suffer from scalability issues, and fail to partition 2D and 3D bounding domains of complex scenes. In this thesis, we propose a new family of geometric data structures that rely on kinetic frameworks. More precisely, we compute partitions of bounding domains by detecting geometric shapes such as line-segments and planes, and extending these shapes until they collide with each other. This process results in light partitions, containing a low number of polygonal cells. We propose two geometric modeling pipelines, one for the vectorization of regions of interest in images, another for the reconstruction of concise polygonal meshes from point clouds. Both approaches exploit kinetic data structures to decompose efficiently either a 2D image domain or a 3D bounding domain into cells. Then, we extract objects from the partitions by optimizing a binary labelling of cells. Conducted on a wide range of data in terms of contents, complexity, sizes and acquisition characteristics, our experiments demonstrate the scalability and the versatility of our methods. We show the applicative potential of our method by applying our kinetic formulation to the problem of urban modeling from remote sensing data
Estilos ABNT, Harvard, Vancouver, APA, etc.
13

Brécheteau, Claire. "Vers une vision robuste de l'inférence géométrique". Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS334/document.

Texto completo da fonte
Resumo:
Le volume de données disponibles est en perpétuelle expansion. Il est primordial de fournir des méthodes efficaces et robustes permettant d'en extraire des informations pertinentes. Nous nous focalisons sur des données pouvant être représentées sous la forme de nuages de points dans un certain espace muni d'une métrique, e.g. l'espace Euclidien R^d, générées selon une certaine distribution. Parmi les questions naturelles que l'on peut se poser lorsque l'on a accès à des données, trois d'entre elles sont abordées dans cette thèse. La première concerne la comparaison de deux ensembles de points. Comment décider si deux nuages de points sont issus de formes ou de distributions similaires ? Nous construisons un test statistique permettant de décider si deux nuages de points sont issus de distributions égales (modulo un certain type de transformations e.g. symétries, translations, rotations...). La seconde question concerne la décomposition d'un ensemble de points en plusieurs groupes. Étant donné un nuage de points, comment faire des groupes pertinents ? Souvent, cela consiste à choisir un système de k représentants et à associer chaque point au représentant qui lui est le plus proche, en un sens à définir. Nous développons des méthodes adaptées à des données échantillonnées selon certains mélanges de k distributions, en présence de données aberrantes. Enfin, lorsque les données n'ont pas naturellement une structure en k groupes, par exemple, lorsqu'elles sont échantillonnées à proximité d'une sous-variété de R^d, une question plus pertinente est de construire un système de k représentants, avec k grand, à partir duquel on puisse retrouver la sous-variété. Cette troisième question recouvre le problème de la quantification d'une part, et le problème de l'approximation de la distance à un ensemble d'autre part. Pour ce faire, nous introduisons et étudions une variante de la méthode des k-moyennes adaptée à la présence de données aberrantes dans le contexte de la quantification. Les réponses que nous apportons à ces trois questions dans cette thèse sont de deux types, théoriques et algorithmiques. Les méthodes proposées reposent sur des objets continus construits à partir de distributions et de sous-mesures. Des études statistiques permettent de mesurer la proximité entre les objets empiriques et les objets continus correspondants. Ces méthodes sont faciles à implémenter en pratique lorsque des nuages de points sont à disposition. L'outil principal utilisé dans cette thèse est la fonction distance à la mesure, introduite à l'origine pour adapter les méthodes d'analyse topologique des données à des nuages de points corrompus par des données aberrantes
It is primordial to establish effective and robust methods to extract pertinent information from datasets. We focus on datasets that can be represented as point clouds in some metric space, e.g. Euclidean space R^d; and that are generated according to some distribution. Of the natural questions that may arise when one has access to data, three are addressed in this thesis. The first question concerns the comparison of two sets of points. How to decide whether two datasets have been generated according to similar distributions? We build a statistical test allowing to one to decide whether two point clouds have been generated from distributions that are equal (up to some rigid transformation e.g. symmetry, translation, rotation...).The second question is about the decomposition of a set of points into clusters. Given a point cloud, how does one make relevant clusters? Often, it consists of selecting a set of k representatives, and associating every point to its closest representative (in some sense to be defined). We develop methods suited to data sampled according to some mixture of k distributions, possibly with outliers. Finally, when the data can not be grouped naturally into $k$ clusters, e.g. when they are generated in a close neighborhood of some sub-manifold in R^d, a more relevant question is the following. How to build a system of $k$ representatives, with k large, from which it is possible to recover the sub-manifold? This last question is related to the problems of quantization and compact set inference. To address it, we introduce and study a modification of the $k$-means method adapted to the presence of outliers, in the context of quantization. The answers we bring in this thesis are of two types, theoretical and algorithmic. The methods we develop are based on continuous objects built from distributions and sub-measures. Statistical studies allow us to measure the proximity between the empirical objects and the continuous ones. These methods are easy to implement in practice, when samples of points are available. The main tool in this thesis is the function distance-to-measure, which was originally introduced to make topological data analysis work in the presence of outliers
Estilos ABNT, Harvard, Vancouver, APA, etc.
14

Abergel, Violette. "Relevé numérique d’art pariétal : définition d’une approche innovante combinant propriétés géométriques, visuelles et sémantiques au sein d’un environnement de réalité mixte". Thesis, Paris, HESAM, 2020. http://www.theses.fr/2020HESAE021.

Texto completo da fonte
Resumo:
Les progrès de ces dernières décennies dans les domaines de l’informatique et de la métrologie ont favorisé l’essor d’outils numériques de mesure de l’existant. Si le numérique n’a pas fondamentalement remis en question les principes de la mesure, l’amélioration de leur précision, de l’automatisation, et de la capacité de mémorisation ont, en revanche, constitué une évolution décisive dans de nombreuses disciplines. Dans le domaine du relevé d’art pariétal, leur introduction a rendu possible la collecte massive de données 2D et 3D en réponse à des besoins variés d’étude, de suivi, de documentation, d’archivage, ou encore de valorisation. Ces données constituent autant de nouveaux supports précieux pour la compréhension des objets d’étude, en particulier en ce qui concerne leur caractérisation morphologique. Cependant, malgré leurs nombreux potentiels, elles demeurent souvent sous-exploitées par manque d’outils facilitant leur manipulation, leur analyse, et leur enrichissement sémantique dans des contextes d’études pluridisciplinaires. En outre, ces méthodes tendent à reléguer l’engagement cognitif et analytique de l’observateur derrière son instrument de mesure, causant une rupture profonde entre les moments d’étude sur site et l’ensemble des traitements réalisés hors site, ou autrement dit, entre les environnements de travail réels et virtuels.Cette thèse propose de répondre à ces problèmes par la définition d’une approche intégrée permettant la fusion des aspects géométriques, visuels et sémantiques du relevé au sein d’un environnement de réalité mixte multimodal. En nous plaçant à la croisée des domaines des systèmes d’informations patrimoniaux et de la réalité mixte, notre objectif est de garantir la continuité des travaux menés in situ et ex situ. Ce travail a abouti au développement d’une preuve de concept fonctionnelle permettant la consultation de données numériques 2D et 3D issues de relevé et leur annotation sémantique en réalité augmentée via une interface web
The advances of the last decades in the fields of computer science and metrology have led to the development of efficient measurement tools allowing the digitization of the environment. Although digital technology has not fundamentally overhauled the principles of metric measurement, the improvement of their accuracy, automation and storage capacity has, on the other hand, been a decisive development in many fields. In the case of rock art surveying, their introduction has allowed a massive gathering of 2D and 3D data, meeting various needs for study, monitoring, documentation, archiving, or dissemination. These data provide new and valuable supports for the understanding of the objects of study, in particular concerning their morphological characterization. However, in spite of their great potentials, they often remain under-exploited due to the lack of tools facilitating their manipulation, analysis, and semantic enrichment in multidisciplinary study contexts. Moreover, these methods tend to relegate the cognitive and analytical engagement of the observer behind the measurement tool, causing a deep break between on-site study moments and all off-site processing, or in other words, between real and virtual work environments.This thesis proposes to address these problems by defining an integrated approach allowing the fusion of the geometric, visual and semantic aspects of surveying within a single multimodal mixed reality environment. At the crossroads of the fields of heritage information systems and mixed reality, our goal is to ensure an informational continuity between in situ and ex situ analysis activities. This study led to the development of a functional proof of concept allowing the visualization of 2D and 3D digital data from surveys and their semantic annotation in augmented reality through a web interface
Estilos ABNT, Harvard, Vancouver, APA, etc.
15

Minguely, Bruno. "Caractérisation géométrique 3-D de la couverture sédimentaire méso-cénozoïque et du substratum varisque dans le Nord de la France : apports des données de sondages et des données géophysiques". Lille 1, 2007. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2007/50376-2007-Minguely.pdf.

Texto completo da fonte
Resumo:
En bordure septentrionale du Bassin de Paris, le Nord de la France occupe une position clé pour la compréhension des relations structurales entre le substratum paléozoïque déformé et les dépôts mésocénozoïques de la couverture sédimentaire. En profondeur, le caractère extrêmement hétérogène du substratum est marqué par la superposition du front de chevauchement varisque à vergence Nord, matérialisé par la Faille du Midi, et du front calédonien, à vergence sud, reconnu dans le massif du Brabant plus au Nord. L'utilisation combinée d'un modèle géologique 3-D, réalisé à partir des données de sondage, et des données sismiques et gravimétriques montre que les fronts varisque et calédonien interagissent et influencent la géométrie des dépôts de couverture en individualisant des domaines structuraux bien précis. En Artois-Boulonnais, la réactivation d'accidents calédoniens profonds durant l'orogenèse varisque semble contrôler la géométrie du front chevauchant induisant, en particulier, une augmentation du pendage de la Faille du Midi. Ce redressement des chevauchements profonds apparaît comme un facteur majeur dans la genése des failles affectant la couverture en Artois et dans la localisation de l'inversion tectonique au niveau de ces failles. Ce n'est pas le cas latéralement, dans le bassin houiller et l'Avesnois où aucune structure similaire n'est observée. Il est possible que, dans cette zone, ce système soit transféré vers le Nord, décalant ainsi l'inversion tectonique. L'activation, la réactivation et l'évolution latérale des structures profondes sont donc des facteurs déterminants dans l'individualisation des différents domaines structuraux de la couverture sédimentaire.
Estilos ABNT, Harvard, Vancouver, APA, etc.
16

Da, Silva Sébastien. "Fouille de données spatiales et modélisation de linéaires de paysages agricoles". Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0156/document.

Texto completo da fonte
Resumo:
Cette thèse s'inscrit dans un partenariat entre l'INRA et l'INRIA et dans le champs de l'extraction de connaissances à partir de bases de données spatiales. La problématique porte sur la caractérisation et la simulation de paysages agricoles. Plus précisément, nous nous concentrons sur des lignes qui structurent le paysage agricole, telles que les routes, les fossés d'irrigation et les haies. Notre objectif est de modéliser les haies en raison de leur rôle dans de nombreux processus écologiques et environnementaux. Nous étudions les moyens de caractériser les structures de haies sur deux paysages agricoles contrastés, l'un situé dans le sud-Est de la France (majoritairement composé de vergers) et le second en Bretagne (Ouest de la France, de type bocage). Nous déterminons également si, et dans quelles circonstances, la répartition spatiale des haies est structurée par la position des éléments linéaires plus pérennes du paysage tels que les routes et les fossés et l'échelle de ces structures. La démarche d'extraction de connaissances à partir de base de données (ECBD) mise en place comporte différentes étapes de prétraitement et de fouille de données, alliant des méthodes mathématiques et informatiques. La première partie du travail de thèse se concentre sur la création d'un indice spatial statistique, fondé sur une notion géométrique de voisinage et permettant la caractérisation des structures de haies. Celui-Ci a permis de décrire les structures de haies dans le paysage et les résultats montrent qu'elles dépendent des éléments plus pérennes à courte distance et que le voisinage des haies est uniforme au-Delà de 150 mètres. En outre différentes structures de voisinage ont été mises en évidence selon les principales orientations de haies dans le sud-Est de la France, mais pas en Bretagne. La seconde partie du travail de thèse a exploré l'intérêt du couplage de méthodes de linéarisation avec des méthodes de Markov. Les méthodes de linéarisation ont été introduites avec l'utilisation d'une variante des courbes de Hilbert : les chemins de Hilbert adaptatifs. Les données spatiales linéaires ainsi construites ont ensuite été traitées avec les méthodes de Markov. Ces dernières ont l'avantage de pouvoir servir à la fois pour l'apprentissage sur les données réelles et pour la génération de données, dans le cadre, par exemple, de la simulation d'un paysage. Les résultats montrent que ces méthodes couplées permettant un apprentissage et une génération automatique qui capte des caractéristiques des différents paysages. Les premières simulations sont encourageantes malgré le besoin d'un post-Traitement. Finalement, ce travail de thèse a permis la création d'une méthode d'exploration de données spatiales basée sur différents outils et prenant en charge toutes les étapes de l'ECBD classique, depuis la sélection des données jusqu'à la visualisation des résultats. De plus, la construction de cette méthode est telle qu'elle peut servir à son tour à la génération de données, volet nécessaire pour la simulation de paysage
This thesis is part of a partnership between INRA and INRIA in the field of knowledge extraction from spatial databases. The study focuses on the characterization and simulation of agricultural landscapes. More specifically, we focus on linears that structure the agricultural landscape, such as roads, irrigation ditches and hedgerows. Our goal is to model the spatial distribution of hedgerows because of their role in many ecological and environmental processes. We more specifically study how to characterize the spatial structure of hedgerows in two contrasting agricultural landscapes, one located in south-Eastern France (mainly composed of orchards) and the second in Brittany (western France, \emph{bocage}-Type). We determine if the spatial distribution of hedgerows is structured by the position of the more perennial linear landscape features, such as roads and ditches, or not. In such a case, we also detect the circumstances under which this spatial distribution is structured and the scale of these structures. The implementation of the process of Knowledge Discovery in Databases (KDD) is comprised of different preprocessing steps and data mining algorithms which combine mathematical and computational methods. The first part of the thesis focuses on the creation of a statistical spatial index, based on a geometric neighborhood concept and allowing the characterization of structures of hedgerows. Spatial index allows to describe the structures of hedgerows in the landscape. The results show that hedgerows depend on more permanent linear elements at short distances, and that their neighborhood is uniform beyond 150 meters. In addition different neighborhood structures have been identified depending on the orientation of hedgerows in the South-East of France but not in Brittany. The second part of the thesis explores the potential of coupling linearization methods with Markov methods. The linearization methods are based on the use of alternative Hilbert curves: Hilbert adaptive paths. The linearized spatial data thus constructed were then treated with Markov methods. These methods have the advantage of being able to serve both for the machine learning and for the generation of new data, for example in the context of the simulation of a landscape. The results show that the combination of these methods for learning and automatic generation of hedgerows captures some characteristics of the different study landscapes. The first simulations are encouraging despite the need for post-Processing. Finally, this work has enabled the creation of a spatial data mining method based on different tools that support all stages of a classic KDD, from the selection of data to the visualization of results. Furthermore, this method was constructed in such a way that it can also be used for data generation, a component necessary for the simulation of landscapes
Estilos ABNT, Harvard, Vancouver, APA, etc.
17

Da, Silva Sébastien. "Fouille de données spatiales et modélisation de linéaires de paysages agricoles". Electronic Thesis or Diss., Université de Lorraine, 2014. http://docnum.univ-lorraine.fr/prive/DDOC_T_2014_0156_DA_SILVA.pdf.

Texto completo da fonte
Resumo:
Cette thèse s'inscrit dans un partenariat entre l'INRA et l'INRIA et dans le champs de l'extraction de connaissances à partir de bases de données spatiales. La problématique porte sur la caractérisation et la simulation de paysages agricoles. Plus précisément, nous nous concentrons sur des lignes qui structurent le paysage agricole, telles que les routes, les fossés d'irrigation et les haies. Notre objectif est de modéliser les haies en raison de leur rôle dans de nombreux processus écologiques et environnementaux. Nous étudions les moyens de caractériser les structures de haies sur deux paysages agricoles contrastés, l'un situé dans le sud-Est de la France (majoritairement composé de vergers) et le second en Bretagne (Ouest de la France, de type bocage). Nous déterminons également si, et dans quelles circonstances, la répartition spatiale des haies est structurée par la position des éléments linéaires plus pérennes du paysage tels que les routes et les fossés et l'échelle de ces structures. La démarche d'extraction de connaissances à partir de base de données (ECBD) mise en place comporte différentes étapes de prétraitement et de fouille de données, alliant des méthodes mathématiques et informatiques. La première partie du travail de thèse se concentre sur la création d'un indice spatial statistique, fondé sur une notion géométrique de voisinage et permettant la caractérisation des structures de haies. Celui-Ci a permis de décrire les structures de haies dans le paysage et les résultats montrent qu'elles dépendent des éléments plus pérennes à courte distance et que le voisinage des haies est uniforme au-Delà de 150 mètres. En outre différentes structures de voisinage ont été mises en évidence selon les principales orientations de haies dans le sud-Est de la France, mais pas en Bretagne. La seconde partie du travail de thèse a exploré l'intérêt du couplage de méthodes de linéarisation avec des méthodes de Markov. Les méthodes de linéarisation ont été introduites avec l'utilisation d'une variante des courbes de Hilbert : les chemins de Hilbert adaptatifs. Les données spatiales linéaires ainsi construites ont ensuite été traitées avec les méthodes de Markov. Ces dernières ont l'avantage de pouvoir servir à la fois pour l'apprentissage sur les données réelles et pour la génération de données, dans le cadre, par exemple, de la simulation d'un paysage. Les résultats montrent que ces méthodes couplées permettant un apprentissage et une génération automatique qui capte des caractéristiques des différents paysages. Les premières simulations sont encourageantes malgré le besoin d'un post-Traitement. Finalement, ce travail de thèse a permis la création d'une méthode d'exploration de données spatiales basée sur différents outils et prenant en charge toutes les étapes de l'ECBD classique, depuis la sélection des données jusqu'à la visualisation des résultats. De plus, la construction de cette méthode est telle qu'elle peut servir à son tour à la génération de données, volet nécessaire pour la simulation de paysage
This thesis is part of a partnership between INRA and INRIA in the field of knowledge extraction from spatial databases. The study focuses on the characterization and simulation of agricultural landscapes. More specifically, we focus on linears that structure the agricultural landscape, such as roads, irrigation ditches and hedgerows. Our goal is to model the spatial distribution of hedgerows because of their role in many ecological and environmental processes. We more specifically study how to characterize the spatial structure of hedgerows in two contrasting agricultural landscapes, one located in south-Eastern France (mainly composed of orchards) and the second in Brittany (western France, \emph{bocage}-Type). We determine if the spatial distribution of hedgerows is structured by the position of the more perennial linear landscape features, such as roads and ditches, or not. In such a case, we also detect the circumstances under which this spatial distribution is structured and the scale of these structures. The implementation of the process of Knowledge Discovery in Databases (KDD) is comprised of different preprocessing steps and data mining algorithms which combine mathematical and computational methods. The first part of the thesis focuses on the creation of a statistical spatial index, based on a geometric neighborhood concept and allowing the characterization of structures of hedgerows. Spatial index allows to describe the structures of hedgerows in the landscape. The results show that hedgerows depend on more permanent linear elements at short distances, and that their neighborhood is uniform beyond 150 meters. In addition different neighborhood structures have been identified depending on the orientation of hedgerows in the South-East of France but not in Brittany. The second part of the thesis explores the potential of coupling linearization methods with Markov methods. The linearization methods are based on the use of alternative Hilbert curves: Hilbert adaptive paths. The linearized spatial data thus constructed were then treated with Markov methods. These methods have the advantage of being able to serve both for the machine learning and for the generation of new data, for example in the context of the simulation of a landscape. The results show that the combination of these methods for learning and automatic generation of hedgerows captures some characteristics of the different study landscapes. The first simulations are encouraging despite the need for post-Processing. Finally, this work has enabled the creation of a spatial data mining method based on different tools that support all stages of a classic KDD, from the selection of data to the visualization of results. Furthermore, this method was constructed in such a way that it can also be used for data generation, a component necessary for the simulation of landscapes
Estilos ABNT, Harvard, Vancouver, APA, etc.
18

Castelli, Aleardi Luca. "Représentations compactes de structures de données géométriques". Phd thesis, Ecole Polytechnique X, 2006. http://tel.archives-ouvertes.fr/tel-00336188.

Texto completo da fonte
Resumo:
Nous considérons le problème de concevoir des représentations compactes ou succinctes de structures de données géométriques. Dans ce cadre, en plus des questions de simple compression, l'attention est portée sur l'étude de structures de données nécessitant une petite quantité de ressources mémoire et permettant de répondre à des requêtes locales en temps O(1). L'une des contributions de cette thèse consiste à proposer un cadre algorithmique général pour la conception de représentations compactes de structures telles que les graphes planaires et les maillages surfaciques. Comme application nous présentons différentes structures spécialement conçues pour représenter de manière compacte la connectivité (ou information combinatoire) de certaines classes de graphes localement planaires. Pour le cas des triangulations planaires à m faces, nous proposons une représentation compacte de l'information combinatoire nécessitant asymptotiquement 2:175 bits par triangle pour le coût en espace et qui permet la navigation entre triangles adjacents, ainsi que d'autres requêtes locales d'incidence entre sommets, en temps constant : cette structure est ainsi optimale pour la classe des triangulations ayant un bord de taille arbitraire. Une telle représentation reste valide et optimale dans le cas de triangulations d'une surface de genre g borné : O(g lgm) bits supplémentaires sont alors nécessaires. Cette représentation est bien adaptée pour faire une mise à jour locale efficace de la triangulation. Plus précisément, il est possible d'effectuer des mises à jour en temps O(1) amorti après insertion de sommets, et en temps O(log2m) amorti après suppression de sommets et flip d'arêtes. Et en ce qui concerne les triangulations et les graphes planaires 3-connexes, correspondant aux maillages triangulaires et polygonaux homéomorphes à une sphère, nous proposons les premières représentations succinctes optimales : elles atteignent l'entropie respective des deux classes, 2 bits par arête pour les graphes 3-connexes, et 1:62 bits par triangle (ou 3:24 bits par sommet) pour les triangulations. Ces structures permettent aussi l'accès en temps O(1) aux informations associées aux sommets, notamment leurs coordonnées. Cependant nous ne traitons pas ici la compression de cette information géométrique.
Estilos ABNT, Harvard, Vancouver, APA, etc.
19

Denis, Laurent. "Méthodes géométriques en analyse diophantienne". Paris 6, 1992. http://www.theses.fr/1992PA066656.

Texto completo da fonte
Resumo:
La premiere partie de la these concerne les lemmes de multiplicites, qui sont fondamentaux dans la theorie des nombres transcendants. Le probleme est de donner une minoration du degre d'une hypersurface passant par un sous-ensemble fini de points, comptes avec multiplicites, et inclus dans un groupe algebrique g plonge dans un espace projectif. Le meilleur resultat connu etait celui de p. Philippon. Ce dernier avait encore deux legers inconvenients. D'une part le plongement de g devait etre projectivement normal et d'autre part la minoration contenait un facteur 2 qui semblait artificiel. Nous arrivons maintenant a supprimer ces restrictions dans le cas d'une variete abelienne g. La seconde partie donne des resultats de transcendance et de geometrie arithmetique en caracteristique p. Nous resolvons des problemes sur les t-modules et les modules de drinfeld. L'idee principale est l'introduction d'une hauteur canonique, analogue a celle de neron-tate, sur un t-module suffisamment regulier: l'anneau des endomorphismes agit sur le groupe de neron-severi de la compactification naturelle, on en deduit la hauteur par la methode de tate. Dans le dernier papier on applique, entre autre, la hauteur canonique pour prouver un analogue de la conjecture de manin-mumford pour un produit de modules de drinfeld
Estilos ABNT, Harvard, Vancouver, APA, etc.
20

Girardeau-Montaut, Daniel. "Détection de changement sur des données géométriques tridimensionnelles". Phd thesis, Télécom ParisTech, 2006. http://pastel.archives-ouvertes.fr/pastel-00001745.

Texto completo da fonte
Resumo:
Ce travail de thèse aborde le problème de la détection de changement à partir de données géométriques tridimensionnelles. Ces données peuvent représenter n'importe quel objet ou environnement mais le travail s'est focalisé sur des environnements complexes et de grande envergure (centrales nucléaires, plateformes pétrolières, etc.). L'idée principale est d'exploiter directement les nuages de points acquis par des scanner laser, sans passer par des reconstructions intermédiaires plus "haut niveau" (maillages triangulaires, etc.) mais qui sont souvent impossibles à calculer automatiquement et proprement sur de tels environnements. Les scanners laser sont des appareils compacts et portables capables de mesurer rapidement un très grand nombre de points 3D sur la surface des objets. Les nuages de points résultants sont des données précises et très détaillées, mais aussi très volumineuses et non structurées. Il est donc nécessaire de développer des traitements particuliers et performants. Le manuscrit présente l'étude et la mise en place concrète d'un processus complet de détection de changements géométriques, se basant principalement sur des nuages de points 3D et des maillages surfaciques 3D. On propose en particulier une méthode robuste de calcul d'écarts directement entre nuages de points 3D, ainsi que deux algorithmes de segmentation géométrique de nuages associés à des valeurs d'écarts (dans le but d'isoler les zones de changement). Le premier algorithme met en œuvre une méthode de classification des points du nuage par analyse statistique locale des valeurs d'écarts. Le second se base sur la propagation d'un contour, contrainte par la norme du gradient géométrique des valeurs d'écarts. On propose aussi un codage particulier d'une structure octree, qui, sous cette forme, peut être calculée très rapidement et sur mesure, ce qui permet d'accélérer fortement les calculs. Plusieurs applications, principalement industrielles, sont finalement proposées. Une ouverture est faite vers des applications d'aide à la gestion de catastrophes naturelles ou industrielles, qui pourraient profiter de la rapidité et de la fiabilité des méthodes d'analyse et de suivi géométrique proposées.
Estilos ABNT, Harvard, Vancouver, APA, etc.
21

Hamidouche, Mounia. "Analyse spectrale de graphes géométriques aléatoires". Thesis, Université Côte d'Azur, 2020. http://www.theses.fr/2020COAZ4019.

Texto completo da fonte
Resumo:
Nous étudions le graphe géométrique aléatoire (GGA) afin d'aborder des problèmes clés dans les réseaux complexes. Un GAA est construit en distribuant uniformément n nœuds sur un tore de dimension d et en connectant deux nœuds si leur distance ne dépasse pas un seuil. Trois régimes pour GGA présentent un intérêt particulier. Le régime de connectivité dans lequel le degré moyen d'un nœud a_n croît de manière logarithmique avec n ou plus vite. Le régime dense dans lequel a_n est linéaire avec n. Le régime thermodynamique dans lequel a_n est une constante. On étudie le spectre du Laplacien normalisé (LN) et régularisé du GGA dans les trois régimes. Lorsque d est fixe et n tend vers l'infini, on prouve que la distribution spectrale limite (DSL) du LN converge vers la distribution de Dirac concentrée en 1 dans le régime de connectivité. Dans le régime thermodynamique, on propose une approximation pour DSL du LN régularisé et on fournit une borne d'erreur sur l'approximation. On montre que DSL du LN régularisé d'un GGA est approximée par DSL d'un graphe géométrique déterministe (GGD). On étudie DSL de la matrice d'adjacence d'un GGA dans le régime de connectivité. Sous des conditions sur a_n, on montre que DSL de la matrice d'adjacence du GGD est une bonne approximation du GGA pour n large. On détermine la dimension spectrale (DS) qui caractérise la distribution du temps de retour d'une marche aléatoire sur le GGA. On montre que DS dépend de la densité spectrale de LN au voisinage des valeurs propres minimales. On prouve que la densité spectrale au voisinage de la valeur minimale suit une loi de puissance et que DS du GGA est approximé par d dans le régime thermodynamique
We study random geometric graphs (RGGs) to address key problems in complex networks. An RGG is constructed by uniformly distributing n nodes on a torus of dimension d and connecting two nodes if their distance does not exceed a certain threshold. Three regimes for RGGs are of particular interest. The connectivity regime in which the average vertex degree a_n grows logarithmically with n or faster. The dense regime in which a_n is linear with n. The thermodynamic regime in which a_n is a constant. We study the spectrum of RGGs normalized Laplacian (LN) and its regularized version in the three regimes. When d is fixed and n tends to infinity we prove that the limiting spectral distribution (LSD) of LN converges to Dirac distribution at 1 in the connectivity regime. In the thermodynamic regime we propose an approximation for LSD of the regularized NL and we provide an error bound on the approximation. We show that LSD of the regularized LN of an RGG is approximated by LSD of the regularized LN of a deterministic geometric graph (DGG). We study LSD of RGGs adjacency matrix in the connectivity regime. Under some conditions on a_n we show that LSD of DGGs adjacency matrix is a good approximation for LSD of RGGs for n large. We determine the spectral dimension (SD) that characterizes the return time distribution of a random walk on RGGs. We show that SD depends on the eigenvalue density (ED) of the RGG normalized Laplacian in the neighborhood of the minimum eigenvalues. Based on the analytical eigenvalues of the normalized Laplacian we show that ED in a neighborhood of the minimum value follows a power-law tail and we approximate SD of RGGs by d in the thermodynamic regime
Estilos ABNT, Harvard, Vancouver, APA, etc.
22

Cordero-Erausquin, Dario. "Inégalités géométriques". Marne-la-Vallée, 2000. http://www.theses.fr/2000MARN0097.

Texto completo da fonte
Resumo:
Cette these s'inscrit essentiellement dans le cadre du transport optimal de mesure et de la theorie de monge-kantorovich. Elle se trouve par consequent a la frontiere de l'analyse fonctionnelle, de la geometrie riemanniene, des probabilites et des edp. On utilise le transport de brenier pour donner une demonstration simple et unifiee d'inegalites de transport a la talagrand et de sobolev logarithmique pour des mesures de type gaussien, ainsi que pour obtenir des inegalites de correlation gaussienne. Grace au transport de mccann sur les varietes, on demontre de nouvelles inegalites riemanniennes qui generalisent les inegalites de prekopa-leindler et de borell-brascamp-lieb connues dans le cadre euclidien. Chemin faisant, on degage de nombreuses proprietes du transport optimal de mesure et de son interpolation sur les varietes riemanniennes. On presente egalement des applications du transport de mesure a d'autres inegalites riemannienes connues, tel le critere de bakry-emery ou l'inegalite de sobolev l1. Cette these contient en outre un chapitre consacre aux inegalites de shift de type gaussien et a leurs liens avec les normes de barycentre, ainsi qu'un annexe etudiant le transport monotone de mesures periodiques
Estilos ABNT, Harvard, Vancouver, APA, etc.
23

Flandin, Guillaume. "Utilisation d'informations géométriques pour l'analyse statistique des données d'IRM fonctionnelle". Phd thesis, Université de Nice Sophia-Antipolis, 2004. http://tel.archives-ouvertes.fr/tel-00633520.

Texto completo da fonte
Resumo:
L'imagerie par résonance magnétique fonctionnelle (IRMf) est une modalité récente permettant de mesurer in vivo l'activité neuronale chez le sujet sain ou le patient et d'étudier le lien entre la structure et la fonction cérébrale. Nous nous sommes intéressés à l'utilisation de l'information de l'anatomie cérébrale pour l'analyse des données fonctionnelles. Ainsi, nous avons reconsidéré l'analyse classique typiquement réalisée voxel par voxel avec lissage spatial pour proposer un modèle de représentation des données reposant sur une parcellisation anatomo-fonctionnelle du cortex. Cette représentation permet de réduire la dimension des données en un nombre restreint d'éléments pertinents du point de vue des neurosciences. Nous présentons des exemples d'utilisation de cette approche de parcellisation fondée sur l'anatomie seulement dans un premier temps. Une étude de détection d'activations par modèle linéaire met en évidence une sensibilité accrue comparée à une approche voxel par voxel. Nous présentons également deux autres applications utilisant des parcellisations, concernant la sélection de modèle régional et les études de connectivité fonctionnelle. Cette description permet en outre de proposer une solution au problème de l'analyse d'un groupe de sujets qui peuvent présenter une forte variabilité anatomique et fonctionnelle. Pour s'affranchir du délicat problème de mise en correspondance des différents sujets, nous avons présenté une parcellisation regroupant entre les sujets les régions homogènes du point de vue à la fois anatomique et fonctionnel. L'application de cette méthode sur un protocole fonctionnel montre sa robustesse pour les analyses multi-sujets.
Estilos ABNT, Harvard, Vancouver, APA, etc.
24

Girres, Jean-François, e Jean-François Girres. "Modèle d'estimation de l'imprécision des mesures géométriques de données géographiques". Phd thesis, Université Paris-Est, 2012. http://tel.archives-ouvertes.fr/tel-00809273.

Texto completo da fonte
Resumo:
De nombreuses applications SIG reposent sur des mesures de longueur ou de surface calculées à partir de la géométrie des objets d'une base de données géographiques (comme des calculs d'itinéraires routiers ou des cartes de densité de population par exemple). Cependant, aucune information relative à l'imprécision de ces mesures n'est aujourd'hui communiquée à l'utilisateur. En effet, la majorité des indicateurs de précision géométrique proposés porte sur les erreurs de positionnement des objets, mais pas sur les erreurs de mesure, pourtant très fréquentes. Dans ce contexte, ce travail de thèse cherche à mettre au point des méthodes d'estimation de l'imprécision des mesures géométriques de longueur et de surface, afin de renseigner un utilisateur dans une logique d'aide à la décision. Pour répondre à cet objectif, nous proposons un modèle permettant d'estimer les impacts de règles de représentation (projection cartographique, non-prise en compte du terrain, approximation polygonale des courbes) et de processus de production (erreur de pointé et généralisation cartographique) sur les mesures géométriques de longueur et de surface, en fonction des caractéristiques des données vectorielles évaluées et du terrain que ces données décrivent. Des méthodes d'acquisition des connaissances sur les données évaluées sont également proposées afin de faciliter le paramétrage du modèle par l'utilisateur. La combinaison des impacts pour produire une estimation globale de l'imprécision de mesure demeure un problème complexe et nous proposons des premières pistes de solutions pour encadrer au mieux cette erreur cumulée. Le modèle proposé est implémenté au sein du prototype EstIM (Estimation de l'Imprécision des Mesures)
Estilos ABNT, Harvard, Vancouver, APA, etc.
25

Girres, Jean-François. "Modèle d'estimation de l'imprécision des mesures géométriques de données géographiques". Thesis, Paris Est, 2012. http://www.theses.fr/2012PEST1080/document.

Texto completo da fonte
Resumo:
De nombreuses applications SIG reposent sur des mesures de longueur ou de surface calculées à partir de la géométrie des objets d'une base de données géographiques (comme des calculs d'itinéraires routiers ou des cartes de densité de population par exemple). Cependant, aucune information relative à l'imprécision de ces mesures n'est aujourd'hui communiquée à l'utilisateur. En effet, la majorité des indicateurs de précision géométrique proposés porte sur les erreurs de positionnement des objets, mais pas sur les erreurs de mesure, pourtant très fréquentes. Dans ce contexte, ce travail de thèse cherche à mettre au point des méthodes d'estimation de l'imprécision des mesures géométriques de longueur et de surface, afin de renseigner un utilisateur dans une logique d'aide à la décision. Pour répondre à cet objectif, nous proposons un modèle permettant d'estimer les impacts de règles de représentation (projection cartographique, non-prise en compte du terrain, approximation polygonale des courbes) et de processus de production (erreur de pointé et généralisation cartographique) sur les mesures géométriques de longueur et de surface, en fonction des caractéristiques des données vectorielles évaluées et du terrain que ces données décrivent. Des méthodes d'acquisition des connaissances sur les données évaluées sont également proposées afin de faciliter le paramétrage du modèle par l'utilisateur. La combinaison des impacts pour produire une estimation globale de l'imprécision de mesure demeure un problème complexe et nous proposons des premières pistes de solutions pour encadrer au mieux cette erreur cumulée. Le modèle proposé est implémenté au sein du prototype EstIM (Estimation de l'Imprécision des Mesures)
Many GIS applications are based on length and area measurements computed from the geometry of the objects of a geographic database (such as route planning or maps of population density, for example). However, no information concerning the imprecision of these measurements is now communicated to the final user. Indeed, most of the indicators on geometric quality focuses on positioning errors, but not on measurement errors, which are very frequent. In this context, this thesis seeks to develop methods for estimating the imprecision of geometric measurements of length and area, in order to inform a user for decision support. To achieve this objective, we propose a model to estimate the impacts of representation rules (cartographic projection, terrain, polygonal approximation of curves) and production processes (digitizing error, cartographic generalisation) on geometric measurements of length and area, according to the characteristics and the spatial context of the evaluated objects. Methods for acquiring knowledge about the evaluated data are also proposed to facilitate the parameterization of the model by the user. The combination of impacts to produce a global estimation of the imprecision of measurement is a complex problem, and we propose approaches to approximate the cumulated error bounds. The proposed model is implemented in the EstIM prototype (Estimation of the Imprecision of Measurements)
Estilos ABNT, Harvard, Vancouver, APA, etc.
26

Lehec, Joseph. "Inégalités géométriques et fonctionnelles". Phd thesis, Université Paris-Est, 2008. http://tel.archives-ouvertes.fr/tel-00365744.

Texto completo da fonte
Resumo:
La majeure partie de cette thèse est consacrée à l'inégalité de Blaschke-Santaló, qui s'énonce ainsi : parmi les ensembles symétriques, la boule euclidienne maximise le produit vol(K) vol(K°), K° désignant le polaire de K. Il existe des versions fonctionnelles de cette inégalité, découvertes par plusieurs auteurs (Ball, Artstein, Klartag, Milman, Fradelizi, Meyer. . .), mais elles sont toutes dérivées de l'inégalité ensembliste. L'objet de cette thèse est de proposer des démonstrations directes de ces inégalités fonctionnelles. On obtient ainsi de nouvelles preuves de l'inégalité de Santaló, parfois très simples. La dernière partie est un peu à part et concerne le chaos gaussien : on démontre une majoration précise des moments du chaos gaussien due à Lataªa par des arguments de chaînage à la Talagrand
Estilos ABNT, Harvard, Vancouver, APA, etc.
27

Frelin, Marcel. "Prévision des caractéristiques d'une turbine radiale à partir des données géométriques". Paris 6, 1991. http://www.theses.fr/1991PA066489.

Texto completo da fonte
Resumo:
Le but de cette recherche est de mettre a la disposition des bureaux d'etudes un moyen de predeterminer les courbes caracteristiques des turbines utilisees dans la suralimentation des moteurs a combustion interne. L'alimentation d'une turbine par les gaz d'echappement issus du moteur qui se trouvent encore a un niveau de temperature tres eleve entraine quelques difficultes. En effet l'experience a montre que l'hypothese d'adiabaticite generalement admise dans le domaine des turbomachines ne convenait plus tres bien. Il a donc fallu elaborer des lois de similitude et verifier leur validite par des essais. Des lors il est devenu possible de poursuivre cette recherche en utilisant de l'air dans des conditions ambiantes. Apres avoir etudie en particulier l'ecoulement dans la volute et modelise les pertes, on a pu controler la bonne concordance theorique et experimentale des courbes caracteristiques
Estilos ABNT, Harvard, Vancouver, APA, etc.
28

Foare, Marion. "Analyse d'images par des méthodes variationnelles et géométriques". Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM043/document.

Texto completo da fonte
Resumo:
Dans cette thèse, nous nous intéressons à la fois aux aspects théoriques et à la résolution numérique du problème de Mumford-Shah avec anisotropie pour la restauration et la segmentation d'image. Cette fonctionnelle possède en effet la particularité de reconstruire une image dégradée tout en extrayant l'ensemble des contours des régions d'intérêt au sein de l'image. Numériquement, on utilise l'approximation d'Ambrosio-Tortorelli pour approcher un minimiseur de la fonctionnelle de Mumford-Shah. Elle Gamma-converge vers cette dernière et permet elle aussi d'extraire les contours. Les implémentations avec des schémas aux différences finies ou aux éléments finis sont toutefois peu adaptées pour l'optimisation de la fonctionnelle d'Ambrosio-Tortorelli. On présente ainsi deux nouvelles formulations discrètes de la fonctionnelle d'Ambrosio-Tortorelli à l'aide des opérateurs et du formalisme du calcul discret. Ces approches sont utilisées pour la restauration d'images ainsi que pour le lissage du champ de normales et la détection de saillances des surfaces digitales de l'espace. Nous étudions aussi un second problème d'optimisation de forme similaire avec conditions aux bords de Robin. Nous démontrons dans un premier temps l'existence et la régularité partielle des solutions, et dans un second temps deux approximations par Gamma-convergence pour la résolution numérique du problème. L'analyse numérique montre une nouvelle fois les difficultés rencontrées pour la minimisation d'approximations par Gamma-convergence
In this work, we study both theoretical and numerical aspects of an anisotropic Mumford-Shah problem for image restoration and segmentation. The Mumford-Shah functional allows to both reconstruct a degraded image and extract the contours of the region of interest. Numerically, we use the Amborsio-Tortorelli approximation to approach a minimizer of the Mumford-Shah functional. It Gamma-converges to the Mumford-Shah functional and allows also to extract the contours. However, the minimization of the Ambrosio-Tortorelli functional using standard discretization schemes such as finite differences or finite elements leads to difficulties. We thus present two new discrete formulations of the Ambrosio-Tortorelli functional using the framework of discrete calculus. We use these approaches for image restoration and for the reconstruction of normal vector field and feature extraction on digital data. We finally study another similar shape optimization problem with Robin boundary conditions. We first prove existence and partial regularity of solutions and then construct and demonstrate the Gamma-convergence of two approximations. Numerical analysis shows once again the difficulties dealing with Gamma-convergent approximations
Estilos ABNT, Harvard, Vancouver, APA, etc.
29

Jeanne, Hadrien. "Langages géométriques et polycubes". Rouen, 2010. http://www.theses.fr/2010ROUES007.

Texto completo da fonte
Resumo:
Ce mémoire comporte deux parties. La première concerne l'étude des langages géométriques au moyen d'outils de la théorie des automates et de géométrie discrète. Un langage géométrique est composé de mots définis sur un alphabet de taille d, en utilisant les images de Parikh de l'ensemble des préfixes de ces mots. Ce qui définit une figure de dimension d. Dans la seconde partie, il est question de l'étude de polycubes de dimension 3. Il y est défini des extensions de certaines própriétés des polyominos en dimension 3. Cela permet de définir différentes classes de polycubes, les polycubes plateaux, s-dirigés et verticalement convexes s-dirigés. Une méthode d'énumération de polycubes dirigés, basée sur la décomposition par strates des polyominos de Temperley, est appliquée à ces classes de polycubes afin de donner leurs fonctions génératrices
This thesis falls into two parts. The first one is about the study of geometrical languages using formal languages and automata theory, as well as discrete geometry tools. A geometrical language is composed of words over an alphabet of size d, using the Parikh images of the set of prefixes of the words. Those images define a figure of dimension d. The second part refers to the study of 3-dimensional polycubes. We define 3-dimensional extensions of some properties of polyominoes. That allow us to define subclasses of polycubes : plateau polycubes, s-directed polycubes and vertically-convex s-directed polycubes. We define an enumeration method over directed polycubes, based on the strate decomposition of polyominoes defined by Temperley, and we use it in order to give the generating functions of the classes of polycubes defined above
Estilos ABNT, Harvard, Vancouver, APA, etc.
30

Bendjebla, Soumiya. "Traitements géométriques et fouille de données pour la reconnaissance d’entités d’usinage complexes". Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASN002.

Texto completo da fonte
Resumo:
Face à la concurrence et aux nouveaux enjeux industriels, la maitrise du savoir-faire industriel de la chaîne numérique support des activités de développement de produits de l’entreprise deviennent alors une nécessité pour raccourcir le temps d’industrialisation des produits tout en en assurant une meilleure qualité.Dans ce contexte, nous nous sommes intéressés dans cette thèse à la valorisation des données générées par la chaîne numérique pour la capitalisation des bonnes pratiques de conception de programmes d’usinage suivant une approche orientée entité. Nous avons ainsi identifié plusieurs problématiques liées à la caractérisation de l’entité d’usinage et l’exploitation des données de la chaîne numérique pour la structuration et réutilisation des données d’usinage dans le cas des formes complexes.Pour répondre à ces problématiques, une nouvelle caractérisation de l’entité d’usinage complexe multi-niveaux a été proposée. Cette approche se distingue par une structuration hiérarchique des données de la chaîne numérique et une mise en correspondance par niveau entre les données géométriques et les données d’usinage. Une analyse statistique est ensuite effectuée pour traiter et exploiter ces données. Une segmentation à base de la courbure et un clustering statistique des données d’usinage ont été combinés pour définir une nouvelle approche de segmentation technologique orientée région. Ces régions ont servi à caractériser l’entité d’usinage et assurer ainsi la réutilisation des données d’usinage entre les pièces similaires à travers une approche orientée entité et une autre orientée région basée sur la mesure de similarité. Enfin, une application de la démarche globale a été réalisée sur un cas industriel de pièce en aéronautique
In response to competition and new industrial challenges, companies are forced to be more and more efficient, productive and competitive. Managing industrial know-how and the data flow of the manufacturing digital chain must be explored in order to shorten the industrialisation time while ensuring better quality.In this context, this thesis focuses on digital chain data exploration for the capture of good practices in NC machining using a feature-based approach. Several issues related to machining feature characterisation and digital chain data exploitation for machining process knowledge reuse have been identified.To address these issues, a new characterization of multi-level complex machining feature has been proposed. The proposed approach is characterized by a hierarchical structuring of digital chain data and a mapping between the geometrical and machining data. A statistical analysis is then carried out to analyse and exploit this data. Curvature-based segmentation and statistical clustering of machining data were combined to define new machining regions based technological segmentation approach. These regions were then used to characterize the machining feature and thus ensure the reuse of machining data through a feature based and a region based approach exploiting similarity measures a similarity measure. Finally, the developed approach was applied on an industrial case in aeronautics
Estilos ABNT, Harvard, Vancouver, APA, etc.
31

Huet, Nolwen. "Inégalités géométriques pour des mesures long-concaves". Toulouse 3, 2009. http://thesesups.ups-tlse.fr/737/.

Texto completo da fonte
Resumo:
Dans la majeure partie de cette thèse, nous étudions des inégalités géométriques pour certaines mesures log-concaves. Nous donnons une preuve directe par semigroupe de l'inégalité de Brunn-Minkowski gaussienne dans le cas de plusieurs ensembles, avec une caractérisation des coefficients. La même méthode permet de retrouver les inégalités de Brascamp-Lieb et Brascamp Lieb inverse pour la mesure de Lebesgue. Nous démontrons ensuite une inégalité isopérimétrique avec constante universelle pour les mesures log-concaves isotropes dont la densité ne dépend que du rayon. Ce résultat améliore l'inégalité de Cheeger démontrée par Bobkov. Kannan, Lovász et Simonovits ont conjecturé que toute mesure log-concave isotrope vérifie l'inégalité de Cheeger avec constante universelle. Nous donnons de nouveaux exemples où cette conjecture est vérifiée, comme le cas de la mesure uniforme sur un convexe de révolution, et des méthodes pour en construire d'autres. La dernière partie concerne la propriété d'hypergroupe. Elle nous permet de décrire tous les noyaux markoviens admettant une famille prescrite de fonctions comme base de vecteurs propres. Elle est vérifiée sur les groupes finis, sur certaines bases de Sturm-Liouville et sur les polynômes de Jacobi
In most of this thesis, we study geometric inequalities for some log-concave measures. We give a streamlined semigroup proof of Gaussian Brunn-Minkowski inequality in the case of several sets, with a characterization of the coefficients. Our method also yields semigroup proofs of Brascamp-Lieb inequality and of its reverse form. Then, we show an isoperimetric inequality with a universal constant for isotropic log-concave measures whose density depends only on the radius. This result improves the Cheeger inequality proved by Bobkov. Kannan, Lovász et Simonovits conjectured that any isotropic log-concave measures satisfy a Cheeger inequality with a universal constant. We give new examples for which the conjecture comes true, as uniform measures on convex sets of revolution, and methods to construct other ones. The last part deal with the hypergroup property. It allows the description of all Markov kernels whose eigenvectors are given
Estilos ABNT, Harvard, Vancouver, APA, etc.
32

Marine, Cadoret. "Analyse factorielle de données de catégorisation. : Application aux données sensorielles". Rennes, Agrocampus Ouest, 2010. http://www.theses.fr/2010NSARG006.

Texto completo da fonte
Resumo:
En analyse sensorielle, les approches holistiques, dans lesquelles les objets sont considérés comme un tout, sont de plus en plus utilisées pour recueillir des données. Leur intérêt vient d'une part du fait qu'elles permettent d'acquérir d'autres types d'informations que celles obtenues par les méthodes de profil classiques et d'autre part du fait qu'elles ne demandent aucune compétence particulière, ce qui les rend réalisable par tous types de sujets. La catégorisation (ou tri libre) dans laquelle la tâche demandée aux sujets est de fournir une partition des objets, fait partie de ces approches. Cette thèse se concentre dans une première partie sur les données de catégorisation. Après avoir vu que cette méthode de recueil de données est pertinente, nous nous intéressons au traitement statistique de ces données à travers la recherche de représentations euclidiennes. La méthodologie proposée qui consiste à utiliser des méthodes factorielles telles que l'Analyse des Correspondances Multiple (ACM) ou l'Analyse Factorielle Multiple (AFM) est également enrichie d'éléments de validité. Cette méthodologie est ensuite illustrée par l'analyse de deux jeux de données obtenus à partir de bières d'une part et de parfums d'autre part. La deuxième partie est consacrée à l'étude de deux modes de recueil de données liés à la catégorisation : le Napping® catégorisé et le tri hiérarchique. Pour ces deux recueils, nous nous intéressons également au traitement des données en adoptant une démarche similaire à celle utilisée pour les données de catégorisation. Enfin, la dernière partie est consacrée à l'implémentation dans le logiciel R de différentes fonctions permettant de traiter les trois types de données que sont les données issues de catégorisation, Napping® catégorisé et tri hiérarchique
In sensory analysis, holistic approaches in which objects are considered as a whole are increasingly used to collect data. Their interest comes on a one hand from their ability to acquire other types of information as the one obtained by traditional profiling methods and on the other hand from the fact they require no special skills, which makes them feasible by all subjects. Categorization (or free sorting), in which subjects are asked to provide a partition of objects, belongs to these approaches. The first part of this work focuses on categorization data. After seeing that this method of data collection is relevant, we focus on the statistical analysis of these data through the research of Euclidean representations. The proposed methodology which consists in using factorial methods such as Multiple Correspondence Analysis (MCA) or Multiple Factor Analysis (MFA) is also enriched with elements of validity. This methodology is then illustrated by the analysis of two data sets obtained from beers on a one hand and perfumes on the other hand. The second part is devoted to the study of two data collection methods related to categorization: sorted Napping® and hierarchical sorting. For both data collections, we are also interested in statistical analysis by adopting an approach similar to the one used for categorization data. The last part is devoted to the implementation in the R software of functions to analyze the three kinds of data that are categorization data, hierarchical sorting data and sorted Napping® data
Estilos ABNT, Harvard, Vancouver, APA, etc.
33

Astart, Laurent. "Représentation de surfaces ayant une structure arborescente par un modèle paramétrique". Aix-Marseille 2, 2004. http://www.theses.fr/2004AIX22003.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
34

Canivet, Yvain. "Analyse entropique et exergétique des systèmes énergétiques par des représentations géométriques". Thesis, Paris 10, 2017. http://www.theses.fr/2017PA100141/document.

Texto completo da fonte
Resumo:
À l’heure de la prise de conscience de la finitude des ressources et du besoin grandissant d'énergie, la notion de développement durable doit prendre une place centrale dans l'évolution de la société. Pour atteindre ce but, il est maintenant reconnu, qu'un changement de consommation profond est nécessaire ; et ce, qu'il s'agisse de consommation énergétique, alimentaire ou de produits finis. Nous croyons que ce changement de paradigme n’est possible que si tous les acteurs avancent de concerts sur les différentes problématiques auxquelles nous sommes confrontées. Chacun à son échelle doit ainsi pouvoir prendre les décisions qui s'imposent à tous. C'est la logique qui a motivé l'outil d'exergo-graphie présenté dans le chapitre 3. Inscrit dans la lignée des diagrammes de Sankey, il permet de représenter les bilans exergétiques sous forme graphique afin d’en communiquer plus facilement les enseignements. Nous l’appliquons à deux cas d'analyses faites sur les installations de chauffage et de production d’ECS du bâtiment A de l’UPN. Pour chacune, nous étudions la possibilité d’une solution de production durable de la chaleur (PAC géothermique et solaire thermique). Après en avoir présenté les analyses, nous en dressons les représentations graphiques que nous comparons à celles du système actuel. Au préalable, le chapitre 1 introduit les concepts de base de l’analyse exergétique, approfondis dans le chapitre 2, au travers d’une modélisation des systèmes fluides statiques et dynamiques. Finalement, dans le chapitre 4, nous introduisons un modèle-jouet qui, proposant une représentation fractale de la chaleur, tente d’établir un lien conceptuel entre le comportement microscopique, statistique, du support de la chaleur, et les observables macroscopiques qui la caractérisent
At this time of awareness of the finiteness of resources, and of increasing needs for energy, the concept of sustainable development must play a central role in the forthcoming developments of our society. To do so, it is now an accepted fact that a deep change of our consumption habits is necessary; whether it is energy, food or final goods consumption. We believe this paradigm shift is only possible if all actors face together the various issues we are dealing with. Everyone, at one own scale, must be able to make informed decision. This is the idea that leads to the exergo-graphy tool presented in chapter 3. In line with the so called Sankey diagrams, it allows to graphically represent exergy balances in order to communicate more easily on their lessons. We apply it to two analysis done on the heating and DHW installations of the building A of the UPN. For each, we investigate the possibility of a sustainable heat production solution (geothermal heat pump and solar thermal energy). After presenting the analyses, we draw their graphical representations which we then compare to those of the current system. Beforehand, the first chapter introduces the basic notions of exergetic analysis, discussed further in chapter 2, through a model for static and dynamic fluid systems. Finally, in chapter 4, we introduce a toy-model which, proposing a fractal representation of exergy, tries to establish a conceptual link between microscopic, statistical, behaviour of heat background support, and the macroscopic observables that characterize it
Estilos ABNT, Harvard, Vancouver, APA, etc.
35

Vilmart, Gilles. "Étude d’intégrateurs géométriques pour des équations différentielles". Rennes 1, 2008. ftp://ftp.irisa.fr/techreports/theses/2008/vilmart.pdf.

Texto completo da fonte
Resumo:
Le sujet de la thèse est l'étude et la construction de méthodes numériques géométriques pour les équations différentielles, qui préservent des propriétés géométriques du flot exact, notamment la symétrie, la symplecticité des systèmes hamiltoniens, la conservation d'intégrales premières, la structure de Poisson, etc. . . Dans la première partie, on introduit une nouvelle approche de construction d'intégrateurs numériques géométriques d'ordre élevé en s'inspirant de la théorie des équations différentielles modifiées. Le cas des méthodes développables en B-séries est spécifiquement analysé et on introduit une nouvelle loi de composition sur les B-séries. L'efficacité de cette approche est illustrée par la construction d'un nouvel intégrateur géométrique d'ordre élevé pour les équations du mouvement d'un corps rigide. On obtient également une méthode numérique précise pour le calcul de points conjugués pour les géodésiques du corps rigide. Dans la seconde partie, on étudie dans quelle mesure les excellentes performances des méthodes symplectiques, pour l'intégration à long terme en astronomie et en dynamique moléculaire, persistent pour les problèmes de contrôle optimal. On discute également l’extension de la théorie des équations modifiées aux problèmes de contrôle optimal. Dans le même esprit que les équations modifiées, on considère dans la dernière partie des méthodes de pas fractionnaire (splitting) pour les systèmes hamiltoniens perturbés, utilisant des potentiels modifiés. On termine par la construction de méthodes de splitting d'ordre élevé avec temps complexes pour les équations aux dérivées partielles paraboliques, notamment les problèmes de réaction-diffusion en chimie
The aim of the work described in this thesis is the construction and the study of structure-preserving numerical integrators for differential equations, which share some geometric properties of the exact flow, for instance symmetry, symplecticity of Hamiltonian systems, preservation of first integrals, Poisson structure, etc. . . In the first part, we introduce a new approach to high-order structure-preserving numerical integrators, inspired by the theory of modified equations (backward error analysis). We focus on the class of B-series methods for which a new composition law called substitution law is introduced. This approach is illustrated with the derivation of the Preprocessed Discrete Moser-Veselov algorithm, an efficient and high-order geometric integrator for the motion of a rigid body. We also obtain an accurate integrator for the computation of conjugate points in rigid body geodesics. In the second part, we study to which extent the excellent performance of symplectic integrators for long-time integrations in astronomy and molecular dynamics carries over to problems in optimal control. We also discuss whether the theory of backward error analysis can be extended to symplectic integrators for optimal control. The third part is devoted to splitting methods. In the spirit of modified equations, we consider splitting methods for perturbed Hamiltonian systems that involve modified potentials. Finally, we construct splitting methods involving complex coefficients for parabolic partial differential equations with special attention to reaction-diffusion problems in chemistry
Estilos ABNT, Harvard, Vancouver, APA, etc.
36

Leboucher, Julien. "Développement et évaluation de méthodes d'estimation des masses segmentaires basées sur des données géométriques et sur les forces externes : comparaison de modèles anthropométriques et géométriques". Valenciennes, 2007. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/e2504d99-e61b-4455-8bb3-2c47771ac853.

Texto completo da fonte
Resumo:
L’utilisation de paramètres inertiels segmentaires proches de la réalité est primordiale à l’obtention de données cinétiques fiables lors de l’analyse du mouvement humain. Le corps humain est modélisé en un nombre variable de solides, considérés indéformables, dans la grande majorité des études du mouvement. Ce travail de recherche a pour but de mettre en œuvre et de tester deux méthodes d’estimation des masses de ces solides appelés segments. Ces deux méthodes sont basées sur le principe d’équilibre statique d’un ensemble de solides rigides. La première a pour objectif la prédiction des masses des membres en se servant des distances parcourues par le centre de masse du membre et le centre de pression, projection horizontale du centre de gravité du sujet, entre deux positions considérées statiques. Le rapport de ces distances étant le même que celui des masses du membre considéré et du corps entier, la connaissance de cette dernière nous permet d’estimer la masse du membre. La seconde méthode a pour but d’estimer simultanément les masses relatives de tous les segments du modèle par résolution de l’équation d’équilibre statique en faisant l’hypothèse que le centre de pression est le barycentre de l’ensemble et d’après l’estimation des positions des centres de masse segmentaires. La démarche expérimentale innovante présentée dans cette thèse consiste en le transfert des centres de masse segmentaires issus d’une méthode anthropométrique géométrique et en leur utilisation en conjonction avec des méthodes usuelles en analyse du mouvement humain afin d’obtenir les masses segmentaires du sujet. La méthode d’estimation des masses des membres donne de bons résultats en comparaison de ceux obtenus grâce aux modèles issus de la littérature en ce qui concerne la prédiction de la position du centre de pression a posteriori. Une partie des causes de l’échec de la seconde sont évaluées à travers l’étude de l’effet de l’incertitude sur la position du centre de pression
Use of body segment parameters close to reality is of the utmost importance in order to obtain reliable kinetics during human motion analysis. Human body is modeled as a various number of solids in the majority of human movement studies. This research aims at developing and testing two methods for the estimation of these solid masses, also known as segment masses. Both methods are based on the static equilibrium principle for several solids. The first method’s goal is to provide with limb masses using total limb centre of mass and centre of pressure, projection on the horizontal plane of the total subject’s body centre of gravity, displacements. Ratio between these displacement being the same as the ratio of limb and total body masses, the knowledge of the latter allows for the calculation of the former. The second method aims at estimation all segment masses simultaneously by resolving series of static equilibrium equations, making the same assumption that centre of pressure is total body centre of mass projection and using segment centre of mass estimations. Interest of the new methods used in this research is due to the use of individual segment centre of mass estimations using a geometrical model together with material routinely utilized in human motion analysis in order to obtain estimates of body segment masses. Limb mass estimations method performs better predicting a posteriori center of mass displacement when compared to other methods. Some of the potential causes of the second method’s failure have been investigated through the study of centre of pressure location uncertainty
Estilos ABNT, Harvard, Vancouver, APA, etc.
37

Gomes, Da Silva Alzennyr. "Analyse des données évolutives : application aux données d'usage du Web". Phd thesis, Université Paris Dauphine - Paris IX, 2009. http://tel.archives-ouvertes.fr/tel-00445501.

Texto completo da fonte
Resumo:
Le nombre d'accès aux pages Web ne cesse de croître. Le Web est devenu l'une des plates-formes les plus répandues pour la diffusion et la recherche d'information. Par conséquence, beaucoup d'opérateurs de sites Web sont incités à analyser l'usage de leurs sites afin d'améliorer leur réponse vis-à-vis des attentes des internautes. Or, la manière dont un site Web est visité peut changer en fonction de divers facteurs. Les modèles d'usage doivent ainsi être mis à jour continuellement afin de refléter fidèlement le comportement des visiteurs. Ceci reste difficile quand la dimension temporelle est négligée ou simplement introduite comme un attribut numérique additionnel dans la description des données. C'est précisément sur cet aspect que se focalise la présente thèse. Pour pallier le problème d'acquisition des données réelles d'usage, nous proposons une méthodologie pour la génération automatique des données artificielles permettant la simulation des changements. Guidés par les pistes nées des analyses exploratoires, nous proposons une nouvelle approche basée sur des fenêtres non recouvrantes pour la détection et le suivi des changements sur des données évolutives. Cette approche caractérise le type de changement subi par les groupes de comportement (apparition, disparition, fusion, scission) et applique deux indices de validation basés sur l'extension de la classification pour mesurer le niveau des changements repérés à chaque pas de temps. Notre approche est totalement indépendante de la méthode de classification et peut être appliquée sur différents types de données autres que les données d'usage. Des expérimentations sur des données artificielles ainsi que sur des données réelles issues de différents domaines (académique, tourisme et marketing) ont été réalisées pour l'évaluer l'efficacité de l'approche proposée.
Estilos ABNT, Harvard, Vancouver, APA, etc.
38

Gomes, da Silva Alzennyr. "Analyse des données évolutives : Application aux données d'usage du Web". Paris 9, 2009. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2009PA090047.

Texto completo da fonte
Resumo:
Le nombre d'accès aux pages Web ne cesse de croître. Le Web est devenu l'une des plates-formes les plus répandues pour la diffusion et la recherche d'information. Par conséquence, beaucoup d'opérateurs de sites Web sont incités à analyser l'usage de leurs sites afin d'améliorer leur réponse vis-à-vis des attentes des internautes. Or, la manière dont un site Web est visité peut changer en fonction de divers facteurs. Les modèles d'usage doivent ainsi être mis à jour continuellement afin de refléter fidèlement le comportement des visiteurs. Ceci reste difficile quand la dimension temporelle est négligée ou simplement introduite comme un attribut numérique additionnel dans la description des données. C'est précisément sur cet aspect que se focalise la présente thèse. Pour pallier le problème d'acquisition des données réelles d'usage, nous proposons une méthodologie pour la génération automatique des données artificielles permettant la simulation des changements. Guidés par les pistes nées des analyses exploratoires, nous proposons une nouvelle approche basée sur des fenêtres non recouvrantes pour la détection et le suivi des changements sur des données évolutives. Cette approche caractérise le type de changement subi par les groupes de comportement (apparition, disparition, fusion, scission) et applique deux indices de validation basés sur l'extension de la classification pour mesurer le niveau des changements repérés à chaque pas de temps. Notre approche est totalement indépendante de la méthode de classification et peut être appliquée sur différents types de données autres que les données d'usage. Des expérimentations sur des données artificielles ainsi que sur des données réelles issues de différents domaines (académique, tourisme, commerce électronique et marketing) ont été réalisées pour l'évaluer l'efficacité de l'approche proposée
Nowadays, more and more organizations are becoming reliant on the Internet. The Web has become one of the most widespread platforms for information change and retrieval. The growing number of traces left behind user transactions (e. G. : customer purchases, user sessions, etc. ) automatically increases the importance of usage data analysis. Indeed, the way in which a web site is visited can change over time. These changes can be related to some temporal factors (day of the week, seasonality, periods of special offer, etc. ). By consequence, the usage models must be continuously updated in order to reflect the current behaviour of the visitors. Such a task remains difficult when the temporal dimension is ignored or simply introduced into the data description as a numeric attribute. It is precisely on this challenge that the present thesis is focused. In order to deal with the problem of acquisition of real usage data, we propose a methodology for the automatic generation of artificial usage data over which one can control the occurrence of changes and thus, analyse the efficiency of a change detection system. Guided by tracks born of some exploratory analyzes, we propose a tilted window approach for detecting and following-up changes on evolving usage data. In order measure the level of changes, this approach applies two external evaluation indices based on the clustering extension. The proposed approach also characterizes the changes undergone by the usage groups (e. G. Appearance, disappearance, fusion and split) at each timestamp. Moreover, the refereed approach is totally independent of the clustering method used and is able to manage different kinds of data other than usage data. The effectiveness of this approach is evaluated on artificial data sets of different degrees of complexity and also on real data sets from different domains (academic, tourism, e-business and marketing)
Estilos ABNT, Harvard, Vancouver, APA, etc.
39

Ghazo, Hanna Zeina. "Cycles combinatoires et géométriques". Thesis, Brest, 2020. http://www.theses.fr/2020BRES0006.

Texto completo da fonte
Resumo:
Le travail de cette thèse se situe dans les domaines de la théorie combinatoire des graphes, la combinatoire algébrique et la géométrie discrète. D'un part, il concerne l'énumération des chemins et cycles Hamiltoniens de type donné dans un tournoi ; de l'autre part, il étudie des suites numériques vérifiant une équation à différence quadratique. Parmi les résultats obtenus dans la première partie, on trouve : une égalité entre le nombre des chemins (resp. cycles) Hamiltoniens d’un type donné dans un tournoi et dans son complément; une expression du nombre de chemins Hamiltoniens d’un type donné pour un tournoi transitif en termes d'une fonction récursive F appelée « path-function »; la construction d'un algorithme pour le calcul de F. L'objet fondamental dans la deuxième partie est un graphe cyclique muni d'une solution d'une équation à différence quadratique. Un paramètre de cette équation distingue les solutions réelles et les solutions complexes. Une correspondance entre les solutions réelles et une classe de polynômes à coefficients entiers positifs est établie. Pour compléter la correspondance, les digraphes Eulériens à un pas interviennent. Une solution complexe détermine une marche fermée dans le plan pour laquelle à chaque pas on tourne à gauche ou à droite par un angle constant (l'angle tournant). Cette fois-ci les polynômes cyclotomiques jouent un rôle important. La caractérisation des polynômes qui déterminent de telles suites est un problème qu’on surmonte afin d'élucider des propriétés géométriques de tels cycles polygonaux. Notamment, lorsque la marche exploite les côtés d'un polygone régulier avec angle extérieur 2π/n, on trouve des phénomènes non anticipés lorsque n≥12
The work in this thesis concerns the combinatorial theory of graphs, algebraic combinatorics and discrete geometry. On one side, it is about enumerating Hamiltonian paths and cycles of a given type in a tournament; On the other side, it studies numerical sequences verifying a quadratic difference equation.Concerning the results of the first part, we find: an equality between the number of Hamiltonians paths (resp. cycles) of a given type, in a tournament and its complement; an expression of the number of Hamiltonian oriented paths of a given type in a transitive tournament in terms of a recursive function F called the « path-function »; and the construction of an algorithm to compute F.In the second part of the work, we study cyclic graphs altogether with a solution to a quadratic difference equation.A parameter of this equation distinguishes real and complex sequences. A correspondence between real solutions and a class of polynomials with positive integer coefficients is established. To complete the correspondence, 1-step Eulerian digraphs interfere. A complex solution determines a closed planar walk in the plane, for which at each step we turn either left or right by a constant angle (the turning angle). This time, cyclotomic polynomials play a major role. Characterizing polynomials that determine such a solution is a problem that we study to the end of finding geometric properties of such polygonal cycles.When the walk exploits the sides of a regular polygon with exterior angle 2 π/n, we find unexpected phenomena when n≥ 12
Estilos ABNT, Harvard, Vancouver, APA, etc.
40

Pino, Laurent. "Modélisation et analyse cinématique des tolérances géométriques pour l'assemblage de systèmes mécaniques". Phd thesis, Université de Nantes, 2000. http://tel.archives-ouvertes.fr/tel-00534108.

Texto completo da fonte
Resumo:
Ce travail a pour objet la modélisation et l'analyse de tolérances géométriques pour l'assemblage. Après une présentation des spécifications générales de tolérancement utilisées pour la définition d'assemblages. Nous montrons que l'analyse des effets des modificateurs de tolérances nécessite de prendre en compte les différents états de l'ensemble des zones de la chaîne de tolérance. Cette prise en compte peut être faite en analysant la cinématique induite par les modificateurs. Une généralisation du modèle cinématique de tolérances est proposée pour traiter le transfert de tolérances, le contrôle des pièces et l'analyse d'assemblages. Pour analyser les effets des tolérances géométriques, nous proposons deux nouvelles méthodes analytiques pour calculer l'union et l'intersection des mouvements d'une zone de tolérance. Ces calculs prennent en compte les variations permises des tolérances de la chaîne et peuvent être utilisés pour le transfert de tolérances. L'étude des chaînes de tolérances a été étendue à la vérification de la conformité de pièces fabriquées. Nous proposons une nouvelle méthode de vérification des pièces comportant des tolérances de localisation au maximum de matière. Cette méthode prend en compte la possibilité de rotation du référentiel induite par les modificateurs de référence. Elle permet de simuler le mouvement du calibre de contrôle dans la pièce fabriquée. Dans le cas de groupe d'entités, elle permet de déterminer les entités conformes aux spécifications et de calculer la valeur effective des tolérances de localisation. Pour effectuer l'analyse d'assemblages, nous avons proposé une méthode permettant de calculer une pièce virtuelle et une pièce résultante d'une pièce donnée. Le calcul de ces deux pièces est une étape primordiale pour vérifier le tolérancement d'un assemblage variationnel. La modélisation cinématique proposée est donc un outil unifié pour l'analyse de tolérances géométriques en conception, en fabrication et en contrôle.
Estilos ABNT, Harvard, Vancouver, APA, etc.
41

Vieilleville, François de. "Analyse des parties linéaires des objets discrets et estimateurs de caractéristiques géométriques". Bordeaux 1, 2007. http://www.theses.fr/2007BOR13405.

Texto completo da fonte
Resumo:
Cette thèse s'inscrit dans le cadre de la géométrie discrète et étudie plus particulièrement le comportement des parties linéaires sur les discrétisés de formes euclidiennes en dimension deux. Pour analyser précisément ce comportement nous utiliserons de façon complémentaire l'approche issue de la géométrie arithmétique et une description combinatoire des mots de Christoffel basée sur les fractions continues. Nous montrerons ainsi de nombreux liens entre la convexité (des formes euclidiennes et des formes discrètes) et une classe de parties linéaires : les segments maximaux. Sur un polygone convexe discret, la nature de ces relations s'exprimera principalement par des contraintes sur les longueurs et le nombre de ses arêtes. En asymptotique sur les discrétisés de formes euclidiennes, ces relations serons exprimés en fonction du pas de la grille. Ces résultats permettront l'étude du comportement asymptotique d'estimateurs géométriques locaux discrets, notamment la convergence multi-grille d'un estimateur de tangente basé sur les segments maximaux. L'estimation de la tangente sur tous les points de la courbe discrète est en temps linéaire grâce à des algorithmes optimaux et incrémentaux issus de la géométrie arithmétique.
Estilos ABNT, Harvard, Vancouver, APA, etc.
42

Zhu, Zuowei. "Modèles géométriques avec defauts pour la fabrication additive". Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLN021/document.

Texto completo da fonte
Resumo:
Les différentes étapes et processus de la fabrication additive (FA) induisent des erreurs de sources multiples et complexes qui soulèvent des problèmes majeurs au niveau de la qualité géométrique du produit fabriqué. Par conséquent, une modélisation effective des écarts géométriques est essentielle pour la FA. Le paradigme Skin Model Shapes (SMS) offre un cadre intégral pour la modélisation des écarts géométriques des produits manufacturés et constitue ainsi une solution efficace pour la modélisation des écarts géométriques en FA.Dans cette thèse, compte tenu de la spécificité de fabrication par couche en FA, un nouveau cadre de modélisation à base de SMS est proposé pour caractériser les écarts géométriques en FA en combinant une approche dans le plan et une approche hors plan. La modélisation des écarts dans le plan vise à capturer la variabilité de la forme 2D de chaque couche. Une méthode de transformation des formes est proposée et qui consiste à représenter les effets de variations sous la forme de transformations affines appliquées à la forme nominale. Un modèle paramétrique des écarts est alors établi dans un système de coordonnées polaires, quelle que soit la complexité de la forme. Ce modèle est par la suite enrichi par un apprentissage statistique permettant la collecte simultanée de données des écarts de formes multiples et l'amélioration des performances de la méthode.La modélisation des écarts hors plan est réalisée par la déformation de la couche dans la direction de fabrication. La modélisation des écarts hors plan est effectuée à l'aide d'une méthode orientée données. Sur la base des données des écarts obtenues à partir de simulations par éléments finis, deux méthodes d'analyse modale: la transformée en cosinus discrète (DCT) et l'analyse statistique des formes (SSA) sont exploitées. De plus, les effets des paramètres des pièces et des procédés sur les modes identifiés sont caractérisés par le biais d'un modèle à base de processus Gaussien.Les méthodes présentées sont finalement utilisées pour obtenir des SMSs haute-fidélité pour la fabrication additive en déformant les contours de la couche nominale avec les écarts prédits et en reconstruisant le modèle de surface non idéale complet à partir de ces contours déformés. Une toolbox est développée dans l'environnement MATLAB pour démontrer l'efficacité des méthodes proposées
The intricate error sources within different stages of the Additive Manufacturing (AM) process have brought about major issues regarding the dimensional and geometrical accuracy of the manufactured product. Therefore, effective modeling of the geometric deviations is critical for AM. The Skin Model Shapes (SMS) paradigm offers a comprehensive framework aiming at addressing the deviation modeling problem at different stages of product lifecycle, and is thus a promising solution for deviation modeling in AM. In this thesis, considering the layer-wise characteristic of AM, a new SMS framework is proposed which characterizes the deviations in AM with in-plane and out-of-plane perspectives. The modeling of in-plane deviation aims at capturing the variability of the 2D shape of each layer. A shape transformation perspective is proposed which maps the variational effects of deviation sources into affine transformations of the nominal shape. With this assumption, a parametric deviation model is established based on the Polar Coordinate System which manages to capture deviation patterns regardless of the shape complexity. This model is further enhanced with a statistical learning capability to simultaneously learn from deviation data of multiple shapes and improve the performance on all shapes.Out-of-plane deviation is defined as the deformation of layer in the build direction. A layer-level investigation of out-of-plane deviation is conducted with a data-driven method. Based on the deviation data collected from a number of Finite Element simulations, two modal analysis methods, Discrete Cosine Transform (DCT) and Statistical Shape Analysis (SSA), are adopted to identify the most significant deviation modes in the layer-wise data. The effect of part and process parameters on the identified modes is further characterized with a Gaussian Process (GP) model. The discussed methods are finally used to obtain high-fidelity SMSs of AM products by deforming the nominal layer contours with predicted deviations and rebuilding the complete non-ideal surface model from the deformed contours. A toolbox is developed in the MATLAB environment to demonstrate the effectiveness of the proposed methods
Estilos ABNT, Harvard, Vancouver, APA, etc.
43

Peng, Tao. "Analyse de données loT en flux". Electronic Thesis or Diss., Aix-Marseille, 2021. http://www.theses.fr/2021AIXM0649.

Texto completo da fonte
Resumo:
Depuis l'avènement de l'IoT (Internet of Things), nous assistons à une augmentation sans précédent du volume des données générées par des capteurs. Pour l'imputation des données manquantes d'un capteur f, nous proposons le modèle ISTM (Incremental Space-Time Model), qui utilise la régression linéaire multiple incrémentale adaptée aux données en flux non-stationnaires. ISTM met à jour son modèle en sélectionnant : 1) les données des capteurs voisins géographiquement du capteur f, et 2) les données les plus récentes retournées par f. Pour mesurer la confiance, nous proposons un modèle générique de prédiction DTOM (Data Trustworthiness Online Model) qui s'appuie sur des méthodes ensemblistes de régression en ligne comme AddExp et BNNRW . DTOM permet de prédire des valeurs de confiance en temps réel et comporte trois phases : 1) une phase d'initialisation du modèle, 2) une phase d'estimation du score de confiance, et 3) une phase de mise à jour heuristique du régresseur. Enfin, nous nous intéressons à la prédiction dans une STS avec des sorties multiples en présence de déséquilibre, c'est à dire lorsqu'il y a plus d'instances dans un intervalle de valeurs que dans un autre. Nous proposons MORSTS, une méthode de régression ensembliste en ligne, avec les caractéristiques suivantes : 1) les sous-modèles sont à sorties multiples, 2) l'utilisation de la stratégie sensible aux coûts c'est à dire que l'instance incorrectement prédite a un poids plus élevé, et 3) le contrôle du sur-apprentissage des sous-modèles naissants par la méthode de validation croisée k-fold. Des expérimentations avec des données réelles ont été effectuées et comparées avec des techniques connues
Since the advent of the IoT (Internet of Things), we have witnessed an unprecedented growth in the amount of data generated by sensors. To exploit this data, we first need to model it, and then we need to develop analytical algorithms to process it. For the imputation of missing data from a sensor f, we propose ISTM (Incremental Space-Time Model), an incremental multiple linear regression model adapted to non-stationary data streams. ISTM updates its model by selecting: 1) data from sensors located in the neighborhood of f, and 2) the near-past most recent data gathered from f. To evaluate data trustworthiness, we propose DTOM (Data Trustworthiness Online Model), a prediction model that relies on online regression ensemble methods such as AddExp (Additive Expert) and BNNRW (Bagging NNRW) for assigning a trust score in real time. DTOM consists: 1) an initialization phase, 2) an estimation phase, and 3) a heuristic update phase. Finally, we are interested predicting multiple outputs STS in presence of imbalanced data, i.e. when there are more instances in one value interval than in another. We propose MORSTS, an online regression ensemble method, with specific features: 1) the sub-models are multiple output, 2) adoption of a cost sensitive strategy i.e. the incorrectly predicted instance has a higher weight, and 3) management of over-fitting by means of k-fold cross-validation. Experimentation with with real data has been conducted and the results were compared with reknown techniques
Estilos ABNT, Harvard, Vancouver, APA, etc.
44

Sibony, Eric. "Analyse mustirésolution de données de classements". Thesis, Paris, ENST, 2016. http://www.theses.fr/2016ENST0036/document.

Texto completo da fonte
Resumo:
Cette thèse introduit un cadre d’analyse multirésolution pour les données de classements. Initiée au 18e siècle dans le contexte d’élections, l’analyse des données de classements a attiré un intérêt majeur dans de nombreux domaines de la littérature scientifique : psychométrie, statistiques, économie, recherche opérationnelle, apprentissage automatique ou choix social computationel entre autres. Elle a de plus été revitalisée par des applications modernes comme les systèmes de recommandation, où le but est d’inférer les préférences des utilisateurs pour leur proposer les meilleures suggestions personnalisées. Dans ces contextes, les utilisateurs expriment leurs préférences seulement sur des petits sous-ensembles d’objets variant au sein d’un large catalogue. L’analyse de tels classements incomplets pose cependant un défi important, tant du point de vue statistique que computationnel, poussant les acteurs industriels à utiliser des méthodes qui n’exploitent qu’une partie de l’information disponible. Cette thèse introduit une nouvelle représentation pour les données, qui surmonte par construction ce double défi. Bien qu’elle repose sur des résultats de combinatoire et de topologie algébrique, ses nombreuses analogies avec l’analyse multirésolution en font un cadre naturel et efficace pour l’analyse des classements incomplets. Ne faisant aucune hypothèse sur les données, elle mène déjà à des estimateurs au-delà de l’état-de-l’art pour des petits catalogues d’objets et peut être combinée avec de nombreuses procédures de régularisation pour des larges catalogues. Pour toutes ces raisons, nous croyons que cette représentation multirésolution ouvre la voie à de nombreux développements et applications futurs
This thesis introduces a multiresolution analysis framework for ranking data. Initiated in the 18th century in the context of elections, the analysis of ranking data has attracted a major interest in many fields of the scientific literature : psychometry, statistics, economics, operations research, machine learning or computational social choice among others. It has been even more revitalized by modern applications such as recommender systems, where the goal is to infer users preferences in order to make them the best personalized suggestions. In these settings, users express their preferences only on small and varying subsets of a large catalog of items. The analysis of such incomplete rankings poses however both a great statistical and computational challenge, leading industrial actors to use methods that only exploit a fraction of available information. This thesis introduces a new representation for the data, which by construction overcomes the two aforementioned challenges. Though it relies on results from combinatorics and algebraic topology, it shares several analogies with multiresolution analysis, offering a natural and efficient framework for the analysis of incomplete rankings. As it does not involve any assumption on the data, it already leads to overperforming estimators in small-scale settings and can be combined with many regularization procedures for large-scale settings. For all those reasons, we believe that this multiresolution representation paves the way for a wide range of future developments and applications
Estilos ABNT, Harvard, Vancouver, APA, etc.
45

Vidal, Jules. "Progressivité en analyse topologique de données". Electronic Thesis or Diss., Sorbonne université, 2021. http://www.theses.fr/2021SORUS398.

Texto completo da fonte
Resumo:
L’analyse topologique de donnés permet l’extraction générique et efficace de caractéristiques structurelles dans les données. Cependant, bien que ces techniques aient des complexités asymptotiques connues et raisonnables elles sont rarement interactives en pratique sur des jeux de données réels. Dans cette thèse, nous avons cherché à développer des méthodes progressives pour l’analyse topologique de données scalaires scientifiques, qui peuvent être interrompues pour fournir rapidement un résultat approché exploitable, et sont capables de l’affiner ensuite. Nous introduisons deux algorithmes progressifs pour le calcul des points critiques et du diagramme de persistance d’un champ scalaire. Ensuite, nous revisitons ce cadre progressif pour introduire un algorithme pour le calcul approché du diagramme de persistance d’un champ scalaire, avec des garanties sur l’erreur d’approximation associée. Enfin, afin d’effectuer une analyse visuelle de données d’ensemble, nous présentons un nouvel algorithme progressif pour le calcul du barycentre de Wasserstein d’un ensemble de diagrammes de persistance, une tâche notoirement coûteuse en calcul. Notre approche progressive permet d’approcher le barycentre de manière interactive. Nous étendons cette méthode à un algorithme de classification topologique de données d’ensemble, qui est progressif et capable de respecter une contrainte de temps
Topological Data Analysis (TDA) forms a collection of tools that enable the generic and efficient extraction of features in data. However, although most TDA algorithms have practicable asymptotic complexities, these methods are rarely interactive on real-life datasets, which limits their usability for interactive data analysis and visualization. In this thesis, we aimed at developing progressive methods for the TDA of scientific scalar data, that can be interrupted to swiftly provide a meaningful approximate output and that are able to refine it otherwise. First, we introduce two progressive algorithms for the computation of the critical points and the extremum-saddle persistence diagram of a scalar field. Next, we revisit this progressive framework to introduce an approximation algorithm for the persistence diagram of a scalar field, with strong guarantees on the related approximation error. Finally, in a effort to perform visual analysis of ensemble data, we present a novel progressive algorithm for the computation of the discrete Wasserstein barycenter of a set of persistence diagrams, a notoriously computationally intensive task. Our progressive approach enables the approximation of the barycenter within interactive times. We extend this method to a progressive, time-constraint, topological ensemble clustering algorithm
Estilos ABNT, Harvard, Vancouver, APA, etc.
46

Sibony, Eric. "Analyse mustirésolution de données de classements". Electronic Thesis or Diss., Paris, ENST, 2016. http://www.theses.fr/2016ENST0036.

Texto completo da fonte
Resumo:
Cette thèse introduit un cadre d’analyse multirésolution pour les données de classements. Initiée au 18e siècle dans le contexte d’élections, l’analyse des données de classements a attiré un intérêt majeur dans de nombreux domaines de la littérature scientifique : psychométrie, statistiques, économie, recherche opérationnelle, apprentissage automatique ou choix social computationel entre autres. Elle a de plus été revitalisée par des applications modernes comme les systèmes de recommandation, où le but est d’inférer les préférences des utilisateurs pour leur proposer les meilleures suggestions personnalisées. Dans ces contextes, les utilisateurs expriment leurs préférences seulement sur des petits sous-ensembles d’objets variant au sein d’un large catalogue. L’analyse de tels classements incomplets pose cependant un défi important, tant du point de vue statistique que computationnel, poussant les acteurs industriels à utiliser des méthodes qui n’exploitent qu’une partie de l’information disponible. Cette thèse introduit une nouvelle représentation pour les données, qui surmonte par construction ce double défi. Bien qu’elle repose sur des résultats de combinatoire et de topologie algébrique, ses nombreuses analogies avec l’analyse multirésolution en font un cadre naturel et efficace pour l’analyse des classements incomplets. Ne faisant aucune hypothèse sur les données, elle mène déjà à des estimateurs au-delà de l’état-de-l’art pour des petits catalogues d’objets et peut être combinée avec de nombreuses procédures de régularisation pour des larges catalogues. Pour toutes ces raisons, nous croyons que cette représentation multirésolution ouvre la voie à de nombreux développements et applications futurs
This thesis introduces a multiresolution analysis framework for ranking data. Initiated in the 18th century in the context of elections, the analysis of ranking data has attracted a major interest in many fields of the scientific literature : psychometry, statistics, economics, operations research, machine learning or computational social choice among others. It has been even more revitalized by modern applications such as recommender systems, where the goal is to infer users preferences in order to make them the best personalized suggestions. In these settings, users express their preferences only on small and varying subsets of a large catalog of items. The analysis of such incomplete rankings poses however both a great statistical and computational challenge, leading industrial actors to use methods that only exploit a fraction of available information. This thesis introduces a new representation for the data, which by construction overcomes the two aforementioned challenges. Though it relies on results from combinatorics and algebraic topology, it shares several analogies with multiresolution analysis, offering a natural and efficient framework for the analysis of incomplete rankings. As it does not involve any assumption on the data, it already leads to overperforming estimators in small-scale settings and can be combined with many regularization procedures for large-scale settings. For all those reasons, we believe that this multiresolution representation paves the way for a wide range of future developments and applications
Estilos ABNT, Harvard, Vancouver, APA, etc.
47

Périnel, Emmanuel. "Segmentation en analyse de données symboliques : le cas de données probabilistes". Paris 9, 1996. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1996PA090079.

Texto completo da fonte
Resumo:
Les méthodes de segmentation, ou d'arbre de décision, sont des techniques permettant d'expliquer une partition à priori d'une population d'objets décrite par des variables explicatives. Elles ont connu ces dernières années un net regain d'intérêt, aussi bien dans le domaine de la statistique que dans celui de l'apprentissage automatique en intelligence artificielle. Toutefois, ces méthodes sont souvent reconnues sensibles à une information dite imparfaite telle que, des erreurs de mesures, des imprécisions ou incertitudes, des jugements experts, ce phénomène résulte principalement du manque de flexibilité des langages de représentations employés pour décrire les objets étudiés, d'une part, et de la rigidité même du processus d'apprentissage (partitionnement récursif), d'autre part. Dans ce travail, nous proposons une méthodologie générale de construction d'arbre de décision appliquée à des données de nature probabiliste. Celles-ci sont représentées par des assertions probabilistes dans le contexte de l'analyse des données symboliques. Son langage de description, en offrant une représentation plus riche et complexe des objets étudiés, nous permet d'introduire plus de flexibilité dans le processus de segmentation. Le développement de l'arbre repose sur un critère de découpage basé sur la notion générale d'information ou de vraisemblance. La nature imprécise ou incertaine des données conduit, de façon naturelle, à la notion d'appartenance probabiliste des objets aux différents nœuds de l'arbre. La construction de l'arbre se présente alors sous la forme d'une succession de problèmes de mélange de lois de probabilité que l'on résout à l'aide d'un algorithme de type EM (espérance / maximisation). Nous faisons également le lien, dans un cadre probabiliste, entre la notion d'appartenance probabiliste précédente et celle consécutive à l'emploi d'une coupure souple ou floue. L'approche est illustrée sur un jeu de données médicales relatives à l'utilisation de marqueurs biologiques sur des types cellulaires, et dans l'objectif de caractériser le concept de système neuroendocrinien.
Estilos ABNT, Harvard, Vancouver, APA, etc.
48

Cailhol, Simon. "Planification interactive de trajectoire en Réalité Virtuelle sur la base de données géométriques, topologiques et sémantiques". Thesis, Toulouse, INPT, 2015. http://www.theses.fr/2015INPT0058/document.

Texto completo da fonte
Resumo:
Pour limiter le temps et le coût de développement de nouveaux produits, l’industrie a besoin d’outils pour concevoir, tester et valider le produit avec des prototypes virtuels. Ces prototypes virtuels doivent permettre de tester le produit à toutes les étapes du Product Lifecycle Management (PLM). Beaucoup d’opérations du cycle de vie du produit impliquent la manipulation par un humain des composants du produit (montage, démontage ou maintenance du produit). Du fait de l’intégration croissante des produits industriels, ces manipulations sont réalisées dans un environnement encombré. La Réalité Virtuelle (RV) permet à des opérateurs réels d’exécuter ces opérations avec des prototypes virtuels. Ce travail de recherche introduit une nouvelle architecture de planification de trajectoire permettant la collaboration d’un utilisateur de RV et d’un système de planification de trajectoire automatique. Cette architecture s’appuie sur un modèle d’environnement original comprenant des informations sémantiques, topologiques et géométriques. Le processus de planification automatique de trajectoire est scindé en deux phases. Une planification grossière d’abord exploitant les données sémantique et topologiques. Cette phase permet de définir un chemin topologique. Une planification fine ensuite exploitant les données sémantiques et géométriques détermine un trajectoire géométrique dans le chemin topologique défini lors de la planification grossière. La collaboration entre le système de planification automatique et l’utilisateur de RV s’articule autour de deux modes : en premier lieu, l’utilisateur est guidé sur une trajectoire pré-calculée à travers une interface haptique ; en second lieu, l’utilisateur peut quitter la solution proposée et déclencher ainsi une re-planification. L’efficacité et l’ergonomie des ces deux modes d’interaction est enrichie grâce à des méthodes de partage de contrôle : tout d’abord, l’autorité du système automatique est modulée afin de fournir à la fois un guidage prégnant lorsque l’utilisateur le suit, et plus de liberté à l’utilisateur (un guidage atténué) lorsque celui-ci explore des chemins alternatifs potentiellement meilleurs. Ensuite, lorsque l’utilisateur explore des chemins alternatifs, ses intentions sont prédites (grâce aux données géométriques associées aux éléments topologiques) et intégrées dans le processus de re-planification pour guider la planification grossière. Ce mémoire est organisé en cinq chapitres. Le premier expose le contexte industriel ayant motivé ces travaux. Après une description des outils de modélisation de l’environnement, le deuxième chapitre introduit le modèle multi-niveaux de l’environnement proposé. Le troisième chapitre présente les techniques de planification de trajectoire issues de la robotique et détaille le processus original de planification de trajectoire en deux phases développé. Le quatrième introduit les travaux précurseurs de planification interactive de trajectoire et les techniques de partage de contrôle existantes avant de décrire les modes d’interaction et les techniques de partage de contrôle mises en œuvre dans notre planificateur interactif de trajectoire. Enfin le dernier chapitre présente les expérimentations menées avec le planificateur de trajectoire et en analyse leurs résultats
To save time and money while designing new products, industry needs tools to design, test and validate the product using virtual prototypes. These virtual prototypes must enable to test the product at all Product Lifecycle Management (PLM) stages. Many operations in product’s lifecycle involve human manipulation of product components (product assembly, disassembly or maintenance). Cue to the increasing integration of industrial products, these manipulations are performed in cluttered environment. Virtual Reality (VR) enables real operators to perform these operations with virtual prototypes. This research work introduces a novel path planning architecture allowing collaboration between a VR user and an automatic path planning system. This architecture is based on an original environment model including semantic, topological and geometric information. The automatic path planning process split in two phases. First, coarse planning uses semantic and topological information. This phase defines a topological path. Then, fine planning uses semantic and geometric information to define a geometrical trajectory within the topological path defined by the coarse planning. The collaboration between VR user and automatic path planner is made of two modes: on one hand, the user is guided along a pre-computed path through a haptic device, on the other hand, the user can go away from the proposed solution and doing it, he starts a re-planning process. Efficiency and ergonomics of both interaction modes is improved thanks to control sharing methods. First, the authority of the automatic system is modulated to provide the user with a sensitive guidance while he follows it and to free the user (weakened guidance) when he explores possible better ways. Second, when the user explores possible better ways, his intents are predicted (thanks to geometrical data associated to topological elements) and integrated in the re-planning process to guide the coarse planning. This thesis is divided in five chapters. The first one exposes the industrial context that motivated this work. Following a description of environment modeling tools, the second chapter introduces the multi-layer environment model proposed. The third chapter presents the path planning techniques from robotics research and details the two phases path planning process developed. The fourth introduce previous work on interactive path planning and control sharing techniques before to describe the interaction modes and control sharing techniques involved in our interactive path planner. Finally, last chapter introduces the experimentations performed with our path planner and analyses their results
Estilos ABNT, Harvard, Vancouver, APA, etc.
49

Untereiner, Lionel. "Représentation des maillages multirésolutions : application aux volumes de subdivision". Phd thesis, Université de Strasbourg, 2013. http://tel.archives-ouvertes.fr/tel-00951049.

Texto completo da fonte
Resumo:
Les maillages volumiques sont très répandus en informatique graphique, en visualisation scientifique et en calcul numérique. Des opérations de subdivision, de simplification ou de remaillage sont parfois utilisées afin d'accélérer les traitements sur ces maillages. Afin de maîtriser la complexité de l'objet et des traitements numériques qui lui sont appliqués, une solution consiste alors à le représenter à différentes échelles. Les modèles existants sont conçus pour des approches spécifiques rendant leur utilisation limitée aux applications pour lesquelles ils ont été pensés. Nos travaux de recherche présentent un nouveau modèle pour la représentation de maillages multirésolutions en dimension quelconque basé sur le formalisme des cartes combinatoires. Nous avons d'abord appliqué notre modèle aux volumes de subdivision multirésolutions. Dans ce cadre, nous présentons plusieurs algorithmes de raffinement d'un maillage grossier initial. Ces algorithmes supportent des hiérarchies obtenues par subdivision régulière et adaptative. Nous proposons ensuite deux représentations, opposés en terme de coût spatial et temporel, pour ce modèle.
Estilos ABNT, Harvard, Vancouver, APA, etc.
50

Lepoultier, Guilhem. "Transport numérique de quantités géométriques". Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112202/document.

Texto completo da fonte
Resumo:
Une part importante de l’activité en calcul scientifique et analyse numérique est consacrée aux problèmes de transport d’une quantité par un champ donné (ou lui-même calculé numériquement). Les questions de conservations étant essentielles dans ce domaine, on formule en général le problème de façon eulérienne sous la forme d’un bilan au niveau de chaque cellule élémentaire du maillage, et l’on gère l’évolution en suivant les valeurs moyennes dans ces cellules au cours du temps. Une autre approche consiste à suivre les caractéristiques du champ et à transporter les valeurs ponctuelles le long de ces caractéristiques. Cette approche est délicate à mettre en oeuvre, n’assure pas en général une parfaite conservation de la matière transportée, mais peut permettre dans certaines situations de transporter des quantités non régulières avec une grande précision, et sur des temps très longs (sans conditions restrictives sur le pas de temps comme dans le cas des méthodes eulériennes). Les travaux de thèse présentés ici partent de l’idée suivante : dans le cadre des méthodes utilisant un suivi de caractéristiques, transporter une quantité supplémentaire géométrique apportant plus d’informations sur le problème (on peut penser à un tenseur des contraintes dans le contexte de la mécanique des fluides, une métrique sous-jacente lors de l’adaptation de maillage, etc. ). Un premier pan du travail est la formulation théorique d’une méthode de transport de telles quantités. Elle repose sur le principe suivant : utiliser la différentielle du champ de transport pour calculer la différentielle du flot, nous donnant une information sur la déformation locale du domaine nous permettant de modifier nos quantités géométriques. Cette une approche a été explorée dans dans le contexte des méthodes particulaires plus particulièrement dans le domaine de la physique des plasmas. Ces premiers travaux amènent à travailler sur des densités paramétrées par un couple point/tenseur, comme les gaussiennes par exemple, qui sont un contexte d’applications assez naturelles de la méthode. En effet, on peut par la formulation établie transporter le point et le tenseur. La question qui se pose alors et qui constitue le second axe de notre travail est celle du choix d’une distance sur des espaces de densités, permettant par exemple d’étudier l’erreur commise entre la densité transportée et son approximation en fonction de la « concentration » au voisinage du point. On verra que les distances Lp montrent des limites par rapport au phénomène que nous souhaitons étudier. Cette étude repose principalement sur deux outils, les distances de Wasserstein, tirées de la théorie du transport optimal, et la distance de Fisher, au carrefour des statistiques et de la géométrie différentielle
In applied mathematics, question of moving quantities by vector is an important question : fluid mechanics, kinetic theory… Using particle methods, we're going to move an additional quantity giving more information on the problem. First part of the work is the theorical formulation for this kind of transport. It's going to use the differential in space of the vector field to compute the differential of the flow. An immediate and natural application is density who are parametrized by and point and a tensor, like gaussians. We're going to move such densities by moving point and tensor. Natural question is now the accuracy of such approximation. It's second part of our work , which discuss of distance to estimate such type of densities
Estilos ABNT, Harvard, Vancouver, APA, etc.
Oferecemos descontos em todos os planos premium para autores cujas obras estão incluídas em seleções literárias temáticas. Contate-nos para obter um código promocional único!

Vá para a bibliografia