Literatura científica selecionada sobre o tema "Modélisation de Dirichlet"

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Consulte a lista de atuais artigos, livros, teses, anais de congressos e outras fontes científicas relevantes para o tema "Modélisation de Dirichlet".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Artigos de revistas sobre o assunto "Modélisation de Dirichlet"

1

BARÈS, Franck, e Gabrielle ALIE. "Évolution de la revue Management international : Une modélisation thématique des articles publiés entre 2009 et 2023". Management international 28, n.º 2 (2024): 127–33. http://dx.doi.org/10.59876/a-ab4g-7647.

Texto completo da fonte
Resumo:
Analysing 829 abstracts and articles published in Management International over the 2009-2023 period, this research highlights the difficulties of interpreting unstructured textual data and suggests in response a tool capable of providing automated analysis. It also uses Latent Dirichlet Allocation (LDA) theme modelling to uncover hidden structures and achieve a more granular understanding of the thematic framework within which the journal has operated. The spotlight here is on data pre-processing, validation and visualisation, all crucial aspects of the types of analyses that become feasible when this method is used. The paper ends by suggesting a thematic modelling best practice that should make it possible to identify major and minor trends in order that future editorial strategies may be better informed and potentially more cutting-edge in nature.
Estilos ABNT, Harvard, Vancouver, APA, etc.

Teses / dissertações sobre o assunto "Modélisation de Dirichlet"

1

Batoux, Philippe. "Techniques d'homogénéisation pour la modélisation de piles à combustibles". Aix-Marseille 1, 1997. http://www.theses.fr/1997AIX11089.

Texto completo da fonte
Resumo:
L'objectif de cette these est d'etudier la pertinence des techniques d'homogeneisation pour l'elaboration d'un modele de pile a combustible. Une pile a combustible genere du courant electrique par des reactions complexes d'oxydo-reduction. Chaque pile est constituee de centaines de cellules elementaires identiques perforees par des conduites a l'interieur desquelles circulent les gaz oxydant et reducteur. Les phenomenes thermiques sont modelises par l'equation de la chaleur sur l'ensemble de la pile, les conditions de fourier (*) sur les bords des conduites imposent le flux de chaleur au travers des conduites en fonction de la temperature. Une equation de diffusion avec des conditions aux limites de neumann homogenes modelise les phenomenes electriques. Un modele de la cellule elementaire a deja ete elabore et implante numeriquement. Cependant, il est tres couteux en temps calcul et en espace memoire de modeliser la pile entiere a l'echelle de chaque cellule ; c'est pourquoi on cherche a obtenir un modele a une echelle plus grande, celle de la pile, par le biais des techniques d'homogeneisation. Un premier modele des phenomenes thermiques au sein de la pile nous amene a l'etude du comportement des solutions de problemes elliptiques lineaires definis sur un ouvert perfore periodiquement lorsque le nombre de trous tend vers l'infini. On traite ici des conditions aux limites de fourier sur le bord des trous : *. N + /( x ) = 0 (*) est la taille d'une cellule, designe la temperature et la conductivite thermique, x est la temperature a l'interieur des conduites, elle verifie: |x |h 1 = o(1/). Contrairement aux travaux precedents, on ne suppose pas ici la fonction x periodique, car physiquement, la temperature varie dans les conduites. Un calcul simple montre que n'est pas bornee dans h 1 independamment de : lim 0 | |h 1 =. On arrive cependant a estimer l'erreur | 0 (. , $$)|l 2 ou 0 est une fonction qu'on peut calculer simplement, et qui represente le premier terme d'un developpement asymptotique formel de en. Dans une seconde partie nous montrons l'existence d'une solution au systeme modelisant le couplage entre les phenomenes electriques et thermiques. Ce couplage nous amene en particulier a etudier des equations elliptiques a donnee l 1. Ce travail generalise au cas des conditions de fourier un resultat existant avec des conditions de dirichlet. Puis nous etudions l'homogeneisation de ce systeme en supposant que les conductivites thermique et electrique sont independantes de la temperature.
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Christine, Vannier. "Modélisation mathématique du poumon humain". Phd thesis, Université Paris Sud - Paris XI, 2009. http://tel.archives-ouvertes.fr/tel-00739462.

Texto completo da fonte
Resumo:
Nous nous intéressons à certains problèmes théoriques posés par la modélisation du poumon humain comme arbre bronchique plongé dans le parenchyme pulmonaire. L'arbre bronchique est représenté par un arbre dyadique résistif à 23 générations dans lequel un écoulement de Stokes a lieu. La loi de Poiseuille relie ainsi le débit dans chaque bronche au saut de pression à ses extrémités. Cet arbre est ensuite plongé dans un milieu visco-élastique modélisant le parenchyme. Le processus de ventilation est alors assuré par des pressions négatives, dues à une contraction du diaphragme, au niveau des alvéoles permettant l'inspiration. La première partie est consacrée à l'introduction d'un modèle d'arbre infini obtenu en faisant tendre le nombre de générations vers l'infini. Des théorèmes de trace permettent alors de modéliser le processus de ventilation comme un opérateur Dirichlet-Neumann, qui associe au champ de pression sur l'ensemble des bouts de l'arbre infini le continuum de débit sortant. La seconde partie est dédiée à l'étude de modèles du parenchyme pulmonaire. La complexité du parenchyme, milieu visco-élastique, provient de la présence de l'arbre qui relie toutes les alvéoles entre elles. Des phénomènes de dissipation non locaux sont ainsi observés dus aux couplage de toutes les sorties. Nous étudions tout d'abord un modèle monodimensionnel du parenchyme mettant en jeu une équation de type onde avec des effets non locaux. En particulier nous détaillons l'étude du comportement en temps long. Enfin, nous proposon l'ébauche d'un modèle du parenchyme en dimension supérieure prenant en compte à la fois le caractère élastique du tissu ainsi que la présence de l'arbre résistif.
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Zerkoune, Abbas. "Modélisation de l'incertitude géologique par simulation stochastique de cubes de proportions de faciès : application aux réservoirs pétroliers de type carbonaté ou silico-clastique". Phd thesis, Grenoble 1, 2009. http://www.theses.fr/2009GRE10104.

Texto completo da fonte
Resumo:
Après sa découverte, les choix relatifs au développement d'un gisement se prennent sur la base de représentations incertaines du champ. En effet, sa caractérisation utilise des modèles numériques spatiaux porteurs de l'incertitude liée à la complexité du milieu souterrain. D'ordinaire, les méthodes de simulations stochastiques, qui génèrent des modèles équiprobables du sous-sol, sont supposées les quantifier. Néanmoins, ces images alternatives du champ renvoient à des tirages au sein d'un modèle probabiliste unique. Elles oublient l'incertitude relative au choix du modèle probabiliste sous-jacent, et tendent à la sous-estimer. Ce travail de recherche vise à améliorer la quantification de cette incertitude. Elle retranscrit la part de doute relative à la compréhension des propriétés du milieu sur les modèles probabilistes, et propose de l'intégrer à ce niveau. Cette thèse précise d'abord la notion d'incertitude en modélisation pétrolière, en particulier sur les modèles géologiques 3D comprenant différents faciès. Leur construction demande au préalable de définir en tout point de l'espace leur probabilité d'existence : c'est le cube de proportions. Généralement, bien que ces probabilités soient peu connues, les méthodes actuelles d'évaluation de l'incertitude sédimentaire les gardent figées. De fait, elles oublient le caractère incertain du scénario géologique et son impact sur le cube de proportions. Deux méthodes stochastiques de simulation ont été développées afin de générer des modèles équiprobables en termes de cubes de proportions. Elles intègrent la variabilité liée aux proportions de faciès, et explorent dans son ensemble un tel domaine d'incertitude. La première reste relativement attachée à la géologie. Elle intègre directement l'incertitude liée aux paramètres qui composent le scénario géologique. Elle décrit sa mise en oeuvre sur les divers paramètres du scénario géologique, qu'ils prennent la forme de signaux aux puits, de cartes ou d'hypothèses plus globales à l'échelle du réservoir. Une démarche de type Monte-Carlo échantillonne les composantes du schéma sédimentaire. Chaque tirage permet de construire un cube de proportions par l'intermédiaire d'un géomodeleur qui intègre de façon plus ou moins explicite les paramètres du scénario géologique. La méthodologie est illustrée et appliquée à un processus inédit de modélisation des dépôts carbonatés en milieu marin. La seconde revêt un caractère plus géostatistique en se concentrant davantage sur le cube de proportions. Elle vise plutôt à réconcilier les différents modèles sédimentaires possibles. Dans le modèle maillé de réservoir, elle estime la loi de distribution des proportions de faciès cellule par cellule - supposées suivrent une loi de Dirichlet, à partir de quelques modèles, construits sur la base de scénarios géologiques distincts. Elle simule alors les proportions de façon séquentielle, maille après maille, en introduisant une corrélation spatiale (variogramme) qui peut être déterministe ou probabiliste. Divers cas pratiques, composés de réservoirs synthétiques ou de champs réels, illustrent et précisent les différentes étapes de la méthode proposée
After finding out a potential oil field, development decisions are based on uncertain representations of the reservoir. Indeed, its characterisation uses numerical, spatial models of the reservoir. However, if they are representative of subsoil heterogeneities, the uncertainty linked to subsoil complexity remain. Usually, uncertainty is supposed to be assessed using many equiprobable models, which represent the heterogeneities expected into the reservoir. Nevertheless, those alternative images of the underground correspond to multiple realizations of a given and a single stochastic model. Those methods ignore the uncertainty related to the choice of the underlying probabilistic model. This work aims at improving that kind of uncertainty assessment when modelling petroleum reservoir. It conveys the doubt linked with our subsoil properties understanding on probabilistic models, and proposes to integrate it on them. This thesis first defines uncertainty in the context of oil industry modelling, particularly on 3D geological models comprising several litho-types or facies. To build them, we need, before any simulations, to estimate for every point in the space the probability of occurring for each facies : this is the proportions cube. Even thought those probabilities are often poorly known, they are frozen while using current methods of uncertainty assessment. So, the impact of an uncertain geological scenario on the definition of a proportion cube is forgotten. Two methods based on stochastic simulations of alternative, equiprobable proportion cubes have been developed to sample the complete geological uncertainty space. The first one is closely linked to geology. It integrates directly uncertainty related to the parameters composing the geological scenario. Based on a multi-realisation approach, it describes its implementation on every parameters of geological scenario from information at wells to maps or global hypothesis at reservoir scale resolution. A Monte Carlo approach samples the components of the sedimentary scheme. Each drawing enables to build a proportion cube using modelling tools which integrates more or less explicitly parameters of geological scenario. That methodology is illustrated and applied to an modelling process which is used to model marine carbonate deposits. The second method appears to be more geostatistics focussing on proportion cubes. It rather aims at reconcile distinct eventual sedimentary models. In the meshed model symbolising the reservoir, it assesses the probabilistic law of facies proportion in each cells – they are supposed to follow Dirichlet's probabilistic law. That assessment is done from some models inferred from different geological scenarios. Facies proportions are sequentially simulated, cell after cell, introducing a spatial correlation model (variogram), which could be deterministic as probabilistic. Various practical cases, comprising synthetic reservoirs or real field, illustrates and specifies the different steps of the proposed method
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Zerkoune, Abbas. "Modélisation de l'incertitude géologique par simulation stochastique de cubes de proportions de faciès - Application aux réservoirs pétroliers de type carbonaté ou silico-clastique". Phd thesis, Université Joseph Fourier (Grenoble), 2009. http://tel.archives-ouvertes.fr/tel-00410136.

Texto completo da fonte
Resumo:
Après sa découverte, les choix relatifs au développement d'un gisement se prennent sur la base de représentations incertaines du champ. En effet, sa caractérisation utilise des modèles numériques spatiaux porteurs de l'incertitude liée à la complexité du milieu souterrain. D'ordinaire, les méthodes de simulations stochastiques, qui génèrent des modèles équiprobables du sous-sol, sont supposées les quantifier. Néanmoins, ces images alternatives du champ renvoient à des tirages au sein d'un modèle probabiliste unique. Elles oublient l'incertitude relative au choix du modèle probabiliste sous-jacent, et tendent à la sous-estimer. Ce travail de recherche vise à améliorer la quantification de cette incertitude. Elle retranscrit la part de doute relative à la compréhension des propriétés du milieu sur les modèles probabilistes, et propose de l'intégrer à ce niveau. Cette thèse précise d'abord la notion d'incertitude en modélisation pétrolière, en particulier sur les modèles géologiques 3D comprenant différents faciès. Leur construction demande au préalable de définir en tout point de l'espace leur probabilité d'existence : c'est le cube de proportions. Généralement, bien que ces probabilités soient peu connues, les méthodes actuelles d'évaluation de l'incertitude sédimentaire les gardent figées. De fait, elles oublient le caractère incertain du scénario géologique et son impact sur le cube de proportions. Deux méthodes stochastiques de simulation ont été développées afin de générer des modèles équiprobables en termes de cubes de proportions. Elles intègrent la variabilité liée aux proportions de faciès, et explorent dans son ensemble un tel domaine d'incertitude. La première reste relativement attachée à la géologie. Elle intègre directement l'incertitude liée aux paramètres qui composent le scénario géologique. Elle décrit sa mise en oeuvre sur les divers paramètres du scénario géologique, qu'ils prennent la forme de signaux aux puits, de cartes ou d'hypothèses plus globales à l'échelle du réservoir. Une démarche de type Monte-Carlo échantillonne les composantes du schéma sédimentaire. Chaque tirage permet de construire un cube de proportions par l'intermédiaire d'un géomodeleur qui intègre de façon plus ou moins explicite les paramètres du scénario géologique. La méthodologie est illustrée et appliquée à un processus inédit de modélisation des dépôts carbonatés en milieu marin. La seconde revêt un caractère plus géostatistique en se concentrant davantage sur le cube de proportions. Elle vise plutôt à réconcilier les différents modèles sédimentaires possibles. Dans le modèle maillé de réservoir, elle estime la loi de distribution des proportions de faciès cellule par cellule - supposées suivrent une loi de Dirichlet, à partir de quelques modèles, construits sur la base de scénarios géologiques distincts. Elle simule alors les proportions de façon séquentielle, maille après maille, en introduisant une corrélation spatiale (variogramme) qui peut être déterministe ou probabiliste. Divers cas pratiques, composés de réservoirs synthétiques ou de champs réels, illustrent et précisent les différentes étapes de la méthode proposée.
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Viandier, Nicolas. "Modélisation et utilisation des erreurs de pseudodistances GNSS en environnement transport pour l’amélioration des performances de localisation". Thesis, Ecole centrale de Lille, 2011. http://www.theses.fr/2011ECLI0006/document.

Texto completo da fonte
Resumo:
Les GNSS sont désormais largement présents dans le domaine des transports. Actuellement, la communauté scientifique désire développer des applications nécessitant une grande précision, disponibilité et intégrité.Ces systèmes offrent un service de position continu. Les performances sont définies par les paramètres du système mais également par l’environnement de propagation dans lequel se propagent les signaux. Les caractéristiques de propagation dans l’atmosphère sont connues. En revanche, il est plus difficile de prévoir l’impact de l’environnement proche de l’antenne, composé d’obstacles urbains. L’axe poursuivit par le LEOST et le LAGIS consiste à appréhender l’environnement et à utiliser cette information en complément de l’information GNSS. Cette approche vise à réduire le nombre de capteurs et ainsi la complexité du système et son coût. Les travaux de recherche menés dans le cadre de cette thèse permettent principalement de proposer des modélisations d'erreur de pseudodistances et des modélisations de l'état de réception encore plus réalistes. Après une étape de caractérisation de l’erreur, plusieurs modèles d’erreur de pseudodistance sont proposés. Ces modèles sont le mélange fini de gaussiennes et le mélange de processus de Dirichlet. Les paramètres du modèle sont estimés conjointement au vecteur d’état contenant la position grâce à une solution de filtrage adaptée comme le filtre particulaire Rao-Blackwellisé. L’évolution du modèle de bruit permet de s'adapter à l’environnement et donc de fournir une localisation plus précise. Les différentes étapes des travaux réalisés dans cette thèse ont été testées et validées sur données de simulation et réelles
Today, the GNSS are largely present in the transport field. Currently, the scientific community aims to develop transport applications with a high accuracy, availability and integrity. These systems offer a continuous positioning service. Performances are defined by the system parameters but also by signal environment propagation. The atmosphere propagation characteristics are well known. However, it is more difficult to anticipate and analyze the impact of the propagation environment close to the antenna which can be composed, for instance, of urban obstacles or vegetation.Since several years, the LEOST and the LAGIS research axes are driven by the understanding of the propagation environment and its use as supplementary information to help the GNSS receiver to be more pertinent. This approach aims to reduce the number of sensors in the localisation system, and consequently reduces its complexity and cost. The work performed in this thesis is devoted to provide more realistic pseudorange error models and reception channel model. After, a step of observation error characterization, several pseudorange error models have been proposed. These models are the finite gaussian mixture model and the Dirichlet process mixture. The model parameters are then estimated jointly with the state vector containing position by using adapted filtering solution like the Rao-Blackwellized particle filter. The noise model evolution allows adapting to an urban environment and consequently providing a position more accurate.Each step of this work has been tested and evaluated on simulation data and real data
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Simonnet, Titouan. "Apprentissage et réseaux de neurones en tomographie par diffraction de rayons X. Application à l'identification minéralogique". Electronic Thesis or Diss., Orléans, 2024. http://www.theses.fr/2024ORLE1033.

Texto completo da fonte
Resumo:
La compréhension du comportement chimique et mécanique des matériaux compactés (par exemple sol, sous-sol, matériaux ouvragés) nécessite de se baser sur une description quantitative de structuration du matériau, et en particulier de la nature des différentes phases minéralogiques et de leur relation spatiale. Or, les matériaux naturels sont composés de nombreux minéraux de petite taille, fréquemment mixés à petite échelle. Les avancées récentes en tomographie de diffraction des rayons X sur source synchrotron (à différencier de la tomographie en contraste de phase) permettent maintenant d'obtenir des volumes tomographiques avec des voxels de taille nanométrique, avec un diffractogramme pour chacun de ces voxels (là où le contraste de phase ne donne qu'un niveau de gris). En contrepartie, le volume de données (typiquement de l'ordre de 100~000 diffractogrammes par tranche d'échantillon), associé au grand nombre de phases présentes, rend le traitement quantitatif virtuellement impossible sans codes numériques appropriés. Cette thèse vise à combler ce manque, en utilisant des approches de type réseaux de neurones pour identifier et quantifier des minéraux dans un matériau. L'entrainement de tels modèles nécessite la construction de bases d'apprentissage de grande taille, qui ne peuvent pas être constituées uniquement de données expérimentales. Des algorithmes capables de synthétiser des diffractogrammes pour générer ces bases ont donc été développés. L'originalité de ce travail a également porté sur l'inférence de proportions avec des réseaux de neurones.Pour répondre à cette tâche, nouvelle et complexe, des fonctions de perte adaptées ont été conçues. Le potentiel des réseaux de neurones a été testé sur des données de complexités croissantes : (i) à partir de diffractogrammes calculés à partir des informations cristallographiques, (ii) en utilisant des diffractogrammes expérimentaux de poudre mesurés au laboratoire, (iii) sur les données obtenues par tomographie de rayons X. Différentes architectures de réseaux de neurones ont aussi été testées. Si un réseau de neurones convolutifs semble apporter des résultats intéressants, la structure particulière du signal de diffraction (qui n'est pas invariant par translation) a conduit à l'utilisation de modèles comme les Transformers. L'approche adoptée dans cette thèse a démontré sa capacité à quantifier les phases minérales dans un solide. Pour les données les plus complexes, tomographie notamment, des pistes d'amélioration ont été proposées
Understanding the chemical and mechanical behavior of compacted materials (e.g. soil, subsoil, engineered materials) requires a quantitative description of the material's structure, and in particular the nature of the various mineralogical phases and their spatial relationships. Natural materials, however, are composed of numerous small-sized minerals, frequently mixed on a small scale. Recent advances in synchrotron-based X-ray diffraction tomography (to be distinguished from phase contrast tomography) now make it possible to obtain tomographic volumes with nanometer-sized voxels, with a XRD pattern for each of these voxels (where phase contrast only gives a gray level). On the other hand, the sheer volume of data (typically on the order of 100~000 XRD patterns per sample slice), combined with the large number of phases present, makes quantitative processing virtually impossible without appropriate numerical codes. This thesis aims to fill this gap, using neural network approaches to identify and quantify minerals in a material. Training such models requires the construction of large-scale learning bases, which cannot be made up of experimental data alone.Algorithms capable of synthesizing XRD patterns to generate these bases have therefore been developed.The originality of this work also concerned the inference of proportions using neural networks. To meet this new and complex task, adapted loss functions were designed.The potential of neural networks was tested on data of increasing complexity: (i) from XRD patterns calculated from crystallographic information, (ii) using experimental powder XRD patterns measured in the laboratory, (iii) on data obtained by X-ray tomography. Different neural network architectures were also tested. While a convolutional neural network seemed to provide interesting results, the particular structure of the diffraction signal (which is not translation invariant) led to the use of models such as Transformers. The approach adopted in this thesis has demonstrated its ability to quantify mineral phases in a solid. For more complex data, such as tomography, improvements have been proposed
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Viandier, Nicolas. "Modélisation et utilisation des erreurs de pseudodistances GNSS en environnement transport pour l'amélioration des performances de localisation". Phd thesis, Ecole Centrale de Lille, 2011. http://tel.archives-ouvertes.fr/tel-00664264.

Texto completo da fonte
Resumo:
Les GNSS sont désormais largement présents dans le domaine des transports. Actuellement, la communauté scientifique désire développer des applications nécessitant une grande précision, disponibilité et intégrité.Ces systèmes offrent un service de position continu. Les performances sont définies par les paramètres du système mais également par l'environnement de propagation dans lequel se propagent les signaux. Les caractéristiques de propagation dans l'atmosphère sont connues. En revanche, il est plus difficile de prévoir l'impact de l'environnement proche de l'antenne, composé d'obstacles urbains. L'axe poursuivit par le LEOST et le LAGIS consiste à appréhender l'environnement et à utiliser cette information en complément de l'information GNSS. Cette approche vise à réduire le nombre de capteurs et ainsi la complexité du système et son coût. Les travaux de recherche menés dans le cadre de cette thèse permettent principalement de proposer des modélisations d'erreur de pseudodistances et des modélisations de l'état de réception encore plus réalistes. Après une étape de caractérisation de l'erreur, plusieurs modèles d'erreur de pseudodistance sont proposés. Ces modèles sont le mélange fini de gaussiennes et le mélange de processus de Dirichlet. Les paramètres du modèle sont estimés conjointement au vecteur d'état contenant la position grâce à une solution de filtrage adaptée comme le filtre particulaire Rao-Blackwellisé. L'évolution du modèle de bruit permet de s'adapter à l'environnement et donc de fournir une localisation plus précise. Les différentes étapes des travaux réalisés dans cette thèse ont été testées et validées sur données de simulation et réelles.
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Chiron, Guillaume. "Système complet d’acquisition vidéo, de suivi de trajectoires et de modélisation comportementale pour des environnements 3D naturellement encombrés : application à la surveillance apicole". Thesis, La Rochelle, 2014. http://www.theses.fr/2014LAROS030/document.

Texto completo da fonte
Resumo:
Ce manuscrit propose une approche méthodologique pour la constitution d’une chaîne complète de vidéosurveillance pour des environnements naturellement encombrés. Nous identifions et levons un certain nombre de verrous méthodologiques et technologiques inhérents : 1) à l’acquisition de séquences vidéo en milieu naturel, 2) au traitement d’images, 3) au suivi multi-cibles, 4) à la découverte et la modélisation de motifs comportementaux récurrents, et 5) à la fusion de données. Le contexte applicatif de nos travaux est la surveillance apicole, et en particulier, l’étude des trajectoires des abeilles en vol devant la ruche. De ce fait, cette thèse se présente également comme une étude de faisabilité et de prototypage dans le cadre des deux projets interdisciplinaires EPERAS et RISQAPI (projets menées en collaboration avec l’INRA Magneraud et le Muséum National d’Histoire Naturelle). Il s’agit pour nous informaticiens et pour les biologistes qui nous ont accompagnés, d’un domaine d’investigation totalement nouveau, pour lequel les connaissances métiers, généralement essentielles à ce genre d’applications, restent encore à définir. Contrairement aux approches existantes de suivi d’insectes, nous proposons de nous attaquer au problème dans l’espace à trois dimensions grâce à l’utilisation d’une caméra stéréovision haute fréquence. Dans ce contexte, nous détaillons notre nouvelle méthode de détection de cibles appelée segmentation HIDS. Concernant le calcul des trajectoires, nous explorons plusieurs approches de suivi de cibles, s’appuyant sur plus ou moins d’a priori, susceptibles de supporter les conditions extrêmes de l’application (e.g. cibles nombreuses, de petite taille, présentant un mouvement chaotique). Une fois les trajectoires collectées, nous les organisons selon une structure de données hiérarchique et mettons en œuvre une approche Bayésienne non-paramétrique pour la découverte de comportements émergents au sein de la colonie d’insectes. L’analyse exploratoire des trajectoires issues de la scène encombrée s’effectue par classification non supervisée, simultanément sur des niveaux sémantiques différents, et où le nombre de clusters pour chaque niveau n’est pas défini a priori mais est estimé à partir des données. Cette approche est dans un premier temps validée à l’aide d’une pseudo-vérité terrain générée par un Système Multi-Agents, puis dans un deuxième temps appliquée sur des données réelles
This manuscript provides the basis for a complete chain of videosurveillence for naturally cluttered environments. In the latter, we identify and solve the wide spectrum of methodological and technological barriers inherent to : 1) the acquisition of video sequences in natural conditions, 2) the image processing problems, 3) the multi-target tracking ambiguities, 4) the discovery and the modeling of recurring behavioral patterns, and 5) the data fusion. The application context of our work is the monitoring of honeybees, and in particular the study of the trajectories bees in flight in front of their hive. In fact, this thesis is part a feasibility and prototyping study carried by the two interdisciplinary projects EPERAS and RISQAPI (projects undertaken in collaboration with INRA institute and the French National Museum of Natural History). It is for us, computer scientists, and for biologists who accompanied us, a completely new area of investigation for which the scientific knowledge, usually essential for such applications, are still in their infancy. Unlike existing approaches for monitoring insects, we propose to tackle the problem in the three-dimensional space through the use of a high frequency stereo camera. In this context, we detail our new target detection method which we called HIDS segmentation. Concerning the computation of trajectories, we explored several tracking approaches, relying on more or less a priori, which are able to deal with the extreme conditions of the application (e.g. many targets, small in size, following chaotic movements). Once the trajectories are collected, we organize them according to a given hierarchical data structure and apply a Bayesian nonparametric approach for discovering emergent behaviors within the colony of insects. The exploratory analysis of the trajectories generated by the crowded scene is performed following an unsupervised classification method simultaneously over different levels of semantic, and where the number of clusters for each level is not defined a priori, but rather estimated from the data only. This approach is has been validated thanks to a ground truth generated by a Multi-Agent System. Then we tested it in the context of real data
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Plessis, Sylvain. "Modélisation probabiliste pour l'étude de l'influence des ions sur la composition des espèces neutres dans l'atmosphère de Titan : Inversion bayésienne de spectres de masse INMS et représentation des recombinaisons dissociatives par distributions de Dirichlet imbriquées". Paris 11, 2010. http://www.theses.fr/2010PA112129.

Texto completo da fonte
Resumo:
La composition en espèces neutres de la haute atmosphère de Titan a été inférée dans un premier temps par une inversion de spectres de masse des ions de l'instrument INMS de CASSINI et dans un deuxième temps par modélisation couplée. Nous avons opéré une telle inversion en prenant en compte les sources d'incertitudes et en les propageant par une méthode Bayes Monte Carlo. Nous avons ainsi pu montrer qu'une telle inversion n'est pertinente que pour une minorité des espèces neutres, le spectre de masse modélisé étant insensible à la grande majorité de celles-ci. Dans une optique d'amélioration du modèle de chimie ionosphérique, nous avons étudié le processus de recombinaison dissociative (RD). Ce processus est partiellement caractérisé par les mesures et nécessite ainsi un traitement numérique adapté. Les distributions de Dirichlet imbriquées ont été mises en œuvre afin de représenter la structure en arbre probabiliste des rapports de branchement des RDs. Cette modélisation a permis d'intégrer l'ensemble des informations disponibles, mesurées et empiriques, dans une base de données et ainsi améliorer la justesse du modèle. Un modèle couplé ion-neutre prenant en compte les incertitudes a été mis en place, les premiers résultats indiquent qu'une représentation exhaustive de la RD est suffisante pour expliquer l'émergence de certaines molécules, en particulier celles contenant de l'azote
Titan's high atmosphere neutral composition has been infered from CASSINI INMS ionic mass spectra inversion and by coupled models. We used Bayesian Monte Carlo methods to perform ionic mass spectra inversion with uncertainty propagation. We have shown that most of the neutral species are not constrained by this method. In a second time, we studied the dissociative recombination (DR) to improve the model description of this process. Being only partially characterized by experiments, knowledge of this process adopts a probabilistic tree structure. Nested Dirichlet distributions are efficient in representing such structures. We could therefore build a comprehensive database of DR relative to Titan, integrating all pieces of information. First results showed that a complete description of DR is enough to account for the densities of some neutral species, in particular nitrogen-bearing species
Estilos ABNT, Harvard, Vancouver, APA, etc.
Oferecemos descontos em todos os planos premium para autores cujas obras estão incluídas em seleções literárias temáticas. Contate-nos para obter um código promocional único!

Vá para a bibliografia