To see the other types of publications on this topic, follow the link: Caractéristiques aléatoires.

Dissertations / Theses on the topic 'Caractéristiques aléatoires'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 23 dissertations / theses for your research on the topic 'Caractéristiques aléatoires.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Le, Khanh Toan. "Identification des caractéristiques aléatoires de remblais à partir du suivi de santé des structures : application aux structures portuaires." Nantes, 2012. http://www.theses.fr/2012NANT2021.

Full text
Abstract:
Le comportement en service de certaines structures prototypes (comme les Structures de Génie civil) peut parfois être assez éloigné de celui envisagé au moment de la conception. En effet, compte tenu de l’innovation, certaines hypothèses fortes sont utilisées soit parce que l’information est indisponible (données réelles du site d’implantation), soit parce qu’aucun modèle ne permet de représenter cette réalité. La modélisation de comportement en service est de première importance lorsde la réévaluation des structures complexes comme les structures portuaires et l'analyse des risques. Le Structural Health Monitoring (SHM) ou Suivi de Santé des Structures permet de répondre à cette question en (i) mesurant des indicateurs du comportant réel de la structure (ii) détectant des anomalies par rapport à ce comportement si l’instrumentation est suffisamment pérenne. Le travail de thèse propose d’utiliser l’information issue de l’instrumentation dans un contexte probabiliste. Il s’agit d’identifier les paramètres d’un modèle de comportement sous forme de variables aléatoires représentées par le vecteur X qui intègrent pour une part l’aléa naturel et pour un autre une erreur de modèle. Il a été choisi de travailler en deux étapes : l’utilisation d’un modèle fin M (X), à l’aide du code de calcul par éléments finis (PLAXIS), coûteux en temps de calcul sur lequel est calibrée une surface de réponse polynomiale quadratique RS (X) pour des points bien choisis. Cette approche permet de converger vers des propriétés asymptotiques même pour des réalisations de X non échantillonnées dans la base de calibration. On peut ainsi réduire la taille de l’échantillon, ce qui présente un avantage par rapport aux réseaux bayésiens ou neuronaux. Il s’agit ensuite, par analyse inverse sur un grand nombre de situations mesurées, d’identifier X connaissant une mesure Y et sachant Y= RS (X). On se propose dans la thèse d’appliquer cette méthode à l’instrumentation de quais sur pieux afin de déterminer des caractéristiques de site, jusqu’alors indisponibles dans les modèles probabilistes
The in-service behavior of some prototype structures (like Civil Engineering Structures) is often different from that initially assume during the design. Even if assumptions during design are conservative they hold the understanding of the real behavior off. The modeling of in-service behavior is of first importance when reassessing complex structures like harbor structures and performing risk analysis. To this aim, the Structural Health Monitoring (SHM) is of first importance because it allows us to assess the real level of loading and to provide more realistic models for mechanical behavior or value of their parameters. This thesis proposes to use information from instrumentation in a probabilistic context. This is to identify parameters of a behavior model under form of random variables represented by a vector X which integrate in part the natural hazard and another for a model error. The research is performed in two stages: (1) simulation of the structure behavior by using a set of a priori parameters as input value of the finite element code (PLAXIS) on a simple model M (X) which is calibrated by a quadratic polynomial response surface model RS (X) for points well chosen. This approach allow to converge to the same asymptotic properties for realizations of X not sampled in the base of calibration. This reduces the sample size, which represents a better advantage than using Bayesian or Neuronal networks; (2) an inverse analysis is realized on a large number of situations measured to identify X and to give Y that Y= RS (X). We propose to apply this method to the instrumentation of pile supported wharfs to determine site characteristics, previously unavailable in probabilistic models
APA, Harvard, Vancouver, ISO, and other styles
2

Bernard, Simon. "Forêts Aléatoires: De l'Analyse des Mécanismes de Fonctionnement à la Construction Dynamique." Phd thesis, Université de Rouen, 2009. http://tel.archives-ouvertes.fr/tel-00598441.

Full text
Abstract:
Les travaux de cette thèse se situent dans le domaine de l'apprentissage automatique et concernent plus particulièrement la paramétrisation des forêts aléatoires, une technique d'ensembles de classifieurs utilisant des arbres de décision. Nous nous intéressons à deux paramètres importants pour l'induction de ces forêts: le nombre de caractéristiques choisies aléatoirement à chaque noeud et le nombre d'arbres. Nous montrons d'abord que la valeur du premier paramètre doit être choisie en fonction des propriétés de l'espace de description, et proposons dans ce cadre un nouvel algorithme nommé Forest-RK exploitant ces propriétés. Nous montrons ensuite qu'avec un processus statique d'induction de Forêts, certains arbres provoquent une diminution des performances de l'ensemble, en dégradant le compromis force/ corrélation. Nous en déduisons un algorithme d'induction dynamique particulièrement performant en comparaison avec les procédures d'induction statique.
APA, Harvard, Vancouver, ISO, and other styles
3

Bernard, Simon. "Forêts aléatoires : de l’analyse des mécanismes de fonctionnement à la construction dynamique." Phd thesis, Rouen, 2009. http://www.theses.fr/2009ROUES011.

Full text
Abstract:
Les travaux de cette thèse se situent dans le domaine de l’apprentissage automatique et concernent plus particulièrement la paramétrisation des forêts aléatoires, une technique d’ensembles de classifieurs utilisant des arbres de décision. Nous nous intéressons à deux paramètres importants pour l’induction de ces forêts : le nombre de caractéristiques choisies aléatoirement à chaque noeud et le nombre d’arbres. Nous montrons d’abord que la valeur du premier paramètre doit être choisie en fonction des propriétés de l’espace de description, et proposons dans ce cadre un nouvel algorithme nommé Forest-RK exploitant ces propriétés. Nous montrons ensuite qu’avec un processus statique d’induction de Forêts, certains arbres provoquent une diminution des performances de l’ensemble, en dégradant le compromis force/corrélation. Nous en déduisons un algorithme d’induction dynamique particulièrement performant en comparaison avec les procédures d’induction statique
This research work is related to machine learning and more particularlydealswiththeparametrizationofRandomForests,whichareclassifierensemble methods that use decision trees as base classifiers. We focus on two important parameters of the forest induction : the number of features randomly selected at each node and the number of trees. We first show that the number of random features has to be chosen regarding to the feature space properties, and we propose hence a new algorithm called Forest-RK that exploits those properties. We then show that a static induction process implies that some of the trees of the forest make the ensemble generalisation error decrease, by deteriorating the strength/correlation compromise. We finaly propose an original random forest dynamic induction algorithm that favorably compares to static induction processes
APA, Harvard, Vancouver, ISO, and other styles
4

Desbordes, Paul. "Méthode de sélection de caractéristiques pronostiques et prédictives basée sur les forêts aléatoires pour le suivi thérapeutique des lésions tumorales par imagerie fonctionnelle TEP." Thesis, Normandie, 2017. http://www.theses.fr/2017NORMR030/document.

Full text
Abstract:
La radiomique propose de combiner des caractéristiques images avec celles issues de la clinique, de la génomique, de la protéomique, etc . . .afin de mettre en place une médecine personnalisée dans la prise en charge du cancer. L’objectif est d’anticiper, à partir d’un examen initial, les chances de survie du patient ou la probabilité de la maladie de répondre à un traitement. En médecine, des méthodes statistiques classiques sont généralement utilisées comme l’analyse de Mann-Whitney pour les études prédictives et l’analyse des courbes de survie de Kaplan-Meier pour les études pronostiques. Cependant, l’augmentation du nombre de caractéristiques étudiées pose des problèmes pour l’utilisation de ces statistiques. C’est pour cela que nous nous sommes orientés vers l’utilisation des algorithmes d’apprentissage automatique et des méthodes de sélectionde caractéristiques. Ces méthodes sont résistantes aux grandes dimensions, ainsi qu’aux relations non-linéaires entre caractéristiques. Nous avons proposé 2 méthodes de sélection des caractéristiques basées sur la méthode d’apprentissage automatique des forêts aléatoires. Nos méthodes ont permis la sélection de sous-ensembles de caractéristiques prédictives et pronostiques sur 2 bases de données (cancer de l’oesophage et du poumon). Nos algorithmes ont montré les meilleures performances de classification comparées aux méthodes statistiques classiques et aux autres méthodes de sélection des caractéristiques étudiées
Radiomics proposes to combine image features with those extracted from other modalities (clinical, genomic, proteomic) to set up a personalized medicine in the management of cancer. From an initial exam, the objective is to anticipate the survival rate of the patient or the treatment response probability. In medicine, classical statistical methods are generally used, such as theMann-Whitney analysis for predictive studies and analysis of Kaplan-Meier survival curves for prognostic studies. Thus, the increasing number of studied features limits the use of these statistics. We have focused our works on machine learning algorithms and features selection methods. These methods are resistant to large dimensions as well as non-linear relations between features. We proposed two features selection strategy based on random forests. Our methods allowed the selection of subsets of predictive and prognostic features on 2 databases (oesophagus and lung cancers). Our algorithms showed the best classification performances compared to classical statistical methods and other features selection strategies studied
APA, Harvard, Vancouver, ISO, and other styles
5

Daher, Ziad. "Estimation de grandeurs caractéristiques des vibrations des machines tournantes en régime variable." Thesis, Orléans, 2011. http://www.theses.fr/2011ORLE2059.

Full text
Abstract:
L’analyse vibratoire est l’une des principales méthodes pour le suivi et la maintenance des machines tournantes. Cette thèse s’inscrit dans cette thématique et en particulier dans le diagnostic des roulements en régime variable. L’objectif de la thèse est l’élaboration de capteurs logiciels. Ces derniers pourraient fournir un indicateur pertinent sur l’état de roulements défectueux à partir des signaux de vibrations de type aléatoire qu’ils génèrent dans les cas où ils sont mélangées à d’autres sources vibratoires provenant de défaut d’engrenages générant des signaux déterministes. Afin de diagnostiquer d’une façon efficace les cas d’avarie, il faut au préalable séparer le signal de vibration relatif à chaque source de vibration. En régime stationnaire, l’outil utilisé pour estimer la composante déterministe est la moyenne synchrone. En régime variable, la partie déterministe du signal de vibration évolue avec le régime même si l’enregistrement du signal de vibration est synchronisé avec la vitesse de rotation. Dès lors, cette composante ne devient plus périodique et son estimation par la moyenne synchrone classique devient inappropriée. Nous avons alors proposé une nouvelle approche qui consiste à caractériser les signaux de vibrations en régime variable en introduisant la notion de cyclo-non-stationnarité. Ceci nous a permis de développer un outil d'estimation des composantes déterministes du signal qui sont caractérisées par la cyclo-non-stationnarité d'ordre 1 et de développer un outil de caractérisation de la cyclo-non-stationnarité d'ordre 2 basé sur la synchronisation de la corrélation spectrale. Les performances de cet outil ont été testées avec succès sur des signaux synthétiques ainsi que sur des signaux réels
Vibration analysis is one of the main methods for rotating machinery monitoring. The topic of this thesis is the diagnosis of rolling element bearings under varying rotating speed. The objective is the development of software sensors providing a relevant indicator of bearing condition monitoring from the vibration signal generated by the bearing. Often, rotating machinery is composed from gears and bearings. Gear faults generate deterministic components and bearing faults generate random components. To diagnose, the key point is to extract the vibration signal caused by bearing from the total vibration signal. In constant rotating speed condition, the used tool to estimate the deterministic component is the time synchronous averaging. In varying rotating speed, the signal becomes "cyclo-non-stationary". Therefore, the traditional synchronous averaging method becomes inappropriate and one needs to extend its definition and estimation process. In this thesis, we develop a new approach based on a decomposition of the vibration signal into a set of cyclo-non-stationary components. This allowed us to develop a tool for estimating the deterministic components of the signal which are characterized by cyclo-non-stationarity order 1 and to develop a tool for characterizing the cyclo-non-stationarity order 2 based on synchronized spectral correlation. The performance of this tool has been tested on synthetic signals and on real signals
APA, Harvard, Vancouver, ISO, and other styles
6

Vathanakhool, Khoollapath. "Estimation de la sécurité des poteaux en béton armé : compte tenu des variations aléatoires de leurs caractéristiques géométriques et mécaniques le long de leur ligne moyenne." Toulouse, INSA, 1987. http://www.theses.fr/1987ISAT0015.

Full text
Abstract:
Pour etablir l'influence des variations le long du poteau dues au coffrage, a la position des armatures et au caracteristiques des materiaux, methode de calcul de la probabilite de ruine par simulation monte carlo, en tenant compte de la correlation entre troncons; definition statistique du troncon critique, en fonctions de parametres comme l'elancement et le pourcentage d'armatures
APA, Harvard, Vancouver, ISO, and other styles
7

Sokolovska, Nataliya. "Contributions à l'estimation de modèles probabilistes discriminants : apprentissage semi-supervisé et sélection de caractéristiques." Phd thesis, Ecole nationale supérieure des telecommunications - ENST, 2010. http://tel.archives-ouvertes.fr/tel-00557662.

Full text
Abstract:
Dans cette thèse nous étudions l'estimation de modèles probabilistes discriminants, surtout des aspects d'apprentissage semi-supervisé et de sélection de caractéristiques. Le but de l'apprentissage semi-supervisé est d'améliorer l'efficacité de l'apprentissage supervisé en utilisant des données non étiquetées. Cet objectif est difficile à atteindre dans les cas des modèles discriminants. Les modèles probabilistes discriminants permettent de manipuler des représentations linguistiques riches, sous la forme de vecteurs de caractéristiques de très grande taille. Travailler en grande dimension pose des problèmes, en particulier computationnels, qui sont exacerbés dans le cadre de modèles de séquences tels que les champs aléatoires conditionnels (CRF). Sélectionner automatiquement les caractéristiques pertinentes s'avère alors intéressant et donne lieu à des modèles plus compacts et plus faciles à utiliser. Notre contribution est double. Nous introduisons une méthode originale et simple pour intégrer des données non étiquetées dans une fonction objectif semi-supervisé. Nous démontrons alors que l'estimateur semi-supervisé correspondant est asymptotiquement optimal. Le cas de la régression logistique est illustré par des résultats d'expériences. Nous proposons un algorithme d'estimation pour les CRF qui réalise une sélection de caractéristiques, par le truchement d'une pénalisation $L_1$. Nous présentons également les résultats d'expériences menées sur des tâches de traitement des langues, en analysant les performances en généralisation et les caractéristiques sélectionnées. Nous proposons finalement diverses pistes pour améliorer l'efficacité computationelle de cette technique.
APA, Harvard, Vancouver, ISO, and other styles
8

Sokolovska, Nataliya. "Contributions à l'estimation de modèles probabilistes discriminants : apprentissage semi-supervisé et sélection de caractéristiques." Phd thesis, Paris, Télécom ParisTech, 2010. https://pastel.hal.science/pastel-00006257.

Full text
Abstract:
Dans cette thèse nous étudions l'estimation de modèles probabilistes discriminants, surtout des aspects d'apprentissage semi-supervisé et de sélection de caractéristiques. Le but de l'apprentissage semi-supervisé est d'améliorer l'efficacité de l'apprentissage supervisé en utilisant des données non-étiquetées. Cet objectif est difficile à atteindre dans les cas des modèles discriminants. Les modèles probabilistes discriminants permettent de manipuler des représentations linguistiques riches, sous la forme de vecteurs de caractéristiques de très grande taille. Travailler en grande dimension pose des problèmes, en particulier computationnels, qui sont exacerbés dans le cadre de modèles de séquences tels que les champs aléatoires conditionnels (CRF). Notre contribution est double. Nous introduisons une méthode originale et simple pour intégrer des données non étiquetées dans une fonction objectif semi-supervisée. Nous démontrons alors que l'estimateur semi-supervisé correspondant est asymptotiquement optimal. Le cas de la régression logistique est illustré par des résultats d'expèriences. Dans cette étude, nous proposons un algorithme d'estimation pour les CRF qui réalise une sélection de modèle, par le truchement d'une pénalisation L1. Nous présentons également les résultats d'expériences menées sur des tâches de traitement des langues (le chunking et la détection des entités nommées), en analysant les performances en généralisation et les caractéristiques sélectionnées. Nous proposons finalement diverses pistes pour améliorer l'efficacité computationelle de cette technique
In this thesis, we investigate the use of parametric probabilistic models for classification tasks in the domain of natural lang uage processing. We focus in particular on discriminative models, such as logistic regression and its generalization, conditional random fields (CRFs). Discriminative probabilistic models design directly conditional probability of a class given an observation. The logistic regression has been widely used due to its simplicity and effectiveness. Conditional random fields allow to take structural dependencies into consideration and therefore are used for structured output prediction. In this study, we address two aspects of modern machine learning, namely , semi-supervised learning and model selection, in the context of CRFs. The contribution of this thesis is twofold. First, we consider the framework of semi -supervised learning and propose a novel semi-supervised estimator and show that it is preferable to the standard logistic regression. Second, we study model selection approaches for discriminative models, in particular for CRFs and propose to penalize the CRFs with the elastic net. Since the penalty term is not differentiable in zero, we consider coordinate-wise optimization. The comparison with the performances of other methods demonstrates competitiveness of the CRFs penalized by the elastic net
APA, Harvard, Vancouver, ISO, and other styles
9

Wacker, Jonas. "Random features for dot product kernels and beyond." Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS241.

Full text
Abstract:
Les noyaux de produit scalaire, tels que les noyaux polynomiaux et exponentiels (softmax), sont parmi les noyaux les plus utilisés en apprentissage automatique, car ils permettent de modéliser les interactions entre les composantes des vecteurs d'entrée, ce qui est crucial dans des applications telles que la vision par ordinateur, le traitement du langage naturel et les systèmes de recommandation. Cependant, un inconvénient fondamental des modèles statistiques basés sur les noyaux est leur évolutivité limitée à un grand nombre de données d'entrée, ce qui nécessite de recourir à des approximations. Dans cette thèse, nous étudions des techniques pour linéariser les méthodes à base de noyaux de produit scalaire au moyen d'approximations de caractéristiques aléatoires. En particulier, nous nous concentrons sur une analyse de variance pour étudier et améliorer leur efficacité statistique
Dot product kernels, such as polynomial and exponential (softmax) kernels, are among the most widely used kernels in machine learning, as they enable modeling the interactions between input features, which is crucial in applications like computer vision, natural language processing, and recommender systems. However, a fundamental drawback of kernel-based statistical models is their limited scalability to a large number of inputs, which requires resorting to approximations. In this thesis, we study techniques to linearize kernel-based methods by means of random feature approximations and we focus on the approximation of polynomial kernels and more general dot product kernels to make these kernels more useful in large scale learning. In particular, we focus on a variance analysis as a main tool to study and improve the statistical efficiency of such sketches
APA, Harvard, Vancouver, ISO, and other styles
10

Marchina, Bastien. "Tests d'adéquation basés sur la fonction caractéristique." Thesis, Montpellier 2, 2011. http://www.theses.fr/2011MON20088/document.

Full text
Abstract:
Cette thèse est consacré aux tests d'adéquation basés sur la fonction caractéristique. Nous débutons en présentant et en complétant les résultats probabilistes nécessaires à la construction de statistiques de test prenant la fonction caractéristique et son pendant la fonction caractéristique empirique comme représentations respectives des lois de référence et de la loi inconnue de l'échantillon de vecteurs aléatoires à tester. Nous poursuivons le travail en faisant la revue et en classant les tests basés sur la fonction caractéristique existants. Nous élaborons ensuite une classe de statistiques de test s'appuyant sur le calcul d'une distance intégrale. Le cas de la distance L2 est étudié plus à fond, car nous avons pu établir des résultats asymptotiques dans ce dernier cas. Ceux-ci font intervenir les éléments propres inconnus d'un opérateur intégral. Nous présentons, puis utilisons, une méthode d'approximation spectrale basée sur une projection de l'opérateur sur une base orthonormée.Finalement, nous construisons une nouvelle classe de tests appartenant au paradigme des tests lisses de Neyman. L'étude précédente nous permet de simplifier considérablement la construction de ces tests, dont différentes versions sont proposées tant pour le test d'une hypothèse simple que pour le test d'une hypothèse composite
This PhD thesis consists in building goodness-of-fit tests using the characteristic function (CF) as a prefered representation for the probability laws involved.We start with listing and improving results in probability theory necessary to build test statistics using the characteristic function and its conterpart the empirical characteristic function.We list and classify existing characteristic function based goodness-of-fit tests published by varions authors since 1977.Then, we build a class of tests based on integral metrics. We take particular attention to the case where the statistics are build using a L2 distance. More specifically, we give asymptotic results in this case. However, these results reveal the need for information on the unknown eigenelements of an integral operator. Thus, we present and implement an approximation method using a sequence of projections on orthonormal bases ofan hilbertian functional space.Finally, we will build another class of tests using the Neyman smooth test paradigm. This study is based on our previous results, that fit well into the construction of characteristic function based smooth tests. We give various applications, presenting tests for both a simple hypothesis and a composite hypothesis
APA, Harvard, Vancouver, ISO, and other styles
11

Ferraz, Eduardo. "Topologie algébrique de complexes simpliciaux aléatoires et applications aux réseaux de capteurs." Thesis, Paris, ENST, 2012. http://www.theses.fr/2012ENST0006/document.

Full text
Abstract:
Cette thèse est composée de deux parties. La première partie utilise l’analyse stochastique pour fournir des bornes pour la probabilité de surcharge de différents systèmes grâce aux inégalités de concentration. Bien qu’ils soient généraux, nous appliquons ces résultats à des réseaux sans-fil réels tels que le WiMax et le traffic utilisateur multi-classe dans un système OFDMA. Dans la seconde partie, nous trouvons des liens entre la topologie de la couverture dans un réseau de capteur et celle du complexe simplicial correspondant. Cette analogie met en valeur de nouvelles facettes des certains objets mathématiques comme les nombres de Betti, le nombre de k-simplexes, et la caractéristique d’Euler. Puis, nous utilisons conjointement la topologie algébrique et l’analyse stochastique, en considérant que les positions des capteurs sont une réalisation d’un processus ponctuel de Poisson. Nous en déduisons les statistiques du nombre de k-simplexe et de la caractéristique d’Euler, ainsi que des bornes supérieures pour la distribution des nombres de Betti, le tout en d dimen- sions. Nous démontrons aussi que le nombre de k-simplexes converge vers une distribution Gaussienne quand la densité de capteurs tend vers l’infini à une vitesse de convergence connue. Enfin, nous nous limitons au cas unidimensionnel. Dans ce cas, le problème devient équivalent à résoudre une file M/M/1/1 préemptive. Nous obtenons ainsi des résultats analytiques pour des quantités telles que la distribution du nombre de composantes connexes et la probabilité de couverture totale
This thesis has two main parts. Part I uses stochastic anlysis to provide bounds for the overload probability of different systems thanks to concentration inequalities. Although the results are general, we apply them to real wireless network systems such as WiMax and mutliclass user traffic in an OFDMA system. In part I I, we find more connections between the topology of the coverage of a sensor network and the topology of its corresponding simplicial complex. These connections highlight new aspects of Betti numbers, the number of k-simplices, and Euler characteristic. Then, we use algebraic topology in conjunction with stochastic analysis, after assuming that the positions of the sensors are points of a Point point process. As a consequence we obtain, in d dimensions, the statistics of the number of k-simplices and of Euler characteristic, as well as upper bounds for the distribution of Betti numbers. We also prove that the number of k-simplices tends to a Gaussian distribution as the density of sensors grows, and we specify the convergence rate. Finally, we restrict ourselves to one dimension. In this case, the problem becomes equivalent to solving a M/M/1/1 preemptive queue. We obtain analytical results for quantites such as the distribution of the number of connected components and the probability of complete coverage
APA, Harvard, Vancouver, ISO, and other styles
12

Letendre, Thomas. "Contributions à l'étude des sous-variétés aléatoires." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE1240/document.

Full text
Abstract:
Dans cette thèse, nous étudions le volume et la caractéristique d'Euler de sous-variétés aléatoires de codimension r ∈ {1, . . . , n} dans une variété ambiante M de dimension n. Dans un premier modèle, dit des ondes riemanniennes aléatoires, M est une variété riemannienne fermée. Nous considérons alors le lieu Zλ des zéros communs de r combinaisons linéaires aléatoires indépendantes de fonctions propres du laplacien associées à des valeurs propres inférieures à λ 0. Nous obtenons alors les asymptotiques du volume moyen et de la caractéristique d'Euler moyenne de Zλ lorsque λ tend vers l'infini. Dans un second modèle, M est le lieu réel d'une variété projective définie sur les réels. On s'intéresse dans ce cadre au lieu d'annulation réel Zd d'une section holomorphe réelle globale aléatoire de E⊗Ld, où E est un fibré hermitien de rang r, L est un fibré en droites hermitien ample et tous deux sont définis sur les réels. Nous estimons alors les moyennes du volume et de la caractéristique d'Euler de Zd quand d tend vers l'infini. Dans ce modèle algébrique réel, nous calculons aussi l'asymptotique de la variance du volume de Zd pour 1 r < n. Nous en déduisons, dans ce cas, des résultats asymptotiques d'équidistribution de Zd dans M
We study the volume and Euler characteristic of codimension r ∈ {1, . . . , n} random submanifolds in a dimension n manifold M. First, we consider Riemannian random waves. That is M is a closed Riemannian manifold and we study the common zero set Zλ of r independent random linear combinations of eigenfunctions of the Laplacian associated to eigenvalues smaller than λ 0. We compute estimates for the mean volume and Euler characteristic of Zλ as λ goes to infinity. We also consider a model of random real algebraic manifolds. In this setting, M is the real locus of a projective manifold defined over the reals. Then, we consider the real vanishing locus Zd of a random real global holomorphic section of E ⊗ Ld, where E is a rank r Hermitian vector bundle, L is an ample Hermitian line bundle and both these bundles are defined over the reals. We compute the asymptotics of the mean volume and Euler characteristic of Zd as d goes to infinity. In this real algebraic setting, we also compute the asymptotic of the variance of the volume of Zd, when 1 r < n. In this case, we prove asympotic equidistribution results for Zd in M
APA, Harvard, Vancouver, ISO, and other styles
13

Ferraz, Eduardo. "Topologie algébrique de complexes simpliciaux aléatoires et applications aux réseaux de capteurs." Electronic Thesis or Diss., Paris, ENST, 2012. http://www.theses.fr/2012ENST0006.

Full text
Abstract:
Cette thèse est composée de deux parties. La première partie utilise l’analyse stochastique pour fournir des bornes pour la probabilité de surcharge de différents systèmes grâce aux inégalités de concentration. Bien qu’ils soient généraux, nous appliquons ces résultats à des réseaux sans-fil réels tels que le WiMax et le traffic utilisateur multi-classe dans un système OFDMA. Dans la seconde partie, nous trouvons des liens entre la topologie de la couverture dans un réseau de capteur et celle du complexe simplicial correspondant. Cette analogie met en valeur de nouvelles facettes des certains objets mathématiques comme les nombres de Betti, le nombre de k-simplexes, et la caractéristique d’Euler. Puis, nous utilisons conjointement la topologie algébrique et l’analyse stochastique, en considérant que les positions des capteurs sont une réalisation d’un processus ponctuel de Poisson. Nous en déduisons les statistiques du nombre de k-simplexe et de la caractéristique d’Euler, ainsi que des bornes supérieures pour la distribution des nombres de Betti, le tout en d dimen- sions. Nous démontrons aussi que le nombre de k-simplexes converge vers une distribution Gaussienne quand la densité de capteurs tend vers l’infini à une vitesse de convergence connue. Enfin, nous nous limitons au cas unidimensionnel. Dans ce cas, le problème devient équivalent à résoudre une file M/M/1/1 préemptive. Nous obtenons ainsi des résultats analytiques pour des quantités telles que la distribution du nombre de composantes connexes et la probabilité de couverture totale
This thesis has two main parts. Part I uses stochastic anlysis to provide bounds for the overload probability of different systems thanks to concentration inequalities. Although the results are general, we apply them to real wireless network systems such as WiMax and mutliclass user traffic in an OFDMA system. In part I I, we find more connections between the topology of the coverage of a sensor network and the topology of its corresponding simplicial complex. These connections highlight new aspects of Betti numbers, the number of k-simplices, and Euler characteristic. Then, we use algebraic topology in conjunction with stochastic analysis, after assuming that the positions of the sensors are points of a Point point process. As a consequence we obtain, in d dimensions, the statistics of the number of k-simplices and of Euler characteristic, as well as upper bounds for the distribution of Betti numbers. We also prove that the number of k-simplices tends to a Gaussian distribution as the density of sensors grows, and we specify the convergence rate. Finally, we restrict ourselves to one dimension. In this case, the problem becomes equivalent to solving a M/M/1/1 preemptive queue. We obtain analytical results for quantites such as the distribution of the number of connected components and the probability of complete coverage
APA, Harvard, Vancouver, ISO, and other styles
14

Kozyrskiy, Bogdan. "Exploring the Intersection of Bayesian Deep Learning and Gaussian Processes." Electronic Thesis or Diss., Sorbonne université, 2023. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2023SORUS064archi.pdf.

Full text
Abstract:
L'apprentissage profond a joué un rôle significatif dans l'établissement de l'apprentissage automatique comme un instrument indispensable dans plusieurs domaines. L'utilisation de l'apprentissage profond pose plusieurs défis. L'apprentissage profond nécessite beaucoup de puissance de calcul pour entraîner et appliquer des modèles. Un autre problème de l'apprentissage profond est son incapacité à estimer l'incertitude des prédictions, ce qui crée des obstacles dans les applications sensibles aux risques. Cette thèse présente quatre projets pour résoudre ces problèmes: Nous proposons une approche faisant appel à des unités de traitement optique pour réduire la consommation d'énergie et accélérer l'inférence des modèles profonds. Nous abordons le problème des estimations d'incertitude pour la classification avec l'inférence bayésienne. Nous introduisons des techniques pour les modèles profonds qui réduisent le coût de l'inférence bayésienne. Nous avons développé un nouveau cadre pour accélérer la régression des processus gaussiens. Nous proposons une technique pour imposer des priorités fonctionnelles significatives pour les modèles profonds à travers des processus gaussiens
Deep learning played a significant role in establishing machine learning as a must-have instrument in multiple areas. The use of deep learning poses several challenges. Deep learning requires a lot of computational power for training and applying models. Another problem with deep learning is its inability to estimate the uncertainty of the predictions, which creates obstacles in risk-sensitive applications. This thesis presents four projects to address these problems: We propose an approach making use of Optical Processing Units to reduce energy consumption and speed up the inference of deep models. We address the problem of uncertainty estimates for classification with Bayesian inference. We introduce techniques for deep models that decreases the cost of Bayesian inference. We developed a novel framework to accelerate Gaussian Process regression. We propose a technique to impose meaningful functional priors for deep models through Gaussian Processes
APA, Harvard, Vancouver, ISO, and other styles
15

Hardy, Adrien. "Problèmes d'équilibre vectoriels et grandes déviations." Toulouse 3, 2013. http://thesesups.ups-tlse.fr/2210/.

Full text
Abstract:
Dans cette thèse on s'intéresse à la convergence et aux grandes déviations de la mesure empirique associée à certains processus ponctuels déterminantaux. Le point commun entre ces processus ponctuels est que leur polynôme caractéristique moyen est un polynôme orthogonal multiple, une généralisation des polynômes orthogonaux usuels. L'exemple le plus simple est fourni par un gaz de Coulomb bidimensionnel dans un potentiel confinant à température inverse bêta = 2; son polynôme caractéristique moyen est alors un polynôme orthogonal. Il a été prouvé, même dans le cas plus général où bêta > 0, que la mesure empirique satisfait à un principe de grande déviation, avec une fonction de taux qui fait intervenir un problème d'équilibre bien connu en théorie logarithmique du potentiel. En guise d'échauffement, nous allons montrer que ce résultat s'étend au cas d'un potentiel faiblement confinant, c'est-à-dire satisfaisant une condition de croissance plus faible que d'habitude. Pour ce faire, nous utilisons un argument de compactification qui sera d'importance pour la suite. Anticipant la description asymptotique de processus déterminantaux plus complexes, nous développons alors un cadre adéquat pour définir rigoureusement des problèmes d'équilibre vectoriels avec des potentiels faiblement confinants. Nous prouvons l'existence et l'unicité de leurs solutions, un résultat nouveau en théorie du potentiel, et aussi que les fonctionnelles associées ont des ensembles de niveau compacts. Après, nous nous intéressons à un processus ponctuel déterminantal associé à une perturbation additive d'une matrice de Wishart, pour lequel le polynôme caractéristique moyen est un polynôme orthogonal multiple à deux poids. Nous établissons un principe de grande déviation pour la mesure empirique avec une fonction de taux qui fait intervenir un problème d'équilibre vectoriel ayant des potentiels faiblement confinants. C'est la première fois qu'un problème d'équilibre vectoriel intervient dans la description des grandes déviations de matrices aléatoires. Finalement, on étudie de façon générale quand est-ce que la mesure empirique associée à un processus ponctuel déterminantal et la distribution des zéros du polynôme caractéristique moyen associé convergent vers la même limite. Nous obtenons une condition suffisante pour une classe de processus ponctuels déterminantaux qui contient les processus liés aux polynômes orthogonaux multiples. En chemin, nous donnons aussi une condition suffisante pour améliorer la convergence en moyenne de la mesure empirique en une convergence presque sûre. Comme application, on décrit les distributions asymptotiques des zéros des polynômes de Hermite multiple et de Laguerre multiple en termes de convolutions libres de distributions classiques avec des mesures discrètes, et puis nous dérivons des équations algébriques pour leur transformée de Cauchy- Stieltjes
In this thesis we investigate the convergence and large deviations of the empirical measure associated with several determinantal point processes. These point processes have in common that their average characteristic polynomial is a multiple orthogonal polynomial, the latter being a generalization of orthogonal polynomials. The first simplest example is a 2D Coulomb gas in a confining potential at inverse temperature beta = 2, for which the average characteristic polynomial is an orthogonal polynomial. A large deviation principle for the empirical measure is known to hold, even in the general beta > 0 case, with a rate function involving an equilibrium problem arising from logarithmic potential theory. As a warming up, we show this result actually extends to the case where the potential is weakly confining, i. E. Satisfying a weaker growth assumption that usual. To do so, we introduce a compactification procedure which will be of important use in what follows. Motivated by more complex determinantal point processes, we then develop a general framework for vector equilibrium problems with weakly confining potentials to make sense. We prove existence and uniqueness of their solutions, which improves the existing results in the potential theory literature, and moreover show that the associated functionals have compact level sets. Next, we investigate a determinantal point process associated with an additive perturbation of a Wishart matrix, for which the average characteristic polynomial is a multiple orthogonal polynomial associated with two weights. We establish a large deviation principle for the empirical measure with a rate function related to a vector equilibrium problem with weakly confining potentials. This is the first time that a vector equilibrium problem is shown to be involved in a large deviation principle for random matrix models. Finally, we study on a more general level when both the empirical measure of a determinantal point process and the zero distribution of the associated average characteristic polynomial converge to the same limit. We obtain a sufficient condition for a class of determinantal point processes which contains the ones related to multiple orthogonal polynomials. On the way, we provide a sufficient condition to strengthen the mean convergence of the empirical measure to the almost sure one. As an application, we describe the limiting distributions for the zeros of multiple Hermite and multiple Laguerre polynomials in terms of free convolutions of classical distributions with atomic measures, and then derive algebraic equations for their Cauchy-Stieltjes transforms
APA, Harvard, Vancouver, ISO, and other styles
16

Desir, Chesner. "Classification Automatique d'Images, Application à l'Imagerie du Poumon Profond." Phd thesis, Université de Rouen, 2013. http://tel.archives-ouvertes.fr/tel-00879356.

Full text
Abstract:
Cette thèse porte sur la classification automatique d'images, appliquée aux images acquises par alvéoscopie, une nouvelle technique d'imagerie du poumon profond. L'objectif est la conception et le développement d'un système d'aide au diagnostic permettant d'aider le praticien à analyser ces images jamais vues auparavant. Nous avons élaboré, au travers de deux contributions, des méthodes performantes, génériques et robustes permettant de classer de façon satisfaisante les images de patients sains et pathologiques. Nous avons proposé un premier système complet de classification basé à la fois sur une caractérisation locale et riche du contenu des images, une approche de classification par méthodes d'ensemble d'arbres aléatoires et un mécanisme de pilotage du rejet de décision, fournissant à l'expert médical un moyen de renforcer la fiabilité du système. Face à la complexité des images alvéoscopiques et la difficulté de caractériser les cas pathologiques, contrairement aux cas sains, nous nous sommes orientés vers la classification one-class qui permet d'apprendre à partir des seules données des cas sains. Nous avons alors proposé une approche one-class tirant partie des mécanismes de combinaison et d'injection d'aléatoire des méthodes d'ensemble d'arbres de décision pour répondre aux difficultés rencontrées dans les approches standards, notamment la malédiction de la dimension. Les résultats obtenus montrent que notre méthode est performante, robuste à la dimension, compétitive et même meilleure comparée aux méthodes de l'état de l'art sur une grande variété de bases publiques. Elle s'est notamment avérée pertinente pour notre problématique médicale.
APA, Harvard, Vancouver, ISO, and other styles
17

Desir, Chesner. "Classification automatique d'images, application à l'imagerie du poumon profond." Phd thesis, Rouen, 2013. http://www.theses.fr/2013ROUES053.

Full text
Abstract:
Cette thèse porte sur la classification automatique d’images, appliquée aux images acquises par alvéoscopie, une nouvelle technique d’imagerie du poumon profond. L’objectif est la conception et le développement d’un système d’aide au diagnostic permettant d’aider le praticien à analyser ces images jamais vues auparavant. Nous avons élaboré, au travers de deux contributions, des méthodes performantes, génériques et robustes permettant de classer de façon satisfaisante les images de patients sains et pathologiques. Nous avons proposé un premier système complet de classification basé à la fois sur une caractérisation locale et riche du contenu des images, une approche de classification par méthodes d’ensemble d’arbres aléatoires et un mécanisme de pilotage du rejet de décision, fournissant à l’expert médical un moyen de renforcer la fiabilité du système. Face à la complexité des images alvéoscopiques et la difficulté de caractériser les cas pathologiques, contrairement aux cas sains, nous nous sommes orientés vers la classification oneclass qui permet d’apprendre à partir des seules données des cas sains. Nous avons alors proposé une approche one-class tirant partie des mécanismes de combinaison et d’injection d’aléatoire des méthodes d’ensemble d’arbres de décision pour répondre aux difficultés rencontrées dans les approches standards, notamment la malédiction de la dimension. Les résultats obtenus montrent que notre méthode est performante, robuste à la dimension, compétitive et même meilleure comparée aux méthodes de l’état de l’art sur une grande variété de bases publiques. Elle s’est notamment avérée pertinente pour notre problématique médicale
This thesis deals with automated image classification, applied to images acquired with alveoscopy, a new imaging technique of the distal lung. The aim is to propose and develop a computer aided-diagnosis system, so as to help the clinician analyze these images never seen before. Our contributions lie in the development of effective, robust and generic methods to classify images of healthy and pathological patients. Our first classification system is based on a rich and local characterization of the images, an ensemble of random trees approach for classification and a rejection mechanism, providing the medical expert with tools to enhance the reliability of the system. Due to the complexity of alveoscopy images and to the lack of expertize on the pathological cases (unlike healthy cases), we adopt the one-class learning paradigm which allows to learn a classifier from healthy data only. We propose a one-class approach taking advantage of combining and randomization mechanisms of ensemble methods to respond to common issues such as the curse of dimensionality. Our method is shown to be effective, robust to the dimension, competitive and even better than state-of-the-art methods on various public datasets. It has proved to be particularly relevant to our medical problem
APA, Harvard, Vancouver, ISO, and other styles
18

El-Haddad, Mireille. "Schéma de transport de l'interface d'un écoulement diphasique visqueux non miscible par la méthode des caractéristiques." Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066475/document.

Full text
Abstract:
Dans cette thèse, on utilise des outils mathématiques et numériques pour modéliser les écoulements tridimensionnels incompressibles à surface libre instationnaires. L'application industrielle visée est l'étude de la phase de remplissage des moules dans une fonderie. On développe un algorithme pour le transport de l'interface par la vitesse du fluide pour un fluide diphasique incompressible visqueux non-miscible de rapport de densité important en utilisant la méthode de caractéristiques pour traiter le problème de convection. Il y a des défis majeurs dans le contexte de la modélisation des fluides diphasiques. Tout d'abord, on doit prendre en considération l'évolution de l'interface et de ses changements topologiques. Deuxièmement, on doit traiter la non-linéarité convective de l'interface et de l'écoulement. Troisièmement, les équations de Navier-Stokes et du transport doivent être munies des conditions aux bords appropriées. En outre, il faut traiter soigneusement les singularités géométriques et topologiques à travers l'interface en particulier dans le cas de rapport de densité et viscosité important. On doit également maintenir la résolution d'une interface d'épaisseur nulle durant les cas du pliage, la rupture et la fusion de l'interface. Quatrièmement, on doit respecter les propriétés physiques telles que la conservation de la masse pour tout écoulement d'un fluide incompressible. Cinquièmement, il faut toujours penser aux limitations du temps de calcul et de mémoire pour résoudre ce genre de problème dans les cas pratiques. Notre but est de trouver un schéma fiable capable de modéliser le remplissage des moules tridimensionnelles industrielles. La première partie de cette thèse est dédiée à la description mathématique du schéma de transport de l'interface par la vitesse du fluide. Le mouvement des fluides est décrit par les équations de Navier-Stokes. L'interface est capturée par la fonction Level-Set. Le problème est discrétisée en espace par la méthode des éléments finis et en temps par la méthode de caractéristiques.Des conditions aux bords appropriées pour le problème du remplissage d'un moule sont introduites et un algorithme de calcul de la solution est présentée. Finalement,des résultats numériques montrent et valident l'efficacité duschéma proposé. Dans la deuxième partie de cette thèse, on introduit une méthode de décomposition de domaine qui correspond à la discrétisation par la méthode des caractéristiques dans le but d'améliorer la performance de l'algorithme proposé lors de la modélisation du remplissage des moules industrielles à moyennes séries. Des résultats numériques de comparaison valident la précision du code parallèle
In this thesis, we use mathematical and numerical tools to model three dimensional incompressible laminar flows with free surface. The described industrial application is the study of the mould filling phase in a foundry. We develop an algorithm for the transport of the interface by the fluid velocity for a viscous incompressible immiscible fluids of high density ratio in two-phase flow using the method of characteristics for the convection problem.There are, however, major challenges in the context of two-phase flow modeling.First, we have to take into account the evolution of the interface and its topological changes. Second, we have to deal with the non-linearity for the convection of the flow and the interface. Third, we must assign appropriate boundary conditions to the flow and transport equations.In addition, care must be taken in treating the geometrical and topological singularities across the interface.We also have to maintain a sharp interface resolution, including the cases of interface folding, breaking and merging.Furthermore, we should respect the physical properties such as the mass conservation for any incompressible fluid flows.Finally, we have to keep in mind the limitations in the time of computation and memory to solve this kind of problem in practical cases. Our purpose is to find a reliable scheme able to model the filling of three dimensional industrial moulds.The first part of the thesis is devoted to the mathematical description of the interface transport scheme by the fluid velocity. The fluids motion is described by the Navier-Stokes equations. The interface is captured by the Level-Set function. The problem isdiscretized by the characteristics method in time and finiteelements method in space. The interface is captured by the Level-Setfunction. Appropriate boundary conditions for the problem ofmould filling are investigated, a new natural boundary conditionunder pressure effect for the transport equation is proposed andan algorithm for computing the solution is presented. Finally,numerical experiments show and validate the effectiveness of theproposed scheme.In the second part of the thesis, we introduce a domain decomposition method that suits the discretization by the method of characteristics in order to improve the performance of the proposed algorithm to model the filling phase for moulds of medium series. Numerical results of comparison validate the precision of the parallel code
APA, Harvard, Vancouver, ISO, and other styles
19

Lafaye, de Micheaux Pierre. "Tests d'indépendance en analyse multivariée et tests de normalité dans les modèles ARMA." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2002. http://tel.archives-ouvertes.fr/tel-00002192.

Full text
Abstract:
On construit un test d'ajustement de la normalité
pour les innovations d'un modèle ARMA(p,q) de tendance et moyenne
connues, basé sur l'approche du test lisse dépendant des
données et simple à appliquer. Une vaste étude de simulation
est menée pour étudier ce test pour des
tailles échantillonnales modérées. Notre approche
est en général plus puissante que les tests existants. Le niveau est
tenu sur la majeure partie de l'espace paramétrique. Cela est en accord avec les résultats
théoriques montrant la supériorité de l'approche du test lisse
dépendant des données dans des contextes similaires.

Un test d'indépendance (ou d'indépendance sérielle) semi-paramétrique entre des sous-vecteurs de loi normale est proposé, mais sans
supposer la normalité jointe de ces marginales. La statistique de test
est une fonctionnelle de type Cramér-von Mises d'un processus défini à
partir de la fonction caractéristique empirique. Ce processus est
défini de façon similaire à celui de Ghoudi et al. (2001) construit à
partir de la fonction de répartition empirique et utilisé pour tester
l'indépendance entre des marginales univariées. La statistique de test
peut être représentée comme une V-statistique. Il est convergent pour
détecter toute forme de dépendance. La convergence faible du processus
est établie. La distribution asymptotique des fonctionnelles de
Cramér-von Mises est approchée par la méthode de Cornish-Fisher au
moyen d'une formule de récurrence pour les cumulants et par le
calcul numérique des valeurs propres dans la formule d'inversion. La
statistique de test est comparée avec celle de Wilks pour
l'hypothèse paramétrique d'indépendance dans le modèle MANOVA à
un facteur avec effets aléatoires.
APA, Harvard, Vancouver, ISO, and other styles
20

Augustyniak, Maciej. "Une famille de distributions symétriques et leptocurtiques représentée par la différence de deux variables aléatoires gamma." Thèse, 2008. http://hdl.handle.net/1866/8192.

Full text
APA, Harvard, Vancouver, ISO, and other styles
21

Panneton, François. "Construction d'ensembles de points basée sur des récurrences linéaires dans un corps fini de caractéristique 2 pour la simulation Monte Carlo et l'intégration quasi-Monte Carlo." Thèse, 2004. http://hdl.handle.net/1866/16634.

Full text
APA, Harvard, Vancouver, ISO, and other styles
22

Prévost, Noémie. "Inférence topologique." Thèse, 2014. http://hdl.handle.net/1866/10745.

Full text
Abstract:
Les données provenant de l'échantillonnage fin d'un processus continu (champ aléatoire) peuvent être représentées sous forme d'images. Un test statistique permettant de détecter une différence entre deux images peut être vu comme un ensemble de tests où chaque pixel est comparé au pixel correspondant de l'autre image. On utilise alors une méthode de contrôle de l'erreur de type I au niveau de l'ensemble de tests, comme la correction de Bonferroni ou le contrôle du taux de faux-positifs (FDR). Des méthodes d'analyse de données ont été développées en imagerie médicale, principalement par Keith Worsley, utilisant la géométrie des champs aléatoires afin de construire un test statistique global sur une image entière. Il s'agit d'utiliser l'espérance de la caractéristique d'Euler de l'ensemble d'excursion du champ aléatoire sous-jacent à l'échantillon au-delà d'un seuil donné, pour déterminer la probabilité que le champ aléatoire dépasse ce même seuil sous l'hypothèse nulle (inférence topologique). Nous exposons quelques notions portant sur les champs aléatoires, en particulier l'isotropie (la fonction de covariance entre deux points du champ dépend seulement de la distance qui les sépare). Nous discutons de deux méthodes pour l'analyse des champs anisotropes. La première consiste à déformer le champ puis à utiliser les volumes intrinsèques et les compacités de la caractéristique d'Euler. La seconde utilise plutôt les courbures de Lipschitz-Killing. Nous faisons ensuite une étude de niveau et de puissance de l'inférence topologique en comparaison avec la correction de Bonferroni. Finalement, nous utilisons l'inférence topologique pour décrire l'évolution du changement climatique sur le territoire du Québec entre 1991 et 2100, en utilisant des données de température simulées et publiées par l'Équipe Simulations climatiques d'Ouranos selon le modèle régional canadien du climat.
Data coming from a fine sampling of a continuous process (random field) can be represented as images. A statistical test aiming at detecting a difference between two images can be seen as a group of tests in which each pixel is compared to the corresponding pixel in the other image. We then use a method to control the type I error over all the tests, such as the Bonferroni correction or the control of the false discovery rate (FDR). Methods of data analysis have been developped in the field of medical imaging, mainly by Keith Worsley, using the geometry of random fields in order to build a global statistical test over the whole image. The expected Euler characteristic of the excursion set of the random field underlying the sample over a given threshold is used in order to determine the probability that the random field exceeds this same threshold under the null hypothesis (topological inference). We present some notions relevant to random fields, in particular isotropy (the covariance function between two given points of a field depends only on the distance between them). We discuss two methods for the analysis of non\-isotropic random fields. The first one consists in deforming the field and then using the intrinsic volumes and the Euler characteristic densities. The second one uses the Lipschitz-Killing curvatures. We then perform a study of sensitivity and power of the topological inference technique comparing it to the Bonferonni correction. Finally, we use topological inference in order to describe the evolution of climate change over Quebec territory between 1991 and 2100 using temperature data simulated and published by the Climate Simulation Team at Ouranos, with the Canadian Regional Climate Model CRCM4.2.
APA, Harvard, Vancouver, ISO, and other styles
23

Kadje, Kenmogne Romain. "Estimation de paramètres en exploitant les aspects calculatoires et numériques." Thèse, 2017. http://hdl.handle.net/1866/20584.

Full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography