Dissertations / Theses on the topic 'Profondeur statistique'

To see the other types of publications on this topic, follow the link: Profondeur statistique.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 15 dissertations / theses for your research on the topic 'Profondeur statistique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Cisse, Mouhamadou Moustapha. "La fonction de profondeur de Tukey." Master's thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/34506.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans ce mémoire nous définissons la fonction de profondeur de Tukey d’une mesure positive et finie sur Rd. Par la suite nous étudions les propriétés de cette fonction, notamment les propriétés de continuité et de convexité. Notre objectif est d’établir une caractérisation d’une mesure par sa fonction de profondeur. Plus précisément, étant donné μ et v deux mesures de Borel positives et finies sur Rd, a-t-on μ = v si μ et v ont la même fonction de profondeur? En utilisant des propriétés de la fonction de profondeur, nous établissons une caractérisation lorsque la mesure satisfait certaines propriétés géométriques. Par la suite, nous présentons quelques approches afin de calculer la fonction de profondeur d’une mesure. Enfin nous prouvons le théorème de caractérisation d’une mesure discrète par sa fonction de profondeur de Tukey.
In this memoir we define the Tukey depth function of a positive finite measure on Rd. Then we study the properties of this function, in particular the properties of continuity and convexity. We seek to establish a characterization of a measure by its depth function. That is, given μ, v finite positive measures on Rd, do we have μ = v if μ and v have the same Tukey depth function? We use the properties of the depth function to establish such a characterization when the measure satisfies certain geometric properties. Then we exhibit some approaches for computing the Tukey depth function. Finally we prove the theorem of characterisation of a discrete measure by its Tukey depth function.
2

Genest, Maxime. "Mesures de localisation et de dispersion et profondeur de Tukey en statistique directionnelle." Thesis, Université Laval, 2010. http://www.theses.ulaval.ca/2010/27669/27669.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Resmerita, Diana. "Compression pour l'apprentissage en profondeur." Thesis, Université Côte d'Azur, 2022. http://www.theses.fr/2022COAZ4043.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les voitures autonomes sont des applications complexes qui nécessitent des machines puissantes pour pouvoir fonctionner correctement. Des tâches telles que rester entre les lignes blanches, lire les panneaux ou éviter les obstacles sont résolues en utilisant plusieurs réseaux neuronaux convolutifs (CNN) pour classer ou détecter les objets. Il est très important que tous les réseaux fonctionnent en parallèle afin de transmettre toutes les informations nécessaires et de prendre une décision commune. Aujourd'hui, à force de s'améliorer, les réseaux sont devenus plus gros et plus coûteux en termes de calcul. Le déploiement d'un seul réseau devient un défi. La compression des réseaux peut résoudre ce problème. Par conséquent, le premier objectif de cette thèse est de trouver des méthodes de compression profonde afin de faire face aux limitations de mémoire et de puissance de calcul présentes sur les systèmes embarqués. Les méthodes de compression doivent être adaptées à un processeur spécifique, le MPPA de Kalray, pour des implémentations à court terme. Nos contributions se concentrent principalement sur la compression du réseau après l'entraînement pour le stockage, ce qui signifie compresser des paramètres du réseau sans réentraîner ou changer l'architecture originale et le type de calculs. Dans le contexte de notre travail, nous avons décidé de nous concentrer sur la quantification. Notre première contribution consiste à comparer les performances de la quantification uniforme et de la quantification non-uniforme, afin d'identifier laquelle des deux présente un meilleur compromis taux-distorsion et pourrait être rapidement prise en charge par l'entreprise. L'intérêt de l'entreprise est également orienté vers la recherche de nouvelles méthodes innovantes pour les futures générations de MPPA. Par conséquent, notre deuxième contribution se concentre sur la comparaison des représentations en virgule flottante (FP32, FP16) aux représentations arithmétiques alternatives telles que BFloat16, msfp8, Posit8. Les résultats de cette analyse étaient en faveur de Posit8. Ceci a motivé la société Kalray à concevoir un décompresseur de FP16 vers Posit8. Enfin, de nombreuses méthodes de compression existent déjà, nous avons décidé de passer à un sujet adjacent qui vise à quantifier théoriquement les effets de l'erreur de quantification sur la précision du réseau. Il s'agit du deuxième objectif de la thèse. Nous remarquons que les mesures de distorsion bien connues ne sont pas adaptées pour prédire la dégradation de la précision dans le cas de l'inférence pour les réseaux de neurones compressés. Nous définissons une nouvelle mesure de distorsion avec une expression analytique qui s’apparente à un rapport signal/bruit. Un ensemble d'expériences a été réalisé en utilisant des données simulées et de petits réseaux qui montrent le potentiel de cette mesure de distorsion
Autonomous cars are complex applications that need powerful hardware machines to be able to function properly. Tasks such as staying between the white lines, reading signs, or avoiding obstacles are solved by using convolutional neural networks (CNNs) to classify or detect objects. It is highly important that all the networks work in parallel in order to transmit all the necessary information and take a common decision. Nowadays, as the networks improve, they also have become bigger and more computational expensive. Deploying even one network becomes challenging. Compressing the networks can solve this issue. Therefore, the first objective of this thesis is to find deep compression methods in order to cope with the memory and computational power limitations present on embedded systems. The compression methods need to be adapted to a specific processor, Kalray's MPPA, for short term implementations. Our contributions mainly focus on compressing the network post-training for storage purposes, which means compressing the parameters of the network without retraining or changing the original architecture and the type of the computations. In the context of our work, we decided to focus on quantization. Our first contribution consists in comparing the performances of uniform quantization and non-uniform quantization, in order to identify which of the two has a better rate-distortion trade-off and could be quickly supported in the company. The company's interest is also directed towards finding new innovative methods for future MPPA generations. Therefore, our second contribution focuses on comparing standard floating-point representations (FP32, FP16) to recently proposed alternative arithmetical representations such as BFloat16, msfp8, Posit8. The results of this analysis were in favor for Posit8. This motivated the company Kalray to conceive a decompressor from FP16 to Posit8. Finally, since many compression methods already exist, we decided to move to an adjacent topic which aims to quantify theoretically the effects of quantization error on the network's accuracy. This is the second objective of the thesis. We notice that well-known distortion measures are not adapted to predict accuracy degradation in the case of inference for compressed neural networks. We define a new distortion measure with a closed form which looks like a signal-to-noise ratio. A set of experiments were done using simulated data and small networks, which show the potential of this distortion measure
4

Moukari, Michel. "Estimation de profondeur à partir d'images monoculaires par apprentissage profond." Thesis, Normandie, 2019. http://www.theses.fr/2019NORMC211/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La vision par ordinateur est une branche de l'intelligence artificielle dont le but est de permettre à une machine d'analyser, de traiter et de comprendre le contenu d'images numériques. La compréhension de scène en particulier est un enjeu majeur en vision par ordinateur. Elle passe par une caractérisation à la fois sémantique et structurelle de l'image, permettant d'une part d'en décrire le contenu et, d'autre part, d'en comprendre la géométrie. Cependant tandis que l'espace réel est de nature tridimensionnelle, l'image qui le représente, elle, est bidimensionnelle. Une partie de l'information 3D est donc perdue lors du processus de formation de l'image et il est d'autant plus complexe de décrire la géométrie d'une scène à partir d'images 2D de celle-ci.Il existe plusieurs manières de retrouver l'information de profondeur perdue lors de la formation de l'image. Dans cette thèse nous nous intéressons à l’estimation d'une carte de profondeur étant donné une seule image de la scène. Dans ce cas, l'information de profondeur correspond, pour chaque pixel, à la distance entre la caméra et l'objet représenté en ce pixel. L'estimation automatique d'une carte de distances de la scène à partir d'une image est en effet une brique algorithmique critique dans de très nombreux domaines, en particulier celui des véhicules autonomes (détection d’obstacles, aide à la navigation).Bien que le problème de l'estimation de profondeur à partir d'une seule image soit un problème difficile et intrinsèquement mal posé, nous savons que l'Homme peut apprécier les distances avec un seul œil. Cette capacité n'est pas innée mais acquise et elle est possible en grande partie grâce à l'identification d'indices reflétant la connaissance a priori des objets qui nous entourent. Par ailleurs, nous savons que des algorithmes d'apprentissage peuvent extraire ces indices directement depuis des images. Nous nous intéressons en particulier aux méthodes d’apprentissage statistique basées sur des réseaux de neurones profond qui ont récemment permis des percées majeures dans de nombreux domaines et nous étudions le cas de l'estimation de profondeur monoculaire
Computer vision is a branch of artificial intelligence whose purpose is to enable a machine to analyze, process and understand the content of digital images. Scene understanding in particular is a major issue in computer vision. It goes through a semantic and structural characterization of the image, on one hand to describe its content and, on the other hand, to understand its geometry. However, while the real space is three-dimensional, the image representing it is two-dimensional. Part of the 3D information is thus lost during the process of image formation and it is therefore non trivial to describe the geometry of a scene from 2D images of it.There are several ways to retrieve the depth information lost in the image. In this thesis we are interested in estimating a depth map given a single image of the scene. In this case, the depth information corresponds, for each pixel, to the distance between the camera and the object represented in this pixel. The automatic estimation of a distance map of the scene from an image is indeed a critical algorithmic brick in a very large number of domains, in particular that of autonomous vehicles (obstacle detection, navigation aids).Although the problem of estimating depth from a single image is a difficult and inherently ill-posed problem, we know that humans can appreciate distances with one eye. This capacity is not innate but acquired and made possible mostly thanks to the identification of indices reflecting the prior knowledge of the surrounding objects. Moreover, we know that learning algorithms can extract these clues directly from images. We are particularly interested in statistical learning methods based on deep neural networks that have recently led to major breakthroughs in many fields and we are studying the case of the monocular depth estimation
5

Narasimha, Ramya. "Méthodes dʼestimation de la profondeur par mise en correspondance stéréoscopique à lʼaide de champs aléatoires couplés." Grenoble, 2010. http://www.theses.fr/2010GRENM053.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La profondeur des objets dans la scène 3-D peut être récupérée à partir d'une paire d'images stéréo en trouvant des correspondances entre les deux points de vue. Cette tâche consiste à identifier les points dans les images gauche et droite, qui sont les projections du même point de la scène. La différence entre les emplacements des deux points correspondants est la disparité, qui est inversement proportionnelle à la profondeur 3D. Dans cette thèse, nous nous concentrons sur les techniques Bayésiennes qui contraignent les estimations des disparités en appliquant des hypothèses de lissage explicites. Cependant, il ya des contraintes supplémentaires qui doivent être incluses, par exemple, les disparités ne doivent pas être lissées au travers des bords des objets, les disparités doivent être compatibles avec les propriétées géométriques de la surface. L'objectif de cette thèse est d'intégrer ces contraintes en utilisant des informations monoculaires et des informations géométrique différentielle sur la surface. Dans ce but, cette thèse considère deux problèmes importants associés à stéréo : le premier est la localisation des discontinuités des disparités et le second vise à récupérer les disparités binoculaires en conformité avec les propriétés de surface de la scène. Afin de faire face aux discontinuités des disparités, nous nous proposons d'estimer conjointement les disparités et les frontières des objets. Cette démarche est motivée par le fait que les discontinuités des disparités se trouvent à proximité des frontières des objets. La seconde méthode consiste à contraindre les disparités pour qu'elles soient compatibles avec la surface et les normales à la surface en estimant les deux en même temps
The depth of objects in 3-D scene can be recovered from a stereo image-pair by finding correspondences between the two views. This stereo matching task involves identifying the corresponding points in the left and the right images, which are the projections of the same scene point. The difference between the locations of the two corresponding points is the disparity, which is inversely related to the 3-D depth. In this thesis, we focus on Bayesian techniques that constrain the disparity estimates. In particular, these constraints involve explicit smoothness assumptions. However, there are further constraints that should be included, for example, the disparities should not be smoothed across object boundaries, the disparities should be consistent with geometric properties of the surface, and regions with similar colour should have similar disparities. The goal of this thesis is to incorporate such constraints using monocular cues and differential geometric information about the surface. To this end, this thesis considers two important problems associated with stereo matching; the first is localizing disparity discontinuities and second aims at recovering binocular disparities in accordance with the surface properties of the scene under consideration. We present a possible solution for each these problems. In order to deal with disparity discontinuities, we propose to cooperatively estimating disparities and object boundaries. This is motivated by the fact that the disparity discontinuities occur near object boundaries. The second one deals with recovering surface consistent disparities and surface normals by estimating the two simultaneously
6

Narasimha, Ramya. "Méthodes dʼestimation de la profondeur par mise en correspondance stéréoscopique à lʼaide de champs aléatoires couplés." Phd thesis, Grenoble, 2010. http://www.theses.fr/2010GRENM056.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La profondeur des objets dans la scène 3-D peut être récupérée à partir d'une paire d'images stéréo en trouvant des correspondances entre les deux points de vue. Cette tâche consiste à identifier les points dans les images gauche et droite, qui sont les projections du même point de la scène. La différence entre les emplacements des deux points correspondants est la disparité, qui est inversement proportionnelle à la profondeur 3D. Dans cette thèse, nous nous concentrons sur les techniques Bayésiennes qui contraignent les estimations des disparités en appliquant des hypothèses de lissage explicites. Cependant, il ya des contraintes supplémentaires qui doivent être incluses, par exemple, les disparités ne doivent pas être lissées au travers des bords des objets, les disparités doivent être compatibles avec les propriétées géométriques de la surface. L'objectif de cette thèse est d'intégrer ces contraintes en utilisant des informations monoculaires et des informations géométrique différentielle sur la surface. Dans ce but, cette thèse considère deux problèmes importants associés à stéréo : le premier est la localisation des discontinuités des disparités et le second vise à récupérer les disparités binoculaires en conformité avec les propriétés de surface de la scène. Afin de faire face aux discontinuités des disparités, nous nous proposons d'estimer conjointement les disparités et les frontières des objets. Cette démarche est motivée par le fait que les discontinuités des disparités se trouvent à proximité des frontières des objets. La seconde méthode consiste à contraindre les disparités pour qu'elles soient compatibles avec la surface et les normales à la surface en estimant les deux en même temps
The depth of objects in 3-D scene can be recovered from a stereo image-pair by finding correspondences between the two views. This stereo matching task involves identifying the corresponding points in the left and the right images, which are the projections of the same scene point. The difference between the locations of the two corresponding points is the disparity, which is inversely related to the 3-D depth. In this thesis, we focus on Bayesian techniques that constrain the disparity estimates. In particular, these constraints involve explicit smoothness assumptions. However, there are further constraints that should be included, for example, the disparities should not be smoothed across object boundaries, the disparities should be consistent with geometric properties of the surface, and regions with similar colour should have similar disparities. The goal of this thesis is to incorporate such constraints using monocular cues and differential geometric information about the surface. To this end, this thesis considers two important problems associated with stereo matching; the first is localizing disparity discontinuities and second aims at recovering binocular disparities in accordance with the surface properties of the scene under consideration. We present a possible solution for each these problems. In order to deal with disparity discontinuities, we propose to cooperatively estimating disparities and object boundaries. This is motivated by the fact that the disparity discontinuities occur near object boundaries. The second one deals with recovering surface consistent disparities and surface normals by estimating the two simultaneously
7

Cénac, Peggy. "Étude statistique de séquences biologiques et convergence de martingales." Toulouse 3, 2006. http://www.theses.fr/2006TOU30065.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le système dynamique Chaos Game Representation associe à une suite de lettres dans un alphabet fini, une mesure empirique sur un ensemble. Fournit-elle plus d'information que les méthodes de comptage de mots classiques ? A partir d'une caractérisation basée sur la CGR, on propose une nouvelle famille de tests donnant l'ordre d'une chaîne de Markov homogène. On définit ensuite une construction d'arbres digitaux de recherche, inspirés par la CGR, en insérant successivement les préfixes retournés d'une chaîne de Markov. On montre que les longueurs des branches critiques se comportent, au premier ordre, comme si les séquences insérées étaient indépendantes entre elles. La dernière partie est consacrée à l'étude de la convergence presque sûre des moments normalisés de tout ordre de martingales vectorielles dans le théorème de la limite centrale presque sûr. Les résultats sont appliqués aux erreurs d'estimation et de prédiction dans les régressions linéaires et les processus de branchement
The Chaos Game Representation is a dynamical system which maps a sequence of letters taken from a finite alphabet onto an empirical measure on a set. We show how the CGR can be used to characterize the order of an homogeneous Markov chain and to define a new family of tests. Then we propose a construction of Digital Search Trees, inspired from the CGR, by successively inserting all the returned prefixes of a Markov chain. We give the asymptotic behavior of the critical lengths of paths, which turns out to be, at first order, the same one as in the case of DST built from independent Markov chains. A last part deals with properties of almost sure convergence of vectorial martingales. Under suitable regularity conditions on the growing process, we establish the convergence of normalized moments of all orders in the almost sure central limit theorem. The results are applied to the cumulated errors of estimation and prediction in linear regression models and branching processes
8

Staerman, Guillaume. "Functional anomaly detection and robust estimation." Electronic Thesis or Diss., Institut polytechnique de Paris, 2022. http://www.theses.fr/2022IPPAT021.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’engouement pour l’apprentissage automatique s’étend à presque tous les domaines comme l’énergie, la médecine ou la finance. L’omniprésence des capteurs met à disposition de plus en plus de données avec une granularité toujours plus fine. Une abondance de nouvelles applications telles que la surveillance d’infrastructures complexes comme les avions ou les réseaux d’énergie, ainsi que la disponibilité d’échantillons de données massives, potentiellement corrompues, ont mis la pression sur la communauté scientifique pour développer de nouvelles méthodes et algorithmes d’apprentissage automatique fiables. Le travail présenté dans cette thèse s’inscrit dans cette ligne de recherche et se concentre autour de deux axes : la détection non-supervisée d’anomalies fonctionnelles et l’apprentissage robuste, tant du point de vue pratique que théorique.La première partie de cette thèse est consacrée au développement d’algorithmes efficaces de détection d’anomalies dans le cadre fonctionnel. Plus précisément, nous introduisons Functional Isolation Forest (FIF), un algorithme basé sur le partitionnement aléatoire de l’espace fonctionnel de manière flexible afin d’isoler progressivement les fonctions les unes des autres. Nous proposons également une nouvelle notion de profondeur fonctionnelle basée sur l’aire de l’enveloppe convexe des courbes échantillonnées, capturant de manière naturelle les écarts graduels de centralité. Les problèmes d’estimation et de calcul sont abordés et diverses expériences numériques fournissent des preuves empiriques de la pertinence des approches proposées. Enfin, afin de fournir des recommandations pratiques, la performance des récentes techniques de détection d’anomalies fonctionnelles est évaluée sur deux ensembles de données réelles liés à la surveillance des hélicoptères en vol et à la spectrométrie des matériaux de construction.La deuxième partie est consacrée à la conception et à l’analyse de plusieurs approches statistiques, potentiellement robustes, mêlant la profondeur de données et les estimateurs robustes de la moyenne. La distance de Wasserstein est une métrique populaire résultant d’un coût de transport entre deux distributions de probabilité et permettant de mesurer la similitude de ces dernières. Bien que cette dernière ait montré des résultats prometteurs dans de nombreuses applications d’apprentissage automatique, elle souffre d’une grande sensibilité aux valeurs aberrantes. Nous étudions donc comment tirer partie des estimateurs de la médiane des moyennes (MoM) pour renforcer l’estimation de la distance de Wasserstein avec des garanties théoriques. Par la suite, nous introduisons une nouvelle fonction de profondeur statistique dénommée Affine-Invariante Integrated Rank-Weighted (AI-IRW). Au-delà de l’analyse théorique effectuée, des résultats numériques sont présentés, confirmant la pertinence de cette profondeur. Les sur-ensembles de niveau des profondeurs statistiques donnent lieu à une extension possible des fonctions quantiles aux espaces multivariés. Nous proposons une nouvelle mesure de similarité entre deux distributions de probabilité. Elle repose sur la moyenne de la distance de Hausdorff entre les régions quantiles, induites par les profondeur de données, de chaque distribution. Nous montrons qu’elle hérite des propriétés intéressantes des profondeurs de données telles que la robustesse ou l’interprétabilité. Tous les algorithmes développés dans cette thèse sont accessible en ligne
Enthusiasm for Machine Learning is spreading to nearly all fields such as transportation, energy, medicine, banking or insurance as the ubiquity of sensors through IoT makes more and more data at disposal with an ever finer granularity. The abundance of new applications for monitoring of complex infrastructures (e.g. aircrafts, energy networks) together with the availability of massive data samples has put pressure on the scientific community to develop new reliable Machine-Learning methods and algorithms. The work presented in this thesis focuses around two axes: unsupervised functional anomaly detection and robust learning, both from practical and theoretical perspectives.The first part of this dissertation is dedicated to the development of efficient functional anomaly detection approaches. More precisely, we introduce Functional Isolation Forest (FIF), an algorithm based on randomly splitting the functional space in a flexible manner in order to progressively isolate specific function types. Also, we propose the novel notion of functional depth based on the area of the convex hull of sampled curves, capturing gradual departures from centrality, even beyond the envelope of the data, in a natural fashion. Estimation and computational issues are addressed and various numerical experiments provide empirical evidence of the relevance of the approaches proposed. In order to provide recommendation guidance for practitioners, the performance of recent functional anomaly detection techniques is evaluated using two real-world data sets related to the monitoring of helicopters in flight and to the spectrometry of construction materials.The second part describes the design and analysis of several robust statistical approaches relying on robust mean estimation and statistical data depth. The Wasserstein distance is a popular metric between probability distributions based on optimal transport. Although the latter has shown promising results in many Machine Learning applications, it suffers from a high sensitivity to outliers. To that end, we investigate how to leverage Medians-of-Means (MoM) estimators to robustify the estimation of Wasserstein distance with provable guarantees. Thereafter, a new statistical depth function, the Affine-Invariant Integrated Rank-Weighted (AI-IRW) depth is introduced. Beyond the theoretical analysis carried out, numerical results are presented, providing strong empirical confirmation of the relevance of the depth function proposed. The upper-level sets of statistical depths—the depth-trimmed regions—give rise to a definition of multivariate quantiles. We propose a new discrepancy measure between probability distributions that relies on the average of the Hausdorff distance between the depth-based quantile regions w.r.t. each distribution and demonstrate that it benefits from attractive properties of data depths such as robustness or interpretability. All algorithms developed in this thesis are open-sourced and available online
9

Jarrah, Adil. "Développement de méthodes statistiques et probabilistes en corrosion par piqûres pour l’estimation de la profondeur maximale : application à l’aluminium A5." Paris, ENSAM, 2009. http://www.theses.fr/2009ENAM0024.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La corrosion par piqûres est l'une des formes de corrosion les plus répandues. Elle touche tous les matériaux et se place dans un contexte économique très important. Elle peut se manifester à des endroits spécifiques de la structure et mener à sa détérioration en particulier en présence de sollicitations mécaniques. L’aspect stochastique du phénomène a conduit au développement de méthodes statistiques pour le caractériser. Cette caractérisation est souvent faite via l’estimation de la profondeur maximale des piqûres afin d’évaluer le risque de perforation de la structure. Pour cela, la méthode de Gumbel est l’approche la plus utilisée. L’objectif de ce travail est de revenir sur la vérification des conditions d’application de cette méthode notamment l’indépendance et de la comparer avec les autres approches basées sur la loi des valeurs extrêmes généralisée et la loi de dépassement de seuil. La condition d’indépendance est vérifiée à l’aide des processus spatiaux. Une adaptation de l’analyse spectrale en corrosion par piqûres est aussi proposée. La comparaison entre les approches est basée sur des simulations numériques dont les paramètres sont issus de l’expérimentation
Pitting corrosion is one of the most prevalent forms of corrosion. It affects all materials and takes place in a very important economic context. Pits can manifest locally over the structure and leads to its deterioration particularly in the presence of mechanical solicitations. The stochastic aspect of the phenomenon led to the development of statistical methods in order to characterize it. This characterization is often done through the estimation of maximum pit depth in the aim to assess the risk of perforation. For this aim, the method of Gumbel is often used. The objective of this work is to check the conditions of application of this method notably the independence and compare it with the approaches based on law of generalized extreme values and the peak over threshold. The condition of independence is verified using spatial process. An adaptation of the spectral analysis in the context of pitting corrosion is also proposed. The comparison between the approaches is based on numerical simulations which the parameters come from the experimentation
10

Van, Der Baan Mirko. "Deux méthodes d'interférence statistique appliquées aux données de sismique réflexion profonde : détection de signaux et localisation d'onde." Grenoble 1, 1999. https://tel.archives-ouvertes.fr/tel-00745500.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de toute acquisition de donnees geophysiques est d'obtenir une image plus precise de l'interieur de la terre. Afin de preciser cette image, on utilise principalement des methodes d'inference deterministe ayant comme but de fournir une description exacte de chaque detail particulier. Contraire aux methodes deterministes, les approches statistiques n'essaient de saisir que les caracteristiques principales de l'ensemble des details. Ceci reduit la complexite mathematique, nous permettant ainsi de mieux etudier certains phenomenes physiques. De plus, elles peuvent nous aider a sonder la terre a une echelle plus petite que la resolution des methodes deterministes. Finalement, elles peuvent nous fournir une appreciation de vraisemblance, nous aidant ainsi a prendre des decisions ou a reconnaitre des signaux. Dans ce memoire, nous avons utilise ces 3 avantages sur 2 problemes differents. D'abord, nous les avons employes afin d'augmenter le rapport signal sur bruit en detectant des reflexions dans des donnees de sismique reflexion profonde d'une faible qualite. Ceci nous a permis de faciliter l'interpretation du profil considere. Deux methodes differentes ont ete considerees, celle dite classification par vraisemblance maximale et celle des reseaux de neurones. Ensuite, nous les avons utilises afin d'etudier le processus de la diffusion forte dans un milieu acoustique, stratifie et aleatoire. Afin d'etudier ce probleme, nous avons applique la theorie de la localisation d'onde predisant l'attenuation apparente et la dispersion d'une impulsion traversant un tel milieu. Cette theorie nous a aussi permis d'estimer la magnitude et la dimension typiques des fluctuations des vitesses et le facteur de qualite de l'attenuation intrinseque sous le bassin de mauleon dans les pyrenees occidentales. Ceci nous a montre que la croute superieure y est plus heterogene et plus attenuante que la croute inferieure et que les dimensions typiques y sont plus petites.
11

Azoulay, Paul. "Etude méthodologique des essais randomisés dans le traitement préventif des thromboses veineuses profondes, proposition pour une méta-analyse." Montpellier 1, 1988. http://www.theses.fr/1988MON11194.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

Berthomier, Thibaud. "Identification et caractérisation du thrombus veineux par imagerie échographique mode B couplée à l’élastographie." Thesis, Brest, École nationale supérieure de techniques avancées Bretagne, 2018. http://www.theses.fr/2018ENTA0007/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La maladie veineuse thromboembolique (MVTE) est un problème de santé publique (plus de 100000 cas par an en France). Elle regroupe deux entités cliniques : la thrombose veineuse profonde (TVP) des membres inférieurs et l’embolie pulmonaire (EP). La TVP correspond à la formation inadaptée d’un thrombus veineux (appelé aussi caillot sanguin) dans les veines profondes (poplitées, fémorales, iliaques). Un thrombus est principalement constitué de globules rouges et de plaquettes dans un réseau de fibrine. La complication majeure d’une TVP est la survenue d’une EP, c’est-à-dire que le thrombus s’est détaché de la paroi veineuse, ou s’est fragmenté, et est entraîné par la circulation sanguine jusqu’à une artère pulmonaire. Cette complication a un taux de mortalité assez élevée autour de 10000 à 20000 cas mortels par an en France. La survenue d’une TVP est multifactorielle associant des facteurs génétiques et acquis pouvant être répartis en trois catégories : la stase veineuse, l’altération de la paroi d’une veine et une hypercoagulabilité. En analysant la structure du thrombus, notre projet vise à identifier le facteur principal responsable de la TVP et à évaluer le risque d’EP. Pour caractériser sa structure, nous disposons de deux modes d’imagerie acoustique : l’échographie et l’élastographie (carte de dureté). Nous proposons d’extraire des descripteurs de ces images acoustiques par deux approches, l’une basée sur les ondelettes (le scattering operator) et l’autre sur les statistiques d’ordre supérieur (les multicorrélations). Ces descripteurs sont ensuite analysées par diverses techniques de classification (analyse en composantes principales, k-moyennes, classification spectrale) pour retrouver la cause principale des TVP ou la présence d’EP
Venous thromboembolism (VTE) is an important public health issue (over 100000 individuals in France per year). VTE is a combination of a deep venous thrombosis (DVT) and a pulmonary embolism (PE). DVT is an inappropriate formation of a thrombus (also called blood clot) in one of the deep veins of the body, usually in the leg (popliteal, femoral, iliac). There are mainly three components in a thrombus: platelets, red blood cells and a mesh of fibrins. The main complication of a DVT is a pulmonary embolism (PE) which occurs when a thrombus breaks loose and travels to the lungs. PE affects an estimated 10000 - 20 000 individuals just in France per year. Three physiopathological mechanisms cancontribute, isolated or combined, to the development of a DVT: venous stasis, endothelial injury and hypercoagulability. Our project is aiming to relate the thrombus structure, its main triggering factor and the risk of a PE. To characterize the thrombus structure, we are collecting ultrasonography (echogenicity) and elastography (stiffness) of human thrombus. We propose to extract features from these to kind of ultrasound images using two approaches: one basedon wavelets (the scattering operator) and another based on high order statistics (multicorrelations). Then, the obtained features are analysed using several classification technics (principal component analysis, k-means, spectral clustering) to find the main cause of the DVT or the presence of PE
13

Bourien, Jérôme. "Analyse de distributions spatio-temporelles de transitoires dans des signaux vectoriels. Application à la détection-classification d'activités paroxystiques intercritiques dans des observations EEG." Phd thesis, Université Rennes 1, 2003. http://tel.archives-ouvertes.fr/tel-00007178.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les signaux électroencéphalographiques enregistrés chez les patients épileptiques reflètent, en dehors des périodes correspondant aux crises d'épilepsie, des signaux transitoires appelés "activités épileptiformes" (AE). L'analyse des AE peut contribuer à l'étude des épilepsies partielles pharmaco-résistantes. Une méthode de caractérisation de la dynamique spatio-temporelle des AE dans des signaux EEG de profondeur est présentée dans ce document. La méthode est constituée de quatre étapes:

1. Détection des AE monovoie. La méthode de détection, qui repose sur une approche heuristique, utilise un banc de filtres en ondelettes pour réhausser la composante pointue des AE (généralement appelée "spike" dans la littérature). La valeur moyenne des statistiques obtenues en sortie de chaque filtre est ensuite analysée avec un algorithme de Page-Hinkley dans le but de détecter des changements abrupts correspondant aux spikes.

2. Fusion des AE. Cette procédure recherche des co-occurrences entre AE monovoie à l'aide d'une fenêtre glissante puis forme des AE multivoies.

3. Extraction des sous-ensembles de voies fréquement et significativement activées lors des AE multivoies (appelés "ensembles d'activation").

4. Evaluation de l'éxistence d'un ordre d'activation temporel reproductible (éventuellement partiel) au sein de chaque ensemble d'activation.

Les méthodes proposées dans chacune des étapes ont tout d'abord été évaluées à l'aide de signaux simulés (étape 1) ou à l'aide de models Markoviens (étapes 2-4). Les résultats montrent que la méthode complète est robuste aux effets des fausses-alarmes. Cette méthode a ensuite été appliquée à des signaux enregistrés chez 8 patients (chacun contenant plusieurs centaines d'AE). Les résultats indiquent une grande reproductibilité des distributions spatio-temporelles des AE et ont permis l'identification de réseaux anatomo-fonctionnels spécifiques.
14

Jarrah, Adil. "Développement de méthodes statistiques et probabilistes en corrosion par piqûres pour l'estimation de la profondeur maximale : application à l'aluminium A5." Phd thesis, 2009. http://pastel.archives-ouvertes.fr/pastel-00005700.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La corrosion par piqûres est l'une des formes de corrosion les plus répandues. Elle touche tous les matériaux et se place dans un contexte économique très important. Elle peut se manifester à des endroits spécifiques de la structure et mener à sa détérioration en particulier en présence de sollicitations mécaniques. L'aspect stochastique du phénomène a conduit au développement de méthodes statistiques pour le caractériser. Cette caractérisation est souvent faite via l'estimation de la profondeur maximale des piqûres afin d'évaluer le risque de perforation de la structure. Pour cela, la méthode de Gumbel est l'approche la plus utilisée. L'objectif de ce travail est de revenir sur la vérification des conditions d'application de cette méthode notamment l'indépendance et de la comparer avec les autres approches basées sur la loi des valeurs extrêmes généralisée et la loi de dépassement de seuil. La condition d'indépendance est vérifiée à l'aide des processus spatiaux. Une adaptation de l'analyse spectrale en corrosion par piqûres est aussi proposée. La comparaison entre les approches est basée sur des simulations numériques dont les paramètres sont issus de l'expérimentation.
15

Van, Der Baan Mirko. "Deux méthodes d'inférence statistique appliquées aux données de sismique réflexion profonde : détection de signaux et localisation d'onde." Phd thesis, 1999. http://tel.archives-ouvertes.fr/tel-00745500.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de toute acquisition de données géophysiques est d'obtenir une image plus précise de l'intérieur de la Terre. Afin de préciser cette image, on utilise principalement des méthodes d'inférence déterministe ayant comme but de fournir une description exacte de chaque détail particulier. Contraire aux méthodes déterministes, les approches stat- istiques n'essaient de saisir que les caractéristiques principales de l'ensemble des déiails. Ceci réduit la complexité mathématique, nous permettant ainsi de mieux étudier certains phénomènes physiques. De plus, elles peuvent nous aider à sonder la Terre à une échelle plus petite que la résolution des méthodes déterministes. Finalement, elles peuvent nous fournir une appréciation de vraisemblance, nous aidant ainsi à prendre des décisions ou à reconnaître des signaux. Dans ce mémoire, nous avons utilisé ces 3 avantages sur 2 problèmes différents. D'abord , nous les avons employés afin d 'augmenter le rapport signal sur bruit en détectant des réflexions dans des données de sismique réflexion profonde d'une faible qualité. Ceci nous a permis de faciliter l'interprétation du profil considéré. Deux méthodes différentes ont été considérées, celle dite Classification par Vraisemblance Maximale et celle des Réseaux de Neurones. Ensuite, nous les avons utilisés afin d 'étudier le processus de la diffusion forte dans un milieu acoustique, stratifié et aléatoire. Afin d 'étudier ce problème, nous avons appliqué la théorie de la localisation d 'onde prédisant l'atténuation apparente et la dispersion d 'une impulsion traversant un tel milieu. Cette théorie nous a aussi permis d 'estimer la magnitude et la dimension typiques des fluctuations des vitesses et le facteur de qualité de l'atténuation intrinsèque sous le Bassin de Mauléon dans les Pyrénées Occidentales. Ceci nous a montré que la croùte supérieure y est plus hétérogène et plus atténuante que la croute inférieure et que les dimensions typiques y sont plus petites.

To the bibliography