Academic literature on the topic 'Profondeur statistique'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Profondeur statistique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Profondeur statistique":

1

Singh, Bhawan, and Richard Taillefer. "Le bilan énergétique et le gel au sol : une analyse statistique." Géographie physique et Quaternaire 38, no. 2 (November 29, 2007): 135–47. http://dx.doi.org/10.7202/032548ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
RÉSUMÉ Des mesures régulières détaillées des composantes du bilan radiatif et énergétique et des régimes thermiques et hydrique du sol jusqu'à 5 m de profondeur ont été prises entre les mois d'août 1979 et août 1980 dans une forêt de pins près du lac Hélène, Jamésie. Les analyses statistiques faites sur ces mesures indiquent que la température du sol et, par conséquent, le gel à l'intérieur du sol s'expliquent par les échanges d'énergie radiative et calorifique près de la surface et par l'accumulation de la neige sur la surface. Pour des périodes de temps choisies, les températures du sol sont faiblement corrélées avec le rayonnement solaire (K ↓ ), le flux de chaleur dans le sol (QG) et la température de l'air (TAIR). Lorsque les cumuls de ces variables (∑K ↓, ∑QG et ∑TAIR) ainsi que l'épaisseur de la neige (EPAIS) sont utilisés, les corrélations sont plus fortes. En ce qui a trait à la profondeur du gel, la corrélation est la plus forte avec EPAIS, ∑QG, ∑TAIR et ∑K ↓, en ordre d'importance. D'ailleurs ces variables expliquent plus de 99% de la variance de la profondeur du gel dans le sol.
2

Costa, Carla Barroso da, and Anderson Araújo-Oliveira. "MÉTACOGNITION, ÉTATS AFFECTIFS ET ENGAGEMENT COGNITIF CHEZ DES ÉTUDIANTS UNIVERSITAIRES: TRIADE PERCUTANTE POUR L’APPRENTISSAGE ET L’INCLUSION." Revista Educativa - Revista de Educação 23, no. 1 (January 20, 2021): 8602. http://dx.doi.org/10.18224/educ.v23i1.8602.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’article fait état des liens qui peuvent être établis entre les stratégies métacognitives, les états affectifs et la performance des étudiants universitaires. Il présente une analyse qualitative d’autoévaluations produites par des étudiants du premier cycle, dans le cadre d’un cours d’introduction à la statistique, au terme de la réalisation d’une situation d’évaluation comportant une tâche complexe. Les résultats suggèrent que l’engagement cognitif de l’étudiant dépend de sa prise de conscience et de sa participation active tant sur le plan motivationnel que sur le plan des actions à entreprendre. En outre, ils mettent en évidence l’importance de la mise en œuvre de situations d’évaluation qui privilégie l’autonomie, l’apprentissage en profondeur et la participation active des étudiants dans leurs propres évaluations visant à favoriser l’autorégulation ainsi qu’à encourager l’accessibilité, l’inclusion et le succès académique des étudiants universitaires.
3

Brunet, Etienne. "La lexicométrie française : naissance, évolution et perspectives." Articles 45, no. 1-2 (February 8, 2017): 13–33. http://dx.doi.org/10.7202/1038899ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Au terme d’une carrière de cinquante ans entièrement consacrée à la statistique linguistique, l’auteur tente d’établir un bilan de la discipline, au moins pour le domaine français. Il s’attache d’abord à évoquer les premières initiatives auxquelles sont associés entre autres les noms de Guiraud, Quemada, Gougenheim, Tournier et Muller. Puis il suit l’évolution des méthodes qui tendent à s’éloigner du modèle inférentiel prôné par Muller pour adopter une démarche descriptive où l’analyse s’appuie sur des calculs multidimensionnels. En passant de la calculette à l’ordinateur, l’outil informatique développe sa puissance sur des corpus de taille croissante, dont certains font l’objet d’un examen particulier : la BNF, Frantext, SketchEngine et enfin Google Books. La taille de ce dernier projet – qui atteint presque 100 milliards de mots pour la production française de ces deux derniers siècles – peut donner le vertige au jugement, sans effacer le doute, la composition du corpus, inégale et incertaine, faussant la chronologie. On en conclut que l’évidence aveuglante d’un résultat graphique ne doit pas en imposer à la raison. L’effet peut-être massif, et la cause obscure. La lexicométrie s’est beaucoup étendue en surface; il lui faut aussi gagner en profondeur.
4

Assemian, Emile Assie, Fernand Koffi Kouamé, Mahaman Bachir Saley, Kouadio Affian, Marc Youan Ta, Jean Patrice Roger Jourda, and Jean Biemi. "Étude de la productivité d’un aquifère de socle et approche statistique pour la détermination des tranches de profondeurs potentiellement productives : cas de la région de Bongouanou, est de la Côte d’Ivoire." Revue des sciences de l’eau 27, no. 1 (January 29, 2014): 81–97. http://dx.doi.org/10.7202/1021984ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Résumé Dans le département de Bongouanou, l’essentiel de l’approvisionnement en eau potable de la population est assuré par les eaux souterraines contenues dans les aquifères de socle des granites et des schistes. Malheureusement, plus de 20 % des forages réalisés sont négatifs, en raison de leur trop faible productivité. Ce travail a donc pour objectif d’améliorer la connaissance de ce type d'aquifère et d’évaluer ses potentialités en eau souterraine. Pour ce faire, des analyses statistiques des paramètres hydrogéologiques de 230 forages réalisés dans le département de Bongouanou ont été effectuées. Cet aquifère bénéficie d’une recharge moyenne annuelle de 145 mm. La moyenne du débit des forages est de 4,34 m3•h‑1 et la transmissivité moyenne est de 1,5•10‑4 m2•s‑1. Les aquifères de socle de la région de Bongouanou sont donc modestement productifs, caractéristique typique des milieux de socle altérés. Les résultats statistiques révèlent que les schistes, qui occupent plus de 80 % du territoire, sont plus productifs que les granites. Généralement, les forages implantés sur les pentes et les fonds de vallée, dans cette région, présentent des débits plus importants que ceux des plateaux. L’influence de l’altération sur la productivité des forages est démontrée. Statistiquement, elle se traduit par une relation apparente entre l’épaisseur des altérites meubles (saprolite) et la productivité. Ainsi, pour des épaisseurs de saprolite inférieures à 15 m (interprétées comme dues à l’absence de l’horizon fissuré perméable sous-jacent) et supérieures à 60 m (interprétées comme dues au fait que le forage recoupe une discontinuité subverticale argilisée), les débits sont très faibles. On observe aussi que ce sont seulement les 30 premiers mètres de l’horizon fissuré, situé juste sous la base des altérites meubles, qui sont les plus perméables, et donc les plus productifs; au-delà de cette limite, la perméabilité diminue sensiblement avec la profondeur. Ainsi, dans cette région, à partir de la surface du sol, les profondeurs optimales les plus productives en eau souterraine sont comprises entre 40 et 70 m pour les granites et 40 à 80 m pour les schistes. Enfin, ce travail permet de proposer un modèle conceptuel de la structure et des propriétés hydrodynamiques des aquifères de socle de cette région de la Côte d’Ivoire.
5

Caissie, D., N. El-Jabi, and G. Bourgeois. "Évaluation du débit réservé par méthodes hydrologiques et hydrobiologiques." Revue des sciences de l'eau 11, no. 3 (April 12, 2005): 347–64. http://dx.doi.org/10.7202/705311ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Plusieurs méthodes existent pour calculer le débit réservé d'un cours d'eau. Dans la présente étude deux approches sont analysées, soit les approches par méthodes hydrologiques et hydrobiologiques. Cinq méthodes hydrologiques d'évaluation du débit réservé ont été appliquées au ruisseau Catamaran au Nouveau-Brunswick (Canada), ainsi qu'une méthode hydrobiologique. Parmi les méthodes hydrologiques, on retrouve la méthode de Tennant, celle de 25% du débit moyen annuel (DMA), la méthode du débit médian (Q50) mensuel, 90% du débit classé (Q90) et la méthode basée sur l'analyse statistique de fréquence des débits faibles (7Q10). La méthode hydrobiologique utilisée dans la présente étude fut l'application du modèle PHABSIM pour le saumon Atlantique juvénile. Ce modèle est calibré en utilisant les données de vitesse d'écoulement (V), profondeur d'eau (D) et grosseur du substrat (S) pour trois différents débits. L'application des méthodes hydrologiques a démontré que certaines méthodes telle que la méthode Tennant, 25% DMA et la méthode du débit médian, donnent des résultats similaires surtout en période d'étiage. D'autre part, deux méthodes en particulier, soit la méthode de 90% du débit classé et celle basée sur une analyse statistique des débits faibles prédisent un débit réservé très faible en période d'étiage. Une modélisation de l'habitat physique du ruisseau Catamaran démontre que l'habitat disponible maximal se trouve généralement aux environs du débit moyen. De plus, il a été observé qu'en appliquant les modèles hydrologiques, l'habitat disponible était réduit par rapport à l'habitat maximum prédit par PHABSIM. En effet, l'habitat résultant de l'application de Tennant (30% DMA) et du 25% DMA représente environ 70% de l'habitat disponible maximum. Le débit calculé par la méthode du débit médian correspond à un habitat qui n'est que de 50% de l'habitat disponible maximum, tandis que les méthodes basées sur 90% du débit classé et l'analyse statistique des débits faibles ne représentent plus que des habitats de l'ordre de 20% à 40% de l'habitat disponible maximum. L'application de ces deux dernières méthodes laisse beaucoup de doute sur le niveau de protection des habitats aquatiques qu'elles procurent et il a été jugé utile de ne pas les recommander pour l'évaluation du débit réservé dans la région d'étude. Les autres méthodes (Tennant, 25% DMA et Q50) peuvent être utilisées. Cependant, l'application de la méthode du débit médian, qui peut donner des résultats proches de 50% de l'habitat disponible maximum, doit être appliquée avec précaution.
6

Demazeux, S. "DSM-5 : pourquoi avoir supprimé le système multiaxial ?" European Psychiatry 28, S2 (November 2013): 34–35. http://dx.doi.org/10.1016/j.eurpsy.2013.09.084.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’introduction d’un système multiaxial de cotation diagnostique était, avec l’adoption d’une approche athéorique et le recours à des critères opérationnels pour définir chaque trouble mental, l’une des innovations majeures de la troisième édition du Manuel Diagnostique et Statistique des Troubles Mentaux, publié en 1980 par l’Association psychiatrique américaine [1]. Le système multiaxial était censé incarner un « changement de paradigme » [5] dans la conception du diagnostic psychiatrique : en obligeant le clinicien à prendre en compte l’ensemble des éléments du tableau clinique, pas seulement les aspects les plus médicaux, mais aussi les facteurs psychologiques et sociaux, l’ambition du système multiaxial était d’assouplir la rigidité du modèle médical et de rectifier sa myopie quelque peu biologique. Très vite cependant, le système multiaxial montra ses limites : les facteurs de stress psychosociaux (Axes IV et V), pour des raisons de confidentialité, ne pouvaient pas faire partie du diagnostic officiel [3]. Surtout, l’articulation entre syndromes cliniques de l’Axe I et troubles de la personnalité diagnostiqués sur l’Axe II devint de plus en plus problématique : non seulement il était mesuré une importante co-occurrence des troubles mentaux à l’intérieur de chaque axe, mais la co-occurrence entre troubles de l’Axe I et ceux de l’Axe II était si massive que la question s’est posée de savoir s’il fallait y voir là une véritable « comorbidité » ou plutôt la faillite d’un système mal conçu car trop redondant [4]. Le DSM-5, paru en mai 2013, a adopté une solution radicale pour mettre fin aux embarras du système multiaxial : il a tout simplement été supprimé [2]. Dans cette présentation, il s’agira d’interroger les raisons pratiques, mais aussi profondément théoriques, qui ont amené les auteurs du DSM-5 à réorganiser en profondeur la structure de la classification.
7

Beaud, Jean-Pierre, and Jean-Guy Prévost. "Un regard nouveau sur la prospérité. L’émergence des statistiques économiques au Canada (1891-1911)." Hors thème, no. 18-19 (April 19, 2011): 277–95. http://dx.doi.org/10.7202/1002312ar.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Jusqu’à la fin du XIXe siècle, l’activité principale des statisticiens était le recensement des personnes et leur attention se portait essentiellement sur les statistiques de la population. Plus précisément, la croissance démographique était tenue pour l’indicateur privilégié de la prospérité du pays. Le début du XXe siècle correspondra toutefois, pour la plupart des appareils statistiques nationaux, à une transformation profonde : désormais, les données relatives à la production et aux échanges occuperont la première place et les spécialistes de celles-ci, les économistes, prendront les postes de commande. Cet article expose comment cette mutation s’est opérée dans un cas précis, celui du Canada; il s’agira en somme de repérer les transformations que connaîtront certains objets d’enquête, l’apparition de nouveaux champs d’investigation et surtout l’émergence rapide, dans le discours produit par l’appareil statistique, de concepts clés de l’économie politique classique.
8

Brabet, Julienne. "Faut-il encore parler d'approche qualitative et d'approche quantitative?" Recherche et Applications en Marketing (French Edition) 3, no. 1 (March 1988): 75–89. http://dx.doi.org/10.1177/076737018800300105.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La distinction classique dans les manuels de sciences humaines entre approche qualitative et approche quantitative a-t-elle toujours un sens? Cet article cherche à préciser ce que sous-entend cette distinction sur un certain nombre de dimensions: le type de recherches (exploratoire ou non, intensive ou extensive, integrative ou parcellisante, objective ou interprétative), la méthode de collecte de données, le type de variables et le traitement statistique adopté. L'article tend à montrer que la transformation très profonde des traitements statistiques remet fondamentalement en cause cette distinction et exige un effort d'adaptation de la part des chercheurs.
9

Ludwig, Antoinette, Michel Begras-Poulin, Stephane Lair, and Denise Belanger. "Morphological Description of American Crow, Corvus brachyrhynchos, Populations in Southern Quebec." Canadian Field-Naturalist 123, no. 2 (April 1, 2009): 133. http://dx.doi.org/10.22621/cfn.v123i2.691.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
The American Crow has always been a much scrutinized bird in North America but, since the emergence of West Nile Virus (WNV) in North America in 1999, public health authorities’ attention to it has been raised another notch. In Québec, like everywhere else in North America, part of the WNV surveillance programme was based on detection of WNV mortality in crow populations. During the summer of the 2005 surveillance season, we followed an age and gender determination protocol, as well as a morphological measurement protocol, on dead crows sent in for WNV status determination, to improve our knowledge of the crow population in Québec. Statistical analysis of the measurements revealed that age and gender were important factors in the morphological characterisation of the American Crow. Bill depth and head-to-bill length appeared as the most important morphological variables for gender prediction through a discriminant function analysis. We also realized that, in adult age groups, our WNV positive carcasses had lower mean weights than carcasses that tested negative for WNV, in adult age groups.Depuis toujours, la corneille d’Amérique est un oiseau très étudié, mais, depuis l’apparition du virus du Nil occidental (VNO) en Amérique du Nord en 1999, l’attention des autorités en santé publique sur cet oiseau a encore augmenté. Au Québec, comme ailleurs en Amérique du Nord, une part importante du programme de surveillance pour la détection du VNO a été basée sur la détection des mortalités liées au VNO dans les populations de corneilles. Pour améliorer notre connaissance de cette espèce au Québec, nous avons mis à profit la récolte des carcasses au cours de l’été 2005 dans le cadre du programme de surveillance en instaurant un protocole de détermination de l’âge, du genre ainsi qu’une prise des mesures morphologiques sur ces mêmes carcasses. L’analyse statistique des résultats a montré qu’à la fois l’âge et le genre étaient des facteurs importants dans la caractérisation morphologique de la corneille d’Amérique. À l’aide de l’analyse discriminante, il est apparu que la profondeur du bec ainsi que la distance tête-bec étaient les mesures les plus importantes pour prédire le genre de l’oiseau. Nos analyses nous ont également permis d’observer que, dans les groupes d’oiseaux adultes, les carcasses positives pour le VNO étaient en moyenne moins lourdes que les carcasses négatives.
10

Aguilera, Mathieu. "« Así se administra a ciegas en España » : statistique, territoire et nation à l’ Estamento de Procuradores (1835)." Parlement[s], Revue d'histoire politique N° HS 12, no. 3 (November 8, 2017): 41–62. http://dx.doi.org/10.3917/parl2.hs12.0041.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Résumé L’article analyse les débats parlementaires du mois de février 1835 à l’Estamento de Procuradores portant sur un projet de recensement de population et des richesses organisé par le ministère de l’Intérieur. Cet épisode parlementaire fait apparaître de profondes divergences quant aux modalités de l’élaboration et des usages de l’information statistique au service du gouvernement des hommes et des ressources, à un moment charnière du démantèlement des institutions de la Monarchie absolutiste et de réinvention de la Nation.

Dissertations / Theses on the topic "Profondeur statistique":

1

Cisse, Mouhamadou Moustapha. "La fonction de profondeur de Tukey." Master's thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/34506.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans ce mémoire nous définissons la fonction de profondeur de Tukey d’une mesure positive et finie sur Rd. Par la suite nous étudions les propriétés de cette fonction, notamment les propriétés de continuité et de convexité. Notre objectif est d’établir une caractérisation d’une mesure par sa fonction de profondeur. Plus précisément, étant donné μ et v deux mesures de Borel positives et finies sur Rd, a-t-on μ = v si μ et v ont la même fonction de profondeur? En utilisant des propriétés de la fonction de profondeur, nous établissons une caractérisation lorsque la mesure satisfait certaines propriétés géométriques. Par la suite, nous présentons quelques approches afin de calculer la fonction de profondeur d’une mesure. Enfin nous prouvons le théorème de caractérisation d’une mesure discrète par sa fonction de profondeur de Tukey.
In this memoir we define the Tukey depth function of a positive finite measure on Rd. Then we study the properties of this function, in particular the properties of continuity and convexity. We seek to establish a characterization of a measure by its depth function. That is, given μ, v finite positive measures on Rd, do we have μ = v if μ and v have the same Tukey depth function? We use the properties of the depth function to establish such a characterization when the measure satisfies certain geometric properties. Then we exhibit some approaches for computing the Tukey depth function. Finally we prove the theorem of characterisation of a discrete measure by its Tukey depth function.
2

Genest, Maxime. "Mesures de localisation et de dispersion et profondeur de Tukey en statistique directionnelle." Thesis, Université Laval, 2010. http://www.theses.ulaval.ca/2010/27669/27669.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Resmerita, Diana. "Compression pour l'apprentissage en profondeur." Thesis, Université Côte d'Azur, 2022. http://www.theses.fr/2022COAZ4043.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les voitures autonomes sont des applications complexes qui nécessitent des machines puissantes pour pouvoir fonctionner correctement. Des tâches telles que rester entre les lignes blanches, lire les panneaux ou éviter les obstacles sont résolues en utilisant plusieurs réseaux neuronaux convolutifs (CNN) pour classer ou détecter les objets. Il est très important que tous les réseaux fonctionnent en parallèle afin de transmettre toutes les informations nécessaires et de prendre une décision commune. Aujourd'hui, à force de s'améliorer, les réseaux sont devenus plus gros et plus coûteux en termes de calcul. Le déploiement d'un seul réseau devient un défi. La compression des réseaux peut résoudre ce problème. Par conséquent, le premier objectif de cette thèse est de trouver des méthodes de compression profonde afin de faire face aux limitations de mémoire et de puissance de calcul présentes sur les systèmes embarqués. Les méthodes de compression doivent être adaptées à un processeur spécifique, le MPPA de Kalray, pour des implémentations à court terme. Nos contributions se concentrent principalement sur la compression du réseau après l'entraînement pour le stockage, ce qui signifie compresser des paramètres du réseau sans réentraîner ou changer l'architecture originale et le type de calculs. Dans le contexte de notre travail, nous avons décidé de nous concentrer sur la quantification. Notre première contribution consiste à comparer les performances de la quantification uniforme et de la quantification non-uniforme, afin d'identifier laquelle des deux présente un meilleur compromis taux-distorsion et pourrait être rapidement prise en charge par l'entreprise. L'intérêt de l'entreprise est également orienté vers la recherche de nouvelles méthodes innovantes pour les futures générations de MPPA. Par conséquent, notre deuxième contribution se concentre sur la comparaison des représentations en virgule flottante (FP32, FP16) aux représentations arithmétiques alternatives telles que BFloat16, msfp8, Posit8. Les résultats de cette analyse étaient en faveur de Posit8. Ceci a motivé la société Kalray à concevoir un décompresseur de FP16 vers Posit8. Enfin, de nombreuses méthodes de compression existent déjà, nous avons décidé de passer à un sujet adjacent qui vise à quantifier théoriquement les effets de l'erreur de quantification sur la précision du réseau. Il s'agit du deuxième objectif de la thèse. Nous remarquons que les mesures de distorsion bien connues ne sont pas adaptées pour prédire la dégradation de la précision dans le cas de l'inférence pour les réseaux de neurones compressés. Nous définissons une nouvelle mesure de distorsion avec une expression analytique qui s’apparente à un rapport signal/bruit. Un ensemble d'expériences a été réalisé en utilisant des données simulées et de petits réseaux qui montrent le potentiel de cette mesure de distorsion
Autonomous cars are complex applications that need powerful hardware machines to be able to function properly. Tasks such as staying between the white lines, reading signs, or avoiding obstacles are solved by using convolutional neural networks (CNNs) to classify or detect objects. It is highly important that all the networks work in parallel in order to transmit all the necessary information and take a common decision. Nowadays, as the networks improve, they also have become bigger and more computational expensive. Deploying even one network becomes challenging. Compressing the networks can solve this issue. Therefore, the first objective of this thesis is to find deep compression methods in order to cope with the memory and computational power limitations present on embedded systems. The compression methods need to be adapted to a specific processor, Kalray's MPPA, for short term implementations. Our contributions mainly focus on compressing the network post-training for storage purposes, which means compressing the parameters of the network without retraining or changing the original architecture and the type of the computations. In the context of our work, we decided to focus on quantization. Our first contribution consists in comparing the performances of uniform quantization and non-uniform quantization, in order to identify which of the two has a better rate-distortion trade-off and could be quickly supported in the company. The company's interest is also directed towards finding new innovative methods for future MPPA generations. Therefore, our second contribution focuses on comparing standard floating-point representations (FP32, FP16) to recently proposed alternative arithmetical representations such as BFloat16, msfp8, Posit8. The results of this analysis were in favor for Posit8. This motivated the company Kalray to conceive a decompressor from FP16 to Posit8. Finally, since many compression methods already exist, we decided to move to an adjacent topic which aims to quantify theoretically the effects of quantization error on the network's accuracy. This is the second objective of the thesis. We notice that well-known distortion measures are not adapted to predict accuracy degradation in the case of inference for compressed neural networks. We define a new distortion measure with a closed form which looks like a signal-to-noise ratio. A set of experiments were done using simulated data and small networks, which show the potential of this distortion measure
4

Moukari, Michel. "Estimation de profondeur à partir d'images monoculaires par apprentissage profond." Thesis, Normandie, 2019. http://www.theses.fr/2019NORMC211/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La vision par ordinateur est une branche de l'intelligence artificielle dont le but est de permettre à une machine d'analyser, de traiter et de comprendre le contenu d'images numériques. La compréhension de scène en particulier est un enjeu majeur en vision par ordinateur. Elle passe par une caractérisation à la fois sémantique et structurelle de l'image, permettant d'une part d'en décrire le contenu et, d'autre part, d'en comprendre la géométrie. Cependant tandis que l'espace réel est de nature tridimensionnelle, l'image qui le représente, elle, est bidimensionnelle. Une partie de l'information 3D est donc perdue lors du processus de formation de l'image et il est d'autant plus complexe de décrire la géométrie d'une scène à partir d'images 2D de celle-ci.Il existe plusieurs manières de retrouver l'information de profondeur perdue lors de la formation de l'image. Dans cette thèse nous nous intéressons à l’estimation d'une carte de profondeur étant donné une seule image de la scène. Dans ce cas, l'information de profondeur correspond, pour chaque pixel, à la distance entre la caméra et l'objet représenté en ce pixel. L'estimation automatique d'une carte de distances de la scène à partir d'une image est en effet une brique algorithmique critique dans de très nombreux domaines, en particulier celui des véhicules autonomes (détection d’obstacles, aide à la navigation).Bien que le problème de l'estimation de profondeur à partir d'une seule image soit un problème difficile et intrinsèquement mal posé, nous savons que l'Homme peut apprécier les distances avec un seul œil. Cette capacité n'est pas innée mais acquise et elle est possible en grande partie grâce à l'identification d'indices reflétant la connaissance a priori des objets qui nous entourent. Par ailleurs, nous savons que des algorithmes d'apprentissage peuvent extraire ces indices directement depuis des images. Nous nous intéressons en particulier aux méthodes d’apprentissage statistique basées sur des réseaux de neurones profond qui ont récemment permis des percées majeures dans de nombreux domaines et nous étudions le cas de l'estimation de profondeur monoculaire
Computer vision is a branch of artificial intelligence whose purpose is to enable a machine to analyze, process and understand the content of digital images. Scene understanding in particular is a major issue in computer vision. It goes through a semantic and structural characterization of the image, on one hand to describe its content and, on the other hand, to understand its geometry. However, while the real space is three-dimensional, the image representing it is two-dimensional. Part of the 3D information is thus lost during the process of image formation and it is therefore non trivial to describe the geometry of a scene from 2D images of it.There are several ways to retrieve the depth information lost in the image. In this thesis we are interested in estimating a depth map given a single image of the scene. In this case, the depth information corresponds, for each pixel, to the distance between the camera and the object represented in this pixel. The automatic estimation of a distance map of the scene from an image is indeed a critical algorithmic brick in a very large number of domains, in particular that of autonomous vehicles (obstacle detection, navigation aids).Although the problem of estimating depth from a single image is a difficult and inherently ill-posed problem, we know that humans can appreciate distances with one eye. This capacity is not innate but acquired and made possible mostly thanks to the identification of indices reflecting the prior knowledge of the surrounding objects. Moreover, we know that learning algorithms can extract these clues directly from images. We are particularly interested in statistical learning methods based on deep neural networks that have recently led to major breakthroughs in many fields and we are studying the case of the monocular depth estimation
5

Narasimha, Ramya. "Méthodes dʼestimation de la profondeur par mise en correspondance stéréoscopique à lʼaide de champs aléatoires couplés." Grenoble, 2010. http://www.theses.fr/2010GRENM053.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La profondeur des objets dans la scène 3-D peut être récupérée à partir d'une paire d'images stéréo en trouvant des correspondances entre les deux points de vue. Cette tâche consiste à identifier les points dans les images gauche et droite, qui sont les projections du même point de la scène. La différence entre les emplacements des deux points correspondants est la disparité, qui est inversement proportionnelle à la profondeur 3D. Dans cette thèse, nous nous concentrons sur les techniques Bayésiennes qui contraignent les estimations des disparités en appliquant des hypothèses de lissage explicites. Cependant, il ya des contraintes supplémentaires qui doivent être incluses, par exemple, les disparités ne doivent pas être lissées au travers des bords des objets, les disparités doivent être compatibles avec les propriétées géométriques de la surface. L'objectif de cette thèse est d'intégrer ces contraintes en utilisant des informations monoculaires et des informations géométrique différentielle sur la surface. Dans ce but, cette thèse considère deux problèmes importants associés à stéréo : le premier est la localisation des discontinuités des disparités et le second vise à récupérer les disparités binoculaires en conformité avec les propriétés de surface de la scène. Afin de faire face aux discontinuités des disparités, nous nous proposons d'estimer conjointement les disparités et les frontières des objets. Cette démarche est motivée par le fait que les discontinuités des disparités se trouvent à proximité des frontières des objets. La seconde méthode consiste à contraindre les disparités pour qu'elles soient compatibles avec la surface et les normales à la surface en estimant les deux en même temps
The depth of objects in 3-D scene can be recovered from a stereo image-pair by finding correspondences between the two views. This stereo matching task involves identifying the corresponding points in the left and the right images, which are the projections of the same scene point. The difference between the locations of the two corresponding points is the disparity, which is inversely related to the 3-D depth. In this thesis, we focus on Bayesian techniques that constrain the disparity estimates. In particular, these constraints involve explicit smoothness assumptions. However, there are further constraints that should be included, for example, the disparities should not be smoothed across object boundaries, the disparities should be consistent with geometric properties of the surface, and regions with similar colour should have similar disparities. The goal of this thesis is to incorporate such constraints using monocular cues and differential geometric information about the surface. To this end, this thesis considers two important problems associated with stereo matching; the first is localizing disparity discontinuities and second aims at recovering binocular disparities in accordance with the surface properties of the scene under consideration. We present a possible solution for each these problems. In order to deal with disparity discontinuities, we propose to cooperatively estimating disparities and object boundaries. This is motivated by the fact that the disparity discontinuities occur near object boundaries. The second one deals with recovering surface consistent disparities and surface normals by estimating the two simultaneously
6

Narasimha, Ramya. "Méthodes dʼestimation de la profondeur par mise en correspondance stéréoscopique à lʼaide de champs aléatoires couplés." Phd thesis, Grenoble, 2010. http://www.theses.fr/2010GRENM056.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La profondeur des objets dans la scène 3-D peut être récupérée à partir d'une paire d'images stéréo en trouvant des correspondances entre les deux points de vue. Cette tâche consiste à identifier les points dans les images gauche et droite, qui sont les projections du même point de la scène. La différence entre les emplacements des deux points correspondants est la disparité, qui est inversement proportionnelle à la profondeur 3D. Dans cette thèse, nous nous concentrons sur les techniques Bayésiennes qui contraignent les estimations des disparités en appliquant des hypothèses de lissage explicites. Cependant, il ya des contraintes supplémentaires qui doivent être incluses, par exemple, les disparités ne doivent pas être lissées au travers des bords des objets, les disparités doivent être compatibles avec les propriétées géométriques de la surface. L'objectif de cette thèse est d'intégrer ces contraintes en utilisant des informations monoculaires et des informations géométrique différentielle sur la surface. Dans ce but, cette thèse considère deux problèmes importants associés à stéréo : le premier est la localisation des discontinuités des disparités et le second vise à récupérer les disparités binoculaires en conformité avec les propriétés de surface de la scène. Afin de faire face aux discontinuités des disparités, nous nous proposons d'estimer conjointement les disparités et les frontières des objets. Cette démarche est motivée par le fait que les discontinuités des disparités se trouvent à proximité des frontières des objets. La seconde méthode consiste à contraindre les disparités pour qu'elles soient compatibles avec la surface et les normales à la surface en estimant les deux en même temps
The depth of objects in 3-D scene can be recovered from a stereo image-pair by finding correspondences between the two views. This stereo matching task involves identifying the corresponding points in the left and the right images, which are the projections of the same scene point. The difference between the locations of the two corresponding points is the disparity, which is inversely related to the 3-D depth. In this thesis, we focus on Bayesian techniques that constrain the disparity estimates. In particular, these constraints involve explicit smoothness assumptions. However, there are further constraints that should be included, for example, the disparities should not be smoothed across object boundaries, the disparities should be consistent with geometric properties of the surface, and regions with similar colour should have similar disparities. The goal of this thesis is to incorporate such constraints using monocular cues and differential geometric information about the surface. To this end, this thesis considers two important problems associated with stereo matching; the first is localizing disparity discontinuities and second aims at recovering binocular disparities in accordance with the surface properties of the scene under consideration. We present a possible solution for each these problems. In order to deal with disparity discontinuities, we propose to cooperatively estimating disparities and object boundaries. This is motivated by the fact that the disparity discontinuities occur near object boundaries. The second one deals with recovering surface consistent disparities and surface normals by estimating the two simultaneously
7

Cénac, Peggy. "Étude statistique de séquences biologiques et convergence de martingales." Toulouse 3, 2006. http://www.theses.fr/2006TOU30065.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le système dynamique Chaos Game Representation associe à une suite de lettres dans un alphabet fini, une mesure empirique sur un ensemble. Fournit-elle plus d'information que les méthodes de comptage de mots classiques ? A partir d'une caractérisation basée sur la CGR, on propose une nouvelle famille de tests donnant l'ordre d'une chaîne de Markov homogène. On définit ensuite une construction d'arbres digitaux de recherche, inspirés par la CGR, en insérant successivement les préfixes retournés d'une chaîne de Markov. On montre que les longueurs des branches critiques se comportent, au premier ordre, comme si les séquences insérées étaient indépendantes entre elles. La dernière partie est consacrée à l'étude de la convergence presque sûre des moments normalisés de tout ordre de martingales vectorielles dans le théorème de la limite centrale presque sûr. Les résultats sont appliqués aux erreurs d'estimation et de prédiction dans les régressions linéaires et les processus de branchement
The Chaos Game Representation is a dynamical system which maps a sequence of letters taken from a finite alphabet onto an empirical measure on a set. We show how the CGR can be used to characterize the order of an homogeneous Markov chain and to define a new family of tests. Then we propose a construction of Digital Search Trees, inspired from the CGR, by successively inserting all the returned prefixes of a Markov chain. We give the asymptotic behavior of the critical lengths of paths, which turns out to be, at first order, the same one as in the case of DST built from independent Markov chains. A last part deals with properties of almost sure convergence of vectorial martingales. Under suitable regularity conditions on the growing process, we establish the convergence of normalized moments of all orders in the almost sure central limit theorem. The results are applied to the cumulated errors of estimation and prediction in linear regression models and branching processes
8

Staerman, Guillaume. "Functional anomaly detection and robust estimation." Electronic Thesis or Diss., Institut polytechnique de Paris, 2022. http://www.theses.fr/2022IPPAT021.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’engouement pour l’apprentissage automatique s’étend à presque tous les domaines comme l’énergie, la médecine ou la finance. L’omniprésence des capteurs met à disposition de plus en plus de données avec une granularité toujours plus fine. Une abondance de nouvelles applications telles que la surveillance d’infrastructures complexes comme les avions ou les réseaux d’énergie, ainsi que la disponibilité d’échantillons de données massives, potentiellement corrompues, ont mis la pression sur la communauté scientifique pour développer de nouvelles méthodes et algorithmes d’apprentissage automatique fiables. Le travail présenté dans cette thèse s’inscrit dans cette ligne de recherche et se concentre autour de deux axes : la détection non-supervisée d’anomalies fonctionnelles et l’apprentissage robuste, tant du point de vue pratique que théorique.La première partie de cette thèse est consacrée au développement d’algorithmes efficaces de détection d’anomalies dans le cadre fonctionnel. Plus précisément, nous introduisons Functional Isolation Forest (FIF), un algorithme basé sur le partitionnement aléatoire de l’espace fonctionnel de manière flexible afin d’isoler progressivement les fonctions les unes des autres. Nous proposons également une nouvelle notion de profondeur fonctionnelle basée sur l’aire de l’enveloppe convexe des courbes échantillonnées, capturant de manière naturelle les écarts graduels de centralité. Les problèmes d’estimation et de calcul sont abordés et diverses expériences numériques fournissent des preuves empiriques de la pertinence des approches proposées. Enfin, afin de fournir des recommandations pratiques, la performance des récentes techniques de détection d’anomalies fonctionnelles est évaluée sur deux ensembles de données réelles liés à la surveillance des hélicoptères en vol et à la spectrométrie des matériaux de construction.La deuxième partie est consacrée à la conception et à l’analyse de plusieurs approches statistiques, potentiellement robustes, mêlant la profondeur de données et les estimateurs robustes de la moyenne. La distance de Wasserstein est une métrique populaire résultant d’un coût de transport entre deux distributions de probabilité et permettant de mesurer la similitude de ces dernières. Bien que cette dernière ait montré des résultats prometteurs dans de nombreuses applications d’apprentissage automatique, elle souffre d’une grande sensibilité aux valeurs aberrantes. Nous étudions donc comment tirer partie des estimateurs de la médiane des moyennes (MoM) pour renforcer l’estimation de la distance de Wasserstein avec des garanties théoriques. Par la suite, nous introduisons une nouvelle fonction de profondeur statistique dénommée Affine-Invariante Integrated Rank-Weighted (AI-IRW). Au-delà de l’analyse théorique effectuée, des résultats numériques sont présentés, confirmant la pertinence de cette profondeur. Les sur-ensembles de niveau des profondeurs statistiques donnent lieu à une extension possible des fonctions quantiles aux espaces multivariés. Nous proposons une nouvelle mesure de similarité entre deux distributions de probabilité. Elle repose sur la moyenne de la distance de Hausdorff entre les régions quantiles, induites par les profondeur de données, de chaque distribution. Nous montrons qu’elle hérite des propriétés intéressantes des profondeurs de données telles que la robustesse ou l’interprétabilité. Tous les algorithmes développés dans cette thèse sont accessible en ligne
Enthusiasm for Machine Learning is spreading to nearly all fields such as transportation, energy, medicine, banking or insurance as the ubiquity of sensors through IoT makes more and more data at disposal with an ever finer granularity. The abundance of new applications for monitoring of complex infrastructures (e.g. aircrafts, energy networks) together with the availability of massive data samples has put pressure on the scientific community to develop new reliable Machine-Learning methods and algorithms. The work presented in this thesis focuses around two axes: unsupervised functional anomaly detection and robust learning, both from practical and theoretical perspectives.The first part of this dissertation is dedicated to the development of efficient functional anomaly detection approaches. More precisely, we introduce Functional Isolation Forest (FIF), an algorithm based on randomly splitting the functional space in a flexible manner in order to progressively isolate specific function types. Also, we propose the novel notion of functional depth based on the area of the convex hull of sampled curves, capturing gradual departures from centrality, even beyond the envelope of the data, in a natural fashion. Estimation and computational issues are addressed and various numerical experiments provide empirical evidence of the relevance of the approaches proposed. In order to provide recommendation guidance for practitioners, the performance of recent functional anomaly detection techniques is evaluated using two real-world data sets related to the monitoring of helicopters in flight and to the spectrometry of construction materials.The second part describes the design and analysis of several robust statistical approaches relying on robust mean estimation and statistical data depth. The Wasserstein distance is a popular metric between probability distributions based on optimal transport. Although the latter has shown promising results in many Machine Learning applications, it suffers from a high sensitivity to outliers. To that end, we investigate how to leverage Medians-of-Means (MoM) estimators to robustify the estimation of Wasserstein distance with provable guarantees. Thereafter, a new statistical depth function, the Affine-Invariant Integrated Rank-Weighted (AI-IRW) depth is introduced. Beyond the theoretical analysis carried out, numerical results are presented, providing strong empirical confirmation of the relevance of the depth function proposed. The upper-level sets of statistical depths—the depth-trimmed regions—give rise to a definition of multivariate quantiles. We propose a new discrepancy measure between probability distributions that relies on the average of the Hausdorff distance between the depth-based quantile regions w.r.t. each distribution and demonstrate that it benefits from attractive properties of data depths such as robustness or interpretability. All algorithms developed in this thesis are open-sourced and available online
9

Jarrah, Adil. "Développement de méthodes statistiques et probabilistes en corrosion par piqûres pour l’estimation de la profondeur maximale : application à l’aluminium A5." Paris, ENSAM, 2009. http://www.theses.fr/2009ENAM0024.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La corrosion par piqûres est l'une des formes de corrosion les plus répandues. Elle touche tous les matériaux et se place dans un contexte économique très important. Elle peut se manifester à des endroits spécifiques de la structure et mener à sa détérioration en particulier en présence de sollicitations mécaniques. L’aspect stochastique du phénomène a conduit au développement de méthodes statistiques pour le caractériser. Cette caractérisation est souvent faite via l’estimation de la profondeur maximale des piqûres afin d’évaluer le risque de perforation de la structure. Pour cela, la méthode de Gumbel est l’approche la plus utilisée. L’objectif de ce travail est de revenir sur la vérification des conditions d’application de cette méthode notamment l’indépendance et de la comparer avec les autres approches basées sur la loi des valeurs extrêmes généralisée et la loi de dépassement de seuil. La condition d’indépendance est vérifiée à l’aide des processus spatiaux. Une adaptation de l’analyse spectrale en corrosion par piqûres est aussi proposée. La comparaison entre les approches est basée sur des simulations numériques dont les paramètres sont issus de l’expérimentation
Pitting corrosion is one of the most prevalent forms of corrosion. It affects all materials and takes place in a very important economic context. Pits can manifest locally over the structure and leads to its deterioration particularly in the presence of mechanical solicitations. The stochastic aspect of the phenomenon led to the development of statistical methods in order to characterize it. This characterization is often done through the estimation of maximum pit depth in the aim to assess the risk of perforation. For this aim, the method of Gumbel is often used. The objective of this work is to check the conditions of application of this method notably the independence and compare it with the approaches based on law of generalized extreme values and the peak over threshold. The condition of independence is verified using spatial process. An adaptation of the spectral analysis in the context of pitting corrosion is also proposed. The comparison between the approaches is based on numerical simulations which the parameters come from the experimentation
10

Van, Der Baan Mirko. "Deux méthodes d'interférence statistique appliquées aux données de sismique réflexion profonde : détection de signaux et localisation d'onde." Grenoble 1, 1999. https://tel.archives-ouvertes.fr/tel-00745500.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de toute acquisition de donnees geophysiques est d'obtenir une image plus precise de l'interieur de la terre. Afin de preciser cette image, on utilise principalement des methodes d'inference deterministe ayant comme but de fournir une description exacte de chaque detail particulier. Contraire aux methodes deterministes, les approches statistiques n'essaient de saisir que les caracteristiques principales de l'ensemble des details. Ceci reduit la complexite mathematique, nous permettant ainsi de mieux etudier certains phenomenes physiques. De plus, elles peuvent nous aider a sonder la terre a une echelle plus petite que la resolution des methodes deterministes. Finalement, elles peuvent nous fournir une appreciation de vraisemblance, nous aidant ainsi a prendre des decisions ou a reconnaitre des signaux. Dans ce memoire, nous avons utilise ces 3 avantages sur 2 problemes differents. D'abord, nous les avons employes afin d'augmenter le rapport signal sur bruit en detectant des reflexions dans des donnees de sismique reflexion profonde d'une faible qualite. Ceci nous a permis de faciliter l'interpretation du profil considere. Deux methodes differentes ont ete considerees, celle dite classification par vraisemblance maximale et celle des reseaux de neurones. Ensuite, nous les avons utilises afin d'etudier le processus de la diffusion forte dans un milieu acoustique, stratifie et aleatoire. Afin d'etudier ce probleme, nous avons applique la theorie de la localisation d'onde predisant l'attenuation apparente et la dispersion d'une impulsion traversant un tel milieu. Cette theorie nous a aussi permis d'estimer la magnitude et la dimension typiques des fluctuations des vitesses et le facteur de qualite de l'attenuation intrinseque sous le bassin de mauleon dans les pyrenees occidentales. Ceci nous a montre que la croute superieure y est plus heterogene et plus attenuante que la croute inferieure et que les dimensions typiques y sont plus petites.

To the bibliography