Dissertations / Theses on the topic 'Parfums – Méthodes statistiques – Analyse'

To see the other types of publications on this topic, follow the link: Parfums – Méthodes statistiques – Analyse.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Parfums – Méthodes statistiques – Analyse.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Jallat, Jérôme. "Mise au point d'une méthode sensorielle d'analyse descriptive des odeurs de parfumerie." Ecole nationale du génie rural, des eaux et des forêts (Paris ; Nancy ; 1968-2006), 1995. http://www.theses.fr/1995ENGR0006.

Full text
Abstract:
La création d'un parfum procède d'une démarche artisanale: un créateur, le parfumeur, compose "un jus” en utilisant un nombre plus ou moins grand de matières premières naturelles ou synthétiques. Il s'agit d'une démarche artisanale en ce sens que le parfumeur utilise son savoir-faire et son goût personnel pour créer une oeuvre originale. Mais le parfum est aussi un produit destiné à la consommation, qui doit plaire et être vendu au plus grand nombre. Il est donc nécessaire pour les parfumeurs de disposer d'un outil de communication avec les consommateurs, afin de créer un jus le plus proche possible "des tendances du marché". Le dialogue entre parfumeurs et consommateurs est généralement assuré par les services marketing des sociétés productrices de parfums. Mais l'absence d'une véritable méthode d'analyse descriptive des odeurs conduit ces services à qualifier la cible d'un parfum, et non le parfum lui même. Il apparaît donc nécessaire de concevoir une méthode d'analyse descriptive des odeurs permettant un dialogue efficace entre les différents acteurs d'une entreprise de parfumerie. Notre démarche est à placer dans le cadre de ce besoin. Nous avons conduit nos travaux dans le cadre d'un contrat CIFRE, au sein du laboratoire d'analyse sensorielle de la société Bourjois. Cette société a été parmi les premières, dans son domaine, à développer l'analyse sensorielle comme outil de recherche sur la perception des parfums
The creation of a perfume is an artisanal process: a creator. The perfumer, composes "a juice" using a greater or lesser number of natural or synthetic natural or synthetic raw materials. The process is in the sense that the perfumer uses his or her know-how and personal taste to create an original work of art. But perfume is also a product intended for consumption, which must please and be sold to the greatest number. It is therefore necessary for perfumers to have a tool for communicating with communication with consumers, in order to create a juice as close as possible to market trends". Dialogue between perfumers and consumers is generally ensured by the marketing departments of perfume companies. But the absence lack of any real method of descriptive odor analysis leads these departments to not the fragrance itself. It therefore appears necessary to devise a method for descriptive odor analysis to enable effective dialogue between the various players in a perfume company. Our approach is in line with this need. We carried out our work as part of a CIFRE contract, within the sensory analysis laboratory of the Bourjois company. This company was one of the first companies in its field to develop sensory analysis as a tool for research into fragrance perception
APA, Harvard, Vancouver, ISO, and other styles
2

Loustau, Sébastien. "Performances statistiques de méthodes à noyaux." Phd thesis, Université de Provence - Aix-Marseille I, 2008. http://tel.archives-ouvertes.fr/tel-00343377.

Full text
Abstract:
Cette thèse se concentre sur le modèle de classification binaire. Etant donné $n$ couples de variables aléatoires indépendantes et identiquement distribuées (i.i.d.) $(X_i,Y_i)$, $i=1,\ldots ,n$ de loi $P$, on cherche à prédire la classe $Y\in\{-1,+1\}$ d'une nouvelle entrée $X$ où $(X,Y)$ est de loi $P$. La règle de Bayes, notée $f^*$, minimise l'erreur de généralisation $R(f)=P(f(X)\not=Y)$. Un algorithme de classification doit s'approcher de la règle de Bayes. Cette thèse suit deux axes : établir des vitesses de convergence vers la règle de Bayes et proposer des procédures adaptatives.

Les méthodes de régularisation ont montrées leurs intérêts pour résoudre des problèmes de classification. L'algorithme des Machines à Vecteurs de Support (SVM) est aujourd'hui le représentant le plus populaire. Dans un premier temps, cette thèse étudie les performances statistiques de cet algorithme, et considère le problème d'adaptation à la marge et à la complexité. On étend ces résultats à une nouvelle procédure de minimisation de risque empirique pénalisée sur les espaces de Besov. Enfin la dernière partie se concentre sur une nouvelle procédure de sélection de modèles : la minimisation de l'enveloppe du risque (RHM). Introduite par L.Cavalier et Y.Golubev dans le cadre des problèmes inverses, on cherche à l'appliquer au contexte de la classification.
APA, Harvard, Vancouver, ISO, and other styles
3

Pavoine, Sandrine. "Méthodes statistiques pour la mesure de la biodiversité." Lyon 1, 2005. http://www.theses.fr/2005LYO10230.

Full text
Abstract:
Face à l'accumulation des indices développés pour mesurer la biodiversité, la détermination de schémas fondamentaux est devenue nécessaire. Cette thèse démontre que : 1) l'axiomatisation de Rao constitue un schéma statistique pour l'analyse de la variation, en particulier variance et diversité; 2) au cœur de ce schéma, un indice, l'entropie quadratique, basé sur une matrice de dissimilarités est défini sur l'ensemble des distributions de fréquences; 3) la décomposition de cet indice généralise des méthodes utilisées pour l'analyse de la variation en statistique (ANOVA), génétique (AMOVA) et écologie, et est égale à la décomposition de l'inertie d'un nuage de points dans un espace euclidien déterminé; 4) l'entropie quadratique appliquée à des dissimilarités ultramétriques présente trois propriétés qui sont fondamentales pour un indice de biodiversité. Cette thèse analyse l'unité de ce schéma qui réunit les concepts de diversité, inertie, dissimilarité, ordination et originalité
APA, Harvard, Vancouver, ISO, and other styles
4

Allain, Guillaume. "Prévision et analyse du trafic routier par des méthodes statistiques." Toulouse 3, 2008. http://thesesups.ups-tlse.fr/351/.

Full text
Abstract:
La société Mediamobile édite et diffuse de l'information sur le trafic aux usagers. L'objectif de ce travail est l'enrichissement de cette information par la prévision et la complétion des conditions de route. Notre approche s'inspire parfois de la modélisation physique du trafic routier mais fait surtout appel à des méthodes statistiques afin de proposer des solutions automatisables, modulaires et adaptées aux contraintes industrielles. Dans un premier temps, nous décrivons une méthode de prévision de la vitesse de quelques minutes à plusieurs heures. Nous supposons qu'il existe un nombre fini de comportements types du trafic sur le réseau, dus aux déplacements périodiques des usagers. Nous faisons alors l'hypothèse que les courbes de vitesses observées en chaque point du réseau sont issues d'un modèle de mélange. Nous cherchons ensuite à améliorer cette méthode générale de prévision. La prévision à moyen terme fait appel à des variables bâties sur le calendrier. Nous retenons le modèle de mélange des courbes de vitesse et nous proposons également des modèles de régression fonctionnelle pour les courbes de vitesses. Ensuite nous proposons une modélisation par régression locale afin de capturer la dynamique physique du trafic à très court terme. Nous estimons la fonction de noyau à partir des observations du phénomène en intégrant des connaissances a priori sur la dynamique du trafic. La dernière partie est dédiée à l'analyse des vitesses issues de véhicules traceurs. Ces vitesses sont irrégulièrement observées en temps et en espace sur un axe routier. Nous proposons un modèle de régression locale à l'aide de polynômes locaux pour compléter et lisser ces données
The industrial partner of this work is Mediamobile/V-trafic, a company which processes and broadcasts live road-traffic information. The goal of our work is to enhance traffic information with forecasting and spatial extending. Our approach is sometimes inspired by physical modelling of traffic dynamic, but it mainly uses statistical methods in order to propose self-organising and modular models suitable for industrial constraints. In the first part of this work, we describe a method to forecast trafic speed within a time frame of a few minutes up to several hours. Our method is based on the assumption that traffic on the a road network can be summarized by a few typical profiles. Those profiles are linked to the users' periodical behaviors. We therefore make the assumption that observed speed curves on each point of the network are stemming from a probabilistic mixture model. The following parts of our work will present how we can refine the general method. Medium term forecasting uses variables built from the calendar. The mixture model still stands. Additionnaly we use a fonctionnal regression model to forecast speed curves. We then introduces a local regression model in order to stimulate short-term trafic dynamics. The kernel function is built from real speed observations and we integrate some knowledge about traffic dynamics. The last part of our work focuses on the analysis of speed data from in traffic vehicles. These observations are gathered sporadically in time and on the road segment. The resulting data is completed and smoothed by local polynomial regression
APA, Harvard, Vancouver, ISO, and other styles
5

Mestre, Olivier. "Méthodes statistiques pour l'homogénéisation de longues séries climatiques." Toulouse 3, 2000. http://www.theses.fr/2000TOU30165.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Gu, Co Weila Vila. "Méthodes statistiques et informatiques pour le traitement des données manquantes." Phd thesis, Conservatoire national des arts et metiers - CNAM, 1997. http://tel.archives-ouvertes.fr/tel-00808585.

Full text
Abstract:
Cette thèse est consacrée au traitement des données manquantes. Des méthodes descriptives (analyse en composantes principales, analyse des correspondances dont analyse homogène et la classification automatique) sont étudiées dans le cadre des données incomplètes. La seconde partie est consacrée à des problèmes de fusion de fichiers et analyses homogène y est introduite.
APA, Harvard, Vancouver, ISO, and other styles
7

Frikha, Mohamed. "Analyse économétrique de la dette extérieure de la Tunisie." Paris 2, 1991. http://www.theses.fr/1991PA020045.

Full text
Abstract:
Cette these a pour objectif de proposer un modele econometrique qui permet de determiner les mecanismes qui lient le financement exterieur a l'economie tunisienne. Son but est de decrire la liaison entre le capital etranger et les variables macroeconomiques en vue de concevoir des politiques economiques pouvant servir a mieux gerer la dette exterieure. Ce modele est le resultat d'une confrontation des theories et de l'observation empirique l'analyse des faits et des modeles existants ainsi que leurs fondements theoriques sous-jacents nous a permis de determiner la structure theorique du modele. Il s'agit d'un modele dynamique, structures a equations simultanees. L'estimation et les premieres conclusions du modele nous demontrent que la politique d'endettement en tunisie doit s'inscrire dans un cadre global de choix de la politique economique basee sur la promotion des exportations, la mobilisation de l'epargne, la rentabilite des projets et l'equilibre de la balance commerciale
The objective of this thesis is to propose an econometric model that allows the determination of the mecanisms connecting external financing to the tunsian economy. Its purpose is to describe the relationship between the foreign capital and the macroeconomic variables in order to conceive economic policies that may be used for a better management of the foreign debt. This model results from a confrontation between theories and empirical observation. The analysis of the facts and the existing models as well as their underlying theoritical bases has enabled us to determine the theoriticalstructure of the model. This concerns a structural dynamic model based on simultaneous equations. The estimate and first conclusions of the model demonstrate to un that the policy of endebtment in tunisia must fit in with a global choise of the economic policy based on promoting exports, making the most of savings, the profitability of projects and the balanced trade
APA, Harvard, Vancouver, ISO, and other styles
8

Colin, Igor. "Adaptation des méthodes d’apprentissage aux U-statistiques." Thesis, Paris, ENST, 2016. http://www.theses.fr/2016ENST0070/document.

Full text
Abstract:
L’explosion récente des volumes de données disponibles a fait de la complexité algorithmique un élément central des méthodes d’apprentissage automatique. Les algorithmes d’optimisation stochastique ainsi que les méthodes distribuées et décentralisées ont été largement développés durant les dix dernières années. Ces méthodes ont permis de faciliter le passage à l’échelle pour optimiser des risques empiriques dont la formulation est séparable en les observations associées. Pourtant, dans de nombreux problèmes d’apprentissage statistique, l’estimation précise du risque s’effectue à l’aide de U-statistiques, des fonctions des données prenant la forme de moyennes sur des d-uplets. Nous nous intéressons tout d’abord au problème de l’échantillonnage pour la minimisation du risque empirique. Nous montrons que le risque peut être remplacé par un estimateur de Monte-Carlo, intitulé U-statistique incomplète, basé sur seulement O(n) termes et permettant de conserver un taux d’apprentissage du même ordre. Nous établissons des bornes sur l’erreur d’approximation du U-processus et les simulations numériques mettent en évidence l’avantage d’une telle technique d’échantillonnage. Nous portons par la suite notre attention sur l’estimation décentralisée, où les observations sont désormais distribuées sur un réseau connexe. Nous élaborons des algorithmes dits gossip, dans des cadres synchrones et asynchrones, qui diffusent les observations tout en maintenant des estimateurs locaux de la U-statistique à estimer. Nous démontrons la convergence de ces algorithmes avec des dépendances explicites en les données et la topologie du réseau. Enfin, nous traitons de l’optimisation décentralisée de fonctions dépendant de paires d’observations. De même que pour l’estimation, nos méthodes sont basées sur la concomitance de la propagation des observations et l’optimisation local du risque. Notre analyse théorique souligne que ces méthodes conservent une vitesse de convergence du même ordre que dans le cas centralisé. Les expériences numériques confirment l’intérêt pratique de notre approche
With the increasing availability of large amounts of data, computational complexity has become a keystone of many machine learning algorithms. Stochastic optimization algorithms and distributed/decentralized methods have been widely studied over the last decade and provide increased scalability for optimizing an empirical risk that is separable in the data sample. Yet, in a wide range of statistical learning problems, the risk is accurately estimated by U-statistics, i.e., functionals of the training data with low variance that take the form of averages over d-tuples. We first tackle the problem of sampling for the empirical risk minimization problem. We show that empirical risks can be replaced by drastically computationally simpler Monte-Carlo estimates based on O(n) terms only, usually referred to as incomplete U-statistics, without damaging the learning rate. We establish uniform deviation results and numerical examples show that such approach surpasses more naive subsampling techniques. We then focus on the decentralized estimation topic, where the data sample is distributed over a connected network. We introduce new synchronous and asynchronous randomized gossip algorithms which simultaneously propagate data across the network and maintain local estimates of the U-statistic of interest. We establish convergence rate bounds with explicit data and network dependent terms. Finally, we deal with the decentralized optimization of functions that depend on pairs of observations. Similarly to the estimation case, we introduce a method based on concurrent local updates and data propagation. Our theoretical analysis reveals that the proposed algorithms preserve the convergence rate of centralized dual averaging up to an additive bias term. Our simulations illustrate the practical interest of our approach
APA, Harvard, Vancouver, ISO, and other styles
9

Ansaldi, Nadine. "Contributions des méthodes statistiques à la quantification de l'agrément de conduite." Université de Marne-la-Vallée, 2002. http://www.theses.fr/2002MARN0137.

Full text
Abstract:
Quantifier ou objectiver une prestation d’agrément de conduite consiste à définir quelles sont les grandeurs mesurables (critères) représentatives de l’agrément de la prestation, donnée purement subjective, et à déterminer pour chaque critère une plage de valeurs optimale (intervalle de tolérance). Ce document présente une méthodologie qui couvre toutes les étapes nécessaires à l’objectivation d’une prestation depuis la planification des essais jusqu’à la validation des critères représentatifs de la prestation et des intervalles de tolérance. La quantification nécessite des mesures physiques. L’agrément résulte de ce qu’a ressenti le conducteur. Les mesures permettent d’avoir un enregistrement des stimuli qu’a reçus le conducteur. De ces mesures, nous proposons d’extraire une liste de critères potentiels la plus exhaustive possible à l’aide d’un outil qui génère et extrait automatiquement des critères. Parallèlement, la quantification nécessite l’évaluation de l’agrément associé à la prestation. Si les essais sensoriels réalisés suivent un protocole de comparaisons par paires, l’analyse des préférences peut être réalisée à l’aide de modèles dérivés du Multi-Dimensionnal Scaling. Pour déterminer dans la liste des critères (données quantitatives) ceux qui sont représentatifs de l’agrément (donnée qualitative), nous proposons d’utiliser l’analyse discriminante arborescente par moindres écarts. Cette analyse discriminante est basée sur un critère L1 de décision binaire et un traitement arborescent par regroupement de modalités. Une fois les critères représentatifs identifiés, nous proposons un outil de calcul de tolérances qui permet de déterminer quelles valeurs chaque critère doit prendre pour que l’agrément soit le meilleur possible. Nous présentons enfin les résultats de l’application de cette méthodologie à la prestation décollage à plat pour un groupe moto-propulseur à boîte de vitesses robotisée
Quantifying a customers’ drivability requirement consists in determining some measurable representation criteria of the customers’ feel of drivability as well as ranges of optimal values (tolerance intervals) for each criterion. In this document, a methodology for quantifying customer’s requirements is presented. All steps, from planning the experiments to validating the representation criteria and their tolerance intervals, are described. The customers’ feel is the result of the stimuli he receives, which can be recorded by some physical measurements. We suggest to extract from the measurements an as comprehensive as possible list of potential criteria, by means of an automatic tool for generation and extraction. The quantification process also requires sensory assessment of the customers’ feel of drivability. If a paired comparisons method is used, the preferences analysis can be carried out by Multi-Dimensionnal Scaling models. In order to determine the criteria (quantitative data) which are representative of customers’ feel (qualitative datum), a discriminant analysis based on L1 criterion and levels grouping, is proposed. Once the representation criteria are identified, a tolerance computation tool is proposed for determining the ranges of values for each criterion in order to obtain best possible customers’ feel. Finally, results of this methodology are presented for quantifying the customers’ fell of “take off” for robotized gearbox powertrain
APA, Harvard, Vancouver, ISO, and other styles
10

Guedj, Mickaël. "Méthodes Statistiques pour l’analyse de données génétiques d’association à grande échelle." Evry-Val d'Essonne, 2007. http://www.biblio.univ-evry.fr/theses/2007/2007EVRY0015.pdf.

Full text
Abstract:
Les avancées en Biologie Moléculaire ont accéléré le développement de techniques de génotypage haut-débit et ainsi permis le lancement des premières études génétiques d'association à grande échelle. La dimension et la complexité des données issues de ce nouveau type d'étude posent aujourd'hui de nouvelles perspectives statistiques et informatiques nécessaires à leur analyse, constituant le principal axe de recherche de cette thèse. Après une description introductive des principales problématiques liées aux études d'association à grande échelle, nous abordons plus particulièrement les approches simple-marqueur avec une étude de puissance des principaux test d’association, les approches multi-marqueurs avec le développement d’une méthode fondée sur la statistique du Score Local, et enfin le problème du test-multiple avec l'estimation du Local False Discovery Rate à travers un simple modèle de mélange gaussien
The increasing availability of dense Single Nucleotide Polymorphisms (SNPs) maps due to rapid improvements in Molecular Biology and genotyping technologies have recently led geneticists towards genome-wide association studies with hopes of encouraging results concerning our understanding of the genetic basis of complex diseases. The analysis of such high-throughput data implies today new statistical and computational problematic to face, which constitute the main topic of this thesis. After a brief description of the main questions raised by genome-wide association studies, we deal with single-marker approaches by a power study of the main association tests. We consider then the use of multi-markers approaches by focusing on the method we developed which relies on the Local Score. Finally, this thesis also deals with the multiple-testing problem: our Local Score-based approach circumvents this problem by reducing the number of tests; in parallel, we present an estimation of the Local False Discovery Rate by a simple Gaussian mixed model
APA, Harvard, Vancouver, ISO, and other styles
11

Skalli, Housseini Abdelhalim. "Validation de l'analyse discriminante barycentrique : codage en analyse des données : contribution à l'économie, à l'écologie, à la neurophysiologie et à la cytologie." Paris 6, 1987. http://www.theses.fr/1987PA066627.

Full text
Abstract:
Présentation d'un programme d'analyse discriminante barycentrique et de simulation pour tester si la discrimination obtenue sur des données est significativement différente de celle que l'on aurait obtenue du fait du hasard
APA, Harvard, Vancouver, ISO, and other styles
12

Marchaland, Catherine. "Analyse statistique d'un tableau de notes : comparaisons d'analyses factorielles." Paris 5, 1987. http://www.theses.fr/1987PA05H123.

Full text
Abstract:
Ce travail présente quelques comparaisons de méthodes d'analyse factorielle dans le cas particulier de l'étude d'un tableau de notes. La partie portant sur les aspects théoriques comporte trois chapitres. Dans le premier nous procédons à des rappels sur les méthodes classiques d'analyse factorielle : analyse en composantes principales et analyse des correspondances. Dans le deuxième chapitre nous présentons les perturbations que subissent les valeurs propres et les sous espaces invariants d'un endomorphisme symétrique quand on lui ajoute un endomorphisme symétrique ou quand on le premultiplie par un endomorphisme symétrique défini positif. Dans le troisième chapitre, après avoir défini l'équivalence de deux analyses, on procède à quatre comparaisons. La première permet d'établir l'équivalence de l'analyse des correspondances sur un tableau dédouble en 0 et 1, et de l'analyse en composantes principales du tableau non dédouble. La deuxième comparaison concerne l'analyse en composantes principales faite sur la matrice des corrélations et celle faite sur la matrice des covariances. La troisième comparaison permet d'établir l'équivalence entre l'analyse des correspondances d'un tableau de notes dédouble et l'analyse en composantes principales sur la matrice des covariances. Dans la quatrième comparaison on étudie l'influence de la modification des éléments diagonaux d'une matrice lors d'une analyse en composantes principales. La deuxième partie de ce travail se compose d'une illustration de ces comparaisons sur des données physiologiques et d'une ouverture sur d'autres analyses qui constituent des prolongements intéressants a ces méthodes d'analyse factorielle : les méthodes des échelles multidimensionnelles et le modèle lisrel.
APA, Harvard, Vancouver, ISO, and other styles
13

Bourbousson, Pascal-Mousselard Hélène. "Etude de l'arôme de Mourvèdre : essai de classification par les méthodes statistiques multidimensionnelles." Aix-Marseille 3, 1992. http://www.theses.fr/1992AIX30001.

Full text
Abstract:
Apres un historique sur le cepage, typique de l'appellation bandol, et un rappel de ses caracteristiques ampelographiques, pedoclimatiques et organoleptiques, nous donnons les resultats de l'analyse en cpg/sm du jus et du vin de mourvedre. 114 composes ont ete identifies dans le vin et 73 dans le jus. L'entrainement a la vapeur d'eau d'un jus de mourvedre nous a permis de mettre en evidence un certain nombre de composes terpeniques (surtout des alcools) absents des jus obtenus par extraction avec des solvants volatils apolaires. Les differences entre un vin de syrah, etudie par ailleurs, et un vin de mourvedre sont plus d'ordre quantitatif que qualitatif. Nous avons egalement etudie l'evolution des composes en c#6 (alcools et aldehydes satures ou non) au cours des microvinifications realisees au laboratoire et constate de legeres differences de composition suivant les techniques de vinification et les cepages. Pensant que les esters isoamyliques et -phenylethyliques jouent un role important dans l'arome du mourvedre, un certain nombre de ceux-ci ont ete synthetises afin de relever leurs proprietes odorantes. La derniere partie de cette etude est consacree a l'application des methodes statistiques a la classification de vin de mourvedre de millesimes differents et provenant d'un meme domaine. Nous avons aussi essaye de classer des vins issus de differents domaines selon des criteres quantitatifs et qualitatifs. Pour obtenir des correlations satisfaisantes, il faut que les analyses en cpg en espace de tete soient effectuees dans un laps de temps aussi court que possible, du fait de la variabilite des parametres experimentaux
APA, Harvard, Vancouver, ISO, and other styles
14

Vallee, Polneau Sandrine. "Applications des outils de statistiques classiques et exactes en diabétologie." Paris 5, 2003. http://www.theses.fr/2003PA05P640.

Full text
Abstract:
En biologie, face à de nombreux outils de statistiques utiles dans le traitement des données, la difficulté réside dans le choix de l'outil le mieux adapté. L'informatique facilite les calculs et la pratique de tests exacts est possible. Dans la première partie, nous avons quantifié les erreurs liées à l'approximation des lois discrètes usuelles par la loi Normale dans différentes situations et comparé les résultats obtenus dans deux contextes : approché et exact. Nos résultats montrent une augmentation non linéaire de la précision avec la taille de l'échantillon. La différence de précision entre les méthodes approchée et exacte est mineure. La deuxième partie a consisté à analyser l'influence de l'âge sur les valeurs usuelles de l'hémoglobine A1c et de l'indice de masse corporelle sur l'HbA1c de sujets intolérants au glucose. L'âge, contrairement à l'indice de masse corporelle, est un des facteurs permettant d'expliquer les variations de l'hémoglobine A1c dans la population
Statistics is essential in biology to analyse data. There are many statistical analyse tools but the difficulty is to choose the best one which can answer the question asked. The compute science development makes easier calculations and it becomes possible to do exacts statistical tests. In the first part about exact statistics, we have calculated errors due to the approximation of discrete laws by the gaussian one in differents situations and have compared the results in two contexts: approximated and exact. Our results show a non linear precision rise with the sample size. The difference of precision between approximated and exact methods is low. The aim of the second part was to analyse age related hemoglobin A1c usual values and the influence of body mass index on HbA1c values in impaired glucose tolerance subjects. We show that age but not body mass index is one of the factors that can explain hemoglobin A1c variations in the population
APA, Harvard, Vancouver, ISO, and other styles
15

Poulin, Leboeuf Laurence. "Analyse statistique des facteurs climatiques et géomorphologiques associés aux mouvements de terrain dans les argiles des mers post-glaciaires au Québec méridional." Master's thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/66412.

Full text
Abstract:
Lors des 14 dernières années, plus d'une centaine de demandes d'assistance technique concernant des mouvements de terrain au Québec méridional sont adressées chaque année aux autorités gouvernementales. Parmi les cas signalés, la majorité d'entre eux survienne à l'intérieur des limites de la transgression marine post-glaciaire où vit près de 90 % de la population québécoise. Étant donnée leur importance dans la province et les conséquences qu'ils peuvent engendrer, ces mouvements ont fait l'objet jusqu'à présent de nombreuses études pour la plupart orientées sur les aspects géotechniques du problème. Les études statistiques et géomorphologiques demeurent très fragmentaires et peu de données sont disponibles afin de dresser un portrait de l'occurrence des mouvements de terrain au Québec selon les différentes périodes de l'année ou pour cerner les facteurs climatiques et géomorphologiques en cause. La réalisation de ce mémoire a été rendue possible grâce à l'utilisation d'une base de données très complète élaborée au fil des ans par la Section des mouvements de terrain du ministère des Transports du Québec, laquelle compte 4165 cas documentés. L'objectif principal de cette recherche est de dresser un portrait statistique général des mouvements de terrain et des circonstances ou facteurs causaux qui leur sont associés, à l'aide d'analyses statistiques et descriptives de leurs contextes géomorphologiques, spatiaux et temporels. Les résultats obtenus démontrent que de 1970 à 2017, la Montérégie, Lanaudière et la Mauricie sont les régions les plus affectées par les mouvements de sol et que la période de l'année la plus propice débute au mois d'avril et se termine au mois de juin. Ces mêmes résultats démontrent que les glissements superficiels sont plus fréquents que les glissements rotationnels. Toutefois, un inventaire ciblé des cicatrices de glissements de terrain effectué en 2017 dans la MRC de Maskinongé a permis de démontrer que les tendances générales observées à l'échelle provinciale peuvent différer de celles observées à l'échelle locale, en raison de la géomorphologie et des conditions géotechniques spécifiques à chaque secteur. Les données ont aussi été examinées pour identifier de possibles effets de purge et d'amplification du phénomène en fonction de certains IV événements climatiques majeurs. Seuls des signes d'effet de purge ont été observés à la suite de l'accumulation de neige en 2008 et des apports en eau exceptionnels du printemps 2017. En somme, les effets de purge et d'amplification sont des phénomènes difficiles à détecter à l'aide de statistiques générales seulement. Des recherches ciblées à un secteur précis et sur plusieurs années consécutives pourraient toutefois offrir des résultats plus probants.
APA, Harvard, Vancouver, ISO, and other styles
16

Thomas, Frédéric. "Analyse méthodologique de la rente touristique." Nice, 2003. http://www.theses.fr/2003NICE0060.

Full text
Abstract:
L'objectif général de cette recherche est de développer une méthodologie généralisable d'évaluation de la répartition de la rente d'un évènement touristique, basée principalement sur les encours des dépôts et crédits de la Banque de France, mais aussi de montrer son évolution sectorielle, géographique et temporelle. Cette recherche se situe dans le cadre théorique du concept de développement durable, ce pourquoi l'on s'attache à la notion de rente et non à celle d'impact. Pour ce faire, il nous semble d'abord nécessaire de retracer les évolutions sociétales, technologiques et industrielles (concentration, segmentation, spécialisation) du phénomène touristique, i. E. , ses aspects tant publics que privés. Cela met en évidence la faible prise de conscience passée et actuelle de la valeur des dotations factorielles de nature qualitative au sein des décisions politiques et entrepreneuriales, mais aussi dans le champ du calcul économique. Une revue des différents modèles d'analyse économique du tourisme (multiplicateurs, Input-Output. . . ) souligne toute la difficulté de les y intégrer et par là même de mesurer alors la répartition de la rente touristique. Si la préservation de l'environnement naturel et culturel peut éventuellement ralentir la vitesse des retours sur investissement, face aux attentes crées par la concurrence, elle demeure en soi un facteur majeur de développement. Dans une approche des systèmes, recommandée dans le cadre de l'analyse du tourisme, l'inter et la pluridisciplinaire incarnent la méthode la plus adaptée pour étudier la pérennité de l'activité touristique, ses retombées et ses spécificités tangibles et intangibles
The general objective of this research is to develop a generalizable methodology of evaluating of the distribution of the rent of a tourist event, based mainly on bank deposits and credits of the Bank of France, and also to show its sectoral, geographical and temporal spillovers. This research is within the theoretical framework of the sustainable development concept; this is why one sticks to the notion of rent and not to that of impact. To achieve this, it appears necessary for us to recall the social, technological and industrial (concentration, segmentation, specialization) evolutions of the tourist phenomenon, i. E. , its aspects at public and private levels. This not only highlights the past and present weak awakening of the value of the factorial endowment of qualitative nature within the political and entrepreneurial decisions, but also in the field of economic evaluation. A review of the various economic models of tourism underlines the difficulties of integrating them into these models, and similarly to measure the distribution of the tourist rent. If the safeguarding of the natural and cultural assets can possibly slow down the speed of the returns on investment, it then remains a major factor of development. In a holistic approach, recommended within the framework of the analysis of tourism activity, an inter and multi-field methodology represent the most adapted method to study the sustainability of the tourist activity, its repercussions and its tangible and intangible specificities
APA, Harvard, Vancouver, ISO, and other styles
17

Royer, Jean-Jacques. "Analyse multivariable et filtrage des données régionalisées." Vandoeuvre-les-Nancy, INPL, 1988. http://www.theses.fr/1988NAN10312.

Full text
Abstract:
Ce travail est consacré à l'analyse multivariable et au filtrage des données régionalisées. On définit un indice de proximité entre échantillons. Une technique de filtrage basée sur l'analyse structurale, la déconvolution géostatistique, a été utilisée pour estimer la fonction de transfert ou identifier le signal de sortie. Le principe de la méthode repose sur le calcul au préalable des fonctions de covariance des signaux d'entrée et de sortie. Par ailleurs une relation théorique reliant la matrice de covariance des erreurs à la granulométrie du milieu étudié est démontrée
APA, Harvard, Vancouver, ISO, and other styles
18

Urieli, Assaf. "Analyse syntaxique robuste du français : concilier méthodes statistiques et connaissances linguistiques dans l'outil Talismane." Phd thesis, Université Toulouse le Mirail - Toulouse II, 2013. http://tel.archives-ouvertes.fr/tel-00979681.

Full text
Abstract:
Dans cette thèse, nous explorons l'analyse syntaxique robuste statistique du français. Notre principal souci est de trouver des méthodes qui permettent au linguiste d'injecter des connaissances et/ou des ressources linguistiques dans un moteur statistique afin d'améliorer les résultats pour certains phénomènes spécifiques. D'abord, nous décrivons la schéma d'annotation en dépendances du français, et les algorithmes capables de produire cette annotation, en particulier le parsing par transitions. Après avoir exploré les algorithmes d'apprentissage automatique supervisé pour les problèmes de classification en TAL, nous présentons l'analyseur syntaxique Talismane, développé dans le cadre de cette thèse, et comprennant quatre modules statistiques - le découpage en phrases, la ségmentation en mots, l'étiquettage morpho-syntaxique et le parsing - ainsi que le diverses ressources linguistiques utilisées par le modèle de base. Nos premières expériences tentent d'identifier la meilleure configuration de base parmi des nombreux configurations possibles. Ensuite, nous explorons les améliorations apportées par la recherche par faisceau et la propagation du faisceau. Finalement, nous présentons une série d'expériences dont le but est de corriger des erreurs linguistiques spécifiques au moyen des traits ciblés. Une de nos innovations est l'introduction des règles qui imposent ou interdisent certaines décisions locale, permettant ainsi de contourner le modèle statistique. Nous explorons l'utilisation de règles pour les erreurs que les traits n'ont pu corriger. Finalement, nous présentons une expérience semi-supervisée avec une ressource de sémantique distributionnelle.
APA, Harvard, Vancouver, ISO, and other styles
19

Niang, Ibrahima. "Quantification et méthodes statistiques pour le risque de modèle." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE1015/document.

Full text
Abstract:
En finance, le risque de modèle est le risque de pertes financières résultant de l'utilisation de modèles. Il s'agit d'un risque complexe à appréhender qui recouvre plusieurs situations très différentes, et tout particulièrement le risque d'estimation (on utilise en général dans un modèle un paramètre estimé) et le risque d'erreur de spécification de modèle (qui consiste à utiliser un modèle inadéquat). Cette thèse s'intéresse d'une part à la quantification du risque de modèle dans la construction de courbes de taux ou de crédit et d'autre part à l'étude de la compatibilité des indices de Sobol avec la théorie des ordres stochastiques. Elle est divisée en trois chapitres. Le Chapitre 1 s'intéresse à l'étude du risque de modèle dans la construction de courbes de taux ou de crédit. Nous analysons en particulier l'incertitude associée à la construction de courbes de taux ou de crédit. Dans ce contexte, nous avons obtenus des bornes de non-arbitrage associées à des courbes de taux ou de défaut implicite parfaitement compatibles avec les cotations des produits de référence associés. Dans le Chapitre 2 de la thèse, nous faisons le lien entre l'analyse de sensibilité globale et la théorie des ordres stochastiques. Nous analysons en particulier comment les indices de Sobol se transforment suite à une augmentation de l'incertitude d'un paramètre au sens de l'ordre stochastique dispersif ou excess wealth. Le Chapitre 3 de la thèse s'intéresse à l'indice de contraste quantile. Nous faisons d'une part le lien entre cet indice et la mesure de risque CTE puis nous analysons, d'autre part, dans quelles mesures une augmentation de l'incertitude d'un paramètre au sens de l'ordre stochastique dispersif ou excess wealth entraine une augmentation de l'indice de contraste quantile. Nous proposons enfin une méthode d'estimation de cet indice. Nous montrons, sous des hypothèses adéquates, que l'estimateur que nous proposons est consistant et asymptotiquement normal
In finance, model risk is the risk of loss resulting from using models. It is a complex risk which recover many different situations, and especially estimation risk and risk of model misspecification. This thesis focuses: on model risk inherent in yield and credit curve construction methods and the analysis of the consistency of Sobol indices with respect to stochastic ordering of model parameters. it is divided into three chapters. Chapter 1 focuses on model risk embedded in yield and credit curve construction methods. We analyse in particular the uncertainty associated to the construction of yield curves or credit curves. In this context, we derive arbitrage-free bounds for discount factor and survival probability at the most liquid maturities. In Chapter 2 of this thesis, we quantify the impact of parameter risk through global sensitivity analysis and stochastic orders theory. We analyse in particular how Sobol indices are transformed further to an increase of parameter uncertainty with respect to the dispersive or excess wealth orders. Chapter 3 of the thesis focuses on contrast quantile index. We link this latter with the risk measure CTE and then we analyse on the other side, in which circumstances an increase of a parameter uncertainty in the sense of dispersive or excess wealth orders implies and increase of contrast quantile index. We propose finally an estimation procedure for this index. We prove under some conditions that our estimator is consistent and asymptotically normal
APA, Harvard, Vancouver, ISO, and other styles
20

Archimbaud, Aurore. "Méthodes statistiques de détection d’observations atypiques pour des données en grande dimension." Thesis, Toulouse 1, 2018. http://www.theses.fr/2018TOU10001/document.

Full text
Abstract:
La détection d’observations atypiques de manière non-supervisée est un enjeu crucial dans la pratique de la statistique. Dans le domaine de la détection de défauts industriels, cette tâche est d’une importance capitale pour assurer une production de haute qualité. Avec l’accroissement exponentiel du nombre de mesures effectuées sur les composants électroniques, la problématique de la grande dimension se pose lors de la recherche d’anomalies. Pour relever ce challenge, l’entreprise ippon innovation, spécialiste en statistique industrielle et détection d’anomalies, s’est associée au laboratoire de recherche TSE-R en finançant ce travail de thèse. Le premier chapitre commence par présenter le contexte du contrôle de qualité et les différentes procédures déjà mises en place, principalement dans les entreprises de semi-conducteurs pour l’automobile. Comme ces pratiques ne répondent pas aux nouvelles attentes requises par le traitement de données en grande dimension, d’autres solutions doivent être envisagées. La suite du chapitre résume l’ensemble des méthodes multivariées et non supervisées de détection d’observations atypiques existantes, en insistant tout particulièrement sur celles qui gèrent des données en grande dimension. Le Chapitre 2 montre théoriquement que la très connue distance de Mahalanobis n’est pas adaptée à la détection d’anomalies si celles-ci sont contenues dans un sous-espace de petite dimension alors que le nombre de variables est grand.Dans ce contexte, la méthode Invariant Coordinate Selection (ICS) est alors introduite comme une alternative intéressante à la mise en évidence de la structure des données atypiques. Une méthodologie pour sélectionner seulement les composantes d’intérêt est proposée et ses performances sont comparées aux standards habituels sur des simulations ainsi que sur des exemples réels industriels. Cette nouvelle procédure a été mise en oeuvre dans un package R, ICSOutlier, présenté dans le Chapitre 3 ainsi que dans une application R shiny (package ICSShiny) qui rend son utilisation plus simple et plus attractive.Une des conséquences directes de l’augmentation du nombre de dimensions est la singularité des estimateurs de dispersion multivariés, dès que certaines variables sont colinéaires ou que leur nombre excède le nombre d’individus. Or, la définition d’ICS par Tyler et al. (2009) se base sur des estimateurs de dispersion définis positifs. Le Chapitre 4 envisage différentes pistes pour adapter le critère d’ICS et investigue de manière théorique les propriétés de chacune des propositions présentées. La question de l’affine invariance de la méthode est en particulier étudiée. Enfin le dernier chapitre, se consacre à l’algorithme développé pour l’entreprise. Bien que cet algorithme soit confidentiel, le chapitre donne les idées générales et précise les challenges relevés, notamment numériques
The unsupervised outlier detection is a crucial issue in statistics. More specifically, in the industrial context of fault detection, this task is of great importance for ensuring a high quality production. With the exponential increase in the number of measurements on electronic components, the concern of high dimensional data arises in the identification of outlying observations. The ippon innovation company, an expert in industrial statistics and anomaly detection, wanted to deal with this new situation. So, it collaborated with the TSE-R research laboratory by financing this thesis work. The first chapter presents the quality control context and the different procedures mainly used in the automotive industry of semiconductors. However, these practices do not meet the new expectations required in dealing with high dimensional data, so other solutions need to be considered. The remainder of the chapter summarizes unsupervised multivariate methods for outlier detection, with a particular emphasis on those dealing with high dimensional data. Chapter 2 demonstrates that the well-known Mahalanobis distance presents some difficulties to detect the outlying observations that lie in a smaller subspace while the number of variables is large. In this context, the Invariant Coordinate Selection (ICS) method is introduced as an interesting alternative for highlighting the structure of outlierness. A methodology for selecting only the relevant components is proposed. A simulation study provides a comparison with benchmark methods. The performance of our proposal is also evaluated on real industrial data sets. This new procedure has been implemented in an R package, ICSOutlier, presented in Chapter 3, and in an R shiny application (package ICSShiny) that makes it more user-friendly. When the number of dimensions increases, the multivariate scatter matrices turn out to be singular as soon as some variables are collinear or if their number exceeds the number of individuals. However, in the presentation of ICS by Tyler et al. (2009), the scatter estimators are defined as positive definite matrices. Chapter 4 proposes three different ways for adapting the ICS method to singular scatter matrices and theoretically investigates their properties. The question of affine invariance is analyzed in particular. Finally, the last chapter is dedicated to the algorithm developed for the company. Although the algorithm is confidential, the chapter presents the main ideas and the challenges, mostly numerical, encountered during its development
APA, Harvard, Vancouver, ISO, and other styles
21

Liu, Zhanhao. "Méthodes statistiques et variationnelles de modélisation préalable au contrôle de procédés industriels." Electronic Thesis or Diss., Université de Lorraine, 2021. http://www.theses.fr/2021LORR0086.

Full text
Abstract:
***La première partie de la thèse est soumise à une confidentialité de durée illimitée*** Dans cette thèse, nous cherchons à proposer une méthodologie pour analyser des procédés industriels à partir des données procédé collectées à l'aide de méthodes statistiques et variationnelles. L'objectif est d'identifier les facteurs clés garantissant le bon fonctionnement des procédés industriels en vue de la proposition de lois de contrôle de ceux-ci. La première partie présente les résultats d'analyses statistiques appliquées aux paramètres d'un procédé de Saint-Gobain. Nous avons d'abord analysé les données procédé à l'aide d'outils statistiques classiques (l'analyse en composantes principales, la classification non-supervisée, etc.) et cherché à relier les informations ainsi obtenues au fonctionnement du procédé. Puis, nous avons analysé une mesure de qualité du produit final (appelée cible) en fonction des paramètres opératoires. La cible étant faiblement corrélée avec les paramètres enregistrés, l'hypothèse du modèle linéaire est rejetée. Un ensemble restreint des paramètres contribuant à l'explication de la cible a été identifié par les méthodes statistiques utilisées, ce qui a été d'ailleurs validé auprès de l'expert procédé. Ensuite, nous avons testé les modèles additifs généralisés (GAM) en introduisant la non-linéarité dans la modélisation, ce qui a amélioré la performance de nos modèles. Mais les modèles proposés restent insuffisants pour les futures applications. D'après l'intuition des opérateurs et de l'ingénieur process impliqués, un des signaux clés du fonctionnement du procédé était fortement bruité, et une des pistes développées pour améliorer la performance de nos modèles a été de reconstituer les informations manquantes de celui-ci. Pour cela, dans la deuxième partie de la thèse, nous avons développé des méthodes (hors ligne et en ligne) de restauration par la régularisation de variation totale avec la détermination automatique de l'hyper-paramètre. Notre méthode d'estimation de l'hyper-paramètre a une performance similaire aux méthodes existantes dans les littératures scientifiques. Notre méthode pour estimer à la fois la restauration et l'hyper-paramètre est adaptée au traitement d'une grande quantité de données en temps réel. Des applications d'analyse de motifs et de détection de ruptures ont ensuite été développées pour plusieurs procédés industriels
***Part 1 of the thesis is subject to unlimited confidentiality*** In this thesis, we aim to propose a methodology for analyzing industrial processes based on a large quantity of process data with statistical and variational methods. The objective is to identify the key factors which ensure the good functioning of industrial processes. It is a preliminary step for the automatic generation of process control law from the collected data. In the first part of this thesis, we presented the statistical analysis of a process of Saint-Gobain. At first, we applied some classical statistical tools (Principal component analysis, clustering and so on) to the process data, and linked the obtained information with the functioning of the process. Then, we analyzed a product quality measure (called target) with the collected process parameters. The target is weakly correlated with the parameters, so the hypothesis of linear model is rejected. A restricted list of parameters which contribute to the explaination of the target was identified by the statistical methods and validated by our industrial interlocutors. Afterwards, we tested a non-linear model method: the generalized additive model (GAM). The introduction of the non-linear terms improved the performance of our model, but it remained insufficient for the future applications. Following the intuition of the process engineers and operators, we focused on a noisy signal, tracked regularly in the plants, characterizing the good functioning of the process, and restoring the missing information of this signal may improve the model. In the second part of this thesis, we developed a total variation restoration method with an automatic choice of hyper-parameter. Furthermore, our proposition of hyper-parameter has a similar performance as the existing methods, and our estimation method of both hyper-parameter and restoration is well fitted for the real time processing of a large quantity of data. Based on the proposed method, we have developed some applications of pattern restoration and discontinuities detection for several industrial processes
APA, Harvard, Vancouver, ISO, and other styles
22

Achouch, Ayman. "Analyse économétrique des prix des métaux : une application multivariée des méthodes statistiques aux séries temporelles." Montpellier 1, 1998. http://www.theses.fr/1998MON10025.

Full text
Abstract:
Dans ce travail, nous analysons les relations d'interdépendance qui existent entre les prix des métaux non ferreux (aluminium, cuivre, zinc, plomb, étain) d'une part et entre ces prix et l'ensemble des variables macro-économiques d'autre part. Pour cela, nous recourons dans un premier temps à des méthodes économétriques univariées afin de répondre aux différentes questions concernant l'hypothèse d'efficience informationnelle, les tests de mémoire longue et la structure sous-jacente aux variations des prix (stochastique, déterministe). Nous proposons ensuite une modélisation de type ARMA avec erreurs GARCH. Les qualités prédictives de cette modélisation sont comparées au modèle simple de marche aléatoire. Dans un deuxième temps, nous utilisons plusieurs approches multivariées pour vérifier l'existence d'un facteur commun dans les séries de prix. L'utilisation de l'analyse dynamique à facteur nous permet d'isoler ce facteur et de mesurer son importance quantitative par rapport aux variables de prix. Pour identifier ce facteur, nous recourons à un grand nombre de variables macro-économiques telles que l'indice de la production industrielle, l'indice de prix de consommation et de stock et les taux de change. L'étude de corrélation, l'approche de Pindck et Rotemberg et l'analyse de causalité ont montré que les fluctuations du facteur commun peuvent être dues à la production industrielle des principaux pays de l'OCDE et aux indices de prix de stock du Japon, des Etats-Unis et de la France.
APA, Harvard, Vancouver, ISO, and other styles
23

Datcu, Octaviana. "Méthodes de chiffrement/déchiffrement utilisant des systèmes chaotiques : Analyse basée sur des méthodes statistiques et sur la théorie du contrôle des systèmes." Phd thesis, Université de Cergy Pontoise, 2012. http://tel.archives-ouvertes.fr/tel-00802659.

Full text
Abstract:
Cette thèse traite du domaine de la cryptographie basée sur des dynamiques chaotiques hybrides.Afin de robustifier la transmission sécurisée de données à l'égard de l'attaque à texte-claire connue, ce travail a été particulièrement axée sur deux directions, l'approche statistique, et l'approche automatique.Les principales contributions de ce travail sont organisées dans ces deux directions.Le choix de la variable mesurée et son influence sur l'émetteur d'un message secret et la possibilité de récupérer la dynamique à la réception.Ceci a été étudié dans le contexte des systèmes chaotiques discrets et continus.L'indépendance statistique des variables d'état des systèmes chaotiques est étudié en relation avec la non-corrélation spatiale de ces états.Ainsi une méthode pour cacher le message secret en fonction de l'évolution de l'émetteur chaotique, et ceci avant son inclusion dans cette dynamique, est proposée.La faisabilité d'un système retardée hybride qui est utilisée pour la transmission sécurisée des données est analysée dans une mise en œuvre analogique.Des simulations et les analyses des résultats obtenus sont faits, afin de prouver l'efficacité des études et des méthodes proposées.La thèse est organisée comme suit: le Chapitre I reprend les notions théoriques et les algorithmes utilisés pour atteindre l'objectif de ce travail.Le chapitre II est consacré à l'étude des exposants de Lyapunov.Les systèmes chaotiques utilisés dans le présent document sont ensuite décrits.Le chapitre III présente une étude de certaines propriétés structurales des systèmes du chapitre II.L'étude se concentre sur le calcul des indices d'observabilité et la détermination des hypersurfaces de la singularité d'observabilité.Le chapitre IV analyse l'indépendance statistique dans le contexte des systèmes chaotiques considérés:la taille de la distance d'échantillonnage (combien d'itérations ou de manière équivalente, combien de temps) pour assurer l'indépendance statistique entre les variables extraites des systèmes chaotiques.Un test original pour l'indépendance statistique (le test Badea-Vlad) a été utilisée; la procédure est applicable à tous les types de variables aléatoires continues, même reparties selon une loi de probabilité inconnue au besoin ici.Le chapitre V illustre le point de vue physique. Le temps transitoire correspond au temps passé par le système chaotique dans le bassin d'attraction avant de rejoindre l'attracteur étrange.De même il est important de savoir après combien de temps les points localisés dans une certaine région de l'attracteur étrange devient non-corrélés.Dans le chapitre VI, sachant l'identifiabilité des paramètres des systèmes chaotiques décrits par des équations polynomiales, une amélioration des inclusions du message dans ce type de cryptographie, est proposé.Le message clair est chiffré en utilisant une substitution classique avec boîtes de transposition, avant son inclusion dans l'émetteur chaotique.Les résultats de l'algorithme proposé sont évalués sur le texte et sur l'image.Le chapitre VII pose quelques questions, et essaie de trouver quelques-unes des réponses à ces questions, dans le cadre du schéma hybride.Comme par exemple, est-il possible de récupérer le message secret en utilisant un observateur, lorsque la dynamique qui lui inclut est retardée?La réponse est positive, et cela est montrée dans le cas d'une transmission intégrale de la sortie du système.Il est important de mentionner que ce travail est pluridisciplinaire, allant de la théorie du contrôle aux statistiques en passant par les domaines de l'électronique, de la mathématique et de l'informatique.
APA, Harvard, Vancouver, ISO, and other styles
24

Varet, Suzanne. "Développement de méthodes statistiques pour la prédiction d'un gabarit de signature infrarouge." Phd thesis, Université Paul Sabatier - Toulouse III, 2010. http://tel.archives-ouvertes.fr/tel-00511385.

Full text
Abstract:
Dans le but de fournir un outil pour le dimensionnement de capteurs optroniques, nous souhaitons estimer la probabilité que, pour un scénario fixé, la signature infrarouge (SIR) d'un aéronef dans son environnement soit inférieure à un certain seuil. Cette estimation se ramène à l'estimation de l'intégrale d'une fonction h en grande dimension, dont la forme n'est pas précisément connue. La solution envisagée consiste à utiliser la méthode quasi-Monte Carlo (QMC). Toutefois, la précision de cet estimateur se dégrade lorsque la dimension augmente. L'objectif de la thèse est de développer une méthode pour réduire la dimension qui soit adaptée aux caractéristiques des variables d'entrée du code de calcul de SIR, puis d'utiliser l'information obtenue lors de la réduction de dimension pour améliorer la qualité de l'estimateur QMC. Les approches usuelles de réduction de dimension nécessitent des hypothèses qui sont irréalistes dans le cas de la SIR. Nous avons donc proposé une nouvelle méthode, dont les hypothèses de validité sont moins contraignantes. Après avoir réduit la dimension, il est possible d'appliquer la méthode QMC en fixant les variables non influentes à une valeur quelconque. Cependant, les suites de points utilisées dans le cadre de la méthode QMC, quoique bien réparties dans l'espace, présentent des irrégularités de répartition sur les projections. Nous avons donc adapté la discrépance L2*-pondérée de manière à pouvoir juger l'adéquation d'une suite à la fonction d'intérêt h. Par la suite nous avons mis au point un algorithme visant à construire une suite de points optimisant au mieux ce critère, dans le but de minimiser l'erreur d'intégration.
APA, Harvard, Vancouver, ISO, and other styles
25

Arbache, Chafik. "Méthodes statistiques et informatiques d'aides à la décision alternative à la régression et à la discrimination." Paris 6, 1986. http://www.theses.fr/1986PA066008.

Full text
Abstract:
Présentation mathématique des méthodes d'analyse des données. Schéma des traitements et analyses globales des dossiers. Appréciation des demandes de crédit à court terme, à moyen terme et à long terme. Evaluation du prix des biens durables d'une espèce donnée.
APA, Harvard, Vancouver, ISO, and other styles
26

Paris, Adéline. "Contrôle de qualité des anodes de carbone à partir de méthodes statistiques multivariées." Master's thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/40352.

Full text
Abstract:
L’aluminium primaire est produit à partir du procédé électrolytique Hall-Héroult qui nécessite des anodes de carbone pour véhiculer le courant et fournir la source de carbone pour la réaction. La qualité des anodes influence les performances dans les cuves. Or, l’augmentation de la variabilité des matières premières rend la fabrication d’anodes de bonne qualité de plus en plus difficile. L’objectif de ce projet est d’améliorer le contrôle de qualité des anodes avant la cuisson à l’aide de mesures de résistivité électrique. À partir de méthodes statistiques multivariées, les mesures ont été utilisées dans deux optiques différentes : prédictive et explicative. L’optimum de brai qui est défini comme étant la quantité optimale de brai menant aux meilleures propriétés de l’anode pour un mélange d’agrégats donné change plus fréquemment avec l’accroissement de la variabilité de la matière première. Le dépassement de l’optimum peut engendrer des problèmes de collage lors de la cuisson. Un capteur virtuel conçu à partir d’un modèle d’analyse en composantes principales a permis de montrer qu’un bris dans la structure de corrélation mesuré par l’erreur de prédiction (SPE) semble se produire lorsque les anodes ont un risque de coller lors de la cuisson. Son application sur des données d’optimisation de brai a aussi été réalisée. Afin d’améliorer la compréhension des paramètres influençant la résistivité de l’anode, un modèle par projection des moindres carrés partiels en blocs séquentiels (SMB-PLS) a été développé. Il a permis d’expliquer 54 % des variations contenues dans les mesures de résistivité à partir des données opératoires, de matières premières et de formulation. Son interprétation a montré que la variabilité de la résistivité de l’anode verte est principalement causée par les matières premières utilisées et que les relations observées sont conformes avec la littérature et les connaissances du procédé.
Primary aluminum is produced through the Hall-Héroult process. Carbon anodes are used in this electrolytic process to provide the carbon source for the reaction and to distribute electrical current across the cells. Anode quality influences cell performance. However,increasing raw material variability has rendered the production of high-quality anodes more difficult. The objective of this project is to improve carbon anode quality control before baking by using anode electrical resistivity measurements. Multivariate statistical methods were applied to create two types of models: predictive and explanatory. For a given aggregate, the optimum pitch demand (OPD) is the amount of pitch that yields the best anode properties. High raw material variability causes the OPD to change more frequently, which makes it difficult to add the correct amount of pitch. This can lead to post-baking sticking problems when the optimum is exceeded. A soft sensor was developed based on a principal component analysis (PCA). The integrity of the correlation structure,as measured by the Squared Prediction Error (SPE), appears to break down during high-risk periods for anode sticking. The soft sensor was also tested on data collected during pitch optimization experiments.A sequential multi-block PLS model (SMB-PLS) was developed to determine which parameters influence anode resistivity. Raw material properties, anode formulation and process parameters collectively explain 54 % of the variability in the anode resistivity measurements.The model shows that coke and pitch properties have the greatest impact on green anode electrical resistivity. In addition, the main relationships between process variables implied by the model agree with the relevant literature and process knowledge.
APA, Harvard, Vancouver, ISO, and other styles
27

Baumont, Catherine. "Contribution à l'analyse des espaces urbains multicentriques : la localisation résidentielle : étude théorique et empirique." Dijon, 1990. http://www.theses.fr/1990DIJOE004.

Full text
Abstract:
La thèse se présente en trois parties. La première partie est consacrée a l'analyse de l'intégration des espaces urbains multicentriques en analyse spatiale. Un premier chapitre présente l'analyse des espaces urbains multicentriques comme une alternative aux modèles urbains monocentriques. Un deuxième chapitre insiste sur le caractère imprécis des espaces urbains multicentriques. Dans la deuxième partie, l'équilibre spatial du ménage dans une ville multicentrique est traité. La formalisation traditionnelle : maximisation d'une utilité résidentielle sous une contrainte budgétaire, presentée dans le troisième chapitre, souffre de défauts que le modèle flou construit dans le quatrième chapitre peut dépasser. Enfin, dans la troisième partie, une étude économétrique des deux modèles est réalisée. Les caractéristiques techniques des tests sont décrites dans un cinquième chapitre, tandis que les résultats des tests (sur la fonction d'utilité de résidence, sur la fonction de coût de logement et sur le caractère opérationnel des deux modèles) sont présentes dans le sixième et dernier chapitre. On montre alors que l'agglomération dijonnaise présente, au vu des tests, une structure multicentrique et que le modèle flou permet d'apporter une solution économique satisfaisante au problème de la localisation résidentielle
The thesis is divided into three parts. The first part is devoted to the analysis of multicenter urban spaces integration in spatial analysis. Both fuzzy and non fuzzy characteristics of them are taken into account. In the second part we try to solve the problem of spatial equilibrium of household in a multicenter urban pattern and we construct two models : a standard model and a fuzzy model. Then in the third part we present an econometric study based on the models described in the second part. Dijon is the urban area chosen for the test. The fuzzy approach allows us to bring an interesting economoc solution of household location in multicenter urban spaces
APA, Harvard, Vancouver, ISO, and other styles
28

Zeng, Shan. "Comparaison et analyse statistique des propriétés nuageuses dérivées des instruments POLDER et MODIS dans le cadre de l’expérience spatiale A-Train." Thesis, Lille 1, 2011. http://www.theses.fr/2011LIL10067/document.

Full text
Abstract:
Les observations des différents capteurs de la mission A-Train fournissent une occasion sans précédent d'étudier les composants atmosphériques y compris les nuages. Dans cette étude, nous avons développé une analyse statistique afin de comparer le taux de couverture nuageuse, la phase thermodynamique et l'épaisseur optique des nuages restitués par deux capteurs passifs : POLDER (Polarization_and_Directionality_of_the_Earth_Reflectance) et MODIS (MODerate_Resolution_Imaging_Spectroradiometer). Les variations régionales et saisonnières du taux de couverture nuageuse des deux capteurs ainsi que les biais entre les deux instruments ont été étudiés. Ces biais sont principalement liés à la résolution spatiale, la présence d' aérosols, de cirrus et à certains types de surface. La phase thermodynamique des nuages a ensuite été analysée. Les produits dérivés par les deux capteurs passifs ont été comparés et étudiés en s'appuyant sur les structures verticales et les propriétés optiques des nuages obtenus par un autre capteur de l'A-Train le Lidar CALIOP (Cloud-aerosol_Lidar_with_Orthogonal_Polarization). Nous avons identifié et qualifié les biais présents dans l'ensemble des 3 jeux de données considérés. Parmi ces biais, l'impact des géométries d'observation, des cirrus fins, des aérosols, des surfaces enneigées, des nuages multicouches et fractionnés sont discutées. Les cas où la phase est retrouvée avec certitude sont selectionés pour étudier à l’échelle globale ou régionale la transition verticale eau liquide-glace et les variations de cette transition avec les régimes de formation et de développement des nuages, tout particulièrement la dynamique à grande échelle et la microphysique des nuages. Enfin l'épaisseur optique des nuages a été étudiée. Les effets de résolutions spatiales, de microphysiques et d'hétérogénéité des nuages ont été étudiés pour mieux comprendre des écarts importants entre les deux capteurs passifs
The A-Train observations provide an unprecedented opportunity for synchronous monitoring of the entire atmosphere including clouds at the global scale. In this study we illustrate a statistical analysis and comparisons of cloud cover, thermodynamic phase and cloud optical thickness mainly derived from the coincident POLDER (Polarization_and_Directionality_of_the_Earth_Reflectance), and MODIS (MODerate_Resolution_Imaging Spectroradiometer) sensors in the A-Train constellation. We presented first the results of an extensive study of the regional and seasonal variations of cloud cover from POLDER and MODIS and discuss the possible factors leading to differences between them, among which are the spatial resolution, aerosols, cirrus and particular surfaces. Cloud top phase products were then compared and discussed in view of cloud vertical structure and optical properties derived simultaneously from collocated CALIOP (Cloud-Aerosol_Lidar_with_Orthogonal_Polarization, another A-Train member) observations, which allow to identify and qualify potential biases present in the 3 considered dataset. Among those, we discussed the impact of observed geometries, thin cirrus, aerosols, snow/ice surfaces, multilayer and fractional cloud cover on global statistics of cloud phase derived from POLDER and MODIS passive measurements. Based on these analyses we selected cloud retrievals of high confidence to study the global and regional vertical ice-water transition and the variations of this transition with cloud formation and development regimes, particularly the impact of large-scale dynamics and cloud microphysics.Cloud optical thicknesses were finally studied. The impacts of spatial resolution, cloud microphysics and heterogeneity are mainly discussed for the understanding of the significant biases on optical thickness from the two sensors
APA, Harvard, Vancouver, ISO, and other styles
29

Pellay, François-Xavier. "Méthodes d'estimation statistique de la qualité et méta-analyse de données transcriptomiques pour la recherche biomédicale." Thesis, Lille 1, 2008. http://www.theses.fr/2008LIL10058/document.

Full text
Abstract:
La connaissance des gènes exprimés dans une cellule, dans des conditions physiologiques ou pathologiques, est un élément essentiel à la compréhension des phénomènes biologiques qui la gouvernent. Parmi les technologies permettant de mesurer l'expression génique, la plus utilisée est la technologie des puces à ADN capable de mesurer l'abondance relative des gènes exprimés dans les cellules. Les puces qualifiées de pangénomiques sont supposées couvrir l'ensemble des gènes existants, soit près de trente-mille dans l'espèce humaine. La mesure, l'analyse et l'interprétation d'une telle quantité de données posent un certain nombre de problèmes et la maîtrise des méthodes d'analyse utilisées déterminera la fiabilité et la précision des informations obtenues. Le but de cette thèse est de définir des méthodes permettant de contrôler les mesures, d'améliorer l'analyse et d'approfondir l'interprétation des données transcriptomiques afin d'en optimiser l'utilisation et de pouvoir appliquer ces méthodes pour analyser le transcriptome de patient atteint de leucémie myélomonocytalre juvénile dans le but d'améliorer le diagnostic et de comprendre les mécanismes biologiques de cette maladie rare. Nous avons ainsi développé, et validé au travers de nombreux projets indépendants, un programme de contrôle qualité des puces, ainsi qu'un logiciel qui permet d'améliorer les interprétations biologiques des données microarrays basées sur les ontologies des gènes, et un outil de visualisation et d'analyse globale des voies de signalisation. Enfin, en combinant plusieurs des approches , décrites, nous avons mis au point une méthode pour obtenir des signatures biologiques fiables à des fins diagnostiques
To understand the biological phenomena taking place in a cell under physiological or pathological conditions, it is essential to know the genes that it expresses Measuring genetic expression can be done with DNA chlp technology on which are set out thousands of probes that can measure the relative abundance of the genes expressed in the cell. The microarrays called pangenomic are supposed to cover all existing proteincoding genes, that is to say currently around thirty-thousand for human beings. The measure, analysis and interpretation of such data poses a number of problems and the analytlcal methods used will determine the reliability and accuracy of information obtained with the microarrays technology. The aim of thls thesis is to define methods to control measures, improve the analysis and deepen interpretation of microarrays to optimize their utilization in order to apply these methods in the transcriptome analysis of juvenile myelomocytic leukemia patients, to improve the diagnostic and understand the biological mechanisms behind this rare disease. We thereby developed and validated through several independent studies, a quality control program for microarrays, ace.map QC, a software that improves biological Interpretations of microarrays data based on genes ontologies and a visualization tool for global analysis of signaling pathways. Finally, combining the different approaches described, we have developed a method to obtain reliable biological signatures for diagnostic purposes
APA, Harvard, Vancouver, ISO, and other styles
30

Vo-Van, Claudine. "Analyse de données pharmacocinétiques fragmentaires : intégration dans le développement de nouvelles molécules." Paris 5, 1994. http://www.theses.fr/1994PA05P044.

Full text
APA, Harvard, Vancouver, ISO, and other styles
31

Abrard, Frédéric. "Méthodes de séparation aveugle de sources et applications : des statistiques d'ordre supérieur à l'analyse temps-fréquence." Toulouse 3, 2003. http://www.theses.fr/2003TOU30137.

Full text
APA, Harvard, Vancouver, ISO, and other styles
32

Bailleul, Marc. "Analyse statistique implicative : variables modales et contribution des sujets : application a la modelisation de l'enseignant dans le systeme didactique." Rennes 1, 1994. http://www.theses.fr/1994REN10061.

Full text
Abstract:
Cette these, dans sa partie mathematique, se situe dans la lignee des travaux entrepris par r. Gras et ses eleves, a. Larher, s. Ag almouloud, a. Totohasina et h. Ratsimba rajohn a l'universite de rennes i. Elle etend, de facon originale, les apports des chercheurs precedents aux variables ordinales et developpe la notion de contribution des individus au phenomene d'implication statistique entre variables modales. Ces outils mathematiques sont utilises ensuite pour etudier, a partir d'un questionnaire sous forme de choix ordonne de mots dans un corpus propose, les representations de l'enseignement des mathematiques chez des enseignants de cette discipline au college et au lycee. On verra apparaitre dans les graphes implicatifs des structures que l'on cherchera a caracteriser du point de vue du mode de fonctionnement de l'enseignement qu'elles sous-tendent. On etudiera leur environnement c'est-a-dire le terrain sur lequel elles se sont construites et les effets qu'elles produisent dans des discours d'enseignants et des cahiers d'eleves. L'ensemble de ce travail est place dans le cadre plus large d'une contribution a la didactique de la formation des enseignants de mathematiques et plus precisement a l'etude du pole enseignant, sous son double aspect: maitre dans la situation didactique de classe et eleve dans la situation didactique de formation
APA, Harvard, Vancouver, ISO, and other styles
33

Pires, Sandrine. "Application des méthodes multi-échelles aux effets de lentille gravitationnelles faibles : reconstruction et analyse des cartes de matière noire." Paris 11, 2008. http://www.theses.fr/2008PA112256.

Full text
Abstract:
La cosmologie moderne qui étudie l’Univers de manière scientifique repose sur l’existence d’un modèle qui cherche à décrire la géométrie et la dynamique de l’Univers. Ces dernières décennies, les observations ont montré que notre Univers était dominé par la présence de matière noire et d’énergie noire dont on ne connait pas la nature. L’effet de lentille gravitationnelle faible qui est directement sensible au potentiel gravitationnel est un des meilleurs outils disponibles actuellement pour cartographier la distribution de la matière noire et imposer des contraintes sur le modèle cosmologique. Un grand nombre de relevés dédiés à la mesure du cisaillement gravitationnel, de plus en plus grands et de plus en plus précis, sont déjà prévus afin de répondre à la question de la nature de la matière noire et on espère également aborder le problème de l’énergie noire. Pour cela, un effort considérable est nécessaire pour améliorer les techniques d’analyses existantes. Dans cette thèse, afin d’améliorer le traitement de ces données, nous proposons d’utiliser de nouvelles méthodes d’analyse : les méthodes multi-échelles, qui permettent de transformer le signal sous une forme permettant de mieux analyser. Nous nous sommes intéressés aux aspects de reconstruction et d’analyse des cartes de matière noire. Tout d’abord, nous proposons une méthode innovante qui permet de gérer les problèmes occasionnés par la présence de données manquantes. Ensuite, nous proposons une nouvelle méthode de filtrage qui permet de reconstruire la distribution de matière noire avec plus de précision. Enfin, nous introduisons une nouvelle statistique qui permet d’augmenter nos contraintes sur le modèle cosmologique
Modern cosmology refers to the physical study of Universe and is based on a cosmological model that deals with the structure of the Universe, its origins and its evolution. Over the last decades, observations have provide evidence for both dark matter dark energy. Universe has been found to be dominated by these two components whose composition remains a mystery. Weak gravitational lensing provides a direct way to probe dark matter can be used to map the dark matter distribution. Furthermore, weak lensing effect is believed to be the more promising tool to understand the nature of dark matter and dark energy and then to constrain the cosmological model. New weak lensing surveys, more and more accurate, are already planned that will cover a large fraction of the sky. But a significant effort should be done to improve the current analyses. In this thesis, in order to improve the weak lensing data processing, we suggest to use new methods of analysis: the multiscale methods, that make it possible to transform a signal in a way that facilitates its analysis. We have been interested in the reconstruction and analysis of the dark matter mass map. First, we have developed a new method to deal with the missing data. Second, we have suggested a new filtering method that makes the dark matter mass map reconstruction better. Last, we have introduced a new statistic to set tighter constraints in the cosmological model
APA, Harvard, Vancouver, ISO, and other styles
34

Arciniegas, Mosquera Andrés Felipe. "Analyse de méthodes statistiques en traitement du signal pour les tomographies acoustique et ultrasonore des arbres sur pied." Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM4746/document.

Full text
Abstract:
La tomographie acoustique est une méthode d'imagerie permettant de réaliser des cartographies bidimensionnelles du plan radial-transverse des arbres en fonction de la vitesse (ou la lenteur) des ondes élastiques de basse fréquence (<20 kHz). Les images couramment obtenues avec les appareils commerciaux possèdent une résolution spatiale faible (de l'ordre de quelques centimètres) et sont parfois difficiles à interpréter. Cette résolution est limitée par l'utilisation des ondes de basse fréquence, le faible nombre de sondes et la non-prise en compte des propriétés du bois (anisotropie, hétérogénéité). À ce jour, il n'existe pas d'appareils de terrain utilisant les ultrasons, spécialement adaptés à l'imagerie des arbres sur pied. Compte-tenu des limitations évoquées, nous proposons ici deux études cherchant à améliorer la qualité des images des tomographie acoustique et ultrasonore. Dans un premier temps nous comparons des méthodes de traitement du signal pour la mesure du temps de propagation et nous en précisons des limites expérimentales de validité. L'approche développée a permis de sélectionner les méthodes de traitement du signal en caractérisant les erreurs systématiques et aléatoires induites en fonction du niveau de bruit. Dans un deuxième temps, une étude numérique de la robustesse d'algorithmes de reconstruction est proposée. Deux nouveaux algorithmes sont présentés et comparés à deux algorithmes classiques utilisés dans les appareils commerciaux. Cette comparaison est axée sur les critères liés aux contraintes expérimentales (faible nombre de sondes et mesures bruitées) et aux exigences techniques (faible temps de calcul) pour une utilisation sur le terrain
Acoustic tomography is an imaging technique used to perform two-dimensional mappings of the radial-transverse plane of trees, based on the velocity (or the slowness) of low frequency elastic waves (<20 kHz). The images currently obtained with the commercial devices have a low spatial resolution (of the order of a few centimeters) and are difficult to interpret. These resolution is limited by the use of low frequency waves, the low number of sensors and the fact of not taking into account the properties of wood (anisotropy, heterogeneity). To date, there are no field devices using ultrasound, specially adapted for standing trees imaging. Taking into account the limitations mentioned previously, we present hereby two studies that aim to improve the quality of acoustic and ultrasonic tomography images. In the first part of this work we compare signal-processing methods for the measurement of the propagation time and we specify experimental limits of validity. The approach developed permitted to choose the signal-processing methods by characterizing their systematic and random errors associated with the noise level. In the second part of this work, a numerical study of the robustness of reconstruction algorithms is proposed. Two new reconstruction algorithms are presented and compared to two conventional algorithms used in the commercial devices. These comparison is based on the criteria related to experimental constraints (low number of sensors and noisy measurements) and technical requirements (low computation time) for use in the field
APA, Harvard, Vancouver, ISO, and other styles
35

Wehrlé, Pascal. "Aspects des analyses multifactorielles et des plans d'expériences appliqués à l'optimisation et à la validation de formes et de procédés galéniques : étude de la lubrification d'un comprimé soluble, étude du procédé de granulation humide." Paris 11, 1990. http://www.theses.fr/1990PA114827.

Full text
APA, Harvard, Vancouver, ISO, and other styles
36

Boudin, Florian. "Exploration d'approches statistiques pour le résumé automatique de texte." Phd thesis, Université d'Avignon, 2008. http://tel.archives-ouvertes.fr/tel-00419469.

Full text
Abstract:
Un résumé est un texte reformulé dans un espace plus réduit. Il doit exprimer avec un minimum de mots le contenu essentiel d'un document. Son but est d'aider le lecteur à repérer les informations qui peuvent l'intéresser sans pour autant devoir lire le document en entier. Mais pourquoi avons-nous tant besoin de résumés? Simplement parce que nous ne disposons pas d'assez de temps et d'énergie pour tout lire. La masse d'information textuelle sous forme électronique ne cesse d'augmenter, que ce soit sur Internet ou dans les réseaux des entreprises. Ce volume croissant de textes disponibles rend difficile l'accès à l'information désirée sans l'aide d'outils spécifiques. Produire un résumé est une tâche très complexe car elle nécessite des connaissances linguistiques ainsi que des connaissances du monde qui restent très difficiles à incorporer dans un système automatique. Dans cette thèse de doctorat, nous explorons la problématique du résumé automatique par le biais de trois méthodes statistiques permettant chacune la production de résumés répondant à une tâche différente.

Nous proposons une première approche pour la production de résumé dans le domaine spécialisé de la Chimie Organique. Un prototype nommé YACHS a été déve- loppé pour démontrer la viabilité de notre approche. Ce système est composé de deux modules, le premier applique un pré-traitement linguistique particulier afin de tenir compte de la spécificité des documents de Chimie Organique tandis que le second sélectionne et assemble les phrases à partir de critères statistiques dont certains sont spécifiques au domaine. Nous proposons ensuite une approche répondant à la problématique du résumé automatique multi-documents orienté par une thématique. Nous détaillons les adaptations apportées au système de résumé générique Cortex ainsi que les résultats observés sur les données des campagnes d'évaluation DUC. Les résultats obtenus par la soumission du LIA lors des participations aux campagnes d'évaluations DUC 2006 et DUC 2007 sont discutés. Nous proposons finalement deux méthodes pour la génération de résumés mis-à-jour. La première approche dite de maximisation- minimisation a été évaluée par une participation à la tâche pilote de DUC 2007. La seconde méthode est inspirée de Maximal Marginal Relevance (MMR), elle a été évaluée par plusieurs soumissions lors de la campagne TAC 2008.
APA, Harvard, Vancouver, ISO, and other styles
37

Laignelet, Marion. "Associer analyse syntaxique et analyse discursive pour le repérage automatique d’informations potentiellement obsolescentes dans des documents encyclopédiques." Toulouse 2, 2009. https://tel.archives-ouvertes.fr/tel-00461579.

Full text
Abstract:
La question de la mise à jour des documents se pose dans de nombreux domaines, notamment dans le domaine de l'édition encyclopédique : les ouvrages publiés doivent être continuellement vérifiés afin de ne pas mettre en avant des informations fausses ou altérées par le temps. Dans ce travail, nous proposons la mise en oeuvre d'un prototype d'aide à la mise à jour : l'objectif est le repérage automatique de zones textuelles dans lesquelles l'information est potentiellement obsolescente. Nous proposons la prise en compte d'indices linguistiques et discursifs variés et faisant appel à des niveaux d'analyses différents. L'obsolescence étant un phénomène non linguistique, notre hypothèse est qu'il faut considérer les indices linguistiques et discursifs en termes de combinaisons. Sur un corpus annoté manuellement par des experts, nous projetons un repérage automatique d'un grand nombre d'indices linguistiques, discursifs et structurels. Un système d'apprentissage automatique est ensuite mis en place afin de faire émerger les configurations d'indices pertinentes dans les segments obsolescents caractérisés par les experts. Nos objectifs sont remplis : nous proposons une description fine de l'obsolescence dans notre corpus de textes encyclopédiques et ainsi qu'un prototype logiciel d'aide à la mise à jour des textes. Une double évaluation a été menée : par validation croisée sur le corpus d'apprentissage et par les experts sur un corpus de test. Les résultats sont encourageants et nous amènent à faire évoluer la définition de l'obsolescence, sur la base des découvertes émergeant des corpus et dans l'interaction avec les besoins des experts concernant l'aide à la mise à jour
The question of document updating arises in many areas. It is central to the field of encyclopaedia publishing : encyclopaedias must be constantly checked in order not to put forward wrong or time-altered information. We describe the implementation of a prototype of an aid to updating. Its aims is to automatically locate zones of text in which information might be obsolescent. The method we propose takes into account various linguistic and discursive cues calling on different levels of analysis. As obsolescence is a non-linguistic phenomenon, our hypothesis is that linguistic and discursive cues must be considered in terms of combinations. Our corpus is first manually annotated by experts for zones of obsolescence. We then apply automatic tagging of a large number of linguistic, discursive and structural cues onto the annotated corpus. A machine learning system is then implemented to bring out relevant cue configurations in the obsolescent segments characterized by the experts. Both our objectives have been achieved : we propose a detailed description of obsolescence in our corpus of encyclopaedic texts as well as a prototype aid to updating. A double evaluation was carried out : by cross validation on the corpus used for machine learning and by experts on a test corpus. Results are encouraging. They lead us to an evolution of the definition of obsolescent segments, first, on the basis of the "discoveries" emerging from our corpora and also through interaction with the needs of the experts with respect to an aid to updating. The results also show limits in the automatic tagging of the linguistic and discursive cues
APA, Harvard, Vancouver, ISO, and other styles
38

Thirion, Bertrand. "Analyse de données d' IRM fonctionnelle : statistiques, information et dynamique." Phd thesis, Télécom ParisTech, 2003. http://tel.archives-ouvertes.fr/tel-00457460.

Full text
Abstract:
Dans cette thèse, nous discutons et proposons un certains nombre de méthodes pour l'analyse de données d'IRM -imagerie par résonance magnétique- fonctionnelle. L'IRM fonctionnelle est une modalité récente de l'exploration du cerveau: elle produit des séquences d'images reflétant l'activité métabolique locale, celle-ci reflétant l'activité neuronale. Nous nous intéressons tout d'abord à la modélisation des séries temporelles obtenues pour chaque voxel séparément, en faisant appel aux techniques de prédiction linéaire et au calcul de l'information des processus modélisés. Nous étudions ensuite différentes généralisations multivariées de ce modèle. Après avoir rappelé et discuté certaines techniques classiques (analyse en composantes indépendantes, regroupement), nous proposons successivement une approche linéaire fondée sur la théorie des systèmes à état et une approche non-linéaire fondée sur les décompositions à noyau. Le but commun de ces méthodes -qui peuvent se compléter- est de proposer des décompositions qui préservent au mieux la dynamique des données. Nous introduisons ensuite une approche nouvelle par réduction de la dimension des données; cette approche offre une représentation plus structurée et relativement agréable à visualiser. Nous montrons ses avantages par rapport aux techniques linéaires classiques. Enfin, nous décrivons une méthodologie d'analyse qui synthétise une grande partie de ce travail, et repose sur des hypothèses très souples. Nos résultats offrent ainsi une description globale des processus dynamiques qui sont mis en image lors des expériences d'IRM fonctionnelle.
APA, Harvard, Vancouver, ISO, and other styles
39

Jarrah, Adil. "Développement de méthodes statistiques et probabilistes en corrosion par piqûres pour l’estimation de la profondeur maximale : application à l’aluminium A5." Paris, ENSAM, 2009. http://www.theses.fr/2009ENAM0024.

Full text
Abstract:
La corrosion par piqûres est l'une des formes de corrosion les plus répandues. Elle touche tous les matériaux et se place dans un contexte économique très important. Elle peut se manifester à des endroits spécifiques de la structure et mener à sa détérioration en particulier en présence de sollicitations mécaniques. L’aspect stochastique du phénomène a conduit au développement de méthodes statistiques pour le caractériser. Cette caractérisation est souvent faite via l’estimation de la profondeur maximale des piqûres afin d’évaluer le risque de perforation de la structure. Pour cela, la méthode de Gumbel est l’approche la plus utilisée. L’objectif de ce travail est de revenir sur la vérification des conditions d’application de cette méthode notamment l’indépendance et de la comparer avec les autres approches basées sur la loi des valeurs extrêmes généralisée et la loi de dépassement de seuil. La condition d’indépendance est vérifiée à l’aide des processus spatiaux. Une adaptation de l’analyse spectrale en corrosion par piqûres est aussi proposée. La comparaison entre les approches est basée sur des simulations numériques dont les paramètres sont issus de l’expérimentation
Pitting corrosion is one of the most prevalent forms of corrosion. It affects all materials and takes place in a very important economic context. Pits can manifest locally over the structure and leads to its deterioration particularly in the presence of mechanical solicitations. The stochastic aspect of the phenomenon led to the development of statistical methods in order to characterize it. This characterization is often done through the estimation of maximum pit depth in the aim to assess the risk of perforation. For this aim, the method of Gumbel is often used. The objective of this work is to check the conditions of application of this method notably the independence and compare it with the approaches based on law of generalized extreme values and the peak over threshold. The condition of independence is verified using spatial process. An adaptation of the spectral analysis in the context of pitting corrosion is also proposed. The comparison between the approaches is based on numerical simulations which the parameters come from the experimentation
APA, Harvard, Vancouver, ISO, and other styles
40

Paris, Nicolas. "Formalisation algorithmique des classements au tennis : mise en perspective longitudinale par simulation probabiliste." Bordeaux 2, 2008. http://www.theses.fr/2008BOR21603.

Full text
Abstract:
Les jeux de société et les jeux sportifs sont des terrains de réflexion pour la théorie des probabilités et la théorie des jeux. Les activités physiques et sportives offrent une multiplicité de situations qui se révèlent un immense champ d'investigation. A chaque problématique correspond une méthode qui nécessite des niveaux de formalisation adéquats. Le tennis permet de présenter des exemples prégnants de problématiques et de méthodes associées. Le premier concerne la modélisation d'un match. La méthode proposée est un modèle logistique, complété par des simulations probabilistes. La méthode aboutit à une analyse raisonnable de l'interaction entre les deux adversaires et permet de dégager des pistes concrètes d'entraînement. Le deuxième exemple abordé est l'étude du palmarès des joueurs français en 2001. Cette analyse, descriptive, est une lecture du comportement des joueurs face au système de classement dans lequel ils évoluent. La troisième partie est une analyse des propriétés mathématiques de la méthode de classement en elle-même. A partir d'un niveau de formalisation plus élevé, la réalisation de simulation probabiliste mène à comprendre les propriétés intrinsèques de la méthode en terme de nombre de matches minimum à effectuer pour se maintenir ou monter avec une probabilité de 1/2. La dernière partie est une analyse longitudinale des méthodes de classements français de 1977 à 2006. Cette problématique nécessite le niveau de formalisation le plus élevé. Néanmoins, les résultats obtenus restent concrets sous la forme de comparaison de l'évolution du nombre de matches minimum à effectuer pour se maintenir ou monter avec une probabilité de 1/2 sur la période.
APA, Harvard, Vancouver, ISO, and other styles
41

Viaud, Gautier. "Méthodes statistiques pour la différenciation génotypique des plantes à l’aide des modèles de croissance." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLC020/document.

Full text
Abstract:
Les modèles de croissance de plantes peuvent être utilisés afin de prédire des quantités d’intérêt ou évaluer la variabilité génotypique au sein d’une population de plantes ; ce double usage est mis en évidence au sein de ce travail. Trois modèles de plantes sont ainsi considérés (LNAS pour la betterave et le blé, GreenLab pour Arabidopsis thaliana) au sein du cadre mathématique des modèles à espace d’états généraux.Une nouvelle plate-forme de calcul générique pour la modélisation et l’inférence statistique (ADJUSTIN’) a été développée en Julia, permettant la simulation des modèles de croissance de plantes considérés ainsi que l’utilisation de techniques d’estimation de pointe telles que les méthodes de Monte Carlo par chaînes de Markov ou de Monte Carlo séquentielles.L’inférence statistique au sein des modèles de croissance de plantes étant de première importance pour des applications concrètes telles que la prédiction de rendement, les méthodes d’estimation de paramètres et d’états au sein de modèles à espaces d’états et dans un cadre bayésien furent tout d’abord étudiées, et plusieurs cas d’étude pour les plantes considérées sont analysés pour le cas d’une plante individuelle.La caractérisation de la variabilité au sein d’une population de plantes est envisagée à travers les distributions des paramètres de population au sein de modèles hiérarchiques bayésiens. Cette approche requérant l’acquisition de nombreuses données pour chaque individu, un algorithme de segmentation-suivi pour l’analyse d’images d’Arabidopsis thaliana, obtenues grâce au Phénoscope, une plate-forme de phénotypage à haut rendement de l’INRA Versailles, est proposé.Finalement, l’intérêt de l’utilisation des modèles hiérarchiques bayésiens pour la mise en évidence de la variabilité au sein d’une population de plantes est discutée. D’abord par l’étude de différents scénarios sur des données simulées, et enfin en utilisant les données expérimentales obtenues à partir de l’analyse d’images pour une population d’Arabidopsis thaliana comprenant 48 individus
Plant growth models can be used in order to predict quantities of interest or assess the genotypic variability of a population of plants; this dual use is emphasized throughout this work.Three plant growth models are therefore considered (LNAS for sugar beet and wheat, GreenLab for Arabidopsis thaliana) within the mathematical framework of general state space models.A new generic computing platform for modelling and statistical inference (ADJUSTIN’) has been developed in Julia, allowing to simulate the plant growth models considered as well as the use of state-of-the-art estimation techniques such as Markov chain Monte Carlo and sequential Monte Carlo methods.Statistical inference within plant growth models is of primary importance for concrete applications such as yield prediction, parameter and state estimation methods within general state-space models in a Bayesian framework were first studied and several case studies for the plants considered are then investigated in the case of an individual plant.The characterization of the variability of a population of plants is envisioned through the distributions of parameters using Bayesian hierarchical models. This approach requiring the acquisition of numerous data for each individual, a segmentation-tracking algorithm for the analysis of images of Arabidopsis thaliana, obtained thanks to the Phenoscope, a high-throughput phenotyping platform of INRA Versailles, is proposed.Finally, the interest of using Bayesian hierarchical models to evidence the variability of a population of plants is discussed. First through the study of different scenarios on simulated data, and then by using the experimental data acquired via image analysis for the population of Arabidopsis thaliana comprising 48 individuals
APA, Harvard, Vancouver, ISO, and other styles
42

Persyn, Elodie. "Analyse d’association de variants génétiques rares dans une population démographiquement stable." Thesis, Nantes, 2017. http://www.theses.fr/2017NANT1016/document.

Full text
Abstract:
Les études d’association sur génome entier ont permis d’identifier de nombreux facteurs de risque génétiques impliqués dans des maladies complexes. Il apparaît cependant que les variants fréquents n’expliquent qu’une faible partie de l’héritabilité des maladies. Une partie non négligeable serait due à la présence de variants rares avec des effets génétiques plus forts. Tester l’association de ces variants est problématique du fait de leur faible fréquence dans la population générale. De nombreuses méthodes statistiques ont été développées avec la stratégie commune d’agréger l’information pour un groupe de variants. Cette thèse a pour objectif de comparer les principales stratégies à l’aide de simulations de différents scénarios génétiques et de l’application à de vraies données de séquençage. Nous avons aussi développé un test, appelé DoEstRare, comparant les distributions des positions des variants rares entre les cas et les témoins, afin de détecter des regroupements de variants dans des régions locales. Enfin, il a été montré qu’une structure de population est un facteur de confusion pour l’interprétation des résultats d’analyse de variants rares. Avec le recrutement de témoins pour les analyses, avec des projets tels que French Exome et VACARME, il est alors nécessaire de comprendre l’impact d’une structure à fine échelle géographique (e.g. échelle de la France) pour les différentes stratégies statistiques. La seconde partie de cette thèse consiste à évaluer cet impact au moyen de simulations de données génétiques pour des structures géographiques locales
Genome-wide association studies have identified many common risk alleles for a wide variety of complex diseases. However these common variants explain a very small part of the heritability. A hypothesis is the presence of rare genetic variants with stronger effects. Testing the association of those rare variants is challenging due to their low frequency in populations. Many statistical methods have been developed with the strategy to aggregate the information for a group a rare variants. This thesis aims to compare the main strategies through simulating under various genetic scenarios and the application to real sequencing data. We also developed a statistical test, called DoEstRare, which can detect clustered disease-risk variants in local genetic regions, by comparing the position distributions between cases and controls. Moreover, it has been shown that population stratification represents a confounding factor in the analysis interpretations for rare variants. With the recruitment of controls, in the context of projects such as French Exome and VACARME, it is necessary to assess the impact of a very fine geographical structure (France) for different statistical strategies. The second part of this thesis consists in estimating this impact by simulating fine-scale population structures
APA, Harvard, Vancouver, ISO, and other styles
43

Philibert, Aurore. "Méthodes de méta-analyse pour l'estimation des émissions de N2O par les sols agricoles." Phd thesis, AgroParisTech, 2012. http://pastel.archives-ouvertes.fr/pastel-00913760.

Full text
Abstract:
Le terme de méta-analyse désigne l'analyse statique d'un large ensemble de résultats provenant d'études individuelles pour un même sujet donné. Cette approche est de plus en plus étudiée dans différents domaines, notamment en agronomie. Dans cette discipline, une revue bibliographique réalisée dans le cadre de la thèse a cependant montré que les méta-analyses n'étaient pas toujours de bonne qualité. Les méta-analyses effectuées en agronomie étudient ainsi très rarement la robustesse de leurs conclusions aux données utilisées et aux méthodes statistiques. L'objectif de cette thèse est de démontrer et d'illustrer l'importance des analyses de sensibilité dans le cadre de la méta-analyse en s'appuyant sur l'exemple de l'estimation des émissions de N2O provenant des sols agricoles. L'estimation des émissions de protoxyde d'azote (N2O) est réalisée à l'échelle mondaile par le Groupe d'experts intergouvernemental sur l'évolution du climat (GIEC). Le N2O est un puissant gaz à effet de serre avec un pouvoir de réchauffement 298 fois plus puissant que le CO2 sur une période de 100 ans. Les émissions de N2O ont la particularité de présenter une forte variabilité spatiale et temporelle. Deux bases de données sont utilisées dans ce travail : la base de données de Rochette et Janzen (2005) et celle de Stehfest et Bouwman (2006). Elles recensent de nombreuses mesures d'émissions de N2O réparties dans le monde provenant d'études publiées et ont joué un rôle important lors des estimations d'émissions de N2O réalisées par le GIEC. Les résultats montrent l'intérêt des modèles à effets aléatoires pour estimer les émissions de NO2 issues de sols agricoles. Ils sont bien adaptés à la structure des données (observations répétées sur un même site pour différentes doses d'engrais, avec plusieurs sites considérés). Ils permettent de distinguer la variabilité inter-sites de la variabilité intra-site et d'estimer l'effet de la dose d'engrais azoté sur les émissions de NO2. Dans ce mémoire, l'analyse de la sensibilité des estimations à la forme de la relation "Emission de N2O / Dose d'engrais azoté" a montré qu'une relation exponentielle était plus adaptée. Il apparait ainsi souhaitable de remplacer le facteur d'émission constant du GIEC (1% d'émission quelque soit la dose d'engrais azoté) par un facteur variable qui augmenterait en fonction de la dose. Nous n'avons par contre pas identifié de différence importante entre les méthodes d'inférence fréquentiste et bayésienne. Deux approches ont été proposées pour inclure des variables de milieu et de pratiques culturales dans les estimations de N2O. La méthode Random Forest permet de gérer les données manquantes et présente les meilleures prédictions d'émission de N2O. Les modèles à effets aléatoires permettent eux de prendre en compte ces variables explicatives par le biais d'une ou plusieurs mesures d'émission de N2O. Cette méthode permet de prédire les émissions de N2O pour des doses non testées comme le cas non fertilisé en parcelles agricoles. Les résultats de cette méthode sont cependant sensibles au plan d'expérience utilisé localement pour mesurer les émissions de N2O.
APA, Harvard, Vancouver, ISO, and other styles
44

Latasa, Itxaro. "Enseignement de la statistique pour des géographes : analyse des problèmes et propositions de solutions : le cas de l'Université espagnole." Aix-Marseille 1, 2005. http://www.theses.fr/2005AIX10052.

Full text
Abstract:
La thèse présente les résultats d'un travail de recherche qui s'occupe de l'enseignement d'une matière concrète : la statistique, dans des situations particulières : la licence espagnole de géographie, dans un contexte marqué par la crise et les transformations en rapport avec le transit vers un nouvel ordre mondial. À partir de conceptions théoriques liées au constructivisme et à la théorie circulaire et aux idées apparues des nombreuses recherches sur la problématique de l'éducation statistique, il a été élaboré dans la première [partie] un cadre théorique depuis lequel problématiser l'enseignement de la statistique dans le titre espagnol de Géographie. Dans la seconde partie on expose les facteurs qui ont pu influencer la configuration de la statistique comme matière d'enseignement et on analyse les caractéristiques de son enseignement sur la base des contenus des programmes des cours qui sont distribués dans les 26 facultés de géographies espagnoles.
APA, Harvard, Vancouver, ISO, and other styles
45

Vera, Carine. "Modèles linéaires mixtes multiphasiques pour l'analyse de données longitudinales : Application à la croissance des plantes." Montpellier 2, 2004. http://www.theses.fr/2004MON20161.

Full text
APA, Harvard, Vancouver, ISO, and other styles
46

Turko, Anton. "Approche comportementale des marchés financiers : options et prévisions." Aix-Marseille 3, 2009. http://www.theses.fr/2009AIX32038.

Full text
Abstract:
Cette thèse concerne le problème de l’information et de la décision en matière de stratégies financières intermarchés où la connaissance d'informations et d'outils conditionnels est exploitée pour définir des probabilités de rentabilisation par des prévisions assises sur une logique comportementale des opérateurs. Il faut préciser que les probabilités dont nous parlons ici n’ont rien à voir avec les probabilités habituellement utilisées supposant un processus à moyenne déterminable et à l’écart type modélisable. Les opérateurs sont identifiés selon deux points de vue, acheteurs et vendeurs, ce qui conduit à définir des relations probabilistes sur les évolutions des cours qui, lorsqu'il apparaît des conjonctions ou même des disjonctions, peuvent être exploitées dans un but prévisionnel. C’est ainsi que nous proposons un nouvel instrument de construction et de l’analyse de la ‘structure’ de probabilité sur les marchés financiers. Cet instrument porte le nom de TTPI (TREMOLIERES-TURKO Probability Indicator). Il représente une sorte de vision globale sur l’évolution future des prix de marché financier sous l’échelle multi-temporelle tout en respectant la distribution de la probabilité subjective des opérateurs professionnels. L’instrument en question peut être exploité afin de détecter des changements de probabilité sur les futures tendances des prix tels que vus aujourd’hui par les opérateurs
This paper aims at giving a more comprehensive understanding of the way the prices are set up on option markets. Prediction models are derived. To facilitate their understanding we propose to split price formation process into two phases: -a first one which says how an equilibrium can be reached taking into account the way opposite operators see the future market movements and why some equilibrium can be reached or not. -second, based upon the information revealed by active operators, when enough information is given along time, we show that it is possible give probabilities of market tendencies. This will lead to a behavioral financial model build in the context of utility theory and stochastic dominance, leading to a better understanding of capital markets and option markets. . The purpose of the model will be to permit high probability forecasts in some few specific situations. For this, information coming from buyers as sellers is exploited, each operator bringing his own particular vision of future price market movements
APA, Harvard, Vancouver, ISO, and other styles
47

Conreaux, Stéphane. "Modélisation de 3-variétés à base topologique : application à la géologie." Vandoeuvre-les-Nancy, INPL, 2001. http://www.theses.fr/2001INPL032N.

Full text
Abstract:
La modélisation volumique a pour but de représenter un objet réel par des objets informatiques. En géologie, un modèle 3D peut être défini à partir d'un ensemble de surfaces partitionnant l'espace en régions. Par exemples ces surfaces peuvent être de objets géologiques (horizons, failles,. . . ). Un objet volumique composé de 3-cellules (tétrahèdres ou polyèdres) est aussi une représentation d'un modèle 3D. Avec ce deuxième type de modèle, il est possible d'attacher des propriétés physiques aux noeuds du maillage. A l'aide d'un noyau topologique à base de G-Cartes, nous étudions les problèmes suivants: -définir des structures de données efficaces pour représenter la décomposition des objets en éléments finis - générer et éditer des maillages d'objets surfaciques ou volumiques (destruction de cellules, éclatement de cellules. . . ), - utiliser un outil polyvalent appelé coraffinement qui consiste à combiner deux objets entre eux pour en former un qui correspond à leur union. Nous présentons également des applications géologiques et notamment en utilisant l'opération de coraffinement : insérer un chenal décomposé en cellules dans une grille régulière (les cellules intersectées de la grille ne sont pas préservées, le contact entre les cellules du bord du chenal et la grille sont parfaits), opérations booléennes sur des objets géologiques,. .
Volumic modeling enables to represent real objects by computer science objects. In geology, a 3D model may be defined by a set of surfacic objects partitionning the 3D space in regions. For instance, these surfaces can be horizons or faults (geological objects). A volumic object composed of 3-cells (tetrahedra or arbitrary polyhedra) could be a second way to represent a 3D model. With this kind of representation, it is possible to attach several properties on the nodes of the mesh. Thanks to a topological kernel based on G-Maps, we will study the following issues : - defining efficient data strcutures enabling the decomposition of objects into discrete elements to be represented, - generating and editing meshes for surfacic and volumic objects (removing cells, splitting cells,. . . ), - using a multi-purpose operation called corefinement. We also present several geological applications using corefinement operation : insertion of a gridded chenal in a regular grid (the intersected cells of the channel and the grid are perfect), boolean operations between geological objects,. .
APA, Harvard, Vancouver, ISO, and other styles
48

Agnaou, Youssef Joseph. "Analyse statistique de données de croissance humaine : estimation et ajustement paramétriques, non paramétriques, et par réseaux de neurones." Bordeaux 1, 2001. http://www.theses.fr/2001BOR12404.

Full text
Abstract:
L'étude des courbes de croissance est abordée, du point de vue statistique par différentes méthodes paramétriques et non-paramétriques. Le travail présenté compare, sur deux familles de données réelles (individuelles et longitudinales) concernant la croissance humaine, les méthodes paramétriques classiques, certains estimateurs à noyau, et l'utilisation de réseaux neuronaux, méthode assez peu utilisée dans ce contexte. Une large annexe présente les bases de cette méthode.
APA, Harvard, Vancouver, ISO, and other styles
49

Ollier, Sébastien. "Des outils pour l'intégration des contraintes spatiales, temporelles et évolutives en analyse des données écologiques." Lyon 1, 2004. http://www.theses.fr/2004LYO10293.

Full text
Abstract:
Au cours de cette thèse, on revient dans une première partie sur la question théorique de l'ordination sous contraintee spatiales par une revue des objets permettant l'intégration des proximités spatiales. On introduit ensuite une nouvelle procédure qui généralise, à l'interface des programmathèques "spdep" et "ade4" du logiciel R, l'ACP sous contrainte de Wartenberg. On aborde ensuite le problème de la typologie de structures multiéchelles. On propose une solution à la normalisation des échelles. Les illustrations portent sur des données d'altimétrie laser. Enfin, à partir d'une critique des procédures ad hoc rencontrées dans la littérature, on définit des procédures canoniques permettant la prise en compte des proximités évolutives en analyse des données. La conclusion porte sur la pratique de la biométrie et les relations qui s'établissent entre donnée expérimentale, langage mathématique et mise en oeuvre informatique
APA, Harvard, Vancouver, ISO, and other styles
50

Nguegang, Kamwa Blandine. "Stratégie d'échantillonnage des mesures LIBS in situ de la teneur en or dans des échantillons miniers : optimisation par analyse statistique." Master's thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/69119.

Full text
Abstract:
Au Québec, 19 mines d'or produisent plus de 1.8 milliard dollars canadiens d'or annuellement. Dans ces mines, des centaines d'échantillons de roches sont collectées quotidiennement, et envoyées au laboratoire afin de déterminer leurs concentrations en or. Étant donné que les résultats du laboratoire ne sont disponibles qu'après 24 à 48 heures, il s'en suit un impact direct négatif sur les activités minières. Les avancées technologiques des dernières années laissent croire que la spectroscopie sur plasma induite par laser (LIBS) pourrait constituer une technologie prometteuse pour mesurer en temps réel et in-situ, la teneur en or de la roche. Considérant la taille de chaque tir produit par le laser sur un échantillon de roche, à savoir 500 µm, de très nombreux tirs seront requis afin d'obtenir un résultat représentatif de l'échantillon analysé. À titre d'exemple, pour un échantillon de carotte de 50 cm de long, et une surface analysée comprise entre 70 et 80%, 10000 tirs lasers ont été effectués afin de s'assurer d'obtenir un résultat représentatif de l'échantillon, avec un temps d'acquisition d'une demi-journée en laboratoire, soit une durée trop longue pour une application pratique dans les mines. Pour cette raison, l'objectif de ce projet est de développer une stratégie afin de minimiser le nombre de tirs LIBS requis sur un échantillon à analyser, tout en demeurant représentatif de ce dernier, et ainsi obtenir une mesure fiable et précise de la teneur en or. Pour ce faire, une analyse statistique descriptive combinée à plusieurs motifs élaborés à partir des 10000 points de mesure est appliquée sur les données LIBS. En se fixant un compromis entre le nombre de tirs à réaliser sur un échantillon (roche) et le temps d'analyse, le motif défini « Boucle » minimise le mieux le nombre de tirs avec un temps d'analyse acceptable par une opération minière. À partir de ce dernier, un protocole d'échantillonnage a été élaboré, où pour être représentatif des échantillons de carottes, 1500 tirs sont nécessaires tandis que pour les échantillons de roches, seuls 100 tirs suffisent. Cependant, il serait important de pouvoir tester ce protocole d'échantillonnage sur plusieurs échantillons miniers afin de pouvoir valider ce dernier.
In Quebec, 19 gold mines produce more than C (dollar) 1.8 billion of gold annually. In these mines, hundreds of rock samples are collected daily and sent to the laboratory to determine their gold concentrations. Since laboratory results are only available after 24 to 48 hours, there is a direct negative impact on mining activities. Technological advances in recent years suggest that Laser Induced Breakdown Spectroscopy (LIBS) may be a promising technology for real-time and in-situ measurement of the gold content of rock samples. Considering the size of each shot produced by the laser on a rock sample, namely 500 µm, many shots will be required in order to obtain a representative result of the sample analyzed. For example, for a 50 cm long core sample, and a surface analyzed between 70 and 80%, 10,000 laser shots were fired to ensure to obtain a result representative of the sample, with an acquisition time of half a day in the laboratory, which is a too long period of time for a practical application in mines. For this reason, the objective of this project is to minimize the number of LIBS shots required on a sample to be analyzed, while remaining representative of the latter, and thus obtain a reliable and accurate measurement of the gold content. For this, a descriptive statistical analysis combined with several elaborate patterns is applied to the 10,000 LIBS data obtained. By setting a compromise between the number of shots to be made on a sample and the analysis time, the Loop pattern minimizes the number of shots with an acceptable analysis time. From the latter, a sampling protocol has been developed, where to be representative of core samples, 1500 shots are needed whereas for rock samples, only 100 shots are needed. However, it would be important to be
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography