Siga este enlace para ver otros tipos de publicaciones sobre el tema: Statistiques temporelles.

Tesis sobre el tema "Statistiques temporelles"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 50 mejores tesis para su investigación sobre el tema "Statistiques temporelles".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Mercier, Ludovic. "Séries temporelles chaotiques appliquées à la finance problèmes statistiques et algorithmiques". Paris 9, 1998. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1998PA090049.

Texto completo
Resumen
Notre contribution à l'étude des séries temporelles chaotiques porte sur les points suivants. Nous proposons un cadre d'étude permettant de prendre en compte les apports des différents domaines scientifiques traitant de ce type de données : traitement du signal, systèmes dynamiques, théorie ergodique, finance et statistiques. Nous précisons la notion d'exposant de Lyapunov global à l'aide de plusieurs définitions, de la plus formelle à la plus usitée. Nous montrons pourquoi les exposants de Lyapunov globaux sont utiles pour caractériser un chaos mais pratiquement inutiles lorsqu'il s'agit de faire des prévisions. On s'intéresse alors aux exposants de Lyapunov locaux. On montre comment chaque définition est reliée aux exposants de Lyapunov globaux et on précise dans quel cadre applicatif chaque définition est pertinente. On donne un résultat nouveau concernant la distribution des exposants de Lyapunov locaux. Nous considérons les méthodes de prévisions non-paramétriques utilisables dans ce contexte en en détaillant deux qui semblent particulièrement adaptées aux chaos : les plus proches voisins et les fonctions radiales. Ce dernier estimateur fait l'objet d'une étude plus approfondie. On précise ses propriétés et on donne un algorithme pour le mettre en œuvre. Nous étudions la prédictibilité des séries temporelles chaotiques. On montre comment l'horizon de prédiction est relié aux exposants de Lyapunov locaux du système. On propose une approche théorique nouvelle pour traiter le cas des chaos bruités. On s'intéresse au problème du choix d'un pas d'échantillonnage pour les séries chaotiques issues d'un système en temps continu. On donne un résultat nouveau permettant de choisir un pas d'échantillonnage optimal au sens de l'horizon de prédiction. Nous étayons ces présentations d'un ensemble de simulations à partir de chaos connus en précisant leurs couts algorithmiques. On discute les problèmes posés par la simulation des séries temporelles chaotiques. Enfin, nous donnons deux applications des outils développés dans le cadre des séries financières infra-journalières. La première application est une illustration directe de ces outils dans le cas des taux de change. La seconde application fait préalablement appel aux méthodes de déformation du temps qui sont présentées ici dans un cadre unifié nouveau
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Ollier, Sébastien. "Des outils pour l'intégration des contraintes spatiales, temporelles et évolutives en analyse des données écologiques". Lyon 1, 2004. http://www.theses.fr/2004LYO10293.

Texto completo
Resumen
Au cours de cette thèse, on revient dans une première partie sur la question théorique de l'ordination sous contraintee spatiales par une revue des objets permettant l'intégration des proximités spatiales. On introduit ensuite une nouvelle procédure qui généralise, à l'interface des programmathèques "spdep" et "ade4" du logiciel R, l'ACP sous contrainte de Wartenberg. On aborde ensuite le problème de la typologie de structures multiéchelles. On propose une solution à la normalisation des échelles. Les illustrations portent sur des données d'altimétrie laser. Enfin, à partir d'une critique des procédures ad hoc rencontrées dans la littérature, on définit des procédures canoniques permettant la prise en compte des proximités évolutives en analyse des données. La conclusion porte sur la pratique de la biométrie et les relations qui s'établissent entre donnée expérimentale, langage mathématique et mise en oeuvre informatique
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Hamrouni-Chtourou, Sameh. "Approches variationnelles statistiques spatio-temporelles pour l'analyse quantitative de la perfusion myocardique en IRM". Phd thesis, Institut National des Télécommunications, 2012. http://tel.archives-ouvertes.fr/tel-00814577.

Texto completo
Resumen
L'analyse quantitative de la perfusion myocardique, i.e. l'estimation d'indices de perfusion segmentaires puis leur confrontation à des valeurs normatives, constitue un enjeu majeur pour le dépistage, le traitement et le suivi des cardiomyopathies ischémiques --parmi les premières causes de mortalité dans les pays occidentaux. Dans la dernière décennie, l'imagerie par résonance magnétique de perfusion (IRM-p) est la modalité privilégiée pour l'exploration dynamique non-invasive de la perfusion cardiaque. L'IRM-p consiste à acquérir des séries temporelles d'images cardiaques en incidence petit-axe et à plusieurs niveaux de coupe le long du grand axe du cœur durant le transit d'un agent de contraste vasculaire dans les cavités et le muscle cardiaques. Les examens IRM-p résultants présentent de fortes variations non linéaires de contraste et des artefacts de mouvements cardio-respiratoires. Dans ces conditions, l'analyse quantitative de la perfusion myocardique est confrontée aux problèmes complexes de recalage et de segmentation de structures cardiaques non rigides dans des examens IRM-p. Cette thèse se propose d'automatiser l'analyse quantitative de la perfusion du myocarde en développant un outil d'aide au diagnostic non supervisé dédié à l'IRM de perfusion cardiaque de premier passage, comprenant quatre étapes de traitement : -1.sélection automatique d'une région d'intérêt centrée sur le cœur; -2.compensation non rigide des mouvements cardio-respiratoires sur l'intégralité de l'examen traité; -3.segmentation des contours cardiaques; -4.quantification de la perfusion myocardique. Les réponses que nous apportons aux différents défis identifiés dans chaque étape s'articulent autour d'une idée commune : exploiter l'information liée à la cinématique de transit de l'agent de contraste dans les tissus pour discriminer les structures anatomiques et guider le processus de recalage des données. Ce dernier constitue le travail central de cette thèse. Les méthodes de recalage non rigide d'images fondées sur l'optimisation de mesures d'information constituent une référence en imagerie médicale. Leur cadre d'application usuel est l'alignement de paires d'images par appariement statistique de distributions de luminance, manipulées via leurs densités de probabilité marginales et conjointes, estimées par des méthodes à noyaux. Efficaces pour des densités jointes présentant des classes individualisées ou réductibles à des mélanges simples, ces approches atteignent leurs limites pour des mélanges non-linéaires où la luminance au pixel s'avère être un attribut trop frustre pour permettre une décision statistique discriminante, et pour des données mono-modal avec variations non linéaires et multi-modal. Cette thèse introduit un modèle mathématique de recalage informationnel multi-attributs/multi-vues générique répondant aux défis identifiés: (i) alignement simultané de l'intégralité de l'examen IRM-p analysé par usage d'un atlas, naturel ou synthétique, dans lequel le cœur est immobile et en utilisant les courbes de rehaussement au pixel comme ensemble dense de primitives; et (ii) capacité à intégrer des primitives image composites, spatiales ou spatio-temporelles, de grande dimension. Ce modèle, disponible dans le cadre classique de Shannon et dans le cadre généralisé d'Ali-Silvey, est fondé sur de nouveaux estimateurs géométriques de type k plus proches voisins des mesures d'information, consistants en dimension arbitraire. Nous étudions leur optimisation variationnelle en dérivant des expressions analytiques de leurs gradients sur des espaces de transformations spatiales régulières de dimension finie et infinie, et en proposant des schémas numériques et algorithmiques de descente en gradient efficace. Ce modèle de portée générale est ensuite instancié au cadre médical ciblé, et ses performances, notamment en terme de précision et de robustesse, sont évaluées dans le cadre d'un protocole expérimental tant qualitatif que quantitatif
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Hamrouni-Chtourou, Sameh. "Approches variationnelles statistiques spatio-temporelles pour l'analyse quantitative de la perfusion myocardique en IRM". Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2012. http://www.theses.fr/2012TELE0024.

Texto completo
Resumen
L'analyse quantitative de la perfusion myocardique, i.e. l'estimation d'indices de perfusion segmentaires puis leur confrontation à des valeurs normatives, constitue un enjeu majeur pour le dépistage, le traitement et le suivi des cardiomyopathies ischémiques --parmi les premières causes de mortalité dans les pays occidentaux. Dans la dernière décennie, l'imagerie par résonance magnétique de perfusion (IRM-p) est la modalité privilégiée pour l'exploration dynamique non-invasive de la perfusion cardiaque. L'IRM-p consiste à acquérir des séries temporelles d'images cardiaques en incidence petit-axe et à plusieurs niveaux de coupe le long du grand axe du cœur durant le transit d'un agent de contraste vasculaire dans les cavités et le muscle cardiaques. Les examens IRM-p résultants présentent de fortes variations non linéaires de contraste et des artefacts de mouvements cardio-respiratoires. Dans ces conditions, l'analyse quantitative de la perfusion myocardique est confrontée aux problèmes complexes de recalage et de segmentation de structures cardiaques non rigides dans des examens IRM-p. Cette thèse se propose d'automatiser l’analyse quantitative de la perfusion du myocarde en développant un outil d'aide au diagnostic non supervisé dédié à l'IRM de perfusion cardiaque de premier passage, comprenant quatre étapes de traitement : -1.sélection automatique d'une région d'intérêt centrée sur le cœur; -2.compensation non rigide des mouvements cardio-respiratoires sur l'intégralité de l'examen traité; -3.segmentation des contours cardiaques; -4.quantification de la perfusion myocardique. Les réponses que nous apportons aux différents défis identifiés dans chaque étape s'articulent autour d'une idée commune : exploiter l'information liée à la cinématique de transit de l'agent de contraste dans les tissus pour discriminer les structures anatomiques et guider le processus de recalage des données. Ce dernier constitue le travail central de cette thèse. Les méthodes de recalage non rigide d'images fondées sur l'optimisation de mesures d'information constituent une référence en imagerie médicale. Leur cadre d'application usuel est l'alignement de paires d'images par appariement statistique de distributions de luminance, manipulées via leurs densités de probabilité marginales et conjointes, estimées par des méthodes à noyaux. Efficaces pour des densités jointes présentant des classes individualisées ou réductibles à des mélanges simples, ces approches atteignent leurs limites pour des mélanges non-linéaires où la luminance au pixel s’avère être un attribut trop frustre pour permettre une décision statistique discriminante, et pour des données mono-modal avec variations non linéaires et multi-modal. Cette thèse introduit un modèle mathématique de recalage informationnel multi-attributs/multi-vues générique répondant aux défis identifiés: (i) alignement simultané de l'intégralité de l'examen IRM-p analysé par usage d'un atlas, naturel ou synthétique, dans lequel le cœur est immobile et en utilisant les courbes de rehaussement au pixel comme ensemble dense de primitives; et (ii) capacité à intégrer des primitives image composites, spatiales ou spatio-temporelles, de grande dimension. Ce modèle, disponible dans le cadre classique de Shannon et dans le cadre généralisé d'Ali-Silvey, est fondé sur de nouveaux estimateurs géométriques de type k plus proches voisins des mesures d'information, consistants en dimension arbitraire. Nous étudions leur optimisation variationnelle en dérivant des expressions analytiques de leurs gradients sur des espaces de transformations spatiales régulières de dimension finie et infinie, et en proposant des schémas numériques et algorithmiques de descente en gradient efficace. Ce modèle de portée générale est ensuite instancié au cadre médical ciblé, et ses performances, notamment en terme de précision et de robustesse, sont évaluées dans le cadre d'un protocole expérimental tant qualitatif que quantitatif
Quantitative assessment of moycardium perfusion, i.e. computation of perfusion parameters which are then confronted to normative values, is a key issue for the diagnosis, therapy planning and monitoring of ischemic cardiomyopathies --the leading cause of death in Western countries. Within the last decade, perfusion magnetic resonance imaging (p-MRI) has emerged as a reference modality for reliably assessing myocardial perfusion in a noninvasive and accurate way. In p-MRI acquisitions, short-axis image sequences are captured at multiple slice levels along the long-axis of the heart during the transit of a vascular contrast agent through the cardiac chambers and muscle. Resulting p-MRI exams exhibit high nonlinear contrast variations and complex cardio-thoracic motions. Perfusion assessment is then faced with the complex problems of non rigid registration and segmentation of cardiac structures in p-MRI exams. The objective of this thesis is enabling an automated quantitative computer-aided diagnosis tool for first pass cardiac perfusion MRI, comprising four processing steps: -1.automated cardiac region of interest extraction; -2.non rigid registration of cardio-thoracic motions throughout the whole sequence; -3.cardiac boundaries segmentation; -4.quantification of myocardial perfusion. The answers we give to the various challenges identified in each step are based on a common idea: investigating information related to the kinematics of contrast agent transit in the tissues for discriminating the anatomical structures and driving the alignment process. This latter is the main work of this thesis. Non rigid image registration methods based on the optimization of information measures provide versatile solutions for robustly aligning medical data. Their usual application setting is the alignment of image pairs by statistically matching luminance distributions, handled using marginal and joint probability densities estimated via kernel techniques. Though efficient for joint densities exhibiting well-separated clusters or reducible to simple mixtures, these approaches reach their limits for nonlinear mixtures where pixelwise luminance appears to be a too coarse feature for allowing unambiguous statistical decisions, and for mono-modal with nonlinear variations and multi-modal data. This thesis presents a unified mathematical model for the information-theoretic multi-feature/multi-view non rigid registration, addressing the identified challenges : (i) simultaneous registration of the whole p-MRI exam, using a natural or synthetic atlas generated as a motion-free exam depicting the transit of the vascular contrast agent through cardiac structures and using local contrast enhancement curves as a feature set; (ii) can be easily generalized to richer feature spaces combining radiometric and geometric information. The resulting model is based on novel consistent k-nearest neighbors estimators of information measures in high dimension, for both classical Shannon and generalized Ali-Silvey frameworks. We study their variational optimization by deriving under closed-form their gradient flows over finite and infinite dimensional smooth transform spaces, and by proposing computationally efficient gradient descent schemas. The resulting generic theoretical framework is applied to the groupwise alignment of cardiac p-MRI exams, and its performances, in terms of accuracy and robustness, are evaluated in an experimental qualitative and quantitative protocol
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Achouch, Ayman. "Analyse économétrique des prix des métaux : une application multivariée des méthodes statistiques aux séries temporelles". Montpellier 1, 1998. http://www.theses.fr/1998MON10025.

Texto completo
Resumen
Dans ce travail, nous analysons les relations d'interdépendance qui existent entre les prix des métaux non ferreux (aluminium, cuivre, zinc, plomb, étain) d'une part et entre ces prix et l'ensemble des variables macro-économiques d'autre part. Pour cela, nous recourons dans un premier temps à des méthodes économétriques univariées afin de répondre aux différentes questions concernant l'hypothèse d'efficience informationnelle, les tests de mémoire longue et la structure sous-jacente aux variations des prix (stochastique, déterministe). Nous proposons ensuite une modélisation de type ARMA avec erreurs GARCH. Les qualités prédictives de cette modélisation sont comparées au modèle simple de marche aléatoire. Dans un deuxième temps, nous utilisons plusieurs approches multivariées pour vérifier l'existence d'un facteur commun dans les séries de prix. L'utilisation de l'analyse dynamique à facteur nous permet d'isoler ce facteur et de mesurer son importance quantitative par rapport aux variables de prix. Pour identifier ce facteur, nous recourons à un grand nombre de variables macro-économiques telles que l'indice de la production industrielle, l'indice de prix de consommation et de stock et les taux de change. L'étude de corrélation, l'approche de Pindck et Rotemberg et l'analyse de causalité ont montré que les fluctuations du facteur commun peuvent être dues à la production industrielle des principaux pays de l'OCDE et aux indices de prix de stock du Japon, des Etats-Unis et de la France.
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Montagne, Marc. "Relations statistiques et temporelles entre structures magnétiques et structures brillantes de petite échelle dans la photosphère solaire". Toulouse 3, 1996. http://www.theses.fr/1996TOU30237.

Texto completo
Resumen
En dehors des regions actives, le champ magnetique a la surface du soleil se trouve principalement sous la forme de tubes de flux verticaux. Ces tubes de flux sont associes aux points brillants du reseau. Ces structures de faible dimension (leur diametre est inferieur a 300 kilometres) sont tres difficiles a detecter. Au cours de leur vie, elles subissent des concentrations qui augmentent leur intensite jusqu'a des niveaux tres eleves de un ou deux kilogauss et deviennent tres brillantes. Pour comprendre le processus de concentration du champ magnetique, une analyse statistique des correlations entre le champ magnetique, l'intensite des structures photospheriques et le champ de vitesse a ete effectuee. Il semble qu'il existe une grande diversite de tubes de flux allant des structures grandes et sombres aux petites et brillantes. L'evolution des elements magnetiques du reseau photospherique, des points brillants qui leur sont associes, ainsi que des granules qui les entourent, a ete etudiee. La bonne resolution spatiale des observations (0,4 seconde d'arc) a permis d'identifier plusieurs points brillants isoles dans le cur de la raie ainsi que les structures magnetiques associees dans les magnetogrammes. La serie temporelle montre que tous les elements magnetiques sont associes a des points brillants, meme si parfois, les deux ne sont pas visibles simultanement. L'hypothese faite par muller et roudier (1992) a ete confirmee: les points brillants sont formes a partir de champ magnetique preexistant sous forme diffuse dans un espace intergranulaire. Nos resultats s'expliquent parfaitement par le modele de tube de flux de steiner et al. (1996), que l'on confirme donc. L'importante luminosite des points brillants semble provenir d'apport d'energie mecanique, en plus du transfert radiatif lateral habituel.
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Masson, Arnaud. "Utilisation de tests bases sur des statistiques d'ordre supérieur dans l'étude de séries temporelles applications aux plasmas spatiaux". Paris 6, 2001. http://www.theses.fr/2001PA066165.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Mangeas, Morgan. "Propriétés statistiques des modèles paramétriques non-linéaires de prévisions de séries temporelles : application aux réseaux de neurones à propagation directe". Paris 1, 1996. http://www.theses.fr/1996PA010076.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Khaleghi, Azadeh. "Sur quelques problèmes non-supervisés impliquant des séries temporelles hautement dépendantes". Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2013. http://tel.archives-ouvertes.fr/tel-00920333.

Texto completo
Resumen
Cette thèse est consacrée à l'analyse théorique de problèmes non supervisés impliquant des séries temporelles hautement dépendantes. Plus particulièrement, nous abordons les deux problèmes fondamentaux que sont le problème d'estimation des points de rupture et le partitionnement de séries temporelles. Ces problèmes sont abordés dans un cadre extrêmement général où les données sont générées par des processus stochastiques ergodiques stationnaires. Il s'agit de l'une des hypothèses les plus faibles en statistiques, comprenant non seulement, les hypothèses de modèles et les hypothèses paramétriques habituelles dans la littérature scientifique, mais aussi des hypothèses classiques d'indépendance, de contraintes sur l'espace mémoire ou encore des hypothèses de mélange. En particulier, aucune restriction n'est faite sur la forme ou la nature des dépendances, de telles sortes que les échantillons peuvent être arbitrairement dépendants. Pour chaque problème abordé, nous proposons de nouvelles méthodes non paramétriques et nous prouvons de plus qu'elles sont, dans ce cadre, asymptotique- ment consistantes. Pour l'estimation de points de rupture, la consistance asymptotique se rapporte à la capacité de l'algorithme à produire des estimations des points de rupture qui sont asymptotiquement arbitrairement proches des vrais points de rupture. D'autre part, un algorithme de partitionnement est asymptotiquement consistant si le partitionnement qu'il produit, restreint à chaque lot de séquences, coïncides, à partir d'un certain temps et de manière consistante, avec le partitionnement cible. Nous montrons que les algorithmes proposés sont implémentables efficacement, et nous accompagnons nos résultats théoriques par des évaluations expérimentales. L'analyse statistique dans le cadre stationnaire ergodique est extrêmement difficile. De manière générale, il est prouvé que les vitesses de convergence sont impossibles à obtenir. Dès lors, pour deux échantillons générés indépendamment par des processus ergodiques stationnaires, il est prouvé qu'il est impossible de distinguer le cas où les échantillons sont générés par le même processus de celui où ils sont générés par des processus différents. Ceci implique que des problèmes tels le partitionnement de séries temporelles sans la connaissance du nombre de partitions ou du nombre de points de rupture ne peut admettre de solutions consistantes. En conséquence, une tâche difficile est de découvrir les formulations du problème qui en permettent une résolution dans ce cadre général. La principale contribution de cette thèse est de démontrer (par construction) que malgré ces résultats d'impossibilités théoriques, des formulations naturelles des problèmes considérés existent et admettent des solutions consistantes dans ce cadre général. Ceci inclut la démonstration du fait que le nombre de points de rupture corrects peut être trouvé, sans recourir à des hypothèses plus fortes sur les processus stochastiques. Il en résulte que, dans cette formulation, le problème des points de rupture peut être réduit à du partitionnement de séries temporelles. Les résultats présentés dans ce travail formulent les fondations théoriques pour l'analyse des données séquentielles dans un espace d'applications bien plus large.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Mrani, Alaoui Rim. "Conception d'un module de diagnostic à base de suites de bandes temporelles en vue de la supervision des procédés énergétiques : application en ligne à un générateur de vapeur". Lille 1, 2004. http://www.theses.fr/2004LIL10096.

Texto completo
Resumen
La supervision est l'ensemble des outils et méthodes qui permettent de conduire des installations industrielles tant en fonctionnement nonnal qu'en présence de défaillances. Les méthodes de surveillance à base de modèle représentent une activité essentielle de la supervision. Dans ce domaine les procédures classiques génèrent des fausses alarmes en raison de la présence d'erreurs dues aux bruits des mesures, les erreurs étant amplifiées à cause du calcul de la dérivée quand celle-ci existe. Le travail de recherche développé, permet de générer des alarmes robustes en tenant compte des incertitudes de mesure, de modélisation et des paramètres. L'approche à base des Suites de Bandes Temporelles (SBTs) proposée, appelée méthode SBTs, est déjà appliquée au diagnostic des circuits électroniques. Elle consiste à avoir les résidus sous une forme bien définie, afin d'éliminer les dérivées et donc de les évaluer plus sûrement. Une SBT représente un encadrement polynomial par morceaux couplant temps et intervalle des valeurs. Elle est destinée à représenter la variation des quantités dans le temps. Le travail proposé consiste à étendre cette approche pour les composants en génie des procédés définis par des modèles complexes (en raison de couplages des variables et de la nature des paramètres) et dont l'obtention de SBTs nécessite des transformations pour obtenir la forme des résidus souhaitée. Cette recherche est finalisée, par la mise en oeuvre d'un logiciel pour l'automatisation des procédures de génération des SBTs et des alannes, et validée par des applications industrielles.
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Harlé, Flore. "Détection de ruptures multiples dans des séries temporelles multivariées : application à l'inférence de réseaux de dépendance". Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAT043/document.

Texto completo
Resumen
Cette thèse présente une méthode pour la détection hors-ligne de multiples ruptures dans des séries temporelles multivariées, et propose d'en exploiter les résultats pour estimer les relations de dépendance entre les variables du système. L'originalité du modèle, dit du Bernoulli Detector, réside dans la combinaison de statistiques locales issues d'un test robuste, comparant les rangs des observations, avec une approche bayésienne. Ce modèle non paramétrique ne requiert pas d'hypothèse forte sur les distributions des données. Il est applicable sans ajustement à la loi gaussienne comme sur des données corrompues par des valeurs aberrantes. Le contrôle de la détection d'une rupture est prouvé y compris pour de petits échantillons. Pour traiter des séries temporelles multivariées, un terme est introduit afin de modéliser les dépendances entre les ruptures, en supposant que si deux entités du système étudié sont connectées, les événements affectant l'une s'observent instantanément sur l'autre avec une forte probabilité. Ainsi, le modèle s'adapte aux données et la segmentation tient compte des événements communs à plusieurs signaux comme des événements isolés. La méthode est comparée avec d'autres solutions de l'état de l'art, notamment sur des données réelles de consommation électrique et génomiques. Ces expériences mettent en valeur l'intérêt du modèle pour la détection de ruptures entre des signaux indépendants, conditionnellement indépendants ou complètement connectés. Enfin, l'idée d'exploiter les synchronisations entre les ruptures pour l'estimation des relations régissant les entités du système est développée, grâce au formalisme des réseaux bayésiens. En adaptant la fonction de score d'une méthode d'apprentissage de la structure, il est vérifié que le modèle d'indépendance du système peut être en partie retrouvé grâce à l'information apportée par les ruptures, estimées par le modèle du Bernoulli Detector
This thesis presents a method for the multiple change-points detection in multivariate time series, and exploits the results to estimate the relationships between the components of the system. The originality of the model, called the Bernoulli Detector, relies on the combination of a local statistics from a robust test, based on the computation of ranks, with a global Bayesian framework. This non parametric model does not require strong hypothesis on the distribution of the observations. It is applicable without modification on gaussian data as well as data corrupted by outliers. The detection of a single change-point is controlled even for small samples. In a multivariate context, a term is introduced to model the dependencies between the changes, assuming that if two components are connected, the events occurring in the first one tend to affect the second one instantaneously. Thanks to this flexible model, the segmentation is sensitive to common changes shared by several signals but also to isolated changes occurring in a single signal. The method is compared with other solutions of the literature, especially on real datasets of electrical household consumption and genomic measurements. These experiments enhance the interest of the model for the detection of change-points in independent, conditionally independent or fully connected signals. The synchronization of the change-points within the time series is finally exploited in order to estimate the relationships between the variables, with the Bayesian network formalism. By adapting the score function of a structure learning method, it is checked that the independency model that describes the system can be partly retrieved through the information given by the change-points, estimated by the Bernoulli Detector
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Dilmi, Mohamed Djallel. "Méthodes de classification des séries temporelles : application à un réseau de pluviomètres". Electronic Thesis or Diss., Sorbonne université, 2019. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2019SORUS087.pdf.

Texto completo
Resumen
La question de l’impact du changement climatique sur l’évolution temporelle des précipitations ainsi que l’impact de l’ilot de chaleur parisien sur la répartition spatiale des précipitations motivent l’étude de la variabilité du cycle de l’eau à fine échelle en Île-de-France. Une façon d'analyser cette variabilité en utilisant les données d'un réseau de pluviomètres est d'effectuer une classification sur les séries temporelles mesurées par le réseau. Dans cette thèse, nous avons exploré deux approches pour la classification des séries temporelles : pour la première approche basée sur la description des séries par des caractéristiques, un algorithme de sélection des caractéristiques basé sur les algorithmes génétiques et les cartes topologiques a été proposé. Pour la deuxième approche basée sur la comparaison de formes, une mesure de dissimilarité (Itérative downscaling time warping) a été développée pour comparer deux séries temporelles. Ensuite les limites des deux approches ont été discutées et suivies d'une mise en place d'une approche mixte qui combine les avantages de chaque approche. L’approche a d’abord été appliquée à l’évaluation de la variabilité spatiale des précipitations. Pour l’évaluation de la variabilité temporelle des précipitations, une classification des événements de précipitation observés par une station a été réalisée puis étendue sur l’ensemble du réseau pluviométrique. L’application sur la série historique de Paris-Montsouris (1873-2015) permet de discriminer automatiquement les années « remarquables » d’un point de vue météorologique
The impact of climat change on the temporal evolution of precipitation as well as the impact of the Parisian heat island on the spatial distribution of précipitation motivate studying the varaibility of the water cycle on a small scale on île-de-france. one way to analyse this varaibility using the data from a rain gauge network is to perform a clustring on time series measured by this network. In this thesis, we have explored two approaches for time series clustring : for the first approach based on the description of series by characteristics, an algorithm for selecting characteristics based on genetic algorithms and topological maps has been proposed. for the second approach based on shape comparaison, a measure of dissimilarity (iterative downscaling time warping) was developed to compare two rainfall time series. Then the limits of the two approaches were discuddes followed by a proposition of a mixed approach that combine the advantages of each approach. The approach was first applied to the evaluation of spatial variability of precipitation on île-de-france. For the evaluation of the temporal variability of the precpitation, a clustring on the precipitation events observed by a station was carried out then extended on the whole rain gauge network. The application on the historical series of Paris-Montsouris (1873-2015) makes it possible to automatically discriminate "remarkable" years from a meteorological point of view
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Breton, Marc. "Application de méthodes de classification par séries temporelles au diagnostic médical et à la détection de changements statistiques et étude de la robustesse". Ecole Centrale de Lille, 2004. http://www.theses.fr/2004ECLI0005.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Briche, Élodie. "Changement climatique dans le vignoble de Champagne : modélisation thermique à plusieurs échelles spatio-temporelles". Paris 7, 2011. http://www.theses.fr/2011PA070075.

Texto completo
Resumen
Les effets du changement climatique à l'échelle planétaire ont déjà des répercussions sur la viticulture et ces changements engendrent des interrogations sur son fonctionnement futur. L'évaluation des modifications possibles sur le vignoble de Champagne, notamment en termes d'extrêmes thermiques dommageables pour la vigne tels que l'aléa gélif printanier et les canicules, présente donc un intérêt pour la profession. Les températures influencent en effet le bon déroulement du cycle végétatif de la vigne et une avancée des stades phénologiques est déjà observée en Champagne. Ce vignoble présente un intérêt particulier du fait de sa position septentrionale mais aussi parce que les analyses y sont facilitées par la densité du réseau météorologique en place depuis près de 20 ans. Pour établir une prospective des conditions thermiques possibles, des sorties des modèles du climat français LMD et ARPEGE-Climat (RETIC) respectivement, à 300 km et 50 km de résolution sont validées et analysées sur une période de contrôle (1950 à 2000). Ils permettent ensuite de donner un aperçu des conditions thermiques et bioclimatiques futures (2001 à 2100) selon trois scénarios de changement climatique, les plus couramment utilisés : A1B, Bl et A2. La période de contrôle permet de mettre en évidence les biais froids des distributions statistiques des sorties de modèles au printemps et en été en termes d'estimation de fréquences d'extrêmes et de choisir le modèle ARPEGE-Climat (RETIC). Les sorties thermiques de ce modèle sont alors utilisées pour évaluer l'évolution jusqu'à 2100 des conditions bioclimatiques et thermiques futures. La fréquence des extrêmes gélifs printaniers au moment du débourrement devrait diminuer en avril mais dans l'hypothèse d'un débourrement plus précoce, ces extrêmes devraient, d'après les modèles, rester importants en mars et provoqueraient un gel accru des bourgeons. Celle des extrêmes chauds estivaux devrait augmenter dans le futur. L'analyse à échelle régionale est complétée par une analyse topoclimatique grâce au modèle à méso-échelle RAMS, qui permet d'obtenir une modélisation spatiale des températures. Incluant les facteurs locaux, ce modèle produit des résultats à résolution de 200 m. Les simulations de validation sont réalisées sur les événements extrêmes gélifs printaniers (du 4 au 9 avril) et caniculaires estivaux (du 4 au 8 août) de l'année 2003, qui a provoqué le gel des bourgeons et l’échaudage des baies et qui est considérée ici comme exceptionnelle et représentative « du climat futur ». Les températures simulées (200 m) sur la Champagne sont comparées aux températures enregistrées par des stations sur les coteaux. Le modèle reproduit bien le cycle journalier des températures avec des biais plus ou moins bien marqués notamment sur les minimas et maximas journaliers
Global climatic change has already consequences on viticulture Worldwide and these modifications imply some questions about future. Evaluation of possible modifications in Champagne vineyard is necessary in terms of thermal extremes for vineyard as spring frost during budbreak and heat-waves. Indeed temperature influences phenological cycle and earlier phenological stages have already been observed. This vineyard is particularly interesting to study because of its northern location and thanks to a large network of weather stations since 20 years. To establish a prospective of thermal possible conditions, data of French climate models LMD and ARPEGE-Climate model, respectively at 300 km and 50 km of resolution, are validated and analyzed on a control period (1950 to 2000). They are also used to give an overview of bioclimatic and thermal future conditions (2001 to 2100) with three scenarios, currently used (A1B, Bl and A2). The control period shows cold biases within statistical distributions of climate models data in spring and summer, in terms of extremes frequencies estimation and better results with ARPEGE climate model. Data of this model are used to assess thermal and bioclimatic futures conditions. Summer extremes could increase in the future while cold spring extremes could decrease during budbreak. Budbreak could be earlier and spring cold extremes in Mardi could cause more severe frost of buds. Regional analysis is completed by a local analysis with RAMS meso-scale model, which downscales simulations at a resolution of 200m, taking into account local factors. The validation modeling is proceeded during the 2003 extreme climatic events (late spring frost and summer heat wave), this year is considered as exceptional and representative of the "future climate" which caused buds frost and berries warming. Simulated temperatures (200 m) for the Champagne vineyard were compared to recorded temperatures by weather stations located within the vineyards. The model reproduced the diurnal cycle of temperatures correctly with biases more or less marked depending dates
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Morfin, Marie. "Dynamiques spatio-temporelles d'espèces démersales clés du golfe du Lion : bénéfices potentiels d’aires marines protégées". Thesis, Montpellier 2, 2013. http://www.theses.fr/2013MON20158.

Texto completo
Resumen
Les espèces démersales représentent 50% des captures des pêcheries françaises du golfe du Lion, dont la plupart sont pleinement exploitées, voir surexploitées depuis plusieurs décennies. Cette thèse évalue la pertinence d'aires marines protégées (AMPs) comme outil de gestion et de conservation de ces populations. Jusqu'à présent de telles zones ont été uniquement mises en place le long des côtes pour protéger des espèces très peu mobiles. Le problème est plus complexe pour les espèces vivant en haute mer car leur habitat est plus large et plus diffus. Pour ce faire, la distribution spatiale de 12 espèces démersales exploitées clés ont été étudiées de 1994 à 2010, à l'aide d'observations scientifiques et d'outils statistiques ad hoc. Une approche géostatistique a permis de détecter des structures d'auto-corrélation spatiale pour l'ensemble des espèces, et de produire des cartes de distributions annuelles de chaque espèce. Ces distributions sont apparues très stables sur les dix-sept années, mis à part un phénomène d'expansion/ rétraction avec le niveau d'abondance totale sur la région. Par ailleurs une approche par modèle linéaire généralisé a révélé des associations importantes de ces espèces à un habitat stable dans le temps. Ces résultats sont en accord avec la théorie du bassin de MacCall selon laquelle l'association d'une espèce à un habitat est densité-dépendant, et l'augmentation de la densité d'individus dans une zone serait à l'origine de la colonisation d'habitats sub-optimaux. Protéger l'habitat optimal d'une espèce permettrait alors de constituer un habitat «source», si la zone est judicieusement choisie ; en effet le report de l'effort de pêche à l'extérieur de l'AMP peut au contraire rendre cette mesure inefficace voir délétère. Par ailleurs les populations adultes occupaient généralement des zones plus concentrées et incluses dans l'aire de répartition des juvéniles. Ces zones communes d'habitats essentiels (reproduction et nourriceries) peuvent être potentiellement intéressantes à protéger dans un cadre monospécifique. L'hétérogénéité observée des répartitions d'une espèce à l'autre implique l'instauration de zones très clairsemées, et rend la gestion difficile dans une cadre pluri-spécifique. Une zone de taille raisonnable a tout de même été identifiée, représentant 20% de la population de chaque espèce et représentative de la diversité des habitats de cette région
Demersal species represent 50% of French fisheries catches in theGulf of Lions, most of which are fully exploited, or overfished for decades. This thesis evaluates the relevance of marine protected areas (MPAs) as a tool for conservation and management of these populations. So far these areas have been implemented only along the coast to protect the very few mobile species. The problem is more complex for deep sea species because their habitat is broader and more diffuse. To do this, the spatial distribution of 12 key demersal species exploited were studied from 1994 to 2010, with scientific observations and ad hoc statistical tools. A geostatistical approach allowed to detect spatial autocorrelation structures for all species, and produce maps of annual distributions of each species. These distributions appeared very stable over 17 years, apart from a phenomenon of expansion/ contraction with the level of total abundance in the region. In addition, a generalized linear model approach revealed significant associations of these species to a temporally stable habitat. These results are consistent with MacCall basin theory, according which habitat suitability is a density-dependent thus the increase of individuals in an area make them colonize sub-optimal habitats. An optimal habitat under protection could thus be "source" habitat, if the area is carefully chosen. Indeed reporting the fishing effort outside the MPA can instead make this measure ineffective or deleterious. The adult population were generally in more concentrated areas and included in the spatial range of juveniles. These common areas of essential habitat (breeding and nursery) may be potentially interesting to protect a single species . However, the heterogeneity of distributions of a species to another involves the introduction of very sparse areas, making the management difficult. However an area of ​​reasonable size has been identified, covering 20% ​​of the population of each species and representative of the diversity of bottom habitats in the region
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Benoist, Clément. "Apport de la prise en compte de la dépendance spatiotemporelle des séries temporelles de positions GNSS à l'estimation d'un système de référence". Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLEO011.

Texto completo
Resumen
Tout positionnement global précis nécessite un repère de référence tel le repère international de référence terrestre (ITRF). La détermination de l’ITRF s’appuie sur des séries temporelles de positions d’instruments géodésiques, en particulier des stations GNSS permanentes. Les séries temporelles de positions de stations GNSS sont corrélées temporellement et spatialement. De nombreuses études ont caractérisé la dépendance temporelle de ces séries et son impact sur la détermination de repères de référence. En revanche, les corrélations spatiales (entre stations proches) des séries GNSS n’ont jusqu’à présent jamais été prises en compte dans le calcul de repères de référence. L’objectif de cette thèse est donc de proposer une méthodologie pour la prise en compte de ces corrélations spatiales et d’évaluer son apport.Les dépendances spatiales entre les séries de 195 stations GNSS sont tout d’abord évaluées à l’aide de variogrammes empiriques confirmant l’existence de corrélations jusqu’à des distances d’environ 5000 km. Des modèles de covariance exponentielle ne dépendant que de la distance inter-stations sont ajustés sur ces variogrammes empiriques.Une méthodologie basée sur un filtre de Kalman est ensuite développée pour prendre en compte les dépendances spatiales des séries GNSS dans le calcul d’un repère de référence. Trois modèles de dépendance spatiale sont proposés : un modèle ne tenant pas compte de la dépendance spatiale (cas actuel du calcul de l’ITRF), un modèle basé sur les covariances empiriques entre séries de différentes stations, et un modèle basé sur les fonctions de covariance exponentielle mentionnées ci-dessus. Ces différents modèles sont appliqués à trois jeux tests d’une dizaine de stations chacun situés en Europe, aux Caraïbes et sur la côte est des États-Unis. Les trois modèles sont évalués à l’aune d’un critère de validation croisée, c’est-à-dire sur leur capacité à prédire les positions des stations en l’absence de données. Les résultats sur les jeux tests d’Europe et des États-Unis montrent une amélioration considérable de cette capacité prédictive lorsque la dépendance spatiale des séries est prise en compte. Cette amélioration est maximale lorsque le modèle de covariance exponentielle est utilisé. L’amélioration est nettement moindre, mais toujours présente sur le jeu test des Caraïbes.Les trois modèles sont également évalués sur leur capacité à déterminer des vitesses de déplacement exactes à partir de séries temporelles de positions courtes. L’impact de la prise en compte de la dépendance spatiale des séries sur l’exactitude des vitesses estimées est significatif. Comme précédemment, l’amélioration est maximale lorsque le modèle de covariance exponentielle est utilisé.Cette thèse démontre ainsi l’intérêt de la prise en compte des dépendances spatiales entre séries GNSS pour la détermination de repères de référence. La méthodologie développée pourra être utilisée pour le calcul de futures versions de l’ITRF
Any global and precise positioning requires a reference frame such as the International Terrestrial Reference Frame (ITRF). The determination of the ITRF relies on the position time series of various geodetic instruments, including in particular permanent GNSS stations. GNSS station position time series are known to be temporally and spatially correlated. Many authors have studied the temporal dependency of GNSS time series and its impact on the determination of terrestrial reference frames. On the other hand, the spatial correlations (i.e., between nearby stations) of GNSS time series have so far never been taken into account in the computation of terrestrial reference frames. The objective of this thesis is therefore to develop a methodology to account for the spatial correlations of GNSS time series, and evaluate its benefits.The spatial dependencies between the position time series of 195 GNSS stations are first evaluated by means of empirical variograms, which confirm the existence of correlations up to distances of about 5000 km. Exponential covariance models, depending only on the distance between stations, are adjusted to these empirical variograms.A methodology based on a Kalman filter is then developed to take into account the spatial dependencies of GNSS time series in the computation of a terrestrial reference frame. Three models of spatial dependency are proposed: a model which does not account for the spatial dependency between GNSS time series (current case of the ITRF computation), a model based on the empirical covariances between the time series of different stations, and a model based on the exponential covariance functions mentioned above.These different models are applied to three test cases of ten stations each, located in Europe, in the Caribbean, and along the east coast of the US. The three models are evaluated with regard to a cross-validation criterion, i.e., on their capacity to predict station positions in the absence of observations. The results obtained with the Europe and US test cases demonstrate a significant improvement of this predictive capacity when the spatial dependency of the series is taken into account. This improvement is highest when the exponential covariance model is used. The improvement is much lower, but still present with the Caribbean test case.The three models are also evaluated with regard to their capacity to determine accurate station velocities from short position time series. The impact of accounting for the spatial dependency between series on the accuracy of the estimated velocities is again significant. Like previously, the improvement is highest when the exponential covariance model is used.This thesis thus demonstrates the interest of accounting for the spatial dependency of GNSS station position time series in the determination of terrestrial reference frames. The developed methodology could be used in the computation of future ITRF versions
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Sicard, Pierre. "Caractérisation des retombées atmosphériques en France en zone rurale sous forme de précipitations, gaz et aérosols : analyse des tendances spatio-temporelles et des séries chronologiques". Lille 1, 2006. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2006/50376-2006-Sicard.pdf.

Texto completo
Resumen
Les travaux présentés portent sur les retombées atmosphériques en zone rurale et s' inscrivent dans le cadre du programme français de Mesure des Retombées Atmosphériques (MERA). Les polluants mesurés dans les stations du dispositif sont en rapport avec les problèmes des pluies acides et de la pollution photochimique. Deux tests statistiques pour détecter et estimer les tendances au sein de séries chronologiques ont été utilisés. La procédure est basée sur le test non paramétrique de Mann-Kendall pour déterminer la tendance et sur la méthode de Sen pour en estimer la magnitude. Ces tests ont été appliqués aux 5. 000. 000 de données MERA, annuelles, saisonnières et mensuelles sur la période 1990-2003, puis, aux émissions nationales et européennes des principaux polluants précurseurs. Prochamement des prévisions subjectives par extrapolations linéaires pourront être effectuées. L'acidité moyenne des pluies, après avoir baissée au début des années 90, augmente légèrement depuis 1996 alors que les émissions de composés acidifiants diminuent. Cette observation semble être corrélée à la diminution en cations basiques, NH4+ et aux aérosols acides. Les concentrations en composés soufrés (gaz et aérosols) ont fortement diminué depuis le début des années 90 associées aux fortes réductions d'émission. Pour l'O3, une augmentation des teneurs est observée entre 1995 et 2003, associée à une diminution des émissions de précurseurs. Plusieurs facteurs peuvent expliquer cette augmentation. Les changements des émissions de précurseurs, les échanges strato-troposphériques, le transport intercontinental, les changements climatiques, le rapport COV/NOx, les émissions des composés bio-géogéniques.
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Zeghnoun, Abdelkrim. "Relation à court terme entre pollution atmosphérique et santé : quelques aspects statistiques et épidémiologiques". Paris 7, 2002. http://www.theses.fr/2002PA077199.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Boulanger, Xavier. "Modélisation du canal de propagation Terre-Espace en bandes Ka et Q/V : synthèse de séries temporelles, variabilité statistique et estimation de risque". Thesis, Toulouse, ISAE, 2013. http://www.theses.fr/2013ESAE0009/document.

Texto completo
Resumen
Les bandes de fréquences utilisées conventionnellement pour les systèmes fixes de télécommunication par satellites (bandes C et Ku i.e. 4-15 GHz) sont congestionnées. Néanmoins, le marché des télécommunications civil et de défense accuse une demande de plus en plus importante en services multimédia haut-débit. Par conséquent, l'augmentation de la fréquence porteuse vers les bandes Ka et Q/V (20-40/50 GHz)est activement étudiée. Pour des fréquences supérieures à 5 GHz, la propagation des signaux radioélectriques souffre de l'atténuation troposphérique. Parmi les différents contributeurs à l'affaiblissement troposphérique total(atténuation, scintillation, dépolarisation, température de bruit du ciel), les précipitations jouent un rôle prépondérant. Pour compenser la détérioration des conditions de propagation, des techniques de compensation des affaiblissements (FMT: Fade Mitigation Technique) permettant d'adapter en temps réel les caractéristiques du système en fonction de l'état du canal de propagation doivent être employées. Une alternative à l'utilisation de séries temporelles expérimentales peu nombreuses est la génération de séries temporelles synthétiques d'atténuation due à la pluie et d'atténuation totale représentatives d'une liaison donnée.Le manuscrit est organisé autour de cinq articles. La première contribution est dédiée à la modélisation temporelle de l'affaiblissement troposphérique total. Le deuxième article porte sur des améliorations significatives du modèle de génération de séries temporelles d'atténuation due à la pluie recommandé par l'UITR.Les trois contributions suivantes constituent une analyse critique et une modélisation de la variabilité des statistiques du 1er ordre utilisées lors des tests des modèles de canal. La variance de l'estimateur statistique des distributions cumulatives complémentaires de l'atténuation due à la pluie et de l'intensité de précipitation est alors mise en évidence. Un modèle à application mondiale paramétré au moyen de données expérimentales est proposé. Celui-ci permet, d'une part, d'estimer les intervalles de confiance associés aux mesures de propagation et d'autre part, de quantifier le risque en termes de disponibilité annuelle associée à la prédiction d'une marge de propagation donnée. Cette approche est étendue aux variabilités des statistiques jointes. Elle permet alors une évaluation statistique de l'impact des techniques de diversité de site sur les performances systèmes, tant à microéchelle(quelques kms) qu'à macro-échelle (quelques centaines de kms)
Nowadays, C and Ku bands used for fixed SATCOM systems are totally congested. However, the demand of the end users for high data rate multimedia services is increasing. Consequently, the use of higher frequency bands (Ka: 20 GHz and Q/V 40/50 GHz) is under investigation. For frequencies higher than 5 GHz, radiowave propagation is strongly affected by tropospheric attenuation. Among the different contributors, rain is the most significant. To compensate the deterioration of the propagation channel, Fade Mitigation Techniques (FMT) are used. The lack of experimental data needed to optimize the real-time control loops of FMT leads tothe use of rain attenuation and total attenuation time series synthesizers. The manuscript is a compilation of five articles. The first contribution is dedicated to the temporal modelling of total impairments. The second article aims at providing significant improvements on the rain attenuation time series synthesizer recommended by ITU-R. The last three contributions are a critical analysis and a modelling of the variability observed on the 1st order statistics used to validate propagation channel models. The variance of the statistical estimator of the complementary cumulative distribution functions of rainfall rate and rain attenuation is highlighted. A worldwide model parameterized in compliance with propagation measurements is proposed. It allows the confidence intervals to be estimated and the risk on a required availability associated with a given propagation margin prediction to be quantified. This approach is extended to the variability of joint statistics. It allows the impact of site diversity techniques on system performances at small scale (few kms) and large scale (few hundred of kms) to be evaluated
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Bonnet, Pierre. "Impact of temporal statistics on the processing of auditory stimuli". Electronic Thesis or Diss., Lyon 1, 2024. http://www.theses.fr/2024LYO10246.

Texto completo
Resumen
Les régularités temporelles du contexte sont connues pour affecter la perception d'un prochain événement sensoriel. Par exemple, lorsque nous écoutons un métronome, nous pouvons facilement anticiper quand le prochain son se produira, ce qui améliore notre capacité à détecter des changements acoustiques subtils. Cependant, l’impact de la variabilité temporelle sur les mécanismes de prédiction reste mal compris. Cette question est cruciale car, d'un point de vue écologique, dans la musique et la parole en particulier, les événements sensoriels suivent plutôt des motifs réguliers mais dans lesquels peuvent également se produire une certaine variabilité temporelle. Dans cette thèse, nous avons étudié l'impact de la variabilité temporelle des séquences sonores sur la perception auditive, les réponses neuronales associées et leur impact potentiel sur le traitement du langage. Dans une première étude comportementale, nous avons réalisé une expérience dans laquelle les volontaires ont écouté différentes séquences sonores où l'intervalle temporel entre chaque son était tiré de distributions gaussiennes avec des écarts-types distincts. Nous avons établi que les prédictions temporelles dans des contextes probabilistes sont possibles et qu'elles diminuent progressivement à mesure que la variabilité temporelle du contexte augmente. Dans une seconde étude EEG, nous montrons que la variabilité temporelle du contexte influence la réponse évoquée aux sons. En effet, dans des séquences sonores plus régulières, la réponse aux sons cible présente une activité évoquée précoce, une amplitude MMN plus élevées, et une réponse P300 plus importante. Les résultats confirment les théories actuelles liant la dynamique d'entraînement neuronal aux mécanismes de prédiction temporelle : les périodes où l'entraînement neuronal était élevé étaient associées à une discrimination plus rapide des sons cibles. Enfin, dans la troisième partie de cette thèse, nous avons montré un déficit des mécanismes de prédiction temporelle dans la dyslexie. En utilisant le même paradigme que dans le premier chapitre expérimental, nous avons montré que les volontaires dyslexiques ont significativement plus de difficultés que des volontaires témoins appariés à discriminer des sons dans des séquences temporelles régulières. Dans l'ensemble, cette thèse fournit des informations sur les mécanismes de prédiction temporelle dans des contextes probabilistes et discute de leur impact potentiel sur le traitement du langage
The temporal regularities in the sensory context are known to affect the perception of an upcoming sensory event. For instance, when listening to a metronome, we can readily predict when the next sound will occur, which enhances our ability to detect subtle acoustic changes due to this anticipation. However, how the temporal variability can impact temporal prediction mechanisms remain poorly understood. This question is crucial because, from a naturalistic point of view, in music and speech in particular, sensory events rather follow patterns of temporal regularity and thus may also occur with a certain amount of temporal variability. In this thesis, we investigated how temporal variability of sound sequences impacts auditory perception, associated neural responses, and their potential impact on language processing. In a first behavioral study, we used an auditory oddball experiment in which participants listened to different sound sequences where the temporal interval between each sound was drawn from gaussian distributions with distinct standard deviations. We established that temporal predictions in probabilistic contexts are still possible and progressively declined as the temporal variability in the context increase. In a second EEG study, we show that temporal variability in context influences the evoked response to sounds as more regular sound sequence showed stronger ramping activity post-target onset, higher MMN amplitude and increased P300 response. The results further support current theories linking observed neural entrainment dynamics to temporal predictions mechanisms: periods where neural entrainment was high was associated with faster target sounds discrimination. Finally, in the third part of this thesis we showed a deficit in temporal prediction mechanisms in dyslexia. Using the same paradigm as in the first experimental chapter, dyslexic participants had significantly more difficulty discriminating sounds in regular temporal sequences than matched controls. Overall, this thesis provides insights into temporal predictions mechanisms in probabilistic contexts and discusses their potential impact in auditory language processing
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Rebaud, Bettina. "Evolution vers des architectures de systèmes intégrés auto-adaptatives et tolérantes aux variations technologiques et environnementales". Montpellier 2, 2009. http://www.theses.fr/2009MON20228.

Texto completo
Resumen
Avec les tendances « More Moore » et basse consommation, il devient de plus en plus délicat d'optimiser ou seulement prédire les performances finales des circuits numériques. En effet, les phénomènes de variabilité et les difficultés de modélisation des comportements des transistors constituent un frein tandis que nous approchons des dimensions nanométriques. Les méthodes de conception actuelles utilisent généralement des marges de garde afin de prévenir les incertitudes et garantir la fonctionnalité du circuit. Mais ces marges reflètent de moins en moins la réalité du circuit, empêchant dès lors les optimisations et baissant le rendement des circuits. De nombreuses solutions très hétéroclites existent afin de surmonter ces difficultés, se résumant en deux objectifs distincts et complémentaires : l'augmentation de la robustesse aux incertitudes durant la phase de conception, notamment grâce à de meilleures analyses des performances ; et l'adaptation post-silicium du circuit à son état technologique et à son environnement. Dans ce travail de thèse, nous avons approché ces deux concepts : en implantant (1) une méthodologie d'analyse statistique SSTA (Statistical Static Timing Analysis) nous permettant d'examiner finement les effets des variations dans le respect des contraintes temporelles ; et en proposant (2) un système de diagnostic basé sur l'observabilité de chemins critiques, autorisant ainsi la mise en œuvre de techniques adaptatives. Celles-ci permettent de s'ajuster au plus près des caractéristiques réelles du circuit en rognant sur les marges de conception, et d'améliorer les performances en fréquence et consommation, de même que le rendement
With the « More Moore » and low power trends, optimizing or only well predicting the final performances of digital circuits become more and more difficult. Indeed, variability and hardness to accurately model transistor behavior impede the dimension scaling benefits. Current design methods generally use guard margins to prevent from the incertitude generated by these limits and to guarantee functional yield. But as we go in the nanometer era, the margin use is not efficient anymore, because of an increasing over-design, limiting optimizations and decreasing yield. Very different numerous solutions exist in order to overcome these troubles, following two main goals which are dissimilar but also complementary: increasing the robustness to uncertainty during the design levels, notably thanks to better performance analysis; and adapting the final circuit to its real process corner and to its environment. In this work, we considered these two directions: the first one thanks to (1) an implementation of a specific methodology called SSTA (Statistical Static Timing Analysis), allowing to perform statistical analysis on timing performances; this methodology allows us to accurately observe process variation effects on delays; and the second one in proposing (2) an efficient diagnostic system based on the in situ critical path monitoring concept and allowing all adaptive solution implementations. The latter answer to variability issue allows to know the real characteristics of the circuit, to crop design margins, to improve power consumption and frequency performances, and even to increase yield
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Raillard, Nicolas. "Modélisation du comportement extrême de processus spatio-temporels. Applications en océanographie et météorologie". Phd thesis, Université Rennes 1, 2011. http://tel.archives-ouvertes.fr/tel-00656468.

Texto completo
Resumen
Ce travail de thèse porte sur l'étude des extrêmes d'une variable océanique importante dans le cadre des applications: la hauteur significative des vagues. Cette quantité est observée fidèlement par des satellites, mais cette source de donnée produit des données complexes du fait d'une répartition des observations irrégulière, en temps et en espace. Ce problème est primordial dans le cadre de l'étude des extrêmes, car peu de modèles statistiques sont adaptés à de telles données. Deux modèles sont présentés dans ce document. Nous commençons par décrire un modèle d'interpolation basé sur l'estimation des vitesses de déplacement des structures d'états de mer à l'aide de méthodes de filtrage particulaire. Ensuite nous avons mis en place une procédure d'estimation de la structure d'ordre deux du champ déplacé, dans le but d'appliquer une interpolation. Cette procédure a montré une amélioration par rapport aux techniques usuelles, mais une insuffisance pour modéliser les extrêmes. Dans un second temps, nous mettons en oeuvre une procédure pour modéliser les dépassements de seuils d'un processus observé à temps irrégulier ou avec des valeurs manquantes. Nous proposons un modèle basé sur les méthodes de dépassement de seuils multi-variés et les extrêmes de processus, ainsi qu'une méthode d'estimation des paramètres par des techniques de vraisemblance composite. Enfin, nous montrons la convergence de l'estimateur et, à l'aide de simulations ainsi que par une application à des données de hauteurs significatives, nous concluons que la prise en compte de tous les dépassements permet d'améliorer l'estimation des niveaux de retour de même que de la description de la durée des extrêmes.
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Viroj, Jaruwan. "Santé publique et analyse spatio-temporelle de la leptospirose humaine dans la province de Mahasarakham en Thaïlande". Thesis, Montpellier, 2019. http://www.theses.fr/2019MONTG028.

Texto completo
Resumen
La leptospirose est une maladie tropicale négligée qui touche surtout les habitants des régions rurales en Thaïlande. A l’échelle de la province de Mahasarakham en Thaïlande, les objectifs de cette étude sont d’identifier les facteurs expliquant l’épidémiologie de la leptospirose, de décrire les politiques qui ont été mises en place pour sa prévention et son contrôle, et d’analyser les représentations, les pratiques et les attitudes des patients, des habitants, des volontaires en santé et des personnels de santé publique au regard de la maladie et de sa prévention.L’étude des politiques mises en place montre que la Thaïlande a progressivement développé un ensemble de politiques de prévention à l’échelle nationale dont elle a transféré la mise en oeuvre à une échelle administrative locale. Malgré cela, le contrôle et la prévention de la leptospirose pourraient être améliorés en stimulant la collaborations entre les services de santé publique, les services vétérinaires, et les services agriculturaux avec une implication forte des communautés locales dans une approche de type “One Health”. L’analyse spatiotemporelle de la distribution des cas de leptospirose humaine montre que les facteurs associés avec les nouvelles infections sont multiples et complexes, incluant la densité de population humaine, la densité de bétail, les précipitations atmosphériques, l’étendue des aires inondables et d’autres paramètres de la géographie physique comme la pente moyenne. Le rôle du bétail dans la transmission à l’homme est mise en évidence et discutée. Cibler des zones géographiques à risque (avec une densité de bétail élevée et d’importantes surfaces inondables) peut permettre de limiter les risques, et doit être complétée en améliorant la communication avec les publics les plus exposés (c.a.d. les fermiers). L’analyse intersectorielle pour estimer les connaissances, attitudes et pratiques montre que les patients, leurs voisins, les volontaires en santé, et les chefs de villages et de sous-districts n’ont pas une compréhension suffisante de la maladie et de ces modes de transmission pour permettre une bonne prévention et un bon contrôle. Pour être mieux informé, ces publics doivent pouvoir avoir accès aux dernières informations scientifiques parfois complexes.Finalement, l’ensemble de ces résultats a permis d’établir un ensemble de recommandations pour développer la coopération entre différents services et populations locales en vue d’améliorer la prévention et la prévention de la leptospirose dans la province de Mahasarakham
Leptospirosis is a neglected tropical disease that affects mostly rural people in Thailand. This study aims to identify the factors explaining leptospirosis epidemiology, to describe the health policy implemented for leptospirosis prevention and control and its implementation in the rural province of Mahasarakham (Thailand), and to analyse the representations, practices, and attitudes of patients, people, health volunteers and health officers toward the disease and its prevention.The analysis of health policies showed that Thailand has progressively developed a national prevention and control policy framework and transferred its implementation to local administrative levels. However, leptospirosis prevention and control still need enhanced collaboration between public health, livestock, and agriculture departments with an important local community involvement under the One Health approach.The analysis of the spatiotemporal distribution of human leptospirosis cases showed that the factors associated with leptospirosis infection are complex and multifactorial, including human population density, livestock density, rainfall, flood cover and physical geography, i.e. average slope. The results stressed the importance of livestock that may contribute to leptospirosis transmission to humans. Targeting areas prone at risk, i.e. with high livestock or in flooded areas, should be complemented by improving communication to people at risk, i.e. farmers.The cross sectional study conducted to assess knowledge, attitudes, and practices showed that patients, neighbors, village health volunteers and community leaders did not have a clear comprehension of the disease and its transmission to really improve the prevention of infections. People need to have access to a complex and up-to-date scientific knowledge in order to improve their awareness about leptospirosis.Finally, taking results of above issues allowed “Guidelines for developing cooperation between departments for prevention and control leptospirosis of Mahasarakham Province, Thailand” to be produced
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Bourien, Jérôme. "Analyse de distributions spatio-temporelles de transitoires dans des signaux vectoriels. Application à la détection-classification d'activités paroxystiques intercritiques dans des observations EEG". Phd thesis, Université Rennes 1, 2003. http://tel.archives-ouvertes.fr/tel-00007178.

Texto completo
Resumen
Les signaux électroencéphalographiques enregistrés chez les patients épileptiques reflètent, en dehors des périodes correspondant aux crises d'épilepsie, des signaux transitoires appelés "activités épileptiformes" (AE). L'analyse des AE peut contribuer à l'étude des épilepsies partielles pharmaco-résistantes. Une méthode de caractérisation de la dynamique spatio-temporelle des AE dans des signaux EEG de profondeur est présentée dans ce document. La méthode est constituée de quatre étapes:

1. Détection des AE monovoie. La méthode de détection, qui repose sur une approche heuristique, utilise un banc de filtres en ondelettes pour réhausser la composante pointue des AE (généralement appelée "spike" dans la littérature). La valeur moyenne des statistiques obtenues en sortie de chaque filtre est ensuite analysée avec un algorithme de Page-Hinkley dans le but de détecter des changements abrupts correspondant aux spikes.

2. Fusion des AE. Cette procédure recherche des co-occurrences entre AE monovoie à l'aide d'une fenêtre glissante puis forme des AE multivoies.

3. Extraction des sous-ensembles de voies fréquement et significativement activées lors des AE multivoies (appelés "ensembles d'activation").

4. Evaluation de l'éxistence d'un ordre d'activation temporel reproductible (éventuellement partiel) au sein de chaque ensemble d'activation.

Les méthodes proposées dans chacune des étapes ont tout d'abord été évaluées à l'aide de signaux simulés (étape 1) ou à l'aide de models Markoviens (étapes 2-4). Les résultats montrent que la méthode complète est robuste aux effets des fausses-alarmes. Cette méthode a ensuite été appliquée à des signaux enregistrés chez 8 patients (chacun contenant plusieurs centaines d'AE). Les résultats indiquent une grande reproductibilité des distributions spatio-temporelles des AE et ont permis l'identification de réseaux anatomo-fonctionnels spécifiques.
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Ibrahim, Zein Al Abidin. "Caractérisation des structures audiovisuelles par analyse statistique des relations temporelles". Toulouse 3, 2007. http://www.theses.fr/2007TOU30069.

Texto completo
Resumen
Les travaux de cette thèse concernent la caractérisation de la structure de documents audiovisuels. A partir de la détection d'événements caractéristiques du contenu du document et de sa structure, nous proposons une représentation de la structure temporelle d'un document que nous utilisons ensuite pour comparer plusieurs documents. Les méthodes existantes permettant d'identifier la structure d'un document utilisent intensivement les connaissances a priori sur le type du document et son contenu. L'optique que nous avons choisie est différente. La méthode que nous proposons se veut générique c'est-à-dire applicable à tout type de document audiovisuel et ne tenant compte d'aucune information a priori. Elle est basée sur l'analyse des relations temporelles entre les événements détectés, sur la représentation paramétrique de ces relations et sur leur nombre d'occurrence. Afin d'élargir l'analyse des relations temporelles, nous avons proposé une algèbre des relations basée sur cette représentation paramétrique. Les expérimentations menées démontrent l'intérêt de notre méthode pour aborder de nouveaux types d'analyse automatique des contenus audiovisuels. Afin de pouvoir comparer des documents entre eux tout en exploitant le cadre théorique proposé sur l'analyse des relations temporelles, nous avons défini une distance et une mesure de similarité entre documents qui prend en compte la structure temporelle des documents et de leur contenu et qui est particulièrement appréciable pour gérer des collections ainsi que nous le montrons à travers différents exemples
The aim of our work is to characterize the structure of audiovisual documents. Based on the detection of events that are characteristic of the document content or structure, we propose a representation of the temporal structure of a document, which is then used for document comparison. Existing methods by which document structures are identified usually take a priori knowledge into account. They are applied on a specific document type or on a specific document content. In our work, we have adopted another point of view and designed our method to be generic and knowledge independent so that it can be applied to any document types. Our approach is based on the analysis of the temporal relationships observed between any detected events, on the occurrence number and on a parametric representation of these relations. In order to enlarge the temporal relation analysis, we propose an algebra of relation based on this parametric representation. .
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Do, Cao Tri. "Apprentissage de métrique temporelle multi-modale et multi-échelle pour la classification robuste de séries temporelles par plus proches voisins". Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAM028/document.

Texto completo
Resumen
La définition d'une métrique entre des séries temporelles est un élément important pour de nombreuses tâches en analyse ou en fouille de données, tel que le clustering, la classification ou la prédiction. Les séries temporelles présentent naturellement différentes caractéristiques, que nous appelons modalités, sur lesquelles elles peuvent être comparées, comme leurs valeurs, leurs formes ou leurs contenus fréquentielles. Ces caractéristiques peuvent être exprimées avec des délais variables et à différentes granularités ou localisations temporelles - exprimées globalement ou localement. Combiner plusieurs modalités à plusieurs échelles pour apprendre une métrique adaptée est un challenge clé pour de nombreuses applications réelles impliquant des données temporelles. Cette thèse propose une approche pour l'Apprentissage d'une Métrique Multi-modal et Multi-scale (M2TML) en vue d'une classification robuste par plus proches voisins. La solution est basée sur la projection des paires de séries temporelles dans un espace de dissimilarités, dans lequel un processus d'optimisation à vaste marge est opéré pour apprendre la métrique. La solution M2TML est proposée à la fois dans le contexte linéaire et non-linéaire, et est étudiée pour différents types de régularisation. Une variante parcimonieuse et interprétable de la solution montre le potentiel de la métrique temporelle apprise à pouvoir localiser finement les modalités discriminantes, ainsi que leurs échelles temporelles en vue de la tâche d'analyse considérée. L'approche est testée sur un vaste nombre de 30 bases de données publiques et challenging, couvrant des images, traces, données ECG, qui sont linéairement ou non-linéairement séparables. Les expériences montrent l'efficacité et le potentiel de la méthode M2TML pour la classification de séries temporelles par plus proches voisins
The definition of a metric between time series is inherent to several data analysis and mining tasks, including clustering, classification or forecasting. Time series data present naturally several characteristics, called modalities, covering their amplitude, behavior or frequential spectrum, that may be expressed with varying delays and at different temporal granularity and localization - exhibited globally or locally. Combining several modalities at multiple temporal scales to learn a holistic metric is a key challenge for many real temporal data applications. This PhD proposes a Multi-modal and Multi-scale Temporal Metric Learning (M2TML) approach for robust time series nearest neighbors classification. The solution is based on the embedding of pairs of time series into a pairwise dissimilarity space, in which a large margin optimization process is performed to learn the metric. The M2TML solution is proposed for both linear and non linear contexts, and is studied for different regularizers. A sparse and interpretable variant of the solution shows the ability of the learned temporal metric to localize accurately discriminative modalities as well as their temporal scales.A wide range of 30 public and challenging datasets, encompassing images, traces and ECG data, that are linearly or non linearly separable, are used to show the efficiency and the potential of M2TML for time series nearest neighbors classification
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Goldfarb, Bernard. "Etude structurelle des séries temporelles : les moyens de l'analyse spectrale". Paris 9, 1997. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1997PA090007.

Texto completo
Resumen
L'étude structurelle des séries temporelles est envisagée pour identifier les composantes essentielles, étudier les interventions, et analyser les familles de spectres. Des outils permettant des interprétations plus faciles que les modèles développés dans le domaine des temps sont proposés dans le domaine des fréquences. L'estimation spectrale non paramétrique (fenêtrage) est présentée dans la dualité de Fourier. La recherche adaptative d'une fenêtre de lissage et de son paramétrage est abordée d'une part au travers d'indices de précision des densités spectrales estimées, et d'autre part a l'aide d'un indicateur de sélection construit sur les estimateurs des critères de validation croisée. Pour les méthodes d'estimation spectrale autorégressive, l'intérêt d'une identification de modèles conduisant a des ensembles (portefeuilles) de densités admissibles est mis en évidence, ainsi que la qualité des estimateurs de Burg. La validation des estimateurs par des statistiques obtenues par rééchantillonnage (bootstrap) est proposée pour la cohérence de l'approche paramétrique, notamment pour une série unique mais de longueur suffisante. L'intérêt des représentations autorégressives pour ces études structurelles est alors souligné par l'approche globale de l'estimation autorégressive et de l'analyse des perturbations. L'identification et l'estimation des périodicités sont abordées pour répondre au problème des périodicités (et pseudo-périodicités) multiples. Les procédures de tests construits sur des moyennes élaguées sont indiquées comme ayant les meilleures performances. La comparaison de densités spectrales est abordée par différents tests. Une méthode exploratoire de classification des densités spectrales, complémentaire à l'estimation spectrale non paramétrique, permettant l'utilisation de variables illustratives et s'appliquant même à des séries courtes, est développée et illustrée.
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Choukair, Lamia. "Méthodologie statistique pour l'analyse de séries spatio-temporelles : application à des données climatologiques /". Paris : Ecole nationale supérieure des télécommunications, 1994. http://catalogue.bnf.fr/ark:/12148/cb35691557j.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Aminghafari, Mina. "Méthodes d'ondelettes en statistique des signaux temporels uni et multivariés". Paris 11, 2006. http://www.theses.fr/2006PA112045.

Texto completo
Resumen
Cette thèse se situe dans le domaine de la statistique et porte, pour l'essentiel, sur les applications des ondelettes pour le traitement des signaux temporels univariés et multivariés. Dans une première partie, nous nous intéressons à une extension au cas multivarié, des procédures de débruitage par ondelettes, bien connues pour les signaux unidimensionnels. Cette nouvelle procédure combine l'analyse en composantes principales avec une généralisation directe au cas dimensionnel d'une stratégie classique de bruitage 1-D. L'idée est de changer de base en diagonalisant un estimateur robuste de la covariance du bruit, afin de décorréler les composantes du bruit affectant les signaux puis d'appliquer un débruitage univarié par ondelettes classique avant de faire une ACP sur les signaux simplifiés ainsi reconstitués ou sur les coefficients d'approximation. Dans une deuxième partie, nous nous intéressons particulièrement au problème de la prévision d'une série unidimensionnelle stationnaire ou non, à l'aide de la transformée en ondelettes non-décimée. Il s'agit de généraliser une procédure dont le principe est de sélectionner des coefficients d'ondelettes construits à partir des observations du passé puis d'estimer directement l'équation de prévision par la régression du processus sur les coefficients d'ondelettes du passé. Ce schéma est étendu à une ondelette orthogonale quelconque, à la prise en compte d'une composante non-stationnaire et de nombreuses variantes sont étudiées. Une dernière partie porte sur un thème un peu différent des autres, puisque les ondelettes n'y jouent pas un rôle prépondérant. Elle consiste à une approche bayésienne pour choisir une loi a priori et on peut la considérer comme une alternative aux proches paramétriques de la méthode de Bayes empirique pour le choix de l'a priori. Cette méthode peut s'appliquer au choix de la densitéa prior des coefficients d'ondelettes dans les méthodes de seuillage
This thesis takes place in statistics and deals with the applications of wavelets to the univariate and multivariate signals. The first part is devoted to a multivariate extension of the well known wavelet denoising procedure widely examined for scalar valued signals. It combines a straightforward multivariate generalization of a classical one and principal component analysis. This new procedure exhibits promising behavior on classical bench signals and the associated estimator is found to be near minimax in the one-dimensional sense, for Besov balls. The method is finally illustrated by an application to multichannel neural recordings. The second part is devoted to the forecasting problem of a stationary or non-stationary one dimensional time series, using non-decimated wavelet transform. A new proposal method to prediction stationary data and stationary data contaminated by additive trend is proposed. It consists of generalizing a procedure whose idea is to select the wavelet coefficients built from the past observations then to directly estimate the forecasting equation by the regression of the process on the past wavelet coefficients. This scheme is extended to an arbitrary orthogonal wavelet and to the introduction a non-stationary component. The third part relates to a topic a little bit different from the others. We introduce a method for prior selection. This method can be considered as an alternative approach to the parametric empirical Bayes method for priorselection and can then be applied to the choice of threshold in the denoising procedure using wavelets
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

Lefieux, Vincent Carbon Michel Delacroix Michel. "Modèles semi-paramétriques appliqués à la prévision des séries temporelles cas de la consommation d'électricité /". Rennes : Université Rennes 2, 2007. http://tel.archives-ouvertes.fr/tel-00179866/fr.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

Watier-Laquay, Laurence. "Etude des variations temporelles des infections à salmonelles non typiques : modélisation et prévision". Paris 11, 1993. http://www.theses.fr/1993PA11T015.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

Abu-Awwad, Abdul-Fattah. "Sur l’inférence statistique pour des processus spatiaux et spatio-temporels extrêmes". Thesis, Lyon, 2019. http://www.theses.fr/2019LYSE1079/document.

Texto completo
Resumen
Les catastrophes naturelles comme les canicules, les tempêtes ou les précipitations extrêmes, proviennent de processus physiques et ont, par nature, une dimension spatiale ou spatiotemporelle. Le développement de modèles et de méthodes d'inférences pour ces processus est un domaine de recherche très actif. Cette thèse traite de l'inférence statistique pour les événements extrêmes dans le cadre spatial et spatio-temporel. En particulier, nous nous intéressons à deux classes de processus stochastique: les processus spatiaux max-mélange et les processus max-stable spatio-temporels. Nous illustrons les résultats obtenus sur des données de précipitations dans l'Est de l'Australie et dans une région de la Floride aux Etats-Unis. Dans la partie spatiale, nous proposons deux tests sur le paramètre de mélange a d'un processus spatial max-mélange: le test statistique Za et le rapport de vraisemblance par paire LRa. Nous comparons les performances de ces tests sur simulations. Nous utilisons la vraisemblance par paire pour l'estimation. Dans l'ensemble, les performances des deux tests sont satisfaisantes. Toutefois, les tests rencontrent des difficultés lorsque le paramètre a se situe à la frontière de l'espace des paramètres, i.e., a ∈ {0,1}, dues à la présence de paramètre de “nuisance” qui ne sont pas identifiés sous l'hypothèse nulle. Nous appliquons ces tests dans le cadre d'une analyse d'excès au delà d'un grand seuil pour des données de précipitations dans l'Est de l'Australie. Nous proposons aussi une nouvelle procédure d'estimation pour ajuster des processus spatiaux max-mélanges lorsqu'on ne connait pas la classe de dépendance extrêmal. La nouveauté de cette procédure est qu'elle permet de faire de l'inférence sans spécifier au préalable la famille de distributions, laissant ainsi parle les données et guider l'estimation. En particulier, la procédure d'estimation utilise un ajustement par la méthode des moindres carrés sur l'expression du Fλ-madogramme d'un modèle max-mélange qui contient les paramètres d'intérêt. Nous montrons la convergence de l'estimateur du paramètre de mélange a. Une indication sur la normalité asymptotique est donnée numériquement. Une étude sur simulation montrent que la méthode proposée améliore les coefficients empiriques pour la classe de modèles max-mélange. Nous implémentons notre procédure d'estimations sur des données de maximas mensuels de précipitations en Australie dans un but exploratoire et confirmatoire. Dans la partie spatio-temporelle, nous proposons une méthode d'estimation semi-paramétrique pour les processus max-stables spatio-temporels en nous basant sur une expression explicite du F-madogramme spatio-temporel. Cette partie permet de faire le pont entre la géostatistique et la théorie des valeurs extrêmes. En particulier, pour des observations sur grille régulière, nous estimons le F-madogramme spatio-temporel par sa version empirique et nous appliquons une procédure basée sur les moments pour obtenir les estimations des paramètres d'intérêt. Nous illustrons les performances de cette procédure par une étude sur simulations. Ensuite, nous appliquons cette méthode pour quantifier le comportement extrêmal de maximum de données radar de précipitations dans l'Etat de Floride. Cette méthode peut être une alternative ou une première étape pour la vraisemblance composite. En effet, les estimations semi-paramétriques pourrait être utilisées comme point de départ pour les algorithmes d'optimisation utilisés dans la méthode de vraisemblance par paire, afin de réduire le temps de calcul mais aussi d'améliorer l'efficacité de la méthode
Natural hazards such as heat waves, extreme wind speeds, and heavy rainfall, arise due to physical processes and are spatial or spatio-temporal in extent. The development of models and inference methods for these processes is a very active area of research. This thesis deals with the statistical inference of extreme and rare events in both spatial and spatio-temporal settings. Specifically, our contributions are dedicated to two classes of stochastic processes: spatial max-mixture processes and space-time max-stable processes. The proposed methodologies are illustrated by applications to rainfall data collected from the East of Australia and from a region in the State of Florida, USA. In the spatial part, we consider hypothesis testing for the mixture parameter a of a spatial maxmixture model using two classical statistics: the Z-test statistic Za and the pairwise likelihood ratio statistic LRa. We compare their performance through an extensive simulation study. The pairwise likelihood is employed for estimation purposes. Overall, the performance of the two statistics is satisfactory. Nevertheless, hypothesis testing presents some difficulties when a lies on the boundary of the parameter space, i.e., a ∈ {0,1}, due to the presence of additional nuisance parameters which are not identified under the null hypotheses. We apply this testing framework in an analysis of exceedances over a large threshold of daily rainfall data from the East of Australia. We also propose a novel estimation procedure to fit spatial max-mixture processes with unknown extremal dependence class. The novelty of this procedure is to provide a way to make inference without specifying the distribution family prior to fitting the data. Hence, letting the data speak for themselves. In particular, the estimation procedure uses nonlinear least squares fit based on a closed form expression of the so-called Fλ-madogram of max-mixture models which contains the parameters of interest. We establish the consistency of the estimator of the mixing parameter a. An indication for asymptotic normality is given numerically. A simulation study shows that the proposed procedure improves empirical coefficients for the class of max-mixture models. In an analysis of monthly maxima of Australian daily rainfall data, we implement the proposed estimation procedure for diagnostic and confirmatory purposes. In the spatio-temporal part, based on a closed form expression of the spatio-temporal Fmadogram, we suggest a semi-parametric estimation methodology for space-time max-stable processes. This part provides a bridge between geostatistics and extreme value theory. In particular, for regular grid observations, the spatio-temporal F-madogram is estimated nonparametrically by its empirical version and a moment-based procedure is applied to obtain parameter estimates. The performance of the method is investigated through an extensive simulation study. Afterward, we apply this method to quantify the extremal behavior of radar daily rainfall maxima data from a region in the State of Florida. This approach could serve as an alternative or a prerequisite to pairwise likelihood estimation. Indeed, the semi-parametric estimates could be used as starting values for the optimization algorithm used to maximize the pairwise log-likelihood function in order to reduce the computational burden and also to improve the statistical efficiency
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

Bonthoux, Sébastien. "Les relations spatiales et temporelles entre les communautés d'oiseaux et les paysages agricoles". Thesis, Toulouse, INPT, 2011. http://www.theses.fr/2011INPT0097/document.

Texto completo
Resumen
Cette thèse concerne l’évaluation des impacts des changements d’utilisations des sols sur la biodiversité des paysages agricoles à partir du modèle oiseaux. L’intensification de l’agriculture a engendré une diminution des habitats semi-naturels et de l’hétérogénéité des paysages avec de profondes conséquences sur la structure et la dynamique des communautés animales et végétales. Etablir des politiques environnementales efficaces nécessite de comprendre finement les processus écologiques mis en jeu par ces changements. Dans mes travaux, j’ai utilisé deux stratégies : l’étude des relations synchroniques et diachroniques entre les communautés d’oiseaux et les paysages. L’approche synchronique m’a permis de vérifier la généricité spatiale des relations oiseaux-habitat. J’ai pu mettre en évidence que la distribution de l’alouette des champs et que la richesse spécifique en oiseaux sont expliquées par les mêmes facteurs paysagers dans trois régions géographiques de France (Gascogne, Poitou, Bretagne). Ces résultats suggèrent que, dans certains cas, les mêmes programmes de gestion peuvent être utilisés sur une large étendue géographique, sans qu’il soit nécessaire de les adapter localement. Dans un second temps, sur le site de recherche des Vallées et Coteaux de Gascogne j’ai comparé les communautés d’oiseaux dans cinq systèmes agricoles aux intensités de production contrastées. J’ai montré que la structure et la composition des communautés sont très similaires dans les cinq systèmes. Ce résultat inattendu est probablement dû au maintien sur ce site d’étude, pour des raisons culturelles, d’un paysage hétérogène qui tamponne les effets de l’intensification agricole. L’approche diachronique m’a permis de quantifier l’impact de la dynamique des paysages à long terme sur les communautés d’oiseaux sur le site Vallées et Coteaux de Gascogne qui, entre 1982 et 2007, a connu une légère diminution de l’hétérogénéité des paysages et une forte augmentation des cultures aux dépens des prairies. J’ai trouvé des relations significatives entre les changements des communautés et des paysages. Ces relations temporelles étant moins fortes que les relations synchroniques aux deux dates, cela suggère d’être prudent dans l’utilisation du « space for time substitution ». Dans le but de construire des outils fiables pour prédire les patrons de distribution d’espèces, j’ai évalué et comparé les performances prédictives de deux approches de modélisation : niveau espèce versus niveau communauté. Je montre que ces deux approches ont une fiabilité similaire et une capacité de prédiction correcte. Ces types de modèles pourraient être couplés à des scénarios d’évolution des paysages pour simuler la réponse de la biodiversité à ces scénarios
This thesis concerns the assessment of the impacts of land use changes in agricultural landscapes on biodiversity based on bird communities. The intensification of agriculture has resulted in a decrease of semi-natural habitats and the diversity of landscapes with profound consequences on the structure and the dynamics of plant and animal communities. Establish effective environmental policies requires an understanding of ecological processes responsible for these changes. In my work, I used two strategies: the study of synchronic and diachronic relations between bird communities and landscape structure. The synchronic approach allowed me to check the spatial genericity of relationships between birds and their habitats. I demonstrated that the same landscape factors explain the distribution of the skylark and the species richness in three geographic regions of France (Gascogny, Poitou, Britain). These results suggest that in some cases the same management programs can be used over a wide geographical area, without the need to adapt locally. In a second step, in the site « Vallées et Coteaux de Gascogne » I compared bird communities in five agricultural systems with contrasting intensities of production. I showed that the structure and composition of communities are very similar in all five systems. This unexpected result is probably due to the maintenance on this study site, for cultural reasons, of a heterogeneous landscape that buffers the effects of agricultural intensification. The diachronic approach allowed me to quantify the impact of long term landscape dynamics on bird communities in the site « Vallées et Coteaux de Gascogne ». Between 1982 and 2007, it occured a slight decrease in the heterogeneity of landscapes and a strong increase of crops at the expense of grasslands. I found significant relationships between landscape dynamics and changes in bird communities. However, these temporal relations are weaker than synchronic relations on both dates. These results suggest to be cautious in the use of the "space for time substitution" approach. In order to build reliable tools to predict species distribution patterns, I have evaluated and compared the predictive performance of two approaches modeling: species level versus community level. I showed that both approaches have a similar reliability to predcit species distributions. These types of models could be coupled with scenarios of landscape changes to simulate the response of biodiversity to these scenarios
Los estilos APA, Harvard, Vancouver, ISO, etc.
34

Bédubourg, Gabriel. "Place des outils d'analyse des séries temporelles dans la surveillance épidémiologique pour la détection des épidémies et leur analyse : élaboration de nouveaux outils de détection et d'analyse étiologique des épidémies appliqués à la surveillance épidémiologique". Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0739.

Texto completo
Resumen
La surveillance épidémiologique est le recueil systématique et continu d’informations sur l’état de santé des populations, leur analyse, leur interprétation et leur diffusion à tous les décideurs ayant besoin d’être informés. Un de ses objectifs est la détection des événements inhabituels, i.e. des épidémies, nécessitant la mise en place rapide de contre-mesures. Les objectifs de ce travail de thèse sont : (i) d’évaluer les principales méthodes statistiques de détection publiées et communément employées dans différents systèmes de surveillance épidémiologique, (ii) de proposer une nouvelle approche reposant sur la combinaison optimale de méthodes de détection statistique des épidémies et (iii) de développer une nouvelle méthode statistique d’analyse étiologique d’une épidémie à partir des données de surveillance épidémiologique collectées en routine par le système.Pour atteindre ces objectifs, nous évaluons les principales méthodes statistiques de la littérature, à partir d’un jeu publié de données simulées. Puis nous proposons une approche originale pour la détection des épidémies sur le principe de la combinaison de méthodes sélectionnées lors de l’étape précédente. Les performances de cette approche sont comparées aux précédentes selon la méthodologie utiliséeà la première étape. Enfin, nous proposons une méthode d’analyse étiologique d’une épidémie à partir des données de surveillance en employant des modèles statistiques adaptés aux séries chronologiques
Public health surveillance is the ongoing, systematic collection, analysis, interpretation, and dissemination of data for use in public health action to reduce morbidity and mortality of health-related events and to improve health. One of its objectives is the detection of unusualevents, i.e. outbreaks, requiring the rapid implementation of countermeasures.The objectives of this work are: (i) to evaluate the main published statistical methods for outbreak detection commonly implemented in different public health surveillance systems, (ii) to propose a new approach based on the optimal combination of statistical methods foroutbreak detection and benchmark it to other methods; and (iii) develop a new statistical method for the etiological analysis of an outbreak from public health surveillance data routinely collected by the system. To achieve these objectives, as a first step, we evaluate the main statistical methods, from a published set of simulated public health surveillance data. Statistical methods have been evaluated for an operational purpose: for all simulated time series, we used the tuning parameters recommended by their authors for each algorithm when available. We propose sensitivity and specificity metrics suitable for these tools. Then we propose an original approach for outbreak detection based on combination of methods selected in the previous step. The performance of this approach is compared to the previous ones according to the methodology implemented in the first step.Finally, we propose a method for the etiological analysis of an outbreak from surveillance data by using statistical models suitable for time series analysis
Los estilos APA, Harvard, Vancouver, ISO, etc.
35

Guillot, Gilles. "Modélisation statistique des champs de pluie sahéliens : application à leur désagrégation spatiale et temporelle". Université Joseph Fourier (Grenoble), 1998. http://www.theses.fr/1998GRE10226.

Texto completo
Resumen
La resolution couramment atteinte par les donnees pluviometriques derivees des mesures satellitales ou des sorties de modeles de circulation generale atmospherique (m. C. G. A) sur la zone sahelienne, est de l'ordre de 1 1, sur des pas de temps correspondant a la duree de vie des systemes convectifs. Ces echelles sont incompatibles avec les echelles de la modelisation hydrologique, particulierement dans cette region, ou les pluies principalement d'origine convective, presentent une forte variabilite spatiale et temporelle. Le travail presente a consiste a developper et valider un modele des champs de pluie saheliens, permettant d'utiliser l'information de grande echelle fournie par un satellite ou un m. C. G. A, pour simuler de champs de pluie a une plus haute resolution. Les bases de ce modele proviennent de l'analyse du jeu de donnees de l'experience epsat-niger. Il s'appuie sur trois composantes : (i) une representation geostatistique des champs spatiaux au pas de temps de l'evenement, (ii) un modele de la cinematique des systemes convectifs, (iii) un modele statistique a quatre parametres des hyetogrammes. Ce modele est developpe dans un cadre mathematique qui maintient une coherence entre les proprietes observees a differentes echelles. De ce fait, il peut etre utilise pour realiser des simulations conditionnees par des valeurs pluviometriques de grande echelle.
Los estilos APA, Harvard, Vancouver, ISO, etc.
36

Jacquet, Olivier. "Analyse statistique des processus ponctuels spatio-temporels de propagation sur une grille". Antilles-Guyane, 2008. http://www.theses.fr/2008AGUY0245.

Texto completo
Resumen
L'origine du travail présenté dans cette thèse est un problème d'épidémiologie dans le domaine des cultures agricoles. Il s'agit de modéliser la propagation d'une maladie sur une parcelle expérimentale. Les individus statistiques, en l'occurence les plantes de cette parcelle, sont disposés de façon régulière sur les noeuds d'une grille. Dans ce type de situation, on récolte les données , en général, à des dates successives, les positions des nouveaux individus infectés, en mettant e place diverses stratégies suivant la taille des parcelles ou encore des moyens humains et technologiques disponibles. Si l'on est pas limité par le coût et l'effort d'observation, la m"thode idéale consiste à faire de l'échantillonnage exhaustif, c'est-à-dire observer l'état de chaque individu sur la parcelle. Cependant, pour des raisons de coût d'observation, on ne peut avoir l'état des individus sur la grille qu'à des dates d'observations données. Par conséquent, si si à S t_0S on possède l'ensemble des plntes infectées S I 8 {t _0}S et à S t_ 1S on possède S I_ {t_I}, une approche méthodologique est de considérer l'ordre possible d'infection des plantes entre S t_0S et S t_IS
The origin of the work presented in this thesis is a problem of epidemiology in the field of agricultural crops. It is to model the spread of disease on an experimental plot. Individuals statistics, in this case the plants of this plot, are regularly arranged on the nodes on a grid. In such situations, harvest data, in general, dates successive positions of the new infected individuals, putting in place various strategies depending on the size of parcels or human resources and technology available. Ifone is not limited by the cost and effort of observation, the ideal method is to make the exhaustive sampling ie observe the condition ofeach individual on the plot. However, for reasons ofcost observation, we can not have the status of individuals on the grid than the dates of observation data. There fore, if at date S t_OS we have all infected plants S 1_{t_O}S and at date S t_lS we have S1_{t_l}S, a methodological approach is to consider the possible order of infection between S t_0S and S t_l S. The purpose ofthis work is to propose a model for the spatial and temporal evolution of a disease on a regular grid and develop statistical inference of this model for data consisting of infection cards reported on dates fixed widely spaced so that the precise dates ofinfection are missing data. The plan of this thesis in to two parts. \\ In the first, we recall the main tools ofstatistical analysis of ad hoc spatial and/or temporal processes, and a summary on Bayesi an analysis and Markovian exploration techniques which will be used to infer and optimize the parameters of interest. In the second part of the thesis, we present a model inspired by the propagation model Gibson (1996) and various methodologies to tackle the problem of statistical inference in Chapter 3. The proposed methods can be classified in to two broad families. As a first step, we can consider inference techniques that take into account only the temporal order ofarrival of events between the dates ofobservation St_0S and St_lS. These techniques range from the use of simple Monte Carlo methods to generation of Markov chain. In a second time, the methodology is to generate the precise dates of occurrence of events between the dates of observations S t_0S and S t_l St, then usin the theory of Bayes combined with Markov chains to estimate the parameters of interest
Los estilos APA, Harvard, Vancouver, ISO, etc.
37

Rudelou, Ghislain. "Performances temporelles d'automates programmables et conception d'un coprocesseur d'accélération". Montpellier 2, 1993. http://www.theses.fr/1993MON20238.

Texto completo
Resumen
Ce memoire met en evidence les problemes de performances temporelles des automates programmables industriels et propose de les resoudre en partie en diminuant de facon significative leur temps de cycle par la conception et l'implantation d'un coprocesseur specifique. Dans le contexte general des applications temps reel, il recense les principaux parametres logiciels et materiels qui conjugues entre-eux, permettent de tendre vers le niveau de performances temporelles exige pour ce type d'applications. Relativement au monde du controle de processus et des automates programmables, il s'appuie sur la realisation de mesures statistiques dynamiques pour analyser et demontrer l'insuffisance et les deficiences de processeurs standard general purpose en termes de performances temporelles. Il permet d'identifier les taches repetitives et penalisantes en temps d'execution qui caracterisent l'application d'automatisme et qu'il serait interessant de confier a un coprocesseur specifique. Il propose d'une part les traductions de descriptions topologiques grafcet et langage a relais en structures de donnees booleennes et d'autre part les algorithmes d'interpretation necessaires a leur traitement optimal. Il expose les specifications d'un coprocesseur specifique, la conception des parties operatives et de controle suivant une demarche de synthese hardware privilegiant d'abord les temps d'execution, puis la minimisation de la surface du circuit
Los estilos APA, Harvard, Vancouver, ISO, etc.
38

Hay-Lepretre, Céline. "Dynamiques spatiale et temporelle de l'aléa inondation : de l'analyse des phénomènes à l'évaluation des pratiques d'aménagement, l'exemple de la Seine-Maritime". Rouen, 2005. http://www.theses.fr/2005ROUEL519.

Texto completo
Resumen
Depuis quelques années, les inondations sont récurrentes en Seine-Maritime, provoquant de nombreux dégâts et faisant parfois des victimes. Ces événements sont fortement dommageables pour les particuliers et les collectivités locales. La presse et quelques recherches notent une récurrence accrue et une aggravation de l'ampleur des phénomènes, mais aucune étude n'a jamais permis de la quantifier De nombreuses bases de données existent, mais elles ne permettent pas l'analyse des phénomènes à une échelle fine et ne garantissent aucune exhaustivité. A partir du dépouillement de plusieurs types d'archives, ce travail de recherche établit une base de référence pour l'étude des inondations sur ce département. Celle-ci recense 220 événements météorologiques ayant provoqué 3544 inondations sur 657 communes de la Seine-Maritime entre 1960 et 2000. Une analyse statistique et cartographique permet de mieux connaître leur répartition temporelle et spatiale à l'échelle du département. Cette base de données sert également d'outil d'évaluation des pratiques d'aménagement. En effet, elles se sont largement développées ces trente dernières années. Il est, par conséquent, intéressant d'apprécier leur efficacité réelle dans la lutte contre les inondations. Une analyse à l'échelle d'un bassin versant permet ici d'étudier les composantes du risque sur le territoire communal. Elle permet de conclure à la nécessaire gestion croisée de l'interface aléa/vulnérabilité et de son dynamisme à l'échelon local
For some years, the floods are recurring in Seine-Maritime (France), provoking numerous damages and sometimes making victims. These events are strongly harmful for the private individuals and the local governments. The press and some studies note a greater recurrence and an escalation of the scale of the phenomena, but no study has ever allowed to quantify it. Numerous data bases exist, but they do not allow the analysis of the phenomena at a fine scale and do not guarantee an exhaustiveness. From the perusal of several types of archives, this research establishes a reference base for the study of the floods in this department. This one counts 220 meteorological events having provoked 3544 floods on 657 municipalities of the Seine-Maritime between 1960 and 2000. A statistical and cartographic analysis allows a better knowledge of their temporal and spatial distribution at the scale of the department. This data base serves also as a tool of evaluation of the planning practices. In fact, they expanded widely during these last thirty years. It is, consequently, interesting to appreciate their real efficiency in the struggle against the floods. An analysis at the scale of a hydrographic basin allows to study the constituents of the risk on a municipal territory. It leads to the conclusion of a necessary cross management of the interface of hazard and vulnerability and of their dynamism at the local level
Los estilos APA, Harvard, Vancouver, ISO, etc.
39

Tambaud, Rémy. "Mise en évidence des composantes tendancielle, saisonnière et irrégulière des séries temporelles, à travers les modèles ARIMA". Paris 7, 1985. http://www.theses.fr/1985PA07F109.

Texto completo
Resumen
Le problème des séries temporelles abordé dans cette étude se résume en une approche de l'ajustement saisonniers basé sur la modélisation ARIMA. Ce modèle se préoccupe surtout du problème de prédiction en se ramenant à des processus stationnaire. L'étude comporte la présentation des généralités sur la décomposition des processus stationnaires et non stationnaires du 2ème ordre, la présentation d'une méthode de décomposition empirique des séries temporelles, qui suivent la classe des modèles ARIMA développés par BOX, JENKINS et BOX, TIAO. La partie informatique met en relief l'utilisation de l'algorithme de TUNNICLIFFE-WILSON pour améliorer sa performance. Le programme de traitement des données a été écrit en FORTRAN 77 sur MULLICS de l'institut de recherche des transports
Los estilos APA, Harvard, Vancouver, ISO, etc.
40

Létang, Jean-Michel. "Intégration temporelle et régularisation statistique appliquées à la détection d'objets mobiles dans une séquence d'images". Grenoble INPG, 1993. http://www.theses.fr/1993INPG0149.

Texto completo
Resumen
Cette these traite de la detection d'objets mobiles en imagerie monoculaire. La premiere partie expose la problematique de l'analyse du mouvement dans des applications reelles. Nous proposons une methodologie robuste vis-a-vis des perturbations frequemment rencontrees lors de l'acquisition de scenes en exterieur. Nous degageons trois directions de recherches qui mettent en relief l'importance de l'axe temporel, dimension privilegiee en analyse du mouvement. Dans une premiere partie, la sequence d'images est assimilee a un faisceau de signaux temporels. La decomposition multiechelle temporelle mise en uvre permet de caracteriser les differents comportements dynamiques presents dans la scene a un instant donne. Un deuxieme module integre l'information de mouvement. Cette trajectographie elementaire des objets mobiles permet d'obtenir une carte de prediction temporelle, donnant un indice de confiance sur la presence d'un mouvement. Les interactions entre ces deux types de donnees sont exprimees au sein d'une regularisation statistique. La modelisation par champs de markov fournit un cadre formel pour traduire des connaissances a priori sur les primitives a evaluer. Une methode de calibrage par boites qualitatives est presentee pour estimer les parametres de ce modele. Notre approche se ramene a des calculs simples et conduit a une algorithmie relativement rapide, que nous evaluons en derniere partie sur des sequences variees typiques
Los estilos APA, Harvard, Vancouver, ISO, etc.
41

Owusu, Patrick Asante. "Modélisation de dépendances dans des séries temporelles co-évolutives". Electronic Thesis or Diss., Université de Lorraine, 2024. http://www.theses.fr/2024LORR0104.

Texto completo
Resumen
Les recherches actuelles en analyse des séries temporelles montrent qu'il existe des approches formelles insuffisantes pour modéliser les dépendances de plusieurs séries temporelles ou de séries temporelles co-évolutives à mesure qu'elles changent au fil du temps. Dans cette thèse, nous développons une approche formelle pour analyser la temporalité et l'évolution des dépendances via les définitions de sous-séries temporelles, où une sous-série temporelle est un segment des données de la série temporelle originale. Nous concevons une approche basée sur le principe des fenêtres glissantes pour analyser la nature temporelle et les changements de dépendance entre les séries temporelles évolutives. Plus précisément, chaque sous-série temporelle est analysée indépendamment pour comprendre les dépendances locales et comment ces dépendances se déplacent à mesure que la fenêtre avance dans le temps. Cela nous permet donc de modéliser l'évolution temporelle des dépendances avec une granularité plus fine. Nos contributions relatives à la modélisation des dépendances soulignent l'importance de comprendre les interconnexions dynamiques entre plusieurs séries temporelles qui évoluent ensemble au fil du temps. L'objectif principal est de développer des techniques robustes qui peuvent capturer efficacement ces dépendances évolutives, améliorant ainsi l'analyse et la prévision de systèmes complexes tels que les marchés financiers, les systèmes climatiques et d'autres domaines générant de volumineuses données de séries temporelles. La thèse explore l'utilisation de modèles autorégressifs et propose des méthodes innovantes pour identifier et modéliser ces dépendances, en abordant les limitations des méthodes traditionnelles qui négligent souvent les dynamiques temporelles et l'évolutivité nécessaires pour gérer de grands ensembles de données. Un aspect central de la recherche est le développement d'une approche en deux étapes pour détecter et modéliser les effets évolutifs dans plusieurs séries temporelles. La première étape consiste à identifier des motifs pour recréer des variations de séries sur diverses périodes en utilisant des modèles linéaires finis. Cette étape est cruciale pour capturer les dépendances temporelles au sein des données. En exploitant une séquence de graphes bipartites, l'étude modélise le changement à travers plusieurs séries temporelles, reliant des dépendances répétitives et nouvelles à différentes durées temporelles dans les sous-séries. Cette approche simplifie non seulement le processus d'identification des dépendances, mais fournit également une solution évolutive pour analyser de grands ensembles de données, comme démontré par des expériences avec, par exemple, des données de marché financier du monde réel. La thèse souligne en outre l'importance de l'interprétabilité dans la modélisation des séries temporelles co-évolutives. En intégrant des grands modèles de langage (LLM) et des techniques contextuelles, la recherche améliore la compréhension des facteurs sous-jacents qui conduisent aux changements dans les données de séries temporelles. Cette interprétabilité est obtenue grâce à la construction de graphes temporels et à la sérialisation de ces graphes en langage naturel, fournissant des informations claires et complètes sur les dépendances et les interactions au sein des données. La combinaison de modèles autorégressifs et de LLM permet de générer des prévisions plausibles et interprétables, rendant l'approche adaptée aux applications du monde réel où la confiance et la clarté des résultats des modèles sont primordiales
Current research in time series analysis shows that there are insufficient formal approaches for modelling the dependencies of multiple or co-evolving time series as they change over time. In this dissertation, we develop a formal approach for analysing the temporality and evolution of dependencies via the definitions of sub-time series, where a sub-time series is a segment of the original time series data. In general, we design an approach based on the principle of sliding windows to analyse the temporal nature and dependency changes between evolving time series. More precisely, each sub-time series is analysed independently to understand the local dependencies and how these dependencies shift as the window moves forward in time. This, therefore, allows us to model the temporal evolution of dependencies with finer granularity. Our contributions relating to the modelling of dependencies highlight the significance of understanding the dynamic interconnections between multiple time series that evolve together over time. The primary objective is to develop robust techniques to effectively capture these evolving dependencies, thereby improving the analysis and prediction of complex systems such as financial markets, climate systems, and other domains generating voluminous time series data. The dissertation explores the use of autoregressive models and proposes novel methods for identifying and modelling these dependencies, addressing the limitations of traditional methods that often overlook the temporal dynamics and scalability required for handling large datasets. A core aspect of the research is the development of a two-step approach to detect and model evolving effects in multiple time series. The first step involves identifying patterns to recreate series variations over various time intervals using finite linear models. This step is crucial for capturing the temporal dependencies within the data. By leveraging a sequence of bipartite graphs, the study models change across multiple time series, linking repetitive and new dependencies at varying time durations in sub-series. This approach not only simplifies the process of identifying dependencies but also provides a scalable solution for analysing large datasets, as demonstrated through experiments with, for example, real-world financial market data. The dissertation further emphasises the importance of interpretability in modelling co-evolving time series. By integrating large language models (LLMs) and context-aware techniques, the research enhances the understanding of the underlying factors driving changes in time series data. This interpretability is achieved through the construction of temporal graphs and the serialisation of these graphs into natural language, providing clear and comprehensive insights into the dependencies and interactions within the data. The combination of autoregressive models and LLMs enables the generation of plausible and interpretable predictions, making the approach suitable for real-world applications where trust and clarity in model outputs are paramount
Los estilos APA, Harvard, Vancouver, ISO, etc.
42

Cerovecki, Clément. "Inférence asymptotique pour des processus stationnaires fonctionnels". Doctoral thesis, Universite Libre de Bruxelles, 2018. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/271371.

Texto completo
Resumen
Nous abordons divers problèmes concernant les séries temporelles fonctionnelles. Il s'agit de processus stochastiques discrets à valeurs dans un espace fonctionnel. La principale motivation provient de l’interprétation séquentielle d'un phénomène continu. Si par exemple on observe des données météorologiques au cours du temps de manière continue, il est naturel de segmenter ce processus en une série temporelle fonctionnelle indexée par les jours. Chaque terme de la série représente la courbe journalière. Dans un premier temps, nous nous sommes intéressés à l'analyse spectrale. Plus précisément nous avons montré que sous des hypothèses très générales, la transformée de Fourier discrète d’une telle série est asymptotiquement normale et a pour variance l’opérateur de densité spectrale. Une application possible de ce résultat est de tester la présence de composantes périodiques dans une série fonctionnelle. Nous avons développé un test valable pour une fréquence arbitraire. Pour ce faire, nous avons étudié le comportement asymptotique du maximum de la norme de la transformée de Fourier. Enfin, nous avons travaillé sur la généralisation fonctionnelle du modèle GARCH. Ce modèle permet de décrire la dynamique de la volatilité, c’est-à-dire de la variance conditionnelle, dans les données financières. Nous avons proposé une méthode d’estimation des paramètres du modèle, inspirée de l’estimateur de quasi-maximum de vraisemblance. Nous avons montré que cet estimateur est convergent et asymptotiquement normal, puis nous l’avons évalué sur des simulations et appliqué à des données réelles.
Doctorat en Sciences
info:eu-repo/semantics/nonPublished
Los estilos APA, Harvard, Vancouver, ISO, etc.
43

Dola, Béchir. "Problèmes économétriques d'analyse des séries temporelles à mémoire longue". Phd thesis, Université Panthéon-Sorbonne - Paris I, 2012. http://tel.archives-ouvertes.fr/tel-00794676.

Texto completo
Resumen
Les modalités d'investigation de notre thèse sont menées, sous trois angles : épistémologique, statistique et économique. En première partie de la thèse, dans une approche épistémologique, nous spécifions en quoi le concept de mémoire longue peut apparaître, comme un nouveau paradigme kühnien pour la macroéconomie et la finance. En deuxième partie de la thèse, dans une approche statistique, semi-paramétrique, nous proposons trois extensions de la statistique IR (Increment Ratio) de Surgailis et al, (2008). Premièrement, un théorème central limite multidimensionnelle est établi pour un vecteur composé de plusieurs statistiques IR. Deuxièmement, un test d'adéquation de qualité d'ajustement de type chi2 est déduit de ce théorème. Troisièmement, ce théorème nous a permis de construire des versions adaptatives de l'estimateur et du test d'adéquation étudiés dans un cadre semi-paramétrique général. Nous prouvons que l'estimateur adaptatif du paramètre de la mémoire longue suit une propriété d'Oracle. Les simulations que nous avons menées attestent de la précision et de la robustesse de l'estimateur et du test d'adéquation, même dans le cas non gaussien. En troisième partie de la thèse, nous en déduisons deux tests respectivement de stationnarité et de non stationnarité pour les processus I(d) stationnaires et non stationnaires, pour tout réel d tel que (-0.5< d<1.25). Dans une approche économique, au sein de cette troisième partie de la thèse, nous mettons en oeuvre les résultats théoriques précédents comparés à ceux issus d'autres méthodes statistiques: paramétriques, semi-paramétriques ou non paramétriques (ou heuristiques) appliquées à des séries économiques et financières.
Los estilos APA, Harvard, Vancouver, ISO, etc.
44

Bettache, Nayel. "Matrix-valued Time Series in High Dimension". Electronic Thesis or Diss., Institut polytechnique de Paris, 2024. http://www.theses.fr/2024IPPAG002.

Texto completo
Resumen
L'objectif de cette thèse est de modéliser des séries temporelles à valeurs matricielles dans un cadre de grande dimension. Pour ce faire, la totalité de l'étude est présentée dans un cadre non asymptotique. Nous fournissons d'abord une procédure de test capable de distinguer dans le cas de vecteurs ayant une loi centrée stationnaire si leur matrice de covariance est égale à l'identité ou si elle possède une structure de Toeplitz sparse. Dans un second temps, nous proposons une extension de la régression linéaire matricielle de faible rang à une régression à deux paramètres matriciels qui créent des corrélations entre les lignes et les colonnes des observations. Enfin nous introduisons et estimons un topiques-modèle dynamique où l'espérance des observations est factorisée en une matrice statique et une matrice qui évolue dans le temps suivant un processus autorégressif d'ordre un à valeurs dans un simplexe
The objective of this thesis is to model matrix-valued time series in a high-dimensional framework. To this end, the entire study is presented in a non-asymptotic framework. We first provide a test procedure capable of distinguishing whether the covariance matrix of centered random vectors with centered stationary distribution is equal to the identity or has a sparse Toeplitz structure. Secondly, we propose an extension of low-rank matrix linear regression to a regression model with two matrix-parameters which create correlations between the rows and he columns of the output random matrix. Finally, we introduce and estimate a dynamic topic model where the expected value of the observations is factorizes into a static matrix and a time-dependent matrix following a simplex-valued auto-regressive process of order one
Los estilos APA, Harvard, Vancouver, ISO, etc.
45

El, bouch Sara. "Un test de normalité pour les séries temporelles multivariées, une application en sismologie". Electronic Thesis or Diss., Université Grenoble Alpes, 2022. http://www.theses.fr/2022GRALT112.

Texto completo
Resumen
La présente thèse porte sur l'analyse des séries temporelles. La croissance actuelle de l'intérêt pour les réseaux de capteurs et notre capacité à enregistrer simultanément des séries temporelles représentant les fluctuations de nombreuses quantités physiques, conduit naturellement à considérer des processus d-dimensionnels. Des outils adaptés sont très sollicités pour extraire des connaissances à partir de la quantité en forte croissance des données. Un nombre tout aussi explosif de nouveaux modèles est développé pour répondre à ce besoin. Des efforts considérables sont constamment déployés pour développer des méthodes efficaces d'un point de vue théorique et pratique.La détection des changements est un problème interdisciplinaire de longue date, à la frontière des statistiques et des pratiques de l'apprentissage satistique. Nous nous intéressons à la détection d'événements rares, brefs et oscillants qui apparaissent comme non-gaussiens dans des données enregistrées simultanément sur un réseau de capteurs. Ce travail décrit un détecteur séquentiel pour des séries temporelles colorées non gaussiennes noyées dans un bruit gaussien.À cette fin, nous explorons des outils à la frontière des méthodes de détection et estimation et des pratiques d'apprentissage statistique pertinentes pour l'analyse des séries temporelles.Nos principales contributions consistent à dériver la difficile (mais pertinente) distribution limite du Kurtosis de Mardia pour les séries temporelles bivariées, puis à étendre les résultats au cas général multivarié au moyen de projections aléatoires bivariées. Les résultats proposés sont traduits en un détecteur séquentiel opérationnel. Ses performances sont testées sur des copules colorées, des données synthétiques et réelles. Le bon pouvoir de détection du détecteur bivarié est confirmé par des expériences numériques.Notre travail est également ancré dans une application en sismologie, donc notre détecteur est fusionné avec ce cadre et appliqué aux sismogrammes enregistrés sur des capteurs à trois axes, et des réseaux de capteurs
This thesis is concerned with time-series analysis. The present growth of interest in sensor networks and our ability to simultaneously record time series representing the fluctuations of numerous physical quantities, naturally leads to consider d-dimensional processes. Adapted tools for the extraction of knowledge from the ever increasing amount of recorded time-series are very much solicited. An equally exploding number of new models is developed as a response to the demand and considerable effort is put to developing efficient methods from theoretical and practical viewpoints.Change detection is a longstanding and interdisciplinary problem at the frontier of statistics and Machine Learning practices. In particular, we are interested in the detection of rare, brief and oscillating events that appear as non-Gaussian in data recorded simultaneously on sensors. This work describes a sequential detector for non-Gaussian colored time-series embedded in Gaussian noise.To this end, we explore tools at the frontier of estimation and detection and Machine Learning practices relevant to time-series analysis.Our major contributions consist of deriving the challenging (but relevant) limiting distribution of Mardia's Kurtosis for bivariate time-series, then extending the findings to the general multivariate case by means of random projections. The proposed results are translated to an operational sequential detector. Its performances are tested on colored copula, synthetic and real data. The good detection power of the bivariate detector is confirmed by computer experiments.Our work is also adjacent to applications in seismology, therefore our detector is merged with this framework and applied to seismograms recorded on three-axis sensors, and arrays of sensors
Los estilos APA, Harvard, Vancouver, ISO, etc.
46

Le, Bail Karine. "Etude statistique de la stabilité des stations de géodésie spatiale. Application à DORIS". Phd thesis, Observatoire de Paris, 2004. http://tel.archives-ouvertes.fr/tel-00011406.

Texto completo
Resumen
DORIS (Détermination d'Orbite et Radio positionnement Intégré sur Satellite) est un des systèmes permanents d'observation de la Terre avec le Global Positioning System (GPS) et la télémétrie laser sur satellite (SLR). La richesse des mesures collectées par ces systèmes permet de représenter le déplacement des stations au sol sous forme de séries temporelles de coordonnées. Au delà de la modélisation déterministe habituelle des phénomènes géophysiques, un nouveau domaine de recherche en géodésie s'est ouvert il y a quelques années, visant à la validation et à l'interprétation de ces séries temporelles.Dans la première partie du mémoire on décrit l'intégration de la fonction de mesure DORIS dans le logiciel de traitement GPS de l'Université de Berne.La partie principale des recherches effectuées concerne l'étude et la mise en oeuvre d'une méthode d'analyse de séries géodésiques 3D allant au delà des approches classiques que sont la répétitivité ou la recherche de périodicités et de ruptures. La méthode fait appel à des outils empruntés à d'autres disciplines : l'Analyse en Composantes Principales aux statistiques des sondages, et la variance d'Allan à la métrologie du temps et des fréquences. Elle est testée sur un certain nombre de jeux de séries temporelles de coordonnées de stations DORIS et GPS. On obtient une batterie de diagnostics qualifiant le spectre des mouvements de station et celui des erreurs de mesure. Ces diagnostics permettent la description déterministe et statistique du mouvement des stations obtenu par les analyses de géodésie spatiale. Ils conduisent aussi à une différenciation des systèmes de positionnement DORIS et GPS par leur signature spectrale.
Los estilos APA, Harvard, Vancouver, ISO, etc.
47

Padonou, Esperan. "Apprentissage Statistique en Domaine Circulaire Pour la Planification de Contrôles en Microélectronique". Thesis, Lyon, 2016. http://www.theses.fr/2016LYSEM009/document.

Texto completo
Resumen
Motivés par des besoins en industrie microélectronique, ces travaux apportent des contributions en modélisation probabiliste de données spatiales, et en maîtrise statistique de procédés.Le problème spatial a pour spécificité d’être posé sur un domaine circulaire. Il se représente par un modèle de krigeage dont la partie déterministe est constituée de polynômes orthogonaux et la partie stochastique de processus gaussiens. Traditionnellement définis avec la norme euclidienne et la mesure uniforme sur le disque, ces choix n’exploitent pas les informations a priori sur les procédés d’usinage.Pour tenir compte des mécanismes de rotation ou de diffusion à partir du centre, nous formalisons les processus gaussiens polaires sur le disque. Ces processus intègrent les corrélations radiales et angulaires dans le modèle de krigeage, et en améliorent les performances dans les situations considérées. Ils sont ensuite interprétés par décomposition de Sobol et généralisés en dimension supérieure. Des plans d’expériences sont proposés dans le cadre de leur utilisation. Au premier rang figurent les cylindres latins qui reproduisent en coordonnées polaires les caractéristiques des hypercubes latins.Pour intégrer à la fois les aspects spatiaux et temporels du problème industriel, la maîtrise statistique de procédé est abordée en termes d’application de cartes de contrôle aux paramètres des modèles spatiaux. Les séries temporelles suivies ont aussi la particularité de comporter des données atypiques et des changements structurels, sources de biais en prévision, et de fausses alarmes en suivi de risque. Ce problème est traité par lissage robuste et adaptatif
Driven by industrial needs in microelectronics, this thesis is focused on probabilistic models for spatial data and Statistical Process Control. The spatial problem has the specificity of being defined on circular domains. It is addressed through a Kriging model where the deterministic part is made of orthogonal polynomials and the stochastic term represented by a Gaussian process. Defined with the Euclidean distance and the uniform measure over the disk, traditional Kriging models do not exploit knowledge on manufacturing processes. To take rotations or diffusions from the center into account, we introduce polar Gaussian processes over the disk. They embed radial and angular correlations in Kriging predictions, leading to significant improvements in the considered situations. Polar Gaussian processes are then interpreted via Sobol decomposition and generalized in higher dimensions. Different designs of experiments are developed for the proposed models. Among them, Latin cylinders reproduce in the space of polar coordinates the properties of Latin hypercubes. To model spatial and temporal data, Statistical Process Control is addressed by monitoring Kriging parameters, based on standard control charts. Furthermore, the monitored time – series contain outliers and structural changes, which cause bias in prediction and false alarms in risk management. These issues are simultaneously tackled with a robust and adaptive smoothing
Los estilos APA, Harvard, Vancouver, ISO, etc.
48

Rakotoarisoa, Mahefa. "Les risques hydrologiques dans les bassins versants sous contrôle anthropique : modélisation de l'aléa, de la vulnérabilité et des conséquences sur les sociétés. : Cas de la région Sud-ouest de Madagascar". Thesis, Angers, 2017. http://www.theses.fr/2017ANGE0067/document.

Texto completo
Resumen
La ville de Toliara qui se trouve à l’exutoire du bassin de Fiherenana (Madagascar) est soumise chaque année aux aléas inondations. Les enjeux sont donc d'une importance majeure dans cette région. Cette étude débute par l’analyse de l’aléa avec les données hydro climatiques existantes. On cherche alors à déterminer les tendances en utilisant des modèles statistiques basés sur les séries temporelles. Une méthode de reconstitution des données manquantes est alors proposée. Ensuite, deux approches sont menées afin d’évaluer la vulnérabilité de la ville de Toliara et des villages alentours : une approche statique, à partir de relevés de terrain et de l’utilisation d’un système d’information géographique (SIG) ; et une autre avec l'utilisation d'un modèle multi-agents (SMA). La première étape est la cartographie d’un indicateur de vulnérabilité qui est l’agencement de plusieurs critères statiques propre à chaque maison comme la hauteur d’eau potentielle ou la typologie architecturale. La deuxième partie mettra en scène des agents afin de simuler un évènement catastrophique (montée des eaux et évacuation en simultanée). On cherche à savoir quelles sont les chances pour que les occupants d’une habitation puissent sortir indemne d’une inondation, en comparant divers paramètres et scénarios afin d’évaluer le degré de vulnérabilité de chaque ménage. Certains scénarios prennent en compte l’effet de certaines prises de décisions (Informations, sensibilisations etc.). Les indicateurs et les simulations permettent alors de mieux appréhender les risques inondations afin d’être une aide à la gestion des crises
Hydrological risks are recurrent on the Fiherenana watershed - Madagascar. The city of Toliara, which is located at the outlet of the river basin, is subject each year to hurricane hazards and floods. The stakes are of major importance in this part of the island. This study begins with the analysis of hazard by collecting all existing hydro-climatic data on the catchment. It then seeks to determine trends, despite the significant lack of data, using statistical models (time series). Then, two approaches are used to assess the vulnerability of the city of Toliara and its surrounding villages. First, a static approach, from surveys of land and the use of GIS are conducted. Then, the second method is based on a multi-agent model. The first step is the mapping of a microscale vulnerability index which is an arrangement of several static criteria. For each House, there are several criteria of vulnerability such as potential water depth or architectural typology. As for the second part, scenes of agents are simulated in order to evaluate the degree of housing vulnerability to flooding. The model aims to estimate the chances of the occupants to escape from a catastrophic flood. For this purpose, we compare various settings and scenarios, some of which are conducted to take into account the effect of various decisions made by the responsible entities (awareness campaign etc.). The simulation consists of two essential parts: the simulation of the rise of water and the simulation of the behaviour of the people facing the occurence of hazard. Indicators and simulations allow to better understand the risks in order to help crisis management. Key Words: Hy
Los estilos APA, Harvard, Vancouver, ISO, etc.
49

Pigeau, Antoine. "Structuration géo-temporelle de données multimédia personnelles". Phd thesis, Nantes, 2005. http://www.theses.fr/2005NANT2131.

Texto completo
Resumen
Les travaux de recherche présentés dans cette thèse portent sur la classification de ollections d'images personnelles acquises à partir d'un mobile. Nous avons choisi de traiter la structuration de la collection d'images comme un problème de classification. Notre approche est basée sur la construction de deux partitions distinctes, l'une temporelle et l'autre spatiale, à partir des métadonnées des images : leur date et leur géolocalisation. Les principaux ingrédients de notre approche sont les modèles de mélange gaussien et le critère statistique ICL pour déterminer leur complexité. Un algorithme d'optimisation incrémental du critère ICL est tout d'abord proposé, permettant la construction de partitions non-hiérarchiques. Il est ensuite combiné avec un algorithme agglomératif pour fournir un algorithme hiérarchique incrémental. Enfin nous proposons plusieurs techniques, pour construire des partitions ybridespatio-temporelles, prenant en compte les contraintes d'IHM sur un mobile
Usage of mobile devices raises the need for organizing large personal multimedia collection. The present work focus on personal image collections acquired from mobile phones equipped with a camera. We deal with the structuring of an image collection as a clustering problem. Our solution consists in building two distinct temporal and spatial partitions, based on the temporal and spatial metadata of each image. The main ingredients of our approach are the Gaussian mixture models and the ICL criterion to determine the models complexities. First, we propose an incremental optimization algorithm to build non-hierarchical partitions in an automatic manner. It is then combined with an agglomerative algorithm to provide an incremental hierarchical algorithm. Finally, two techniques are roposed to build hybrid spatio-temporal classifications taking into account the human machine interaction constraints
Los estilos APA, Harvard, Vancouver, ISO, etc.
50

Wu, Zeqin. "SSTA basée sur la propagation des moments". Montpellier 2, 2009. http://www.theses.fr/2009MON20133.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía