Tesi sul tema "Recherche des séries chronologique"

Segui questo link per vedere altri tipi di pubblicazioni sul tema: Recherche des séries chronologique.

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-32 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Recherche des séries chronologique".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Vuillemin, Benoit. "Recherche de règles de prédiction dans un contexte d'Intelligence Ambiante". Thesis, Lyon, 2020. http://www.theses.fr/2020LYSE1120.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse traite du sujet de l’intelligence ambiante, fusion entre l’intelligence artificielle et l’internet des objets. L’objectif de ce travail est d’extraire des règles de prédiction à partir des données fournies par les objets connectés dans un environnement, afin de proposer aux utilisateurs des automatisations. Notre principale motivation repose sur la confidentialité, les interactions entre utilisateurs et l’explicabilité du fonctionnement du système. Dans ce contexte, plusieurs contributions ont été apportées. La première est une architecture d’intelligence ambiante qui fonctionne localement et traite les données provenant d’un seul environnement connecté. La seconde est un processus de discrétisation sans a priori sur les données d’entrée, permettant de prendre en compte les différentes données provenant de divers objets. La troisième est un nouvel algorithme de recherche de règles sur une série temporelle, qui évite les limitations des algorithmes de l’état de l’art. L’approche a été validée par des tests sur deux bases de données réelles. Enfin, les perspectives de développement du système sont présentées
This thesis deals with the subject of Ambient Intelligence, the fusion between Artificial Intelligence and the Internet of Things. The goal of this work is to extract prediction rules from the data provided by connected objects in an environment, in order to propose automation to users. Our main concern relies on privacy, user interactions, and the explainability of the system’s operation. In this context, several contributions were made. The first is an ambient intelligence architecture that operates locally, and processes data from a single connected environment. The second is a discretization process without a priori on the input data, allowing to take into account different kinds of data from various objects. The third is a new algorithm for searching rules over a time series, which avoids the limitations of stateoftheart algorithms. The approach was validated by tests on two real databases. Finally, prospects for future developments in the system are presented
2

Jiao, Yang. "Applications of artificial intelligence in e-commerce and finance". Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2018. http://www.theses.fr/2018TELE0002.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'Intelligence Artificielle est présente dans tous les aspects de notre vie à l'ère du Big Data. Elle a entraîné des changements révolutionnaires dans divers secteurs, dont le commerce électronique et la finance. Dans cette thèse, nous présentons quatre applications de l'IA qui améliorent les biens et services existants, permettent l'automatisation et augmentent considérablement l'efficacité de nombreuses tâches dans les deux domaines. Tout d'abord, nous améliorons le service de recherche de produits offert par la plupart des sites de commerce électronique en utilisant un nouveau système de pondération des termes pour mieux évaluer l'importance des termes dans une requête de recherche. Ensuite, nous construisons un modèle prédictif sur les ventes quotidiennes en utilisant une approche de prévision des séries temporelles et tirons parti des résultats prévus pour classer les résultats de recherche de produits afin de maximiser les revenus d'une entreprise. Ensuite, nous proposons la difficulté de la classification des produits en ligne et analysons les solutions gagnantes, consistant en des algorithmes de classification à la pointe de la technologie, sur notre ensemble de données réelles. Enfin, nous combinons les compétences acquises précédemment à partir de la prédiction et de la classification des ventes basées sur les séries temporelles pour prédire l'une des séries temporelles les plus difficiles mais aussi les plus attrayantes : le stock. Nous effectuons une étude approfondie sur chaque titre de l'indice S&P 500 en utilisant quatre algorithmes de classification à la pointe de la technologie et nous publions des résultats très prometteurs
Artificial Intelligence has penetrated into every aspect of our lives in this era of Big Data. It has brought revolutionary changes upon various sectors including e-commerce and finance. In this thesis, we present four applications of AI which improve existing goods and services, enables automation and greatly increase the efficiency of many tasks in both domains. Firstly, we improve the product search service offered by most e-commerce sites by using a novel term weighting scheme to better assess term importance within a search query. Then we build a predictive model on daily sales using a time series forecasting approach and leverage the predicted results to rank product search results in order to maximize the revenue of a company. Next, we present the product categorization challenge we hold online and analyze the winning solutions, consisting of the state-of-the-art classification algorithms, on our real dataset. Finally, we combine skills acquired previously from time series based sales prediction and classification to predict one of the most difficult but also the most attractive time series: stock. We perform an extensive study on every single stocks of S&P 500 index using four state-of-the-art classification algorithms and report very promising results
3

Çinar, Yagmur Gizem. "Prédiction de séquences basée sur des réseaux de neurones récurrents dans le contexte des séries temporelles et des sessions de recherche d'information". Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM079.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse examine les défis de la prédiction de séquence dans différents scénarios, tels que la prédiction de séquence à l'aide de réseaux de neurones récurrents (RNN) dans le contexte des séries temporelles et des sessions de recherche d'informations (RI). Prédire les valeurs inconnues suivant certaines valeurs précédemment observées est appelée prédiction de séquence. Elle est largement applicable à de nombreux domaines où un comportement séquentiel est observé dans les données. Dans cette étude, nous nous concentrons sur deux tâches de prédiction de séquences: la prévision de séries temporelles et la prédiction de la requête suivante dans une session de recherche d'informations.Les séries temporelles comprennent souvent des pseudo-périodes, c'est-à-dire des intervalles de temps avec une forte corrélation entre les valeurs des séries temporelles. Les changements saisonniers dans les séries temporelles météorologiques ou la consommation d'électricité le jour et la nuit sont quelques exemples de pseudo-périodes. Dans un scénario de prévision, les pseudo-périodes correspondent à la différence entre les positions de la sortie prévue et les entrées spécifiques. Afin de capturer des périodes dans des RNN, une mémoire de la séquence d'entrée est requise. Les RNN séquence à séquence (avec mécanisme d'attention) réutilisent des (représentations des) valeurs d'entrée spécifiques pour prédire les valeurs de sortie. Les RNN séquence à séquence avec un mécanisme d'attention semblent convenir à la capture de périodes. Ainsi, nous explorons d’abord la capacité d’un mécanisme d’attention dans ce contexte. Cependant, selon notre analyse initiale, un mécanisme d’attention standard ne permet pas de capturer les périodes. Par conséquent, nous proposons un modèle RNN d’attention basé sur le contenu et sensible à la période. Ce modèle étend les RNN séquence à séquence de l'état de l'art avec un mécanisme d’attention. Il vise à capturer les périodes dans une série temporelle avec ou sans valeurs manquantes. Nos résultats expérimentaux avec des RNN contenant un mécanisme d'attention basé sur le contenu et sensible à la période montrent une amélioration significative des performances de prévision des séries temporelles univariées et multivariées sur plusieurs ensembles de données disponibles publiquement.La prédiction de la requête suivante est un autre défi de la prédiction de séquence. La prédiction de la requête suivante aide les utilisateurs à désambiguïser leur requête, à explorer différents aspects de leur besoin en information ou à former une requête précise et succincte qui permet d’optimiser les performances de la recherche. Une session de recherche est dynamique et les besoins en informations d'un utilisateur peuvent changer au cours d'une session de recherche à la suite des interactions de recherche. De plus, les interactions d'un utilisateur avec un moteur de recherche influencent les reformulations de requêtes de l'utilisateur. Considérant cette influence sur les formulations de requête, nous analysons d’abord l’origine des mots des requêtes suivantes. En utilisant l’analyse des sources des mots de requête, nous proposons deux approches de prédiction de requête: une vue d'ensemble et une vue de séquence. La vue d'ensemble adapte une approche de sac de mots en utilisant un nouvel ensemble de traits définis en fonction des sources d'analyse des mots des requêtes suivantes. Ici, la prochaine requête est prédite en utilisant un apprentissage de classification. La vue de séquence étend un modèle RNN hiérarchique en prenant en compte les sources des mots des requêtes suivantes dans la prédiction. Les sources des mots des requêtes suivantes sont incorporées à l'aide d'un mécanisme d'attention sur les mots d'interaction. Nous avons observé que l’utilisation de l’approche séquentielle, une formulation naturelle du problème, et l’exploitation de toutes les sources des mots permettent d’améliorer la prédiction des requêtes suivantes
This thesis investigates challenges of sequence prediction in different scenarios such as sequence prediction using recurrent neural networks (RNNs) in the context of time series and information retrieval (IR) search sessions. Predicting the unknown values that follow some previously observed values is basically called sequence prediction.It is widely applicable to many domains where a sequential behavior is observed in the data. In this study, we focus on two different types of sequence prediction tasks: time series forecasting and next query prediction in an information retrieval search session.Time series often display pseudo-periods, i.e. time intervals with strong correlation between values of time series. Seasonal changes in weather time series or electricity usage at day and night time are some examples of pseudo-periods. In a forecasting scenario, pseudo-periods correspond to the difference between the positions of the output being predicted and specific inputs.In order to capture periods in RNNs, one needs a memory of the input sequence. Sequence-to-sequence RNNs (with attention mechanism) reuse specific (representations of) input values to predict output values. Sequence-to-sequence RNNs with an attention mechanism seem to be adequate for capturing periods. In this manner, we first explore the capability of an attention mechanism in that context. However, according to our initial analysis, a standard attention mechanism did not perform well to capture the periods. Therefore, we propose a period-aware content-based attention RNN model. This model is an extension of state-of-the-art sequence-to-sequence RNNs with attention mechanism and it is aimed to capture the periods in time series with or without missing values.Our experimental results with period-aware content-based attention RNNs show significant improvement on univariate and multivariate time series forecasting performance on several publicly available data sets.Another challenge in sequence prediction is the next query prediction. The next query prediction helps users to disambiguate their search query, to explore different aspects of the information they need or to form a precise and succint query that leads to higher retrieval performance. A search session is dynamic, and the information need of a user might change over a search session as a result of the search interactions. Furthermore, interactions of a user with a search engine influence the user's query reformulations. Considering this influence on the query formulations, we first analyze where the next query words come from? Using the analysis of the sources of query words, we propose two next query prediction approaches: a set view and a sequence view.The set view adapts a bag-of-words approach using a novel feature set defined based on the sources of next query words analysis. Here, the next query is predicted using learning to rank. The sequence view extends a hierarchical RNN model by considering the sources of next query words in the prediction. The sources of next query words are incorporated by using an attention mechanism on the interaction words. We have observed using sequence approach, a natural formulation of the problem, and exploiting all sources of evidence lead to better next query prediction
4

Linardi, Michele. "Variable-length similarity search for very large data series : subsequence matching, motif and discord detection". Electronic Thesis or Diss., Sorbonne Paris Cité, 2019. http://www.theses.fr/2019USPCB056.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les séries de données ou série chronologique (suite de valeurs numériques représentant l’évolution d’une quantité) sont devenues l’un des types de données les plus importants et les plus populaires, omniprésents dans presque tous les domaines scientifiques. Au cours des deux dernières décennies, mais de manière encore plus évidente au cours de cette dernière période, l’intérêt porté à ce type de données s’accroît rapidement. La raison en est principalement due aux récents progrès des technologies de détection, de mise en réseau, de traitement de données et de stockage, qui ont considérablement aidé le processus de génération et de collecte de grandes quantités de séries de données. La recherche de similarité de séries de données est devenue une opération fondamentale au cœur de plusieurs algorithmes d’analyse et applications liées aux collections de séries de données. De nombreuses solutions à différents problèmes d’exploration de données, telles que le regroupement (clustering), la mise en correspondance des sous-séquences (subsequence matching), l’imputation des valeurs manquantes (imputation of missing values), la découverte de motifs (motif discovery) et la détection d’anomalies (discord discovery) sont basés sur l’utilisation de la recherche de similarité. À cet égard, toutes les solutions sur mesure pour les problèmes susmentionnés nécessitent la connaissance préalable de la longueur de la série, sur laquelle une recherche de similarité est effectuée. Dans ce scénario, l’utilisateur doit connaître la longueur des résultats attendus, ce qui est souvent une hypothèse irréaliste. Cet aspect est donc très important. Dans plusieurs cas, la longueur est un paramètre critique qui influence sensiblement la qualité du résultat final. En détail, nous avons noté que les index de séries de données permettent d’effectuer une recherche de similarité rapide. Néanmoins, tous les index existants ne peuvent répondre qu’aux requêtes d’une seule longueur (fixées au moment de la construction de l’index), ce qui constitue une limite sévère. Dans cette thèse, nous proposons d’abord ULISSE, le premier index de série de données conçue pour répondre aux requêtes de recherche de similarité de longueur variable. Notre contribution est double. Premièrement, nous introduisons une nouvelle technique de représentation, qui résume efficacement et succinctement plusieurs séquences de différentes longueurs. Sur la base de l’index proposé, nous décrivons des algorithmes efficaces pour la recherche de similarité approximative et exacte, combinant des visites d’index sur disque et des analyses séquentielles en mémoire. Notre approche prend en charge les séquences non normalisées et normalisées, et peut être utilisée sans modification avec la distance Euclidienne et la déformation temporelle dynamique (DTW), pour répondre aux requêtes de type : κ-NN et ε-range. Nous évaluons notre approche de manière expérimentale en utilisant plusieurs jeux de données synthétiques et réels. Les résultats montrent que ULISSE s’est révélé de nombreuse fois plus efficace en termes de coût d’espace et de temps, par rapport aux approches concurrentes. Par la suite, nous introduisons un nouveau framework, qui fournit un algorithme de recherche exacte de motifs (séquences fréquentes) et d’anomalies, qui trouve efficacement tous les motifs et les anomalies de tailles différentes. L’évaluation expérimentale que nous avons effectuée sur plusieurs ensembles de données réelles montre que nos approches sont jusqu’à des ordres de grandeur plus rapides que les alternatives. Nous démontrons en outre que nous pouvons supprimer la contrainte irréaliste d’effectuer des analyses en utilisant une longueur prédéfinie, ce qui conduit à des résultats plus intuitifs et exploitables, qui auraient autrement été manqués
Data series (ordered sequences of real valued points, a.k.a. time series) has become one of the most important and popular data-type, which is present in almost all scientific fields. For the last two decades, but more evidently in this last period the interest in this data-type is growing at a fast pace. The reason behind this is mainly due to the recent advances in sensing, networking, data processing and storage technologies, which have significantly assisted the process of generating and collecting large amounts of data series. Data series similarity search has emerged as a fundamental operation at the core of several analysis tasks and applications related to data series collections. Many solutions to different data mining problems, such as Clustering, Subsequence Matching, Imputation of Missing Values, Motif Discovery, and Anomaly detection work by means of similarity search. Data series indexes have been proposed for fast similarity search. Nevertheless all existing indexes can only answer queries of a single length (fixed at index construction time), which is a severe limitation. In this regard, all solutions for the aforementioned problems require the prior knowledge of the series length, on which similarity search is performed. Consequently, the user must know the length of the expected results, which is often an unrealistic assumption. This aspect is thus of paramount importance. In several cases, the length is a critical parameter that heavily influences the quality of the final outcome. In this thesis, we propose scalable solutions that enable variable-length analysis of very large data series collections. We propose ULISSE, the first data series index structure designed for answering similarity search queries of variable length. Our contribution is two-fold. First, we introduce a novel representation technique, which effectively and succinctly summarizes multiple sequences of different length. Based on the proposed index, we describe efficient algorithms for approximate and exact similarity search, combining disk based index visits and in-memory sequential scans. Our approach supports non Z-normalized and Z-normalized sequences, and can be used with no changes with both Euclidean Distance and Dynamic Time Warping, for answering both κ-NN and ε-range queries. We experimentally evaluate our approach using several synthetic and real datasets. The results show that ULISSE is several times, and up to orders of magnitude more efficient in terms of both space and time cost, when compared to competing approaches. Subsequently, we introduce a new framework, which provides an exact and scalable motif and discord discovery algorithm that efficiently finds all motifs and discords in a given range of lengths. The experimental evaluation we conducted over several diverse real datasets show that our approaches are up to orders of magnitude faster than the alternatives. We moreover demonstrate that we can remove the unrealistic constraint of performing analytics using a predefined length, leading to more intuitive and actionable results, which would have otherwise been missed
5

Schroeder, Pascal. "Performance guaranteeing algorithms for solving online decision problems in financial systems". Electronic Thesis or Diss., Université de Lorraine, 2019. http://www.theses.fr/2019LORR0143.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse contient quelques problèmes de décision financière en ligne et des solutions. Les problèmes sont formulés comme des problèmes en ligne (OP) et des algorithmes en ligne (OA) sont créés pour résoudre. Comme il peut y avoir plusieurs OAs pour le même OP, il doit y avoir un critère afin de pouvoir faire des indications au sujet de la qualité d’un OA. Dans cette thèse ces critères sont le ratio compétitif (c), la différence compétitive (cd) et la performance numérique. Un OA qui a un c ou cd plus bas qu’un autre est à préférer. Un OA qui possède le c le plus petit est appelé optimal. Nous considérons les OPs suivants. Le problème de conversion en ligne (OCP), le problème de sélection de portefeuille en ligne (PSP) et le problème de gestion de trésorerie en ligne (CMP). Après le premier chapitre d’introduction, les OPs, la notation et l’état des arts dans le champ des OPs sont présentés. Dans le troisième chapitre on résoudre trois variantes des OCP avec des prix interconnectés. En Chapitre 4 on travaille encore sur le problème de recherche de série chronologie avec des prix interconnectés et on construit des nouveaux OAs. À la fin de ce chapitre l’OA k-DIV est créé pour le problème de recherche générale des k maximums. k-DIV est aussi optimal. En Chapitre 5 on résout le PSP avec des prix interconnectés. L’OA créé s’appelle OPIP et est optimal. En utilisant les idées de OPIP, on construit un OA pour le problème d’échange bidirectionnel qui s’appelle OCIP et qui est optimal. Avec OPIP, on construit un OA optimal pour le problème de recherche bidirectionnel (OA BUND) sachant les valeurs de θ_1 et θ_2. Pour des valeurs inconnues, on construit l’OA RUN qui est aussi optimal. Les chapitres 6 et 7 traitent sur le CMP. Dans les deux chapitres il y a des tests numériques afin de pouvoir comparer la performance des OAs nouveaux avec celle des OAs déjà établies. En Chapitre 6 on construit des OAs optimaux ; en chapitre 7 on construit des OA qui minimisent cd. L’OA BCSID résoudre le CMP avec des demandes interconnectées ; LOA aBBCSID résoudre le problème lorsqu’ on connaît les valeurs de θ_1,θ_2,m et M. L’OA n’est pas optimal. En Chapitre 7 on résout le CMP par rapport à m et M en minimisant cd (OA MRBD). Ensuite on construit l’OA HMRID et l’OA MRID pour des demandes interconnectées. MRID minimise cd et HMRID est un bon compromis entre la performance numérique et la minimisation de cd
This thesis contains several online financial decision problems and their solutions. The problems are formulated as online problems (OP) and online algorithms (OA) are created to solve them. Due to the fact that there can be various OA for the same OP, there must be some criteria with which one can make statements about the quality of an OA. In this thesis these criteria are the competitive ratio (c), the competitive difference (cd) and the numerical performance. An OA with a lower c is preferable to another one with a higher value. An OA that has the lowest c is called optimal. We consider the following OPS. The online conversion problem (OCP), the online portfolio selection problem (PSP) and the cash management problem (CMP). After the introductory chapter, the OPs, the notation and the state of the art in the field of OPs is presented. In the third chapter, three variants of the OCP with interrelated prices are solved. In the fourth chapter the time series search with interrelated prices is revisited and new algorithms are created. At the end of the chapter, the optimal OA k-DIV for the general k-max search with interrelated prices is developed. In Chapter 5 the PSP with interrelated prices is solved. The created OA OPIP is optimal. Using the idea of OPIP, an optimal OA for the two-way trading is created (OCIP). Having OCIP, an optimal OA for the bi-directional search knowing the values of θ_1 and θ_2 is created (BUND). For unknown θ_1 and θ_2, the optimal OA RUNis created. The chapter ends with an empirical (for OPIP) and experimental (for OCIP, BUND and RUN) testing. Chapters 6 and 7 deal with the CMP. In both of them, a numerical testing is done in order to compare the numerical performance of the new OAs to the one of the already established ones. In Chapter 6 an optimal OA is constructed; in Chapter 7, OAs are designed which minimize cd. The OA BCSID solves the CMP with interrelated demands to optimality. The OA aBBCSID solves the CMP when the values of de θ_1, θ_2,m and M are known; however, this OA is not optimal. In Chapter 7 the CMP is solved, knowing m and M and minimizing cd (OA MRBD). For the interrelated demands, a heuristic OA (HMRID) and a cd-minimizing OA (MRID) is presented. HMRID is good compromise between the numerical performance and the minimization of cd. The thesis concludes with a short discussion about shortcomings of the considered OPs and the created OAs. Then some remarks about future research possibilities in this field are given
6

Jiao, Yang. "Applications of artificial intelligence in e-commerce and finance". Thesis, Evry, Institut national des télécommunications, 2018. http://www.theses.fr/2018TELE0002/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'Intelligence Artificielle est présente dans tous les aspects de notre vie à l'ère du Big Data. Elle a entraîné des changements révolutionnaires dans divers secteurs, dont le commerce électronique et la finance. Dans cette thèse, nous présentons quatre applications de l'IA qui améliorent les biens et services existants, permettent l'automatisation et augmentent considérablement l'efficacité de nombreuses tâches dans les deux domaines. Tout d'abord, nous améliorons le service de recherche de produits offert par la plupart des sites de commerce électronique en utilisant un nouveau système de pondération des termes pour mieux évaluer l'importance des termes dans une requête de recherche. Ensuite, nous construisons un modèle prédictif sur les ventes quotidiennes en utilisant une approche de prévision des séries temporelles et tirons parti des résultats prévus pour classer les résultats de recherche de produits afin de maximiser les revenus d'une entreprise. Ensuite, nous proposons la difficulté de la classification des produits en ligne et analysons les solutions gagnantes, consistant en des algorithmes de classification à la pointe de la technologie, sur notre ensemble de données réelles. Enfin, nous combinons les compétences acquises précédemment à partir de la prédiction et de la classification des ventes basées sur les séries temporelles pour prédire l'une des séries temporelles les plus difficiles mais aussi les plus attrayantes : le stock. Nous effectuons une étude approfondie sur chaque titre de l'indice S&P 500 en utilisant quatre algorithmes de classification à la pointe de la technologie et nous publions des résultats très prometteurs
Artificial Intelligence has penetrated into every aspect of our lives in this era of Big Data. It has brought revolutionary changes upon various sectors including e-commerce and finance. In this thesis, we present four applications of AI which improve existing goods and services, enables automation and greatly increase the efficiency of many tasks in both domains. Firstly, we improve the product search service offered by most e-commerce sites by using a novel term weighting scheme to better assess term importance within a search query. Then we build a predictive model on daily sales using a time series forecasting approach and leverage the predicted results to rank product search results in order to maximize the revenue of a company. Next, we present the product categorization challenge we hold online and analyze the winning solutions, consisting of the state-of-the-art classification algorithms, on our real dataset. Finally, we combine skills acquired previously from time series based sales prediction and classification to predict one of the most difficult but also the most attractive time series: stock. We perform an extensive study on every single stocks of S&P 500 index using four state-of-the-art classification algorithms and report very promising results
7

Gagnon, Jean-François. "Prévision humaine de séries temporelles". Doctoral thesis, Université Laval, 2014. http://hdl.handle.net/20.500.11794/25243.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La fonction cognitive de prévision est à la base du processus de décision dans plusieurs domaines de travail tels que les finances, la gestion des inventaires et la médecine. Les individus en charge de prendre des décisions quant à l’évolution de situations dynamiques complexes commettent régulièrement des erreurs, généralement attribuées à l’utilisation de stratégies décisionnelles simplificatrices : les heuristiques. Ces heuristiques sont décrites comme irrationnelles puisqu’elles ne tiennent pas compte de l’ensemble des informations disponibles pour porter un jugement sur l’évolution future d’une situation. À l’inverse, la classe de modèle du jugement linéaire constituerait la norme rationnelle dans ce contexte. Les modèles de jugement linéaire stipulent qu’un jugement optimal rationnel intègre et pondère linéairement l’ensemble des indices disponibles pour la prévision d’un critère au sein d’une seule représentation. Plus le jugement d’une personne s’écarterait du jugement linéaire, plus il serait irrationnel. La thèse remet cet énoncé en question et tente de valider une vision plus adaptative de la rationalité dans un contexte de prévision de situations dynamiques complexes. La rationalité dite écologique considère que la norme rationnelle ne doit pas être absolue, mais plutôt définie en fonction des contraintes environnementales. Selon cette vision de la rationalité, il est possible que dans un environnement favorable, une heuristique donnée soit plus performante que l’application d’une règle de jugement linéaire. Les individus sélectionneraient ainsi la stratégie la plus adaptée au contexte à partir d’un bassin de stratégies disponibles en mémoire à long terme. Or, à l’aide de simulations, la présente thèse démontre qu’il est possible que des heuristiques simplificatrices performent mieux que le jugement linéaire et que cette modulation dépend en partie des contraintes environnementales. La thèse suggère ensuite que les individus appliquent différentes stratégies en fonction des contraintes environnementales et que la stratégie appliquée est généralement adaptée à la nature de la situation. Finalement, la thèse indique que certaines limites cognitives ont également un impact sur la sélection de stratégies de prévision. Dans l’ensemble, ce patron de résultats appuie une vision écologique de la rationalité, mais souligne également que les limites cognitives fondamentales des individus contraignent le bassin de stratégies disponibles.
8

Faure, Cynthia. "Détection de ruptures et identification des causes ou des symptômes dans le fonctionnement des turboréacteurs durant les vols et les essais". Thesis, Paris 1, 2018. http://www.theses.fr/2018PA01E059/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'analyse de séries temporelles multivariées, créées par des capteurs présents sur le moteur d'avion durant un vol ou un essai, représente un nouveau challenge pour les experts métier en aéronautique. Chaque série temporelle peut être décomposée de manière univariée en une succession de phases transitoires, très connues par les experts, et de phases stabilisées qui sont moins explorées bien qu'elles apportent beaucoup d'informations sur le fonctionnement d'un moteur. Notre projet a pour but de convertir ces séries temporelles en une succession de labels, désignant des phases transitoires et stabilisées dans un contexte bivarié. Cette transformation des données donne lieu à plusieurs perspectives : repérer dans un contexte univarié ou bivarié les patterns similaires durant un vol, trouver des tronçons de courbes similaires à une courbe donnée, identifier les phases atypiques, détecter ses séquences de labels fréquents et rares durant un vol, trouver le vol le plus représentatif et déterminer les vols «volages». Ce manuscrit propose une méthodologie pour automatiquement identifier les phases transitoires et stabilisées, classer les phases transitoires, labelliser des séries temporelles et les analyser. Tous les algorithmes sont appliqués à des données de vols et les résultats sont validés par les experts
Analysing multivariate time series created by sensors during a flight or a bench test represents a new challenge for aircraft engineers. Each time series can be decomposed univariately into a series of stabilised phases, well known by the expert, and transient phases that are merely explored but very informative when the engine is running. Our project aims at converting these time series into a succession of labels, designing transient and stabilised phases in a bivariate context. This transformation of the data will allow several perspectives: tracking similar behaviours or bivariate patterns seen during a flight, finding similar curves from a given curve, identifying the atypical curves, detecting frequent or rare sequences of labels during a flight, discovering hidden multivariate structures, modelling a representative flight, and spotting unusual flights. This manuscript proposes : methodology to automatically identify transient and stabilized phases, cluster all engine transient phases, label multivariate time series and analyse them. All algorithms are applied on real flight measurements with a validation of the results from expert knowledge
9

Guillemé, Maël. "Extraction de connaissances interprétables dans des séries temporelles". Thesis, Rennes 1, 2019. http://www.theses.fr/2019REN1S102.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Energiency est une entreprise qui vend à des industriels une plate-forme pour leur permettre d’analyser leurs données de consommation d’énergie, représentées sous la forme de séries temporelles. Cette plate-forme intègre des modèles d’apprentissage automatique pour répondre aux besoins des clients. L’application de tels modèles sur des séries temporelles rencontre deux problèmes : d’une part certaines approches classiques d’apprentissage automatique ont été conçues pour des données tabulaires et doivent être adaptées aux séries temporelles, d’autre part les résultats de certaines approches sont difficilement compréhensibles par les utilisateurs finaux. Dans la première partie, nous adaptons une méthode de recherche d’occurrences de règles temporelles sur des séries temporelles issues de machines et d’infrastructures industrielles. Une règle temporelle capture des relations de succession entre des comportements dans les séries temporelles. Dans des séries industrielles, à cause de la présence de nombreux facteurs extérieurs, ces comportements réguliers peuvent présenter des perturbations. Les méthodes de recherche d’occurrences de règles temporelles actuelles utilisent une mesure de distance pour évaluer la similarité entre des sous-séries. Cependant, ces mesures ne sont pas adaptées pour évaluer la similarité de séries déformées tel que dans les séries temporelles industrielles. La première contribution de cette thèse est la proposition d’une méthode de recherche d’occurrences de règles temporelles capable de capturer cette variabilité dans des séries temporelles industrielles. Pour cela la méthode intègre l’utilisation de mesures de distance élastiques capables d’évaluer la similarité entre des séries temporelles légèrement déformées
Energiency is a company that sells a platform to allow manufacturers to analyze their energy consumption data represented in the form of time series. This platform integrates machine learning models to meet customer needs. The application of such models to time series encounters two problems: on the one hand, some classical machine learning approaches have been designed for tabular data and must be adapted to time series, on the other hand, the results of some approaches are difficult for end users to understand. In the first part, we adapt a method to search for occurrences of temporal rules on time series from machines and industrial infrastructures. A temporal rule captures successional relationships between behaviors in time series . In industrial series, due to the presence of many external factors, these regular behaviours can be disruptive. Current methods for searching the occurrences of a rule use a distance measure to assess the similarity between sub-series. However, these measurements are not suitable for assessing the similarity of distorted series such as those in industrial settings. The first contribution of this thesis is the proposal of a method for searching for occurrences of temporal rules capable of capturing this variability in industrial time series. For this purpose, the method integrates the use of elastic distance measurements capable of assessing the similarity between slightly deformed time series. The second part of the thesis is devoted to the interpretability of time series classification methods, i.e. the ability of a classifier to return explanations for its results. These explanations must be understandable by a human. Classification is the task of associating a time series with a category. For an end user inclined to make decisions based on a classifier’s results, understanding the rationale behind those results is of great importance. Otherwise, it is like having blind confidence in the classifier. The second contribution of this thesis is an interpretable time series classifier that can directly provide explanations for its results. This classifier uses local information on time series to discriminate against them. The third and last contribution of this thesis, a method to explain a posteriori any result of any classifier. We carried out a user study to evaluate the interpretability of our method
10

Boughrara, Adel. "Sur la modélisation dynamique retrospective et prospective des séries temporelles : une étude méthodologique". Aix-Marseille 3, 1997. http://www.theses.fr/1997AIX32054.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le propos de cette these est une evaluation critique des methodes de rapprochement entre les faits et la theorie economique. Il s'agit plus precisement, de questionner les methodes econometriques actuellement en vigueur relativement a l'epistemologie scientifique. Nous avons considere dans ce travail deux strategies de modelisation : celle, dite prospective de hansen- sargent et celle, dite retrospective, de hendry- sargan. Nous avons montre que, contrairement a ce qu'on a tendance a croire, la modelisation retrospective de hendry-sargan n'est pas conforme a la philosophie falsificationniste de popper. La notion de rejet de modele est fallacieusement interpretee comme refutation. Le recours excessif aux tests d'hypotheses ne permet pas de conclure que cette strategie est popperienne. Les tests sont plutot utilises dans l'espoir d'elaborer des modeles "admissibles" conformement a la methodologie positiviste. S'agissant de la strategie prospective, son fondement epistemologique est relativement difficile a identifier : elle n'est pas falsificationniste puisque les donnees sont censees conforter la theorie et non la refuter. Mieux, le role des donnees de l'observation est mal defini dans cette strategie de modelisation, en particulier lorsqu'il s'agit d'adopter la methode de calibration pour valider le modele
The past years have witnessed intensive competition among economic and econometric methodologies attempting to explain macroeconomic behaviour. Alternative schools have made claims with respect both to the purity of their methodology and to their ability to explain the facts. This thesis investigates the epistemological foundations of the major competitors, namely, the new classical school with its links to prospective econometric modelling on the one hand, and the retrospective modelling which is more close to inductive methods, on the other hand. The main conclusion of the thesis is that none of the rival schools has a very tight link with the popperien epistemology of falsificationism
11

Desrosiers, Maxime. "Le prix du risque idiosyncrasique : une analyse en séries temporelles et coupe transversale". Master's thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/67076.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le CAPM est une représentation stylisée de la rentabilité attendue des titres sur les marchés boursiers, mais comme plusieurs des hypothèses centrales du modèle ne tiennent pas lors d’analyses empiriques, sa pertinence en ce qui a trait aux paramètres prisés sur les marchés est limitée. L’objectif de ce mémoire est d’analyser s’il y a présence d’une prime de risque idiosyncrasique, de mesurer celle-ci et de voir si elle a un pouvoir explicatif significatif. Nous trouvons que les titres ayant les plus hauts risques idiosyncrasiques obtiennent des rendements le mois suivant de 1,18 à 1,98 point de pourcentage inférieur aux titres les moins risqués. En contrôlant pour la capitalisation boursière, l’effet persiste et le risque idiosyncrasique semble être un meilleur prédicteur du rendement d’une firme que la taille de celle-ci.
12

Houfaidi, Souad. "Robustesse et comportement asymptotique d'estimateurs des paramètres d'une série chronologique : (AR(P) et ARMA(P, Q))". Nancy 1, 1986. http://www.theses.fr/1986NAN10065.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous définissons quelques estimateurs des paramètres d'un processus AR(P) (chapitre I), puis d'un processus ARMA(P,Q) (chapitre II). Nous étudions d'une part leurs robustesses et d'autre part leurs comportements asymptotiques (convergence presque sûre et normalité asymptotique). Nous donnons comme application (chapitre III), l'identification d'une série chronologique et recherche du M-estimateur associé
13

Lemay, Pierre. "La recherche-action en éducation, analyse chronologique et critique des principaux cas de figure dans le monde anglo-saxon". Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1997. http://www.collectionscanada.ca/obj/s4/f2/dsk2/ftp03/NQ33045.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
14

Iraqui, Samir. "Détection statique en temps semi réel de valeurs aberrantes dans une série chronologique de données bactériologiques". Rouen, 1986. http://www.theses.fr/1986ROUES042.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Pour apprécier la qualité bactériologique du lait fourni par les producteurs aux laiteries, le Labilait procède au dénombrement de microorganismes aérobies, dans le lait collecté, à raison de 3 numérations mensuelles. A la fin du mois, un classement est affecté aux fournitures; de ce classement dépend la rémunération du producteur. Des résultats considérés comme "aberrants" par les laiteries peuvent être annulés (et donc ne pas intervenir dans le classement) si la demande est formulée auprès du laboratoire. Cette décision ne repose actuellement sur aucune analyse statistique bien précise. Ce travail consiste à proposer des méthodes statistiques de choix de valeurs dont l'annulation paraît se justifier. Sur un échantillon de 100 producteurs suivi pendant 2 ans, on met en oeuvre 2 méthodes (chacune à 2 seuils différents) et on compare leurs effets sur le classement mensuel des fournitures. L'une des méthodes proposées est fondée sur la recherche d'intervalles de prévision dans un modèle de régression linéaire; une note fournie en annexe précise cette notion et la compare à 2 versions d'intervalles de confiance dans ce modèle
15

Tatsa, Sylvestre. "Modélisation et prévision de la consommation horaire d'électricité au Québec : comparaison de méthodes de séries temporelles". Thesis, Université Laval, 2014. http://www.theses.ulaval.ca/2014/30329/30329.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail explore la dynamique de consommation résidentielle d’électricité au Québec à l’aide de données horaires fournies par Hydro-Québec pour la période de janvier 2006 à décembre 2010. Nous considérons trois modèles autorégressifs standards en analyse des séries temporelles : le lissage exponentiel Holt-Winters, le modèle ARIMA saisonnier (SARIMA) et le modèle ARIMA saisonnier avec variables exogènes (SARIMAX). Pour ce dernier modèle, nous nous concentrons sur l’effet des variables climatiques (la température, l’humidité relative et le point de rosé et la nébulosité). Les facteurs climatiques ont un impact important sur la consommation d’électricité à très court terme. La performance prédictive intra et hors échantillon de chaque modèle est évaluée avec différents indicateurs d’ajustement. Trois horizons temporels hors-échantillon sont testés : 24 heures (un jour), 72 heures (trois jours) et 168 heures (1 semaine). Le modèle SARIMA offre la meilleure performance prédictive hors-échantillon sur 24 heures. Le modèle SARIMAX se révèle le plus performant hors-échantillon sur les horizons temporels de 72 et 168 heures. Des recherches supplémentaires seraient nécessaires pour obtenir des modèles de prévision pleinement satisfaisant du point de vue méthodologique. Mots clés : modèles de séries temporelles, électricité, lissage exponentiel, SARIMA, SARIMAX.
This work explores the dynamics of residential electricity consumption in Quebec using hourly data from January 2006 to December 2010. We estimate three standard autoregressive models in time series analysis: the Holt-Winters exponential smoothing, the seasonal ARIMA model (SARIMA) and the seasonal ARIMA model with exogenous variables (SARIMAX). For the latter model, we focus on the effect of climate variables (temperature, relative humidity and dew point and cloud cover). Climatic factors have a significant impact on the short-term electricity consumption. The intra-sample and out-of-sample predictive performance of each model is evaluated with various adjustment indicators. Three out-of-sample time horizons are tested: 24 hours (one day), 72 hours (three days) and 168 hours (1 week). The SARIMA model provides the best out-of-sample predictive performance of 24 hours. The SARIMAX model reveals the most powerful out-of-sample time horizons of 72 and 168 hours. Additional research is needed to obtain predictive models fully satisfactory from a methodological point of view. Keywords: modeling, electricity, Holt-Winters, SARIMA, SARIMAX.
16

Soltane, Marius. "Statistique asymptotique de certaines séries chronologiques à mémoire". Thesis, Le Mans, 2020. http://cyberdoc-int.univ-lemans.fr/Theses/2020/2020LEMA1027.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse est dévolue à la statistique inférentielle asymptotique de différents modèles chronologiques dirigés par un bruit comportant de la mémoire. Dans ces modèles, l'estimateur des moindres carrés n'est pas consistant et nous considérons d'autres estimateurs. Nous commençons par étudier les propriétés asymptotiques presquesûres de l'estimateur du maximum de vraisemblance du coefficient d'autorégression dans un processus autorégressif dirigé par un bruit gaussien stationnaire. Nous présentons ensuite une procédure statistique afin de détecter un changement de régime au sein de ce modèle en s'inspirant du cas classique dirigé par un bruit blanc fort. Nous abordons ensuite un modèle autorégressif où les coefficients sont aléatoires et possèdent une courte mémoire. Là encore l'estimateur des moindres carrés n'est pas consistant et nouscorrigeons l'estimation afin d'estimer correctement les paramètres du modèle. Pour finir nous étudions un nouvel estimateur joint de l'exposant de Hurst et de la variance dans un bruit gaussien fractionnaire observé à haute fréquence dont les qualités sont comparables au maximum de vraisemblance
This thesis is devoted to asymptotic inferenre of differents chronological models driven by a noise with memory. In these models, the least squares estimator is not consistent and we consider other estimators. We begin by studying the almost-sureasymptotic properties of the maximum likelihood estimator of the autoregressive coefficient in an autoregressive process drivenby a stationary Gaussian noise. We then present a statistical procedure in order to detect a change of regime within this model,taking inspiration from the classic case driven by a strong white noise. Then we consider an autoregressive model where the coefficients are random and have a short memory. Here again, the least squares estimator is not consistent and we correct the previous statistic in order to correctly estimate the parameters of the model. Finally we study a new joint estimator of the Hurst exponent and the variance in a fractional Gaussian noise observed at high frequency whose qualities are comparable to the maximum likelihood estimator
17

Côté, Pierre-Olivier, e Pierre-Olivier Côté. "A.M.I.S. : scénario d'une web série, Suivi d'une recherche La violence dans les séries télévisées pour adolescents". Master's thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/37765.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce mémoire se divise en deux parties: une création et une réflexion critique. Création: A.M.I.S. : La première partie concerne la création d’une web série pour adolescents, A.M.I.S., qui relate un drame survenu durant une soirée dans un cimetière. Sous les effets de l’alcool, de la drogue et la colère, Michaël bat Amanda violemment en plus de poignarder Jade et Éloi, venus l’aider. Samuel, fils d’un avocat, comprend que la présence d’alcool et de drogue pourrait leur nuire et tente de convaincre ses amis de se liguer contre Michaël pour qu’il soit le seul reconnu coupable. Au poste de police, les adolescents créent un scénario différent des événements sans se douter qu’ils avaient été observés par Elsa, une fille rejetée par le groupe. La mort d’Éloi rend le groupe encore plus uni pour punir Michaël et déjouer les plans d’Elsa. Réflexion critique: La violence dans les séries télévisées pour adolescents. La seconde partie traite de la violence mise en scène dans les séries télévisées dans le but de comprendre son fonctionnement et les raisons qui motivent les scénaristes de l’utiliser dans certaines scènes. D’abord, une définition sommaire met en lumière les notions «d’intention» et de «motifs» pour saisir les nuances du phénomène de la violence. Ensuite, nous appuyant sur les théories de Dominique Sipière, nous tentons de saisir le fonctionnement du personnage du «méchant.» En appliquant ces théories aux notions de violence, il est possible de constater un parallèle qui justifie l’utilisation de la violence dans certaines scènes. Pour finir, un aperçu de certaines thématiques présentes dans les séries montre un univers plus sombre et plus complexe.
Ce mémoire se divise en deux parties: une création et une réflexion critique. Création: A.M.I.S. : La première partie concerne la création d’une web série pour adolescents, A.M.I.S., qui relate un drame survenu durant une soirée dans un cimetière. Sous les effets de l’alcool, de la drogue et la colère, Michaël bat Amanda violemment en plus de poignarder Jade et Éloi, venus l’aider. Samuel, fils d’un avocat, comprend que la présence d’alcool et de drogue pourrait leur nuire et tente de convaincre ses amis de se liguer contre Michaël pour qu’il soit le seul reconnu coupable. Au poste de police, les adolescents créent un scénario différent des événements sans se douter qu’ils avaient été observés par Elsa, une fille rejetée par le groupe. La mort d’Éloi rend le groupe encore plus uni pour punir Michaël et déjouer les plans d’Elsa. Réflexion critique: La violence dans les séries télévisées pour adolescents. La seconde partie traite de la violence mise en scène dans les séries télévisées dans le but de comprendre son fonctionnement et les raisons qui motivent les scénaristes de l’utiliser dans certaines scènes. D’abord, une définition sommaire met en lumière les notions «d’intention» et de «motifs» pour saisir les nuances du phénomène de la violence. Ensuite, nous appuyant sur les théories de Dominique Sipière, nous tentons de saisir le fonctionnement du personnage du «méchant.» En appliquant ces théories aux notions de violence, il est possible de constater un parallèle qui justifie l’utilisation de la violence dans certaines scènes. Pour finir, un aperçu de certaines thématiques présentes dans les séries montre un univers plus sombre et plus complexe.
18

Mondal, Tanmoy. "From Time series signal matching to word spotting in multilingual historical document images". Thesis, Tours, 2015. http://www.theses.fr/2015TOUR4045/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse traite dela mise en correspondance de séquences appliquée au word spotting (localisation de motsclés dans des images de documents sans en interpréter le contenu). De nombreux algorithmes existent mais très peu d’entre eux ont été évalués dans ce contexte. Nous commençons donc par une étude comparative de ces méthodes sur plusieurs bases d’images de documents historiques. Nous proposons ensuite un nouvel algorithme réunissant la plupart des possibilités offertes séparément dans les autres algorithmes. Ainsi, le FSM (Flexible Sequence Matching) permet de réaliser des correspondances multiples sans considérer des éléments bruités dans la séquence cible, qu’ils se situent au début, à la fin ou bien au coeur de la correspondance. Nous étendons ensuite ces possibilités à la séquence requête en définissant un nouvel algorithme (ESC : Examplary Sequence Cardinality). Finalement, nous proposons une méthode d’appariement alternative utilisant une mise en correspondance inexacte de chaines de codes (shape code) décrivant les mots
This thesis deals with sequence matching techniques, applied to word spotting (locating keywords in document images without interpreting the content). Several sequence matching techniques exist in the literature but very few of them have been evaluated in the context of word spotting. This thesis begins by a comparative study of these methods for word spotting on several datasets of historical images. After analyzing these approaches, we then propose a new algorithm, called as Flexible Sequence Matching (FSM) which combines most of the advantages offered separately by several other previously explored sequence matching algorithms. Thus, FSM is able to skip outliers from target sequence, which can be present at the beginning, at the end or in the middle of the target sequence. Moreover it can perform one-to-one, one-to-many and many-to-one correspondences between query and target sequence without considering noisy elements in the target sequence. We then also extend these characteristics to the query sequence by defining a new algorithm (ESC : Examplary Sequence Cardinality). Finally, we propose an alternative word matching technique by using an inexact chain codes (shape code), describing the words
19

Ouldali, Naïm. "Impact à moyen terme de l'implémentation du vaccin conjugué pneumococcique 13 valences en pédiatrie : analyse de séries chronologiques interrompues". Thesis, Université de Paris (2019-....), 2020. https://wo.app.u-paris.fr/cgi-bin/WebObjects/TheseWeb.woa/wa/show?t=4437&f=28972.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Introduction. Le bénéfice à moyen terme de l’implémentation des vaccins pneumococciques conjugués (VPCs) reste à préciser, du fait du remplacement sérotypique. Nous avons évalué en France, chez l’enfant, l’impact à moyen terme des VPC sur : (i) les méningites à pneumocoque, (ii) les pneumopathies aiguës communautaires (PAC), (iii) la dynamique de résistance aux antibiotiques des sérotypes pneumococciques dans le portage naso-pharyngé. Nous avons également évalué la qualité méthodologique de la littérature concernant l’impact des VPCs sur les infections pneumococciques. Méthodes. Nous avons exploité les données de 3 observatoires pédiatriques établis à l’échelle nationale : l’observatoire des méningites bactériennes de l’enfant (227 centres), l’observatoire des PAC (8 centres) et l’observatoire du portage pneumococcique (121 pédiatres de ville). Une analyse de séries chronologiques interrompues (SCI), promue par la Cochrane à la place des études avant-après, a été conduite, prenant en compte la tendance temporelle, la saisonnalité et l’autocorrélation des données, via des modèles de régression linéaire segmentée avec erreur auto-corrélée. Enfin, une revue systématique méthodologique a été conduite en incluant toutes les études évaluant l’impact des VPC sur les principales formes d’infections à pneumocoque à la fois chez l’enfant et l’adulte, via PubMed, Embase et les références des articles sélectionnés.Résultats. Après une baisse de l’incidence des méningites à pneumocoque de 38% (IC 95% [20 ; 56]) suite à l’implémentation du VPC13 en France, une remontée a été observée depuis Janvier 2015, principalement liée à l’émergence d’un sérotype non vaccinal. De la même manière, la fréquence des CAP a baissé de 44% (IC 95% [32 ; 56]) après l’implémentation du VPC13, mais depuis Juin 2014 seule une très modeste remontée a été observée. Pour le niveau de résistance des sérotypes pneumococciques, après une baisse notable suite au VPC13, une remontée progressive et constante est observée depuis Janvier 2014. Enfin, la revue systématique de la littérature a permis de sélectionner 377 études entre 2001 et 2018. Ces études utilisaient le design avant-après dans 78.5% des cas (N=296) contre 18.3% pour les SCI (N=69).Conclusion. L’impact à moyen terme des VPCs et les conséquences du remplacement sérotypique varient selon les pathologies pneumococciques. Ces résultats sont susceptibles d’évoluer dans les années à venir, nécessitant une surveillance continue. L’utilisation d’outils méthodologiques validés tels que les SCI reste minoritaire à ce jour, et doit être développée pour apprécier la complexité de l’évolution épidémiologique des infections pneumococciques au cours du temps
Background. Due to serotype replacement, the long-term impact of pneumococcal conjugate vaccines (PCVs) implementation remains to be evaluated. We aimed to assess, in children, the impact of PCV13 implementation on: (i) pneumococcal meningitis, (ii) community acquired pneumonia (CAP), and (iii) antibiotic susceptibility of pneumococcal strains in nasopharyngeal carriage. Finally, we conducted a methodological systematic review of the literature on assessing the impact of PCVs implementation. Methods. We used the quasi-experimental interrupted time series (ITS) analysis design with data from three French surveillance systems: (i) the national network of pediatric bacterial meningitis (230 centres), (ii) the CAP pediatric network (8 pediatric emergency departments), and (iii) an ambulatory network of pneumococcal carriage (121 pediatricians). A segmented regression model with autoregressive error was used, taking into account pre-intervention time trend, seasonality and autocorrelation. The methodological systematic review included all studies assessing the impact of PCVs implementation in children and adults, using PubMed, Embase, and references of selected articles. Results. After a 38% (95% CI [20; 56]) decrease of pneumococcal meningitis incidence following PCV13 implementation in 2010 in France, a rebound was observed since January 2015, mainly linked to the emergence of non-PCV13 serotypes. CAP rate also decreased significantly following PCV13 implementation (44% decrease, 95% CI [32; 56]), but since June 2014, only a slight increase was observed since June 2014. Regarding pneumococcal susceptibility in carriage, after a significant reduction of penicillin non-susceptibility following PCV13 implementation, a steady increase is observed since January 2014. Finally, 377 studies were included in the systematic review, from 2001 to 2018. Among them, 296 (78,5%) used the before-after design, and only 69 (18,3%) used the ITS design. Conclusions. After an important impact of PCV13, the consequences of serotype replacement in France may vary between pneumococcal disease. These findings may still evolve in the coming years, underlining the need of continuous active surveillance of these outcomes. Despite Cochrane recommendations, the use of ITS to assess PCVs impact remains largely infrequent worldwide, and needs to be promoted to adequately analyze the complex evolution of this pathogen over time
20

Pessan, Cedric. "Optimisation de changements de séries par ordonnancement des tâches de réglage". Thesis, Tours, 2008. http://www.theses.fr/2008TOUR4026/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les travaux présentés dans cette thèse visent à proposer des méthodes d’optimisation des changements de série sur des lignes de production afin d’améliorer la flexibilité de la production. Nous modélisons ce problème sous forme de problème à machines parallèles non reliées : les tâches sont les réglages des machines d’une ligne et les ressources sont des opérateurs. Nous prenons en compte notamment, la structure de la ligne de production qui comporte des machines en plusieurs exemplaires, les compétences des opérateurs et leurs disponibilités. Les méthodes utilisées sont une procédure par séparation et évaluation dans le cas où la ligne est composée de machines en série et des heuristiques de type descente locale et algorithme génétique dans le cas général. Nous proposons des bornes permettant d’évaluer les performances des méthodes. Pour le cas série, nous proposons également une méthode hybride faisant collaborer une procédure par séparation et évaluation et un algorithme génétique
The work presented in this thesis aims at proposing new methods for setup optimization in production lines in order to improve production flexibility. This problem is modelized using an unrelated parallel machines problem : the tasks are the setup tasks of each machine of the production line and the ressources are the operators. We take into consideration the production line structure that may contain multiple machines on some stages and the skills of operators. The skill model has been validated using a simulation approach. We have used a Branch-and-Bound to solve the special case of serial production line and hill climbing and genetic algorithm meta heuristics for the general case. In both cases, we propose bounds that are used to evaluate the performances of the different methods. For the serial special case, we also propose a hybrid algorithm that use both a genetic algorithm and a Branch-and-Bound that are colaborating together
21

Zamrane, Zineb. "Recherche d’indices de variabilité climatique dans des séries hydroclmatiques au Maroc : identification, positionnement temporel, tendances et liens avec les fluctuations climatiques : cas des grands bassins de la Moulouya, du Sebou et du Tensift". Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT181/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail consiste à caractériser la variabilité temporelle et spatiale des séries chronologiques de paramètres hydroclimatiques (pluies, débits) au niveau de trois grand bassins au Maroc ; (bassins de la Moulouya, du Sebou et du Tensift) et à chercher les liens entre cette variabilité hydrologique et les fluctuations climatiques matérialisées par différents indices climatiques, NAO, SOI, WMOI. L’approche d’étude est basée le traitement statistique des séries temporelles, liée aux dimensions temps et espace.Les grands bassins versants d'échelle continentale comme le Tensift, le Sebou et la Moulouya en climat méditerranéen sous influence océanique, intègrent sur des grandes surfaces la réponse hydrologique aux changements climatiques et environnementaux (fluctuations du climat, précipitations, débits) à de larges échelles spatiales et temporelles, mais également les modifications du milieu physique d’origine anthropique (changements d’occupation des sols, aménagements…), ce qui rend parfois difficile l’identification des liens entre la variabilité hydrologique et la variabilité climatique. Les principaux objectifs de ce travail sont de déterminer et de quantifier les relations entre la variabilité hydroclimatique et les fluctuations du climat à l’échelle de chaque bassin étudié et de ses principaux sous-bassins, via l'utilisation de méthodes d’analyses spectrales adaptées à l’étude des processus non stationnaires (analyse en ondelettes continues, analyse de la cohérence par ondelettes). Plusieurs modes de variabilités sont identifiés à partir de l’analyse par station (pluies et débits), du cycle annuel au mode 16-22 ans, cette analyse sera complétée par une analyse par maille, dont les données sont issues d’un fichier (SIEREM) couvrant la période 1940-1999, où on identifie des fréquences de 1an au 8-16 ans, distinguées sur des périodes différentes au niveau de chaque bassin, permettant ainsi une décomposition de la variabilité spatiale des signaux mis en évidence. Trois principales discontinuités sont identifiées en 1970, 1980 et 2000. La contribution des indices climatiques est assez importante elle est entre 55% et 80%
This work is to characterize the temporal and spatial variability of hydroclimatic time series (rainfall, flow) at three large basins in Morocco; (basins of the Sebou and Moulouya Tensift) and look links between the hydrologic variability and climate fluctuation materialized by various climate indices, NAO, SOI, WMOI. The approach to study is based on statistical analysis of time series, related to time and space dimensions.The great watershed of continental scale as Tensift, Sebou and Moulouya in Mediterranean climate under oceanic influence, integrate over large areas the hydrological response to climate and environmental changes (climate fluctuations, precipitation, flows) not only to large spatial and temporal scales, but also to changes in the physical environment anthropogenic (land use changes, developments ...), which sometimes makes difficult to identify the links between hydrological variability and climate variability. The main objective of this work is to determine and quantify the relationships between hydrological variability and climate fluctuations (regionalised precipitation, climate change indexes) across each studied basin and its main sub-basins, via using spectral analysis methods adapted to the study of non-stationary processes (continuous wavelet analysis, coherence analysis wavelet). Many modes of variability are identified from the station analysis (rainfall and flow rates), the annual cycle to 16-22 years, this analysis will be complemented by a grid analysis, the data come from a (SIEREM) file covering the period from 1940 to 1999, which will allow a better understanding of the spatial variability of signals set highlighted. Which is identified frequencies the 1 year 8-16 years, distinguished different time periods at each basin, three main discontinuities identified in 1970, 1980 and 2000. The contribution of climatic indices is important enough it is between 55% and 80%
22

Peng, Botao. "Parrallel data series indexing and similarity search on modern hardware". Electronic Thesis or Diss., Université Paris Cité, 2020. http://www.theses.fr/2020UNIP5193.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La recherche de similarité de séries de données est une opération essentielle pour plusieurs applications dans de nombreux domaines. Cependant, les techniques de pointe ne parviennent pas à fournir les performances temporelles requises, que ce soit pour réaliser une exploration interactive des séries de données, ou simplement une analyse de grandes collections de données. Au cours de ma thèse, nous présentons les premières solutions d'indexation de séries de données conçues pour tirer parti intrinsèquement du matériel moderne, afin d'accélérer les temps de traitement de la recherche de similarité pour les données sur disque et en mémoire. En particulier, nous développons de nouveaux algorithmes utilisant les architectures SIMD (multi-core, multi-socket et Single Instruction Multiple Data), ainsi que des algorithmes adaptés pour l’utilisation des unités de traitement graphique (GPU). Nos expériences réalisées sur un panel de données synthétiques et réelles démontrent que nos approches sont d’ordres de grandeur plus rapides que les solutions de pointe utilisant les données enregistrées sur disque et en mémoire. Plus précisément, notre solution sur disque peut répondre à des requêtes de recherche de similitude exacte sur des ensembles de données de 100 Go en 15 secondes, et pour notre solution en mémoire en moins de 36 millisecondes, ce qui permet pour la première fois une exploration interactive de données en temps réel sur des grandes collections de séries de données
Data series similarity search is a core operation for several data series analysis applications across many different domains. However, the state-of-the-art techniques fail to deliver the time performance required for interactive exploration, or analysis of large data series collections. In this Ph.D. work, we present the first data series indexing solutions that are designed to inherently take advantage of modern hardware, in order to accelerate similarity search processing times for both on-disk and in-memory data. In particular, we develop novel algorithms for multi-core, multi-socket, and Single Instruction Multiple Data (SIMD) architectures, as well as algorithms for Graphics Processing Units (GPUs). Our experiments on a variety of synthetic and real data demonstrate that our approaches are up to orders of magnitude faster than the state-of-the-art solutions for both disk-resident and in-memory data. More specifically, our on-disk solution can answer exact similarity search queries on 100GB datasets in ∼ 15 seconds, and our in-memory solution in as low as 36 milliseconds, which enables for the first time real-time, interactive data exploration on very large data series collections
23

Giraud, Fabienne. "Recherche des périodicités astronomiques et des fluctuations du niveau marin à partir de l'étude du signal carbonaté des séries pélagiques alternantes : application au Crétacé inférieur du Sud-Est de la France (Bassin vocontien), de l'Atlantique central ( site 534 DSDP) et du golfe du Mexique ( site 535 DSDP)". Phd thesis, Université Claude Bernard - Lyon I, 1994. http://tel.archives-ouvertes.fr/tel-00818238.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les alternances calcaire-marne d'âge crétacé inférieur des sites océaniques DSDP 534 (Atlantique CentraI) et 535 (golfe du Mexique) et du bassin vocontien (Sud-Est de la France), représentant de beaux exemples de cycles de productivité du carbonate de calcium, ont été choisies comme cadre d'étude pour démontrer: - le lien entre les variations cycliques de la teneur en CaC03 et les paramètres orbitaux (Crétacé inférieur vocontien) ; - le lien entre les variations relatives des" flux de matière" et les fluctuations du niveau marin relatif (Crétacé inférieur des sites DSDP et du bassin vocontien). Pour mener à bien ce travail, deux techniques d'étude: l'analyse spectrale et le traitement d'images, ont été utilisées. L'analyse spectrale des fluctuations de la teneur en CaC03 pour l'intervalle Berriasien-Barrémien de la série d'Angles-Vergons (bassin vocontien) a permis de mettre en évidence : la présence de cycles carbonatés significatifs dont les périodicités sont situées en majorité dans la bande de fréquence de Milankovitch ; le signal Ie plus clairement enregistré est le cycle de l'obliquité; une caractérisation du passage des alternances à dominante calcaire aux alternances à dominante marneuse par, une augmentation du taux de sédimentation et un changement dans l'enregistrement du signal astronomique apparent: le signal de la précession est prépondérant dans les formations à dominante calcaire alors que celui de l'obliquité ressort le plus nettement dans les formations à dominante marneuse. L'analyse d'images, appliquée aux photographies en noir et blanc de sédiments carottés alternants et montrant une bonne différenciation lithologique, comme ceux des sites DSDP 534 et 535, est une méthode rapide permettant d'exprimer les flux linéaires ct leurs variations relatives avec une résolution temporelle de 300 000 à 500 000 ans (temps moyen de dépôt d'une carotte DSDP). Cette méthode n'est par contre pas applicable aux sédiments de la série vocontienne à l'affleurement. L'étude comparée des variations relatives des flux linéaires de matière dans les sites océaniques ne permet pas d'isoler un signal eustatique global continu mais est à même de faciliter la lecture de messages variés (eustatisme, climat, tectonique) enregistrés par les dépôts profonds dans les différents sites.
24

Delbot, François. "Au delà de l'évaluation en pire cas : comparaison et évaluation en moyenne de processus d'optimisation pour le problème du vertex cover et des arbres de connexion de groupes dynamiques". Phd thesis, Université d'Evry-Val d'Essonne, 2009. http://tel.archives-ouvertes.fr/tel-00927315.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La théorie de la complexité distingue les problèmes que l'on sait résoudre en un temps polynomial en la taille des données (que l'on peut qualifier de raisonnable), des problèmes NP-complets, qui nécessitent (en l'état actuel des connaissances) un temps de résolution exponentiel en la taille des données (que l'on peut qualifier de déraisonnable). C'est pour cette raison que la communauté scientifique s'est tournée vers les algorithmes (polynomiaux) d'approximation dont la mesure de qualité se fait le plus souvent grâce au rapport d'approximation en pire cas (pour un problème de minimisation de taille, un algorithme a un rapport d'approximation de k si la taille de toute solution pouvant être retournée par l'algorithme est inférieure ou égale à k fois la taille de la solution optimale). Dans la littérature, on en vient à considérer qu'un algorithme est plus performant qu'un autre lorsqu'il possède un plus petit rapport d'approximation en pire cas. Cependant, il faut être conscient que cette mesure, désormais "classique", ne prend pas en compte la réalité de toutes les exécutions possibles d'un algorithme (elle ne considère que les exécutions menant à la plus mauvaise solution). Mes travaux de thèse ont pour objet de mieux "capturer" le comportement des algorithmes d'approximation en allant plus loin que le simple rapport d'approximation en pire cas, et ce sur deux problèmes distincts : I. Le problème du Vertex Cover En montrant que les performances moyennes d'un algorithme peuvent être décorélées des performances en pire cas. Par exemple, nous avons montré que dans la classe des graphes spécialement conçus pour le piéger en pire cas, l'algorithme glouton "Maximum Degree Greedy" retourne, en moyenne, des solutions dont la taille tend vers l'optimum lorsque n tend vers l'infini. En évaluant les performances moyennes d'un algorithme. Nous avons prouvé que l'algorithme online présenté par Demange et Paschos en 2005 (dont le rapport d'approximation en pire cas est égal au degré maximum du graphe) est au plus 2-approché en moyenne dans n'importe quel graphe. Ce résultat, combiné à d'autres, montre que cet algorithme est "en pratique" meilleur que la plupart des algorithmes 2-approchés connus, malgré un mauvais rapport d'approximation en pire cas . En comparant les performances de différents algorithmes (analytiquement et expérimentalement). Nous avons proposé un algorithme de liste et nous avons prouvé analytiquement qu'il retourne toujours une meilleure solution que celle construite par un autre algorithme de liste récent [ORL 2006] quand ils traitent la même liste de sommets (dans certains graphes particuliers, la différence de taille peut être arbitrairement grande). Nous avons également comparé analytiquement (en utilisant des outils comme les séries génératrices) les performances moyennes de six algorithmes sur les chemins. Nous les avons ensuite expérimentées sur un grand nombre de graphes de diverses familles bien choisies. On constate dans ces études que les algorithmes 2-approchés étudiés sont ceux qui obtiennent les plus mauvaises performances en moyenne et que ceux qui ont les meilleurs comportements moyens ont de mauvais rapports d'approximation (fonction du degré max. du graphe). Tous ces résultats montrent que le rapport d'approximation en pire cas n'est pas toujours suffisant pour caractériser l'intégralité de la qualité d'un algorithme et que d'autres analyses (en moyenne notamment) doivent être effectuées pour en faire le tour. II. Le problème de la connexion de groupes dynamiques dans les réseaux Nous avons analysé un processus de mise-à-jour d'un arbre connectant dans un réseau un groupe que les membres peuvent rejoindre ou quitter à tout moment. Notre processus possède de bonnes propriétés : il est simple à implémenter et il garantit, après chaque opération d'ajout ou de retrait, que le diamètre de l'arbre est au plus 2 fois l'optimal. Cependant, pour obtenir cette garantie, nous devons autoriser la reconstruction totale de l'arbre lorsque le membre identifié comme sa racine quitte le groupe. Ces étapes de reconstruction sont très coûteuses et nous cherchons donc à en évaluer le nombre. Des travaux précédents montraient que dans le pire cas, il faut reconstruire (quasiment) à chaque étape pour conserver la garantie sur le diamètre. Nous montrons dans cette thèse (en utilisant les marches aléatoires, etc.) que, en fonction de certains paramètres du problèmes (comme les probabilités associées aux opérations d'ajout et de retrait), l'espérance du nombre de reconstructions est soit logarithmique en le nombre d'évènements (ajout ou retrait), soit constant. Ce résultat montre que le comportement moyen est très bon (malgré un pire cas très défavorable) et que notre processus de mise-à-jour peut être une solution viable en pratique.
25

Tan, Kian Lam. "Accès à de l'information de type patrimoine culturel". Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM018/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Avec la croissance explosive de la numérisation du patrimoine culturel , de nombreuses patrimoine culturel institutions ont été la conversion des objets physiques du patrimoine culturel dans la représentation numérique ou représentation descriptive . Toutefois , la conversion a donné lieu à plusieurs questions telles que : 1 ) les documents sont de nature descriptive , 2 ) l'ambiguïté et de la brièveté des documents , 3 ) le vocabulaire spécifique est utilisé dans les documents , et 4 ), il existe également des variations dans les termes utilisés dans le document . En outre, l'utilisation de mots-clés inexactes également entraîné problème de requête court . La plupart du temps , les problèmes sont causés par la faute agrégée en annotant les documents alors que le problème de requête court est causé par l'utilisateur naïf qui a peu de connaissances et d'expérience dans le domaine du patrimoine culturel . Dans cette recherche, l'objectif principal est de modéliser le système d' accès à l'information pour surmonter partiellement les questions soulevées par le processus de documentation et le fond des utilisateurs du patrimoine culturel numérique . Par conséquent , trois types d'outils d'accès aux informations sont introduites et établies à savoir l'information système de recherche , la recherche de contexte , et jeu mobile sur le patrimoine culturel qui permettent à l' utilisateur d'accéder , d'apprendre et d'explorer les informations sur le patrimoine culturel . Fondamentalement , l'idée principale d'information système de recherche et contexte de recherche est d'intégrer la relation de lien entre les termes dans le modèle de la langue par l'extension de Dirichlet lissage pour résoudre les problèmes qui se posent à la fois le processus de documentation et de fond des utilisateurs . En outre, un modèle de préférence est présenté sur la base de la théorie de la charge d'un condensateur de quantifier le contexte cognitif basé sur le temps et les intégrer dans la longue Dirichlet lissage . En outre, un jeu mobile est introduite par l'intégration des éléments des jeux de monopole et chasse au trésor pour atténuer les problèmes découlant de l'arrière-plan des utilisateurs en particulier leur comportement décontracté . Les premier et deuxième approches ont été testées sur le patrimoine culturel dans CLEF ( chic) ​​collection qui se compose de questions et de courts documents . Les résultats montrent que l'approche est efficace et donne une meilleure précision lors de la récupération . Enfin , une enquête a été menée pour étudier la troisième approche , et le résultat donne à penser que le jeu est en mesure d'aider les participants à explorer et apprendre les informations sur le patrimoine culturel . En outre, les participants ont également estimé qu'une recherche d'information outil qui est intégré avec le jeu peut fournir plus d'informations à l'utilisateur d'une manière plus pratique tout en jouant le jeu et en visitant les sites du patrimoine dans le match. En conclusion , les résultats montrent que les solutions proposées sont en mesure de résoudre les problèmes posés par le processus de documentation et le fond des utilisateurs du patrimoine culturel numérique
With the explosive growth of digitization in cultural heritage, many cultural heritage institu- tions have been converting physical objects of cultural heritage into digital representation or descriptive representation. However, the conversion resulted in several issues such as: 1) the documents are descriptive in nature, 2) ambiguity and brevity of the documents, 3) dedicated vocabulary is used in the documents, and 4) there is also variation in the terms used in the doc- ument. Besides, the usage of inaccurate keywords also resulted in short query problem. Most of the time, the issues are caused by the aggregated fault in annotating the documents while the short query problem is caused by naive user who has little prior knowledge and experience in cultural heritage domain. In this research, the main aim is to model information access system to overcome partially the issues arising from the documentation process and the background of the users of digital cultural heritage. Therefore, three types of information access tool are introduced and established namely information retrieval system, context search, and mobile game on cultural heritage that allow the user to access, learn, and explore the information on cultural heritage. Basically, the main idea for information retrieval system and context search is to incorporate the link relationship between terms into the Language Model by extending of Dirichlet Smoothing to solve the problems arising from both the documentation process and background of the users. In addition, a Preference Model is introduced based on the Theory of Charging a Capacitor to quantify the cognitive context based on time and integrate into the extended Dirichlet Smoothing. Besides, a mobile game is introduced by integrating the ele- ments of the games of monopoly and treasure hunt to mitigate the problems arising from the background of the users especially their casual behavior. The first and second approaches were tested on the Cultural Heritage in CLEF (CHiC) collection that consists of short queries and documents. The results show that the approach is effective and yields better accuracy during the retrieval. Finally, a survey was carried out to investigate the third approach, and the result suggests that the game is able to help the participants to explore and learn the information on cultural heritage. In addition, the participants also felt that an information seeking tool that is integrated with the game can provide more information to the user in a more convenient manner while playing the game and visiting the heritage sites in the game. In conclusion, the results show that the proposed solutions are able to solve the problems arising from the documentation process and the background of the users of digital cultural heritage
26

Berthon, Julie. "Nouvelle approche de la fiabilité opérationnelle". Thesis, Bordeaux 1, 2008. http://www.theses.fr/2008BOR13657/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La thèse s'est effectuée dans le cadre d'une convention CIFRE entre l'Université Bordeaux I et l'entreprise Thales Avionics. Elle constitue une analyse originale de la fiabilité de matériels complexes, dans une perspective de maîtrise et d'amélioration de la fiabilité. La thèse comporte deux parties disjointes qui trouvent leur justification dans les problématiques rencontrées par l'industriel : - La première partie porte sur l'analyse des agrégats d'évènements indésirables (séries d'accidents, séries noires,...). Elle fait appel aux statistiques de balayage pour évaluer la probabilité d'occurrence d'un agrégat d'accidents. Une approche par simulation de Monte Carlo, puis un Réseau de Petri supportée par simulation de Monte Carlo, sont proposés. Plusieurs approches markoviennes sont ensuite développées. - La seconde partie porte sur l'analyse du retour d'expérience dans le cas où les informations disponibles sont uniquement les nombres de produits livrés et de défaillances constatées par unité de temps. Une méthodologie innovante, permettant d'obtenir la loi de fiabilité d'un matériel en fonction du flux de production et du flux de pannes observés, est exposée
The thesis went within the scope of an agreement between the University Bordeaux I and the Thales Avionics company. It constitutes an original analysis of the reliability of complex materials equipments, with the prospect of control and improvement. The thesis consists of two separate parts connected to the problems met by the manufacturer: - The first part deals with the analysis of "clusters" of undesirable events (chain of disasters, series of failures,...). It appeals to the scan statistics in order to estimate the probability of occurrence of a cluster of events. A Monte Carlo simulation implemented in a dedicated algorithm, then a Monte Carlo simulation supported by a Petri net model, are proposed. Several markovian approaches are then developed. - The second part deals with the analysis of feedback in a non common context when the only information available is the number of equipments which are delivered during each period and the number of those which are removed during each period. An innovative approach, allowing to obtain the intrinsic failure rate of the materials under study according to the production flow and the removal flow, is explained
27

Carrier-Lafleur, Thomas. "Proust et le cinéma : temps, images et adaptations". Thesis, Montpellier 3, 2014. http://www.theses.fr/2014MON30023/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’ambition de cette thèse n’est pas de poser objectivement les rapports qu’entretient À la recherche du temps perdu avec le cinéma(tographe), pour la simple et bonne raison que ceux-ci sont à peu près inexistants, du strict point de vue de l’objectivité. N’ayant jamais mis les pieds dans un lieu qui projette ce type bien particulier d’images en mouvement, Proust n’est pas un écrivain intéressé par ce qu’on nomme aujourd’hui « cinéma ». On ne trouve que peu souvent son nom dans les anthologies faisant état des écrivains du début du siècle dernier qui ont commenté le spectacle des vues animées. Si par hasard il y est, on cite généralement les passages du Temps retrouvé, où est assez sévèrement critiqué le « défilé cinématographique des choses ». Que la critique de Proust à l’endroit du cinéma(tographe) soit une critique essentiellement négative n’est pas en soi gênant et ne contredit pas nécessairement le besoin de faire le point sur cette question. Il nous faut seulement adopter une vision plus artiste du problème, ou du moins accepter que le cinéma n’est pas limité à un seul mode d’existence stable : « cinéma » est en fait un pot-pourri d’idées, de concepts et de pratiques qui est voué au changement, et c’est précisément ce changement qui est digne d’intérêt. Une telle relativisation de l’idée de « cinéma » nous permettra d’explorer les différentes séries d’images et les séries techniques qui parcourent le roman de Proust et ses adaptations écraniques, afin de voir si elles sont en mesure de recouper l’une ou l’autre des fonctions que l’on a pu attribuer au cinéma au cours de son histoire. La présente thèse est donc en quelque sorte le procès-verbal des définitions du cinéma qu’a pu nous offrir notre lecture de Proust. Elle est aussi celui des différentes lectures que le cinéma nous permet de faire de la Recherche, des lectures « cinématographiques »
This thesis does not objectively study ongoing relations between In Search of Lost Time and the cinema medium for the simple reason that, from the strict point of view of objectivity, they are almost non-existent. Having never set foot in a place that shows this particular type of moving images, Proust is not interested in what is now called “cinema”. At best, his name infrequently appears in anthologies of the early 20th century’s writers who commented this kind of spectacle. If by chance he is, the excerpts generally selected are the ones of Time Regained where the “cinematic parade of things” is quite severely criticized. But Proust’s criticism of cinema, albeit an essentially negative one, is not that much inconvenient and does not particularly contradict the need to investigate the matter. We just have to think the problem in a more artistic way, or at least to accept that cinema is not limited to a stable, single mode of existence: “cinema” is – and should be – a potpourri of ideas, concepts and practices that is bound to change, and it is precisely that change that is worth investigating. Such a relativization of the idea of “cinema” will allow us to explore different series of images and series of techniques that run in Proust's novel and its screen adaptations, while letting us see if they are able to match some functions that have been attributed to cinema during its history. This thesis therefore intends to be a record of cinema’s definitions that our reading of Proust’s work could offer. It is also a record of the many readings of In Search of Lost Time that cinema allows us, “cinematographic” readings
28

Ursu, Eugen. "Contributions dans l'analyse des modèles vectoriels de séries chronologiques saisonnières et périodiques". Thèse, 2009. http://hdl.handle.net/1866/6539.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
29

Tremblay, Lysandre. "Analyse de la variabilité interannuelle de séries temporelles des niveaux d'eau souterraine dans trois régions du Canada". Mémoire, 2009. http://www.archipel.uqam.ca/2587/1/M11159.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les liens entre le climat et la dynamique des aquifères canadiens sont encore mal connus. L'analyse des phénomènes climatiques à grande échelle, qui s'est avérée utile pour comprendre les causes des fluctuations interannuelles des débits en rivière, pourrait également expliquer en partie les cycles observés dans les chroniques de niveaux piézométriques. Ce mémoire a pour objectif d'étudier les causes de la variabilité de ces chroniques. Les analyses en ondelettes et de corrélation sont appliquées sur des chroniques piézométriques, de précipitations et de températures dans trois régions du Canada. Des liens de cause à effet sont recherchés avec quatre indices climatiques: l'Oscillation Nord-Atlantique (ONA), l'Oscillation Arctique (OA), l'indice Pacifique-Amérique du Nord (PAN) et l'anomalie de température au-dessus de la zone Niño-3 (ENSO3). Dans une optique de développement durable, l'étude vise à mieux comprendre le système hydrométéorologique dans son ensemble permettant éventuellement une meilleure gestion de la ressource en eau. Les trois zones choisies sont situées à l'est, au centre et à l'ouest du Canada, pour tenter de représenter des conditions climatiques et géographiques très différentes, soit: l'Ile-du-Prince-Édouard, le sud du Manitoba près de Winnipeg et l'extrême sud de l'Île de Vancouver en Colombie-Britannique. Chacune de ces régions compte trois puits de surveillance qui possèdent des séries de niveaux d'eau d'au moins 32 ans. Sept des neuf unités aquifères étudiées sont à nappe libre. Ces unités sont granulaires pour les sites à l'Île-du-Prince-Édouard, au Manitoba et en Colombie-Britannique. Les chroniques de 32 ans (1974-2005) permettent de décrire les fluctuations interannuelles de périodes de six années ou moins. Les analyses en ondelettes sont donc présentées sous forme de moyenne de périodicité pour des bandes temporelles spécifiques de 2-3 ans et de 3-6 ans. Les résultats révèlent des liens entre certains indices climatiques et les niveaux piézométriques, et par extension avec la recharge, dans chacune des régions ciblées. Dans les trois régions, des corrélations significatives sont observées entre les indices climatiques et les séries piézométriques, surtout pour la bande 3-6 ans. Plus spécifiquement, pour l'Île-du-Prince-Édouard, l'indice ENSO3 est l'anomalie climatique correspondant le mieux à la variable hydrogéologique et ce, dans les deux bandes de variabilité. Dans les prairies, des interactions fortes sont présentes pour les deux bandes de variabilité avec l'indice PAN. À l'Île de Vancouver, les plus fortes relations concernent les indices PAN et l'indice ENSO3 pour la bande de 3-6 ans ainsi que l'ONA pour la bande 2-3 ans. De façon surprenante dans la plupart des cas, les corrélations observées entre les indices climatiques et les séries piézométriques s'avèrent plus fortes que celles obtenues avec les températures et les précipitations, ce qui pourrait provenir du fait que les séries piézométriques sont influencées par une combinaison de variables climatiques. Ces résultats montrent que la variabilité interannuelle des chroniques piézométriques canadiennes peut être expliquée en partie par les phénomènes climatiques à grande échelle. Ils ouvrent la voie à l'intégration de séries d'indices climatiques dans les calculs de prévision des niveaux d'eau souterraine, améliorant ainsi la capacité de gestion de la ressource en eau souterraine. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Niveaux piézométriques, Précipitations, Températures, Indices climatiques, Analyse en ondelettes, Variabilité interannuelle, Canada.
30

Ouzineb, Mohamed. "Heuristiques efficaces pour l'optimisation de la performance des systèmes séries-parallèles". Thèse, 2009. http://hdl.handle.net/1866/6457.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
31

Gaumont, Casias Judith. "Violence contre les policiers : comprendre l'évolution du taux de voies de fait contre les policiers au Canada". Thèse, 2011. http://hdl.handle.net/1866/5273.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La violence contre les policiers a des répercussions importantes à la fois chez les policiers et pour les administrateurs de la police. En 2005, le taux canadien de voies de fait contre la police a atteint son plus haut sommet en plusieurs décennies, faisant état d’une situation préoccupante. Plusieurs provinces canadiennes connaissent d’ailleurs une hausse marquée de la violence contre leurs policiers depuis plusieurs années. Cette étude vise donc à examiner et à comprendre l’évolution du phénomène de violence contre les policiers au Canada par l’identification de facteurs qui pourraient expliquer les variations du taux de voies de fait contre les policiers. La méthode d’analyse privilégiée dans le cadre de cette étude est une analyse transversale de séries chronologiques regroupées (pooled time series) qui traite des données portant sur les dix provinces canadiennes pour une période allant de 1986 à 2006. Les résultats indiquent que plusieurs facteurs ont un impact sur la violence dont sont victimes les policiers : la proportion de la population âgée entre 15 et 24 ans, la proportion d’hommes de 15 ans et plus, la proportion de la population vivant dans une région urbaine, la proportion de gens divorcés, les taux résiduels de crimes de violence et de crimes rattachés aux drogues, et le nombre d’évasions et de personnes en liberté sans excuse. La présence croissante de policières, qui fait encore l’objet de débats, semble quant à elle réduire le nombre de voies de fait contre la police, quoique l’impact de ce facteur soit de faible portée. Au Québec, la une hausse importante du taux de voies de fait contre les policiers pourrait s’expliquer par la hausse de plusieurs facteurs identifiés comme jouant un rôle dans le phénomène, bien qu’il ne faille pas écarter qu’un changement dans la reportabilité puisse entrer en ligne de compte.
Violence against police officers has important implications both for police officers and police administration. In 2005, the Canadian rate of assault against police officers rose to its highest in decades, showing a worrying situation. Moreover, several Canadian provinces are experiencing a marked increase in violence against their police officers for several years. This study aims to examine and understand the trend of violence against the police officers in Canada by identifying factors affecting the rate of assaults against police officers. In order to do so, a pooled time series analysis, which processes data on the ten Canadian provinces for the period from 1986 to 2006, was performed. Findings indicate that several factors have an impact on the violence against the police: the proportion of young people aged 15-24, the proportion of males aged 15 and more, the proportion of population living in urban areas, the proportion of divorced people, the residual rates of violent crimes and drug crimes, and the number of people who escaped custody and prisoners unlawfully at large. The growing presence of women police officers, which is still debated, appears to reduce the number of assaults against police officers, although the impact of this factor is of limited scope. In Quebec, the continual increase in the rate of assaults against the police officers can possibly be explained by the increase of several factors identified as playing a role in the phenomenon, although a change in crime reporting can also be taken into account.
32

Bédard, Martin. "Du langage cinématographique à la musique acousmatique : écritures et structures". Thèse, 2011. http://hdl.handle.net/1866/7036.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La version intégrale de cette thèse est disponible uniquement pour consultation individuelle à la Bibliothèque de musique de l’Université de Montréal (http://www.bib.umontreal.ca/MU).
Est-ce qu'il est possible d'organiser le discours musical acousmatique de la même manière que le cinéma structure les images animées? Telle est la question qui résume l'essentiel de mon projet de recherche: Du langage cinématographique à la musique acousmatique : Écritures et structures. À la suite d’une étude exhaustive des procédés d'écriture nécessaires à la réalisation d'une œuvre cinématographique, j'ai cherché à établir des relations d'équivalence avec chacune des étapes relatives à l'élaboration d'une œuvre électroacoustique. De la captation des sons au cours du tournage sonore en passant par les étapes de classification, de traitement, de mixage, de montage jusqu'à la diffusion en salle de l'œuvre achevée, chaque étape du lexique visuel offre des arrimages concrets et structurellement pertinents à la conception d'une œuvre musicale. Cette typologie des techniques communes de réalisation entre ces deux médias débouche sur une pratique réaliste et concrète puis permet le renouvèlement d'une démarche compositionnelle par l'ajout d'outils techniques et conceptuels. Les résultats de cette recherche se sont matérialisés sous la forme de trois œuvres acousmatiques. Chacune d'elles, par le contexte de leur genèse, explorent des paramètres spécifiques de cette grammaire initialement visuelle.
Is it possible to organize the electroacoustic musical form in the same way as the cinema structures its moving pictures? Such is the question which summarizes the main part of my project of research: Du langage cinématographique à la musique acousmatique : Écritures et structures (the film language in the acousmatic music: writings and structures). Further to an exhaustive study of the processes of the realization of a film work, I tried to establish relations of equivalences with each of the relative step to the elaboration of an electroacoustic work. Of recording of sounds by the "sound-shootings" by way of the classification, treatment, mixing, editing until the performance at the concert of the finished work, every stage of the visual lexicon offers concrete and structurally relevant stowages to the conception of a musical work. This typology of the common techniques of realization between these two similar medias in a realistic and concrete practice then allows trying something new in a composition musical approach by the addition of technical and abstract tools. The results of this research are realized by the composition of three electroacoustic works. Each of them, by the context of their genesis, investigate specific parameters of this initially visual grammar.

Vai alla bibliografia