Dissertations / Theses on the topic 'Surveillance du temps d’exécution'

To see the other types of publications on this topic, follow the link: Surveillance du temps d’exécution.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Surveillance du temps d’exécution.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Arnez, Yagualca Fabio Alejandro. "Deep neural network uncertainty runtime monitoring for robust and safe AI-based automated navigation." Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG100.

Full text
Abstract:
Les réseaux neuronaux profonds (RNP) ont révolutionné diverses industries au cours de la dernière décennie, comme les véhicules hautement automatisés et les véhicules aériens sans pilote. Les RNP peuvent améliorer notoirement les performances grâce à leur efficacité dans le traitement d'entrées sensorielles complexes et à leur puissant apprentissage de représentation qui surpasse les méthodes traditionnelles dans différentes tâches d'automatisation.Malgré les améliorations impressionnantes des performances introduites par les RNP, ils présentent encore des limites importantes en raison de leur complexité, de leur opacité et de leur manque d'interprétabilité. Plus important encore, dans le cadre de cette thèse, les RNP sont sensibles aux changements de distribution des données, la représentation de la confiance dans les prédictions des RNP n'est pas simple, et la spécification et la vérification des propriétés au moment de la conception peuvent devenir irréalisables dans les RNP de grande taille. Bien que la réduction des erreurs provenant des composants d'apprentissage profond soit essentielle pour construire des systèmes basés sur l'IA de confiance qui peuvent être déployés et adoptés dans la société, il est également crucial de relever les défis susmentionnés. Cette thèse propose de nouvelles méthodes pour surmonter les limitations susmentionnées qui exploitent les informations d'incertitude pour construire des systèmes basés sur l'IA de confiance. L'approche est ascendante, partant de la perspective au niveau des composants et se déplaçant ensuite vers le point de vue au niveau du système. L'utilisation de l'incertitude au niveau des composants est présentée pour la tâche de détection des décalages dans la distribution des données afin de permettre la détection de situations qui peuvent avoir un impact sur la fiabilité de la fonctionnalité d'un composant DNN et, par conséquent, sur le comportement d'un système automatisé. Ensuite, la perspective du système est introduite en prenant en compte un ensemble de composants en séquence, où un composant consomme les prédictions d'un autre pour faire ses propres prédictions. À cet égard, une méthode de propagation de l'incertitude est fournie afin qu'un composant en aval puisse prendre en compte l'incertitude des prédictions d'un composant en amont dans le système. Enfin, un cadre de gestion dynamique des risques est proposé pour faire face aux incertitudes qui surviennent tout au long du système de navigation autonome
Deep Neural Networks (DNNs) have revolutionized various industries in the past decade, such as highly automated vehicles and unmanned aerial vehicles. DNNs can achieve a notorious performance improvement due to their effectiveness in processing complex sensory inputs and their powerful representation learning that outperforms traditional methods across different automation tasks.Despite the impressive performance improvements introduced by DNNs, they still have significant limitations due to their complexity, opacity, and lack of interpretability. More importantly, for the scope of this thesis, DNNs are susceptible to data distribution shifts, confidence representation in DNN predictions is not straightforward, and design-time property specification and verification can become unfeasible in large DNNs. While reducing errors from deep learning components is essential for building trustworthy AI-based systems that can be deployed and adopted in society, addressing these before-mentioned challenges is crucial as well.This thesis proposes new methods to overcome the aforementioned limitations that leverage uncertainty information to build trustworthy AI-based systems. The approach is bottom-up, starting from the component-level perspective and then moving to the systems-level point of view. The use of uncertainty at the component level is presented for the data distribution shift detection task to enable the detection of situations that may impact the reliability of a DNN component functionality and, therefore, the behavior of an automated system. Next, the system perspective is introduced by taking into account a set of components in sequence, where one component consumes the predictions from another to make its own predictions. In this regard, a method to propagate uncertainty is provided so that a downstream component can consider the uncertainty from the predictions of an upstream component. Finally, a framework for dynamic risk management is proposed to cope with the uncertainties that arise along the autonomous navigation system
APA, Harvard, Vancouver, ISO, and other styles
2

Gauthier, Martin. "Surveillance des réseaux en temps réel." Mémoire, École de technologie supérieure, 2009. http://espace.etsmtl.ca/49/1/GAUTHIER_Martin.pdf.

Full text
Abstract:
La nouvelle génération d’outils de communication destinés au travail collaboratif amène une dépendance à des caractéristiques précises des réseaux de télécommunication Internet. Synchromédia est un tel système conçu et développé pour le travail collaboratif. Les caractéristiques exigées par la plateforme Synchromédia sont (1) un débit de trafic égal ou supérieur à la vidéoconférence en haut résolution (2) une latence inférieure à celle qu’exige la voix sur IP et (3) le partage d’énorme quantité de données propres aux applications parmi plusieurs correspondants ou usagers répartis sur un vaste territoire géographique. Le développement de Synchromédia nécessite une adaptation aux caractéristiques du réseau. Afin d’adapter ces propriétés de fonctionnent, un banc d’essai a été conçu, développé et construit dans le Laboratoire de gestion des réseaux informatiques et de télécommunications (LAGRIT). Ce banc d’essai est constitué de plusieurs équipements réseautiques et équipements de perturbation ainsi qu’un générateur de trafic, mais aucun outil de mesure adéquat. Ce mémoire explore la problématique de la mesure des réseaux de télécommunication afin d’identifier les caractéristiques recherchées pour l’évaluation et la mise en place de différents logiciels de surveillance des réseaux de télécommunication pouvant effectuer la collecte d’information en temps réel de façon intègre sur plusieurs sources simultanément. Trois systèmes sont testés en exécutant sur le banc d’essai une batterie de scénarios caractéristiques des échanges de Synchromédia. Les résultats sont présentés sous forme de graphiques qui permettent d’analyser rapidement les caractéristiques résultantes.
APA, Harvard, Vancouver, ISO, and other styles
3

Ben, Amor Slim. "Ordonnancement des tâches avec des dépendances et des temps d’exécution probabilistes sur processeur multi-cœurs." Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS188.

Full text
Abstract:
L'intégration de nouvelles fonctionnalités augmente la complexité des systèmes temps réel , alors que chaque fonctionnalité peut imposer des contraintes de précédences entre les tâches. De plus, la prévalence des multicœurs peut créer l'illusion d'une capacité de calcul élevée. Cependant, cette capacité n'est pas exploitable dans les systèmes critiques en raison de la variabilité des temps d'exécution causé par les nouvelles architecture matérielle qui améliorent le comportement moyen mais pas le pire cas. Cette difficulté s'ajoute à l'existence d'anomalies d'ordonnancement pour les systèmes multicœurs. Dans cette thèse, nous considérons l'ordonnancement partitionné des graphes de précédence. La variabilité des temps d'exécution est décrite par des distributions de probabilité. Nous proposons une Analyse des Temps de Réponse (ATR) basée sur des équations itératives et des opérateurs probabilistes pour des distributions indépendantes. Pour les distributions dépendantes, nous les modélisons par des réseau bayésien. Nous utilisons également la représentation de C-espace et la classification SVM pour estimer la probabilité d'ordonnancabilité. De plus, nous fournissons des techniques de partitionnement et définition des priorités de manière à augmenter le parallélisme. Nous réduisons aussi la complexité de l'analyse en réduisant la taille du graphe sans modifier sa structure
The continuous integration of new functionality increases the complexity of embedded systems, while each functionality might impose precedence constraints between the programs fulfilling it. In addition, the prevalence of several processors may create the illusion of higher computation capacity easing the associated scheduling problem. However, this capacity is not exploitable in critical real time systems because of the increased variability of the execution times due to processor features designed to provide excellent average time behavior and not necessarily ensuring small worst case bounds. This difficulty is added to the existence of scheduling anomalies when the systems are built a top of multi-core processors. In this thesis, we consider partitioned scheduling of DAG tasks defining precedence constraints. The variability of execution times is described by probability distributions. We propose a Response Time Analysis (RTA) based on iterative equations and probabilistic operators for independent distributions. For dependent distributions, we model them using Bayesian network. We also use C-space representation combined with SVM classification to estimate the schedulability probability. Moreover, we provide techniques to define priority and sub-task partitioning in a way to increase parallelism. We also decrease analysis complexity by reducing size of graph without altering the precedence structures
APA, Harvard, Vancouver, ISO, and other styles
4

Elloumi, Yaroub. "Parallélisme des nids de boucles pour l’optimisation du temps d’exécution et de la taille du code." Thesis, Paris Est, 2013. http://www.theses.fr/2013PEST1199/document.

Full text
Abstract:
Les algorithmes des systèmes temps réels incluent de plus en plus de nids de boucles, qui sont caractérisés par un temps d’exécution important. De ce fait, plusieurs démarches de parallélisme des boucles imbriquées ont été proposées dans l’objectif de réduire leurs temps d’exécution. Ces démarches peuvent être classifiées selon deux niveaux de granularité : le parallélisme au niveau des itérations et le parallélisme au niveau des instructions. Dans le cas du deuxième niveau de granularité, les techniques visent à atteindre un parallélisme total des instructions appartenant à une même itération. Cependant, le parallélisme est contraint par les dépendances des données inter-itérations ce qui implique le décalage des instructions à travers les boucles imbriquées, provocant ainsi une augmentation du code proportionnelle au niveau du parallélisme. Par conséquent, le parallélisme total au niveau des instructions des nids de boucles engendre des implémentations avec des temps d’exécution non-optimaux et des tailles du code importantes. Les travaux de cette thèse s’intéressent à l’amélioration des stratégies de parallélisme des nids de boucles. Une première contribution consiste à proposer une nouvelle technique de parallélisme au niveau des instructions baptisée « retiming multidimensionnel décalé ». Elle vise à ordonnancer les nids de boucles avec une période de cycle minimale, sans atteindre un parallélisme total. Une deuxième contribution consiste à mettre en pratique notre technique dans le contexte de l’implémentation temps réel embarquée des nids de boucles. L’objectif est de respecter la contrainte du temps d’exécution tout en utilisant un code de taille minimale. Dans ce contexte, nous avons proposé une première démarche d’optimisation qui consiste à utiliser notre technique pour déterminer le niveau parallélisme minimal. Par la suite, nous avons décrit une deuxième démarche permettant de combiner les parallélismes au niveau des instructions et au niveau des itérations, en utilisant notre technique et le « loop striping »
The real time implementation algorithms always include nested loops which require important execution times. Thus, several nested loop parallelism techniques have been proposed with the aim of decreasing their execution times. These techniques can be classified in terms of granularity, which are the iteration level parallelism and the instruction level parallelism. In the case of the instruction level parallelism, the techniques aim to achieve a full parallelism. However, the loop carried dependencies implies shifting instructions in both side of nested loops. Consequently, these techniques provide implementations with non-optimal execution times and important code sizes, which represent limiting factors when implemented on embedded real-time systems. In this work, we are interested on enhancing the parallelism strategies of nested loops. The first contribution consists of purposing a novel instruction level parallelism technique, called “delayed multidimensional retiming”. It aims to scheduling the nested loops with the minimal cycle period, without achieving a full parallelism. The second contribution consists of employing the “delayed multidimensional retiming” when providing nested loop implementations on real time embedded systems. The aim is to respect an execution time constraint while using minimal code size. In this context, we proposed a first approach that selects the minimal instruction parallelism level allowing the execution time constraint respect. The second approach employs both instruction level parallelism and iteration level parallelism, by using the “delayed multidimensional retiming” and the “loop striping”
APA, Harvard, Vancouver, ISO, and other styles
5

Rahali, Dorra. "Surveillance Statistique du Temps et de l'amplitude entre événements." Thesis, Nantes, 2020. http://www.theses.fr/2020NANT4017.

Full text
Abstract:
Les techniques de surveillance combinée du temps et de l'amplitude pour statistique des procédés SPM sont principalement basées sur les cartes de statistiques. Une nécessité de développement de techniques de surveillance de plus en plus avancées s'est fait sentir dans des domaines autres que l'industrie manufacturière classique. Cependant, peu de chercheurs se sont intéressés à proposer des méthodes dédiées pour la surveillance combinée du temps et de l'amplitude entre événements appelée TBEA. Jusqu'à présent les travaux effectués dans ce domaine se sont limitées à un nombre réduit de distributions et de statistiques à surveiller. Dans cette thèse, nous étudions la performance d'une carte de contrôle de type Shewhart pour la surveillance combinée du temps et de l'amplitude pour différents scénarios de distributions et de statistique. Nous nous intéressons d’abord au cas où les variables temps T et amplitude X sont indépendantes. Ensuite nous étudions celui ou les variables sont dépendantes en utilisant des Copulas comme étant un outil pour modéliser la dépendance. Finalement nous nous intéresserons au cas où l'amplitude est un vecteur et non plus une variable.Les performances de chacune des cartes de contrôle proposées ont été évaluées par l'EATS. Une validation empirique des résultats a été élaborée pour des cas existants.
Statistical process monitoring First we will study the case where we assume (SPM) are mainly based on control charts that the time T and the amplitude X are two which constitute an important step in the quality mutually independent continuous random process. There is a need to develop monitoring variables. Then we study the case where the techniques in manufacturing or non- variables are dependent using Copulas as a manufacturing sectors. This leads to give an mechanism to model the dependence. Finally increasing importance to Time Between Events we discuss the case where the time between and Amplitude (TBEA) control charts. events Tis an univariate random variable and However, few researchers have been the amplitude X is no longer an univariate interested to propose methods to random variable but a multivariate random simultaneously monitor the time between an vector. The performance of each control chart event E and its amplitude. Until now, the vast has been evaluated by EATS. An empirical majority of contributions are limited to a validation of the results has been developed for reduced number of statistics and potential real cases. distributions. ln this thesis we will investigate simple Shewhart type control charts for several statistics and many distributional scenarios
APA, Harvard, Vancouver, ISO, and other styles
6

Ferreira, Porto Rosa Ariane. "Maîtrise statistique de procédés par lots à temps variable." Nantes, 2005. http://www.theses.fr/2005NANT2088.

Full text
Abstract:
L'utilisation des procédés par lots dans la production et le traitement des matières premières a montré une croissance significative pendant les dernières décennies. Elle représente une alternative au mode continu de production, un nouveau mode de production discontinu et diversifié en petites ou moyennes séries. Les procédés par lots ont des points de début et d'arrêts prédéterminés, les matières premières sont introduites dans le procédé en quantités prédéfinies, dans un ordre spécifique. Les méthodes statistiques qui ont été développées pour la surveillance des procédés par lots consistent en l'application des cartes de contrôle multivariables, l'utilisation de l'analyse multidimensionnelle des données, la détection et le diagnostic des défauts. Cependant, dans beaucoup de procédés industriels, les différents profils du même procédé par lots peuvent ne pas avoir le même temps total de durée. Dans ce cas, l'analyse des données du procédé pour effectuer le contrôle statistique multivariable peut être difficile. Cette thèse propose des nouvelles méthodes pour la surveillance hors-ligne et en-ligne des procédés par lots à temps variable basées sur la distance de Hausdorff. Les méthodes proposées ont été appliquées dans une étude de cas simulé et dans une étude de cas industriel. La conclusion est que les méthodes proposées peuvent distinguer efficacement entre les lots nominaux et non nominaux après et avant leur accomplissement
The use of batch processes in the production and the treatment of the raw materials showed a significant growth during the last decades. A batch process is a discontinuous system of production usually met in the processing of the matter industries such as, for example, chemical and pharmaceutical. It represents an alternative to the continuous mode of production diversified in small or average series. Batch processes have predetermined starting and stopping points and raw materials are introduced into the process a predefined amounts, in a specific sequence. The methods developed for the monitoring of batch processes consist in the application of multivariate control charts, in the use of multivariate statistical projection methods, fault detection and process diagnosis. However, in many industries, different runs of the same batch process have a different duration or the duration of various stages within the batches is not the same. In these cases, data analysis from process for performing the multivariate statistical process control can be difficult. This thesis proposes new methods for off-line and on-line monitoring of batch processes with varying duration based on the Hausdorff Distance. These new methods have been successfully tested on a simulated example and on a industrial case example. The conclusion is that these methods are able to efficiently discriminate between nominal and non-nominal batches after and before their completion
APA, Harvard, Vancouver, ISO, and other styles
7

Gonzalez-Mendoza, Miguel. "Surveillance temps-réel des systèmes Homme-Machine. Application à l'assistance à la conduite automobile." Phd thesis, INSA de Toulouse, 2004. http://tel.archives-ouvertes.fr/tel-00336732.

Full text
Abstract:
Ce travail se situe dans le cadre de la surveillance de systèmes homme-machine, où l'opérateur humain est un élément de décision dans la boucle. Ce type de systèmes nécessite une surveillance automatisée globale temps-réel, incluant la détection d'incidents techniques et de défaillances humaines. Partant de l'hypothèse que la partie technologique travaille " correctement " et/ou qu'elle est surveillée par un système de diagnostic, nous nous centrons sur la partie opérateur humain, la plus critique à surveiller. Nous présentons un système de diagnostic appliqué à la surveillance du conducteur automobile à partir d'informations fournies par des capteurs embarqués dans le véhicule. Les travaux ont été développés dans le cadre du projet Européen AWAKE et le projet national " facteurs de dégradation de la vigilance et de la sécurité dans les transports " de PREDIT.
Nous proposons une stratégie générale de système temps-réel pour la surveillance du niveau de vigilance du conducteur (dynamique lente) et la surveillance du niveau de risque lié à la situation actuelle de conduite (dynamique instantanée), à travers :
* L'analyse temporelle et fréquentielle des signaux mécaniques (mesures de performance) par ondelettes et filtres, pour en extraire des caractéristiques dynamiques, statistiques et fréquentielles sur la dégradation de la conduite,
* L'apprentissage par SVM, méthode pour laquelle nous avons développé des stratégies d'implémentation adaptées pour un apprentissage en ligne et pour des problèmes de grande taille,
* La fusion par FIS, afin de profiter de l'expertise humaine et produire un diagnostic sur le niveau de risque lié à la sortie de la voie de circulation.
* La validation d'une telle approche à travers des EEG et EOG (mesures physiologiques) et des autoévaluations (mesures subjectives).
Nous appliquons cette méthodologie à diverses expériences des programmes AWAKE et PREDIT réalisées sur des simulateurs ou des démonstrateurs.
APA, Harvard, Vancouver, ISO, and other styles
8

Gonzalez, Mendoza Miguel. "Surveillance temps-réel des systèmes Homme-Machine : application à l'assistance à la conduite automobile." Toulouse, INSA, 2004. http://www.theses.fr/2004ISAT0026.

Full text
Abstract:
Notre travail se situe dans le cadre de la surveillance de systèmes homme-machine, où l'opérateur humain est un élément de décision dans la boucle. Ce type de systèmes nécessite une surveillance automatisée globale temps-réel, incluant la détection d'incidents techniques et de défaillances humaines. Partant de l'hypothèse que la partie technologique travaille " correctement " et/ou qu'elle est surveillée par un système de diagnostic, nous nous centrons sur la partie opérateur humain, la plus critique à surveiller. Nous présentons un système de diagnostic appliqué à la surveillance du conducteur automobile à partir d'informations fournies par des capteurs embarqués dans le véhicule. Les travaux ont été développés dans le cadre du projet Européen AWAKE et le projet national " facteurs de dégradation de la vigilance et de la sécurité dans les transports " de PREDIT. Nous proposons une stratégie générale de système temps-réel pour la surveillance du niveau de vigilance du conducteur (dynamique lente) et la surveillance du niveau de risque lié à la situation actuelle de conduite (dynamique instantanée), à travers : L'analyse temporelle et fréquentielle des signaux mécaniques (mesures de performance) par ondelettes et filtres, pour en extraire des caractéristiques dynamiques, statistiques et fréquentielles sur la dégradation de la conduite, L'apprentissage par SVM, méthode pour laquelle nous avons développé des stratégies d'implémentation adaptées pour un apprentissage en ligne et pour des problèmes de grande taille, La fusion par FIS, afin de profiter de l'expertise humaine et produire un diagnostic sur le niveau de risque lié à la sortie de la voie de circulation. La validation d'une telle approche à travers des EEG et EOG (mesures physiologiques) et des autoévaluations (mesures subjectives). Nous appliquons cette méthodologie à diverses expériences des programmes AWAKE et PREDIT réalisées sur des simulateurs ou des démonstrateurs
Our work is within the framework of human-machine systems monitoring, in which the human operator is an element of decision in the loop. This type of systems requires a global automated real-time monitoring, including the detection of technical hitches and human faults. Assuming the technological part works "correctly" and/or that it is supervised by a diagnosis system, we are centered on the human operator part, the most critical to supervise. We present a diagnosis system applied to driver's monitoring based on information provided by onboard sensors. This work has been developed in the framework of the European project AWAKE and the national project "factors of vigilance degradation and safety in transports" of PREDIT. We propose a general strategy of real-time system for monitoring the level of vigilance of the driver (slow dynamics) and the monitoring of the level of risk related to the current situation (instantaneous dynamics), through: Temporal and frequential analysis of mechanical signals (performance measures) by wavelets and filters, to extract dynamic, statistical and frequential characteristics of driving degradation, SVM learning, for which we developed adapted implementation strategies for an on-line learning and large-scale problems, FIS fusion, in order to exploit the human expertise and to produce a diagnosis of the level of risk related to lane departure. Validation of such an approach through EEG and EOG (physiological measurements) and self evaluations (subjective measurements). We apply this methodology to various experiments under the framework of AWAKE and PREDIT carried out in simulators or demonstrators
APA, Harvard, Vancouver, ISO, and other styles
9

Limane, Tahar. "Conception et réalisation d'un outil de surveillance, temps réel, d'espaces de débattements de robots." Lyon, INSA, 1991. http://www.theses.fr/1991ISAL0093.

Full text
Abstract:
Les travaux présentés dans ce mémoire concernent la conception et La réalisation d'un outil de surveillance en temps réel, de débattements de robots industriels dans le but d'améliorer La sécurité des opérateurs et des machines. Ce mémoire présente d'abord une analyse globale des conditions de risques en Robotique et la mise en évidence des différents facteurs de dépendance Liés à la spécification d'un système de protection. Les différents moyens et dispositifs de protection ainsi que les paramètres caractérisant l'arrêt d'un robot sont ensuite présentés. Les contraintes liées à la réalisation d'un nouveau système de sécurité, élaborant des contrôles d'appartenance à des espaces de surveillance en intégrant la dynamique du robot surveillé sont étudiées. Sont exposées ensuite, les spécifications fonctionnelles et structurelles ainsi que les modèles conceptuels du système de protection à réaliser. Des approches méthodologiques issues du domaine du Génie Logiciel sont utilisées, permettant ainsi de valider l'ensemble du cycle de vie du produit développe et d'en garantir le niveau de qualité et de fiabilité recherché. Ces travaux sont concrétisés par la réalisation de l'outil SAFE (Surveillance d'Ateliers Flexibles et de leur Environnement). Enfin, des perspectives d'intégration de fonctionnalités complémentaires sont proposées, concernant notamment La gestion de la commande et des espaces de surveillance autour des sites robotisés sécurisés
The study presented in this report addresses the problems of designing and implementing a real-time control system of robots movements. The top-Level objective of the study is to enhance the safety of both the human operators and the machines. We begin with a global analysis of risk conditions in Robotics and general relationship statements between the different factors which have to be taken into account when specifying protection systems. We survey the different methods as well as the different equipments used in protection systems against robots possibly undue clearances. Constraints specification of a mean safety system able to control dynamically the robot's containment within the limits allowed or forbidden spaces are studied. Afterwards, we present the functional and structural specifications a well as the conceptual models of the protection systems to be implemented. Methodological approaches of software engineering type are proposed in view of validating the overall system life-cycle, its quality and its reliability. This study results the elaboration of the software tool SAFE (Surveillance d'Ateliers Flexibles et de Leur environnement) which is described in the report. Further developments of SAFE are suggested concerning, particularly, two inter-related functionalities of safety control : - first, the robot command program itself, - second, the dynamic re-specification of safety space when any change arises in the robot's task
APA, Harvard, Vancouver, ISO, and other styles
10

Ghorayeb, Hicham. "Conception et mise en œuvre d'algorithmes de vision temps-réel pour la vidéo surveillance intelligente." Phd thesis, École Nationale Supérieure des Mines de Paris, 2007. http://pastel.archives-ouvertes.fr/pastel-00003064.

Full text
Abstract:
Notre objectif est d'étudier les algorithmes de vision utilisés aux différents niveaux dans une chaîne de traitement vidéo intelligente. On a prototypé une chaîne de traitement générique dédiée à l'analyse du contenu du flux vidéo. En se basant sur cette chaîne de traitement, on a développé une application de détection et de suivi de piétons. Cette application est une partie intégrante du projet PUVAME. Cette chaîne de traitement générique est composée de plusieurs étapes: détection, classification et suivi d'objets. D'autres étapes de plus haut niveau sont envisagées comme la reconnaissance d'actions, l'identification, la description sémantique ainsi que la fusion des données de plusieurs caméras. On s'est intéressé aux deux premières étapes. On a exploré des algorithmes de segmentation du fond dans un flux vidéo avec caméra fixe. On a implémenté et comparé des algorithmes basés sur la modélisation adaptative du fond. On a aussi exploré la détection visuelle d'objets basée sur l'apprentissage automatique en utilisant la technique du boosting. Cependant, On a développé une librairie intitulée LibAdaBoost qui servira comme un environnement de prototypage d'algorithmes d'apprentissage automatique. On a prototypé la technique du boosting au sein de cette librairie. On a distribué LibAdaBoost sous la licence LGPL. Cette librairie est unique avec les fonctionnalités qu'elle offre. On a exploré l'utilisation des cartes graphiques pour l'accélération des algorithmes de vision. On a effectué le portage du détecteur visuel d'objets basé sur un classifieur généré par le boosting pour qu'il s'exécute sur le processeur graphique. On était les premiers à effectuer ce portage. On a trouvé que l'architecture du processeur graphique est la mieux adaptée pour ce genre d'algorithmes. La chaîne de traitement a été implémentée et intégrée à l'environnement RTMaps. On a évalué ces algorithmes sur des scénarios bien définis. Ces scénarios ont été définis dans le cadre de PUVAME.
APA, Harvard, Vancouver, ISO, and other styles
11

Ghorayeb, Hicham. "Conception et mise en oeuvre d'algorithmes de vision temps réel pour la vidéo surveillance intelligente." Paris, ENMP, 2007. http://www.theses.fr/2007ENMP1463.

Full text
Abstract:
Notre objectif est d'étudier les algorithmes de vision utilisés aux différents niveaux dans une chaîne de traitement vidéo intelligente. On a prototypé une chaîne de traitement générique dédiée à l'analyse du contenu du flux vidéo. En se basant sur cette chaîne de traitement, on a développé une application de détection et de suivi de piétons. Cette application est une partie intégrante du projet PUVAME. Cette chaîne de traitement générique est composée de plusieurs étapes: détection, classification et suivi d'objets. D'autres étapes de plus haut niveau sont envisagées comme la reconnaissance d'actions, l'identification, la description sémantique ainsi que la fusion des données de plusieurs caméras. On s'est intéressé aux deux premières étapes. On a exploré des algorithmes de segmentation du fond dans un flux vidéo avec caméra fixe. On a implémenté et comparé des algorithmes basés sur la modélisation adaptative du fond. On a aussi exploré la détection visuelle d'objets basée sur l'apprentissage automatique en utilisant la technique du boosting. Cependant, On a développé une librairie intitulée LibAdaBoost qui servira comme un environnement de prototypage d'algorithmes d'apprentissage automatique. On a prototypé la technique du boosting au sein de cette librairie. On a distribué LibAdaBoost sous la licence LGPL. Cette librairie est unique avec les fonctionnalités qu'elle offre. On a exploré l'utilisation des cartes graphiques pour l'accélération des algorithmes de vision. On a effectué le portage du détecteur visuel d'objets basé sur un classifieur généré par le boosting pour qu'il s'exécute sur le processeur graphique. On était les premiers à effectuer ce portage. On a trouvé que l'architecture du processeur graphique est la mieux adaptée pour ce genre d'algorithmes. La chaîne de traitement a été implémentée et intégrée à l'environnement RTMaps. On a évalué ces algorithmes sur des scénarios bien définis. Ces scénarios ont été définis dans le cadre de PUVAME
In this dissertation, we present our research work held at the Center of Robotics (CAOR) of the Ecole des Mines de Paris which tackles the problem of intelligent video analysis. The primary objective of our research is to prototype a generic framework for intelligent video analysis. We optimized this framework and configured it to cope with specific application requirements. We consider a people tracker application extracted from the PUVAME project. This application aims to improve people security in urban zones near to bus stations. Then, we have improved the generic framework for video analysis mainly for background subtraction and visual object detection. We have developed a library for machine learning specialized in boosting for visual object detection called LibAdaBoost. To the best of our knowledge LibAdaBoost is the first library in its kind. We make LibAdaBoost available for the machine learning community under the LGPL license. Finally we wanted to adapt the visual object detection algorithm based on boosting so that it could run on the graphics hardware. To the best of our knowledge we were the first to implement visual object detection with sliding technique on the graphics hardware. The results were promising and the prototype performed three to nine times better than the CPU. The framework was successfully implemented and integrated to the RTMaps environment. It was evaluated at the final session of the project PUVAME and demonstrated its fiability over various test scenarios elaborated specifically for the PUVAME project
APA, Harvard, Vancouver, ISO, and other styles
12

ZIMERING, BOB LAURENT. "Application des methodes photothermiques a la surveillance in situ, en temps reel, des polluants atmospheriques." Paris 6, 1997. http://www.theses.fr/1997PA066187.

Full text
Abstract:
Le but de notre recherche est la mise au point d'un instrument base sur la detection photothermique du rayonnement absorbe, capable de mesurer in situ, et en temps reel, la concentration de certains polluants atmospheriques. Pour la detection des gaz a tres faibles concentrations, les techniques de spectroscopie photothermique (lentille thermique, photoacoustique, et effet mirage) offrent plusieurs avantages par rapport a la spectroscopie par absorption classique, notamment une haute sensibilite et l'existence d'un signal de reference absolue. Parmi ces techniques, l'effet mirage est prometteur pour des mesures in situ car il depend seulement de la mesure de la deviation d'un faisceau sonde dans un milieu chauffe par l'absorption d'un faisceau pompe module. Lorsque ce dernier traverse un volume de gaz, les especes presentant une resonance de vibration a la longueur d'onde du laser absorbent une partie de l'energie du laser. Le melange de gaz est ensuite localement chauffe par transfert non-radiatif vibration-translation. Le gradient de temperature induit un gradient d'indice de refraction, qui fait devier le faisceau sonde d'un angle lie au coefficient d'absorption de chacune des especes absorbantes, multiplie par les concentrations de ces dernieres. Pour s'assurer que l'instrument peut servir au maximum d'applications pratiques (surveillance dans une usine, controle des emanations automobiles, etc. ), nous consacrerons une part importante de nos efforts a la fabrication d'un appareillage operationnel adapte a ces usages. Actuellement, nos mesures sur un melange de gaz commercial nous permettent d'estimer a 0,25 partie par milliard la limite de detection pour l'ethylene dans l'air libre (0,25 ppb). Cette limite etant tres bonne, nous avons fait des etudes des echantillons industrielles (polymeres degrades), de vegetaux (feuilles et fruits), afin de stimuler des debouches dans les secteurs de la petrochimie et de l'agriculture.
APA, Harvard, Vancouver, ISO, and other styles
13

Rabéjac, Christophe. "Auto-surveillance logicielle pour applications critiques : méthode et mécanismes." Toulouse, INPT, 1995. http://www.theses.fr/1995INPT116H.

Full text
Abstract:
Les fautes logicielles sont aujourd'hui une preoccupation majeure dans les systemes critiques vis-a-vis de la securite, en particulier parce qu'elles ne peuvent pas etre totalement eliminees lors des phases de test et de validation. Le probleme qui fait l'objet de cette these est donc la detection en ligne des erreurs dues a ces fautes residuelles, et en particulier celles a manifestations temporaires (pour lesquelles la tolerance peut se limiter a une simple reexecution, le contexte ayant pu suffisamment evoluer pour que leurs conditions d'activation extremement subtiles ne soient plus remplies). Apres avoir presente les techniques existantes de prevention, tolerance et detection des fautes, nous proposons des mecanismes de detection d'erreurs dues a des fautes de conception, concus pour detecter non seulement des erreurs sur les donnees du logiciel mais aussi des erreurs sur son flot de controle, et valides a la fois par des techniques d'injection de fautes et par des techniques formelles. Nous proposons en particulier une technique de traces temporisees permettant de specifier le comportement attendu du logiciel, et d'instancier automatiquement sur la base de cette specification un automate generique de verification du flot de controle que nous avons developpe, et dont les algorithmes principaux sont formellement prouves. Pour developper l'ensemble de ces mecanismes nous proposons egalement une methode de conception et de validation basee sur l'utilisation d'une specification de surveillance. Enfin, nous mettons en uvre ces techniques sur deux exemples de logiciels temps-reel embarques afin non seulement de les valider, mais egalement d'en estimer l'efficacite et l'applicabilite
APA, Harvard, Vancouver, ISO, and other styles
14

Sicre, Ronan. "Analyse vidéo de comportements humains dans les points de ventes en temps-réel." Thesis, Bordeaux 1, 2011. http://www.theses.fr/2011BOR14261/document.

Full text
Abstract:
Cette thèse est effectuée en collaboration entre le LaBRI (Laboratoire bordelais de recherche en informatique) et MIRANE S.A.S., le leader français en Publicité sur Lieu de Vente (PLV) Dynamique. Notre but est d'analyser des comportements humains dans un point de vente. Le long de cette thèse, nous présentons un système d'analyse vidéo composé de plusieurs procédés de divers niveaux. Nous présentons, dans un premier temps, l'analyse vidéo de bas niveau composée de la détection de mouvement et du suivi d'objets. Puis nous analysons le comportement de ces objets suivis, lors de l'analyse de niveau moyen. Finalement, l'analyse de haut-niveau est composée d'une interprétation sémantique de ces comportements et d'une détection de scenarios de haut-niveau
Along this thesis various subjects are studied, from the lowest to the higher level of video analysis. We first present motion detection and object tracking that compose the low-level processing part of our system. Motion detection aims at detecting moving areas, which correspond to foreground, of an image. The result of motion detection is a foreground mask that is used as input for the object tracking process. Tracking matches and identifies foreground regions across frames. Then, we analyze the behavior of the tracked objects, as the mid-level analysis. At each frame, we detect the current state of action of each tracked object currently in the scene. Finally, the system generates a semantic interpretation of these behaviors and we analyze high-level scenarios as the high-level part of our system. These two processes analyze the series of states of each object. The semantic interpretation generates sentences when state changes occur. Scenario recognition detect three different scenarios by analyzing the temporal constraints between the states
APA, Harvard, Vancouver, ISO, and other styles
15

Lointier, Guillaume. "Vers une surveillance en temps réel des régions magnétosphériques à partir des radars cohérents HF SuperDARN." Phd thesis, Université d'Orléans, 2008. http://tel.archives-ouvertes.fr/tel-00294447.

Full text
Abstract:
L'un des enjeux dans la compréhension des relations Soleil-Terre est l'étude de la dynamique des régions internes de la magnétosphère. Dans ce contexte, l'objectif de mon travail a été de poser les bases d'un modèle opérationnel de détection et de suivi des régions frontières de la magnétosphère à partir du réseau de radars SuperDARN, qui sonde l'ionosphère à haute latitude. L'élaboration d'un tel modèle requiert une réduction de données. Pour cela, une méthode de décomposition en valeurs singulières (SVD) a été appliquée sur la mesure brute (une fonction d'autocorrélation) afin de définir trois nouveaux paramètres statistiques. L'interprétation de ces trois nouveaux paramètres montre que cette approche, bien qu'empirique, offre une description bien plus complète des échos radar que les modèles physiques habituellement utilisés. L'utilisation de ces paramètres avec une méthode de décision Bayésienne permet d'améliorer la détection de la frontière des lignes de champ géomagnétiques ouvertes/fermées. L'introduction d'un formalisme Bayésien comporte plusieurs avantages : il permet de valider le résultat en estimant une erreur sur la localisation, et de plus, il facilite l'introduction de nouvelles connaissances provenant de différents instruments. Ceci est loin d'être négligeable pour compléter les observations des radars SuperDARN. Par ailleurs, les propriétés de ce nouveau modèle ont permis l'élaboration d'un nouvel algorithme de prétraitement et d'analyse des mesures brutes.
APA, Harvard, Vancouver, ISO, and other styles
16

Meynard, Jean-Baptiste. "Réalisation et évaluation d'un système de surveillance en temps réel pour les forces armées en opérations." Aix-Marseille 2, 2007. http://www.theses.fr/2007AIX20690.

Full text
Abstract:
Les objectifs que je devais atteindre dans le cadre de cette Thèse étaient de réaliser un démonstrateur de surveillance en temps réel au sein des forces armées et de pratiquer son évaluation, afin de répondre à la question qui m’était posée de la faisabilité et de l’intérêt de ce type de surveillance en milieu militaire. A partir de ce travail, je devais fournir des propositions pour la généralisation du concept à l’ensemble des forces projetées. J’ai imaginé et participé au développement du système de surveillance spatiale des épidémies au sein des forces armées en Guyane « 2SE FAG », avec l’IMTSSA et différents partenaires depuis 2002, ce qui permettait de répondre à un nouvel objectif de l’Etat-Major des Armées, fixé après un sommet de Défense de l’OTAN. J’ai pris en compte des aspects médicaux, technologiques, humains et organisationnels pour développer ce prototype. 2SE FAG a été conçu comme un procédé de surveillance épidémiologique mis en oeuvre à l’aide d’une communauté de services réseaux basés en Guyane et en métropole. Son développement s’inscrivait dans le cadre d’un arrangement technique franco-britannique, auquel j’ai participé en effectuant entre autres un séjour de 6 mois dans les armées britanniques. J’ai réalisé le déploiement de 2SE FAG en Guyane en octobre 2004 et le système a fonctionné sans discontinuité depuis. La juxtaposition des réseaux a permis de produire des données épidémiologiques opérationnelles qui ont fait la preuve de leur utilité, en particulier au moment de l’épidémie de dengue du premier semestre 2006. L’alerte précoce déclenchée à cette occasion plusieurs semaines avant le système de surveillance réglementaire des forces armées a certainement joué un rôle dans le contrôle de l’épidémie en milieu militaire alors que celle-ci explosait en milieu civil. L’évaluation représentait un travail fondamental pour fournir un retour d’expérience utile et j’ai réalisé différentes études en collaboration avec des organismes extérieurs (SACT de Norfolk, ISPED de Bordeaux, LSTM de Liverpool, Cire Antilles Guyane). Cette démarche permettait à la fois d’apporter des modifications à 2SE FAG mais aussi de faire évoluer positivement l’ensemble des projets du type 2SE du système ASTER. A partir de ces travaux, j’ai pu développer et proposer une nouvelle méthode d’évaluation des systèmes de surveillance militaires destinés à l’alerte précoce pour les forces en opérations extérieures. J’ai identifié des améliorations qui sont encore à apporter au système, mais les différents objectifs ont été considérés comme atteints, à savoir la preuve de la faisabilité de la surveillance en temps réel dans les armées, du bénéfice apporté par un tel système et de son caractère interopérable. L’intérêt de ces travaux a déjà été souligné par des hautes instances nationales et internationales. J’ai réalisé avec les autres co-inventeurs du système une demande de dépôt de brevet au niveau de l’INPI le 25 août 2006. La surveillance épidémiologique en temps réel reste un défi d’avenir pour les armées modernes. Les enseignements acquis grâce à 2SE FAG constituent déjà un retour d’expérience unique au sein des armées de l’OTAN. Mais je pense que l’effort de recherche et de développement doit rester important, dans une dynamique internationale maîtrisée afin de déboucher sur la production d’un système opérationnel et interopérable, adapté aux contraintes actuelles de déploiement des forces et en particulier aux missions multinationales. C’est à ce prix que la surveillance en temps réel pourra participer activement en tous temps et en tous lieux à la préservation de la capacité opérationnelle des forces armées.
APA, Harvard, Vancouver, ISO, and other styles
17

Düstegör, Dilek Staroswiecki Marcel Cocquempot Vincent. "Aspects algorithmiques de l'analyse structurelle pour la surveillance." Villeneuve d'Ascq : Université des sciences et technologies de Lille, 2007. https://iris.univ-lille1.fr/dspace/handle/1908/981.

Full text
Abstract:
Reproduction de : Thèse de doctorat : Automatique et informatique industrielle : Lille 1 : 2005.
N° d'ordre (Lille 1) : 3692. Texte en anglais et en français (introductions). Résumé en français et en anglais. Titre provenant de la page de titre du document numérisé. Bibliogr. p. 201-215.
APA, Harvard, Vancouver, ISO, and other styles
18

Düstegör, Dilek. "Aspects algorithmiques de l'analyse structurelle pour la surveillance." Lille 1, 2005. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2005/50376-2005-Dustegor.pdf.

Full text
Abstract:
L'analyse structurelle est un outil puissant qui permet de déterminer de nombreuses propriétés intrinsèques d'un système dès la phase de conception. Ces propriétés sont obtenues à partir de la seule connaissance de l'existence de liens (contraintes) entre variables sans que les valeurs des paramètres soient nécessaires. L'analyse du modèle structurel, ou analyse structurelle, a été largement utilisée afin de déterminer les propriétés du système relatives à la surveillance : détection et localisation des défaillances. Ce mémoire traite des aspects algorithmiques de cette méthode afin d'améliorer son implémentation. Dans une première partie, nous présentons les différentes approches de modélisation à caractère structurel rencontrées dans la littérature et justifions notre utilisation des graphes bipartis pour la surveillance. Nous recensons les propriétés désirées pour les algorithmes à implanter. La méthode d'analyse structurelle est ensuite détaillée et nous proposons un premier algorithme permettant d'évaluer les propriétés de détection et de localisation des défaillances
Nous abordons ensuite le problème de l'amélioration de la localisabilité des défaillances. L'algorithme proposé permet d'aboutir aux sous-ensembles de défaillances non localisables entre elles. Afin d'améliorer la localisabilité des défaillances, des capteurs supplémentaires peuvent être implantés. Nous proposons une autre solution qui consiste à utiliser des modèles d'évolution dynamique des défaillances lorsque ceux-ci sont disponibles. Nous considérons ensuite le problème de génération de signaux indicateurs de défaut, ou résidus. Un algorithme qui permet de générer la chaîne de calcul optimale par rapport à des contraintes de complexité d'implantation est alors proposé. Pour cela, le problème du mariage stable connu en informatique ainsi que le problème du choix de couplage maximal à pondération minimale sont adaptés au contexte de l'analyse structurelle. Enfin, un algorithme évolutif/adaptatif est décrit afin de tenir compte des évolutions de la structure du système lors de son cycle de vie. Tous les algorithmes développés sont évalués par rapport à l'ensemble de propriétés désirables et sont appliqués sur l'exemple d'un modèle de vanne
APA, Harvard, Vancouver, ISO, and other styles
19

CHANCE, THIERRY. "Interet et limites de l'international normalized ratio (inr) dans la surveillance biologique des traitements aux anticoagulants." Amiens, 1988. http://www.theses.fr/1988AMIEM141.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Subias, Audine. "Approche multi-modèles pour la commande et la surveillance en temps réel des systèmes à évènements discrets." Toulouse 3, 1995. http://www.theses.fr/1995TOU30024.

Full text
Abstract:
Le travail presente s'integre dans le domaine de la surveillance en temps reel des systemes a evenements discrets. Une approche de la commande et de la surveillance dans le contexte particulier des ateliers flexibles de production manufacturiere y est proposee. Ayant mis en evidence la necessite de la modelisation du procede surveille, l'approche dite a modele de reference a ete retenue. Cette approche repose sur une structure hierarchique et modulaire dans laquelle chaque module contient des fonctions de commande et de surveillance. Notre travail montre qu'une telle approche presente un certain manque d'informations, necessaires pour developper un systeme de surveillance en temps reel, global et efficace. En particulier, dans le cas d'une propagation de defaillance d'une activite a une autre, il est necessaire de disposer non seulement d'un mecanisme de propagation ascendante du traitement de la defaillance, de maniere a mieux apprehender la defaillance, mais aussi d'un mecanisme de propagation descendante ayant pour but d'affiner le diagnostic etabli. Aussi l'approche presentee propose la mise en place d'un systeme d'information, veritable source de renseignements sur le procede, en parallele de la hierarchie de commande surveillance existante, et d'un centre de gestion assurant les differentes communications entre les deux elements precedents. La structure et le contenu du systeme d'information sont alors decrits. Un processus d'affinement du diagnostic est defini, mettant en jeu les differentes applications offertes par le systeme d'information (recherche, verification, mise a jour, recuperation). Le role du centre de gestion est mis en evidence ainsi que ses differentes taches (determination de chemin, declenchements des applications). Un exemple de taille industrielle permet d'eclairer les propositions effectuees. Le probleme de la realisation d'une telle approche est egalement aborde
APA, Harvard, Vancouver, ISO, and other styles
21

Feriani, Mohamed. "Surveillance en temps reel du processus de fraisage. Realisation d'un moniteur de suivi de l'usure des outils." Besançon, 1993. http://www.theses.fr/1993BESA2048.

Full text
Abstract:
Dans le domaine de l'usinage de pieces mecaniques, la surveillance en temps reel des outils est fortement recommandee parce qu'elle contribue a la qualite de conformite. L'evolution de l'etat des outils est due a des phenomenes complexes, dont l'interaction est rarement previsible avec precision. La surveillance de l'outil permet la reduction tres sensible des couts d'usinage grace au suivi de l'usure et la prediction des bris. Or, cette surveillance s'avere actuellement delicate et difficile a maitriser en particulier pour le fraisage. L'observation de l'outil hors usinage est en general simple et precise. Cependant, la mise en place d'un systeme automatise est lourde et peut limiter la flexibilite du processus. L'observation de l'outil en ligne pendant l'usinage repond donc a cet inconvenient majeur. Nous avons realise dans ce but un moniteur de surveillance utilisant un signal elabore par l'asservissement de la broche et soumis a un traitement pour le calcul de l'usure et la detection des incidents. L'analyse des resultats a mis en evidence une correlation entre le signal et l'usure ainsi que les differents problemes relatifs a la degradation des outils. L'aspect experimental ne peut en aucun cas donner une satisfaction complete, nous avons procede alors a une modelisation du processus d'usinage pour simuler son comportement face a des situations changeantes en fonction des caracteristiques de l'outil et des conditions d'usinage
APA, Harvard, Vancouver, ISO, and other styles
22

Fathallah, Houssem Eddine. "Conception d'un système temps-réel de surveillance de l'exposition aux polluants de l'air intérieur : application au formaldéhyde." Thesis, Université de Lorraine, 2016. http://www.theses.fr/2016LORR0100.

Full text
Abstract:
Le formaldéhyde est un polluant classé comme « hautement prioritaire » dans l’air intérieur. En raison de ses effets sur la santé, la réglementation française émergente (action 7 du PNSE2) impose de mesurer le formaldéhyde dans les lieux publics (écoles, crèches etc.) à partir de 2017. Or, aucun appareil sur le marché n’est capable de fournir des mesures précises, en temps réel et à faible coût. Cette thèse s’inscrit dans le cadre du projet ANR CAPFEIN (réseau de CAPteurs de FormaldEhyde intelligents pour la surveillance de l'air Intérieur) dont l’objectif est de réaliser un « capteur intelligent » de Formaldéhyde. Le sujet de thèse était de concevoir un système de surveillance en temps réel de l’exposition des personnes au Formaldéhyde, et plus généralement à n’importe quel polluant de l’air intérieur. Les capteurs doivent donc être dotés d’une interface de communication pour pouvoir collecter automatiquement les mesures en différents points de l’environnement à surveiller. Deux systèmes de surveillance ont été développés. Le premier repose sur des composants sur étagère et sur une architecture centralisée en se basant sur le concept de l'Internet des objets (IoT). Le second a été entièrement conçu au CRAN et correspond au développement d'une solution basée sur une approche distribuée. Un badge intelligent a été développé. Il permet de surveiller les taux d’exposition de chaque porteur de badge. Les contraintes majeures de ce travail ont été de pouvoir localiser les personnes dans un milieu intérieur, d’optimiser les algorithmes en termes de place mémoire et de consommation d’énergie. Pour la partie optimisation, des méthodes de moyenne mobile à pondération exponentielle ont été implémentées et évaluées. Les deux prototypes ont été testés dans les bâtiments du CRAN et ont montré leur intérêt
Formaldehyde is classified as a "high priority" pollutant in the indoor air quality. Because of its health effects, the emerging French regulation (Action 7 of PNSE2) requires the measurement of formaldehyde in public places (schools, kindergartens etc.) from 2017. However, no device on the market is able to provide accurate measurements in real time and at low cost. This thesis forms part of the ANR project CAPFEIN (réseau de CAPteurs de FormaldEhyde intelligents pour la surveillance de l'air Intérieur) whose purpose is to develop a "smart Formaldehyde sensor". The thesis objective is to design a real-time monitoring system of human exposure to formaldehyde, and more generally to indoor air pollutant. The sensors must be equipped with a communication interface to automatically collect measurements at different points of the environment to be monitored. Two monitoring systems have been developed. The first is Designed with commercial off-the-shelf component and a centralized architecture based on the concept of the Internet of Things (IoT). The second was designed from the CRAN and corresponds to the development of a solution based on a distributed approach. A smart badge has been developed. It can monitor exposure levels to each cardholder. The major constraints of this work consist on the ability to locate people in an indoor environment and the ability to optimize the algorithms in terms of memory space and power consumption. For the optimization part, the moving average exponential weighting methods have been implemented and evaluated. Both prototypes were tested in buildings of CRAN and showed interest
APA, Harvard, Vancouver, ISO, and other styles
23

Rihani, Hamza. "Analyse temporelle des systèmes temps-réels sur architectures pluri-coeurs." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM074/document.

Full text
Abstract:
La prédictibilité est un aspect important des systèmes temps-réel critiques. Garantir la fonctionnalité de ces systèmespasse par la prise en compte des contraintes temporelles. Les architectures mono-cœurs traditionnelles ne sont plussuffisantes pour répondre aux besoins croissants en performance de ces systèmes. De nouvelles architectures multi-cœurssont conçues pour offrir plus de performance mais introduisent d'autres défis. Dans cette thèse, nous nous intéressonsau problème d’accès aux ressources partagées dans un environnement multi-cœur.La première partie de ce travail propose une approche qui considère la modélisation de programme avec des formules desatisfiabilité modulo des théories (SMT). On utilise un solveur SMT pour trouverun chemin d’exécution qui maximise le temps d’exécution. On considère comme ressource partagée un bus utilisant unepolitique d’accès multiple à répartition dans le temps (TDMA). On explique comment la sémantique du programme analyséet le bus partagé peuvent être modélisés en SMT. Les résultats expérimentaux montrent une meilleure précision encomparaison à des approches simples et pessimistes.Dans la deuxième partie, nous proposons une analyse de temps de réponse de programmes à flot de données synchroness'exécutant sur un processeur pluri-cœur. Notre approche calcule l'ensemble des dates de début d'exécution et des tempsde réponse en respectant la contrainte de dépendance entre les tâches. Ce travail est appliqué au processeur pluri-cœurindustriel Kalray MPPA-256. Nous proposons un modèle mathématique de l'arbitre de bus implémenté sur le processeur. Deplus, l'analyse de l'interférence sur le bus est raffinée en prenant en compte : (i) les temps de réponseet les dates de début des tâches concurrentes, (ii) le modèle d'exécution, (iii) les bancsmémoires, (iv) le pipeline des accès à la mémoire. L'évaluation expérimentale est réalisé sur desexemples générés aléatoirement et sur un cas d'étude d'un contrôleur de vol
Predictability is of paramount importance in real-time and safety-critical systems, where non-functional properties --such as the timing behavior -- have high impact on the system's correctness. As many safety-critical systems have agrowing performance demand, classical architectures, such as single-cores, are not sufficient anymore. One increasinglypopular solution is the use of multi-core systems, even in the real-time domain. Recent many-core architectures, such asthe Kalray MPPA, were designed to take advantage of the performance benefits of a multi-core architecture whileoffering certain predictability. It is still hard, however, to predict the execution time due to interferences on sharedresources (e.g., bus, memory, etc.).To tackle this challenge, Time Division Multiple Access (TDMA) buses are often advocated. In the first part of thisthesis, we are interested in the timing analysis of accesses to shared resources in such environments. Our approach usesSatisfiability Modulo Theory (SMT) to encode the semantics and the execution time of the analyzed program. To estimatethe delays of shared resource accesses, we propose an SMT model of a shared TDMA bus. An SMT-solver is used to find asolution that corresponds to the execution path with the maximal execution time. Using examples, we show how theworst-case execution time estimation is enhanced by combining the semantics and the shared bus analysis in SMT.In the second part, we introduce a response time analysis technique for Synchronous Data Flow programs. These are mappedto multiple parallel dependent tasks running on a compute cluster of the Kalray MPPA-256 many-core processor. Theanalysis we devise computes a set of response times and release dates that respect the constraints in the taskdependency graph. We derive a mathematical model of the multi-level bus arbitration policy used by the MPPA. Further,we refine the analysis to account for (i) release dates and response times of co-runners, (ii)task execution models, (iii) use of memory banks, (iv) memory accesses pipelining. Furtherimprovements to the precision of the analysis were achieved by considering only accesses that block the emitting core inthe interference analysis. Our experimental evaluation focuses on randomly generated benchmarks and an avionics casestudy
APA, Harvard, Vancouver, ISO, and other styles
24

Bechar, Hassane. "Comparaison d'images : Application à la surveillance et au suivi de trajectoire." Nancy 1, 1987. http://www.theses.fr/1987NAN10062.

Full text
Abstract:
L'étude se base sur la comparaison d'une image stockée en mémoire avec celle provenant de la caméra. L'étude s'est effectuée à l'aide d'un dispositif cablé qui donne un résultat visuel et un résultat numérique en temps réel. Un logiciel permet d'obtenir les mêmes résultats mais en temps différé
APA, Harvard, Vancouver, ISO, and other styles
25

Maugin, Armelle. "Ce que révèle la photographie d'un dispositif de vidéo de surveillance tourné vers le paysage... /." Paris : Université de Paris VIII, 1995. http://catalogue.bnf.fr/ark:/12148/cb35814517q.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Li, Zhongyang. "Suivi de multi-modulations non linéaires pour la surveillance." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00935243.

Full text
Abstract:
Cette thèse propose une nouvelle méthode pour modéliser les fonctions non linéaires de modulations d'amplitude et de fréquence de signaux multicomposantes non stationnaires de durée longue. La méthode repose sur une décomposition du signal en segments courts pour une modélisation locale sur les segments. Pour initialiser la modélisation, nous avons conçu une première étape qui peut être considérée comme un estimateur indépendant et non paramétrique des fonctions de modulations. L'originalité de l'approche réside dans la définition d'une matrice de convergence totale intégrant simultanément les valeurs d'amplitude et de fréquence et utilisé pour l'association d'un pic à une composante selon un critère d'acceptation stochastique. Suite à cette initialisation, la méthode estime les fonctions de modulations par l'enchaînement des étapes de segmentation, modélisation et fusion. Les fonctions de modulations estimées localement par maximum de vraisemblance sont connectées dans l'étape de fusion, qui supprime les discontinuités, et produit l'estimation globale sur la durée totale du signal. Les étapes sont conçues afin de pouvoir modéliser des signaux multicomposantes avec des morts et naissances, ce qui en fait une de ses originalités par rapport aux techniques existantes. Les résultats sur des signaux réels et simulés ont illustré les bonnes performances et l'adaptabilité de la méthode proposée.
APA, Harvard, Vancouver, ISO, and other styles
27

Ghazel, Mohamed. "Surveillance des systèmes à évènements discrets à l'aide des réseaux de Petri Temporels." Ecole Centrale de Lille, 2005. http://www.theses.fr/2005ECLI0008.

Full text
Abstract:
Nous nous intéressons dans le cadre de cette thèse à la surveillance des systèmes à événements discrets (SED). Plus particulièrement, nous cherchons à développer une approche de surveillance qui permet d'exploiter le facteur temps dans un contexte d'observabilité partielle sur le comportement du système. Comme pour les principales approches de surveillance existantes, nous partons d'un modèle comportemental du système. II s'agit ici d'un modèle de type réseau de Petri T-temporel (RdPT). Le choix des RdPT se justifie par la riche sémantique de ce type de modèles et par ses bonnes capacités d'expression des aspects liés à la surveillance. Notre approche propose la construction d'un Estimateur d'état à partir du graphe de classes d'état du système selon un algorithme que nous avons développé. L'Estimateur, de par sa structure, met en évidence les conséquences perceptibles ou non de l'occurrence des différents scénarios événementiels possibles dans le système. Par ailleurs, et en vue de préparer une base pour la mise en oeuvre des mécanismes de surveillance, notre algorithme de construction de l'Estimateur prévoit l'intégration des séquences événementielles antérieures, permettant d'extraire les scénarios possibles suite à l'occurrence d'un événement observable, et des séquences candidates permettant d'anticiper l'analyse des scénarios événementiels possibles. Un algorithme de suivi permet par ailleurs, en ligne, de vérifier la normalité du comportement et de retrouver les éventuelles défaillances qui peuvent se produire dans le système. Les idées développées reposent sur la corrélation des informations recueillies en ligne avec les données de l'Estimateur. Toujours dans le même contexte, une étude de l'observabilité (surveillabilité + diagnosabilité) a été effectuée. Le dernier volet de notre étude concerne le développement de métamodèles pour la synthèse des relations fonctionnelles dans un système donné. L'objectif étant d'apporter une contribution dans une approche plus globale de construction de modèles pour la surveillance. Un tel modèle ne peut en effet être élaboré sans la détermination des relations fonctionnelles, notamment les relations de dépendance et de causalité dans le système étudié. La connaissance des relations fonctionnelles est par ailleurs importante pour assurer l'identification par propagation d'hypothèses de défaillances à travers des modèles fonctionnels. Afin d'assurer la généricité de nos métamodèles, une démarche d'abstraction inspirée du domaine du génie logiciel a été adoptée, et UML a été choisi comme formalisme de modélisation pour les avantages qu'il offre.
APA, Harvard, Vancouver, ISO, and other styles
28

Bégard, Julien. "Reconnaissance de formes dans des séquences vidéo : application à la vidéo-surveillance." Paris 6, 2008. http://www.theses.fr/2008PA066538.

Full text
Abstract:
Cette thèse aborde le problème de la détection de personnes dans des images. L’objectif est d’aboutir à un système performant de détection de piétons dans un contexte automobile en milieu urbain. Nous avons abordé ce sujet sur deux fronts principaux. Le premier a été de concevoir une représentation discriminante de la forme des objets. De part la grande diversité des apparences des piétons, celle-ci doit être assez riche pour capturer les caractéristiques nécessaires pour les reconnaître. Nous avons construit cette description à partir de l’information du gradient calculé dans l’image et sa magnitude: les Histogrammes d’Orientation du Gradient enrichis de la Magnitude. Calculés de façon dense dans une région de l’image, ces descripteurs forment des vecteurs définissant finement la forme des objets. Nous comparons ces descripteurs avec des règles de décision formés à partir de méthodes d’apprentissage automatique. Notre système est basé sur l’algorithme AdaBoost auquel nous avons apporté des modifications pour obtenir un algorithme utilisant plus efficacement l’information fournie. Ces modifications ont donné deux algorithmes aux les performances complémentaires. Nous avons conçu une méthode pour combiner ces algorithmes et obtenir de meilleurs résultats. Nous avons structuré notre système en une cascade de sous-détecteurs de plus en plus complexes. Le but de cette structure est d’éliminer le plus tôt possible les mauvais candidats. Ainsi, seuls les bons candidats atteignent le sommet de la cascade, constitué des règles de décisions les plus complexes et les plus coûteuses en temps. Nous avons évalué et validé cette méthodologie sur des données couleurs et infrarouges
This thesis addresses the problem of detecting people in pictures. The objective is to achieve an efficient system for detecting pedestrians in an automotive context in urban areas. We discussed this issue on two main fronts. The first was to design a discriminant representation of the form of the objects. Due to the wide variety of appearances of pedestrians, it must be rich enough to capture the characteristics necessary to recognize them. We built this description from the information of the gradient calculated in the image and its magnitude: Histograms of Orientation Gradient fortified with the Magnitude. Calculated densely in regions of the image, these descriptors forms vectors that define finely the shape of objects. We compare these descriptors with decision rules formed from machine learning methods. Our system is based on AdaBoost algorithm that we have made changes to get an algorithm using more effectively the information provided. These changes gave two algorithms with comparable performance. We have designed a method to combine these algorithms and get better results. We structured our system in a cascade of sub-detectors that are increasingly complex. The purpose of this structure is to eliminate as soon as possible wrong candidates. Thus, only the right candidates reaching the top of the cascade, consisting of the most complex and time-costly rules decisions. We evaluated and validated this methodology on color and infrared data
APA, Harvard, Vancouver, ISO, and other styles
29

Lauffenburger, Jean-Philippe. "Contribution à la surveillance temps-réel du système "Conducteur - Véhicule - Environnement" : élaboration d'un système intelligent d'aide à la conduite." Phd thesis, Université de Haute Alsace - Mulhouse, 2002. http://tel.archives-ouvertes.fr/tel-00732949.

Full text
Abstract:
Le sujet de cette thèse vise l'intégration dans une automobile de fonctions d'observation, de supervision, d'aide à la décision ou encore de commande. La problématique est le développement d'une assistance à la conduite longitudinale et latérale basée sur la localisation du véhicule. Le but est de signaler et corriger les faiblesses de conduite en considérant les paramètres du véhicule, du conducteur et la topologie de la route. Selon la localisation du véhicule, une trajectoire de référence et la vitesse associée sont déterminées en fonction du conducteur et de la phase de conduite. Ces références sont utilisées pour effectuer le contrôle du véhicule ou pour informer le conducteur de l'inadéquation de ses consignes.
Dans ce contexte, la localisation du véhicule et particulièrement les informations de l'environnement d'évolution doivent être pertinentes. Elles sont obtenues grâce à une base de données cartographique spécifiquement développée dans le cadre de ces travaux. Celle-ci est caractérisée par une précision supérieure à celle des bases de données traditionnellement employées dans des dispositifs de navigation.
APA, Harvard, Vancouver, ISO, and other styles
30

Anghel, Andrei. "Analyse temps-frequence et traitement des signaux RSO à haute résolution spatiale pour la surveillance des grands ouvrages d'art." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAT107/document.

Full text
Abstract:
Cette thèse s'articule autour de deux axes de recherche. Le premier axe aborde les aspects méthodologiques liés au traitement temps-fréquence des signaux issus d'un radar FMCW (à onde continue modulée en fréquence) dans le contexte de la mesure des déplacements fins. Le second axe est dédié à la conception et à la validation d'une chaîne de traitement des images RSO (radar à synthèse d'ouverture) satellitaire. Lorsqu'un maillage 3D de la structure envisagée est disponible, les traitements proposés sont validés par l'intercomparaison avec les techniques conventionnelles d'auscultation des grands ouvrages d'art.D'une part, nous étudions la correction de la non-linéarité d'un radar FMCW en bande X, à courte portée, conçu pour la mesure des déplacements millimétriques. La caractéristique de commande non linéaire de l'oscillateur à large bande, entraine une perte de résolution à la réception. Afin de pallier cet inconvénient, nous avons développé deux méthodes basées sur le ré-échantillonnage temporel (time warping) dans le cas des signaux à large bande non-stationnaires. La première approche estime la loi de fréquence instantanée non linéaire à l'aide de la fonction d'ambiguïté d'ordre supérieur, tandis que la deuxième approche exploite la mesure de concentration spectrale du signal de battement dans un algorithme d'autofocus radial.D'autre part, nous proposons un cadre méthodologique général pour la détection et le pistage des centres de diffusion dans les images RSO pour la surveillance des grands ouvrages d'art. La méthode est basée sur la ré-focalisation de chaque image radar sur le maillage 3D de l'infrastructure étudiée afin d'identifier les diffuseurs pertinents par tomographie 4D (distance – azimut – élévation – vitesse de déformation). L'algorithme de ré-focalisation est parfaitement compatible avec les images RSO acquises dans les différents modes (« stripmap », « spotlight » et « sliding spotlight ») : dé-focalisation en azimut suivie par rétroprojection modifiée (conditionnée par la structure temps-fréquence du signal) sur l'ensemble donné des points. Dans la pile d'images ré-focalisées, les centres de diffusion sont détectés par tomographie 4D : test de conformité à l'hypothèse d'élévation zéro dans le plan élévation – vitesse de déformation. La vitesse moyenne correspond au maximum à l'élévation zéro, tandis que la série temporelle des déplacements est obtenue par double différence de phase des amplitudes complexes pour chaque diffuseur pertinent.Nous présentons également les campagnes in situ effectuées au barrage de Puylaurent (et glissement de Chastel) : les relevés GPS, topographiques et LIDAR sol employées au calcul des maillages 3D. La comparaison entre les déplacements mesurés in situ et les résultats obtenus par l'exploitation conjointe de la télédétection RSO satellitaires et les maillages 3D valident la chaîne de traitement proposée
The thesis is composed of two research axis. The first one consists in proposing time-frequency signal processing tools for frequency modulated continuous wave (FMCW) radars used for displacements measurements, while the second one consists in designing a spaceborne synthetic aperture radar (SAR) signal processing methodology for infrastructure monitoring when an external point cloud of the envisaged structure is available. In the first part of the thesis, we propose our solutions to the nonlinearity problem of an X-band FMCW radar designed for millimetric displacement measurements of short-range targets. The nonlinear tuning curve of the voltage controlled oscillator from the transceiver can cause a dramatic resolution degradation for wideband sweeps. To mitigate this shortcoming, we have developed two time warping-based methods adapted to wideband nonlinearities: one estimates the nonlinear terms using the high order ambiguity function, while the other is an autofocus approach which exploits the spectral concentration of the beat signal. Onwards, as the core of the thesis, we propose a novel method for scattering centers detection and tracking in spaceborne SAR images adapted to infrastructure monitoring applications. The method is based on refocusing each SAR image on a provided 3D point cloud of the envisaged infrastructure and identifying the reliable scatterers to be monitored by means of four dimensional (4D) tomography. The refocusing algorithm is compatible with stripmap, spotlight and sliding spotlight SAR images and consists of an azimuth defocusing followed by a modified back-projection algorithm on the given set of points which exploits the time-frequency structure of the defocused azimuth signal. The scattering centers of the refocused image are detected in the 4D tomography framework by testing if the main response is at zero elevation in the local elevation-velocity spectral distribution. The mean displacement velocity is estimated from the peak response on the zero elevation axis, while the displacements time series for detected single scatterers is computed as double phase difference of complex amplitudes.Finally, we present the measurement campaigns carried out on the Puylaurent water-dam and the Chastel landslide using GPS measurements, topographic surveys and laser scans to generate the point clouds of the two structures. The comparison between in-situ data and the results obtained by combining TerraSAR-X data with the generated point clouds validate the developed SAR signal processing chain
Teza cuprinde două axe principale de cercetare. Prima axă abordează aspecte metodologice de prelucraretimp-frecvenţă a semnalelor furnizate de radare cu emisie continuă şi modulaţie de frecvenţă (FMCW)în contextul măsurării deplasărilor milimetrice. În cadrul celei de-a doua axe, este proiectată şi validatăo metodă de prelucrare a imaginilor satelitare SAR (radar cu apertură sintetică) ce este destinatămonitorizării infrastructurii critice şi care se bazează pe existenţa unui model 3D al structurii respective.În prima parte a tezei, sunt investigate soluţii de corecţie a neliniarităţii unui radar FMCW în bandaX destinat măsurării deplasărilor milimetrice. Caracteristica de comandă neliniară a oscilatorului debandă largă determină o degradare a rezoluţiei în distanţă. Pentru a rezolva acest inconvenient, au fostelaborate două metode de corecţie a neliniarităţii, adaptate pentru semnale de bandă largă, ce se bazeazăpe conceptul de reeşantionare neuniformă sau deformare a axei temporare. Prima abordare estimeazăparametrii neliniarităţii utilizând funcţii de ambiguitate de ordin superior, iar cea de-a doua exploateazăo măsură de concentraţie spectrală a semnalului de bătăi într-un algoritm de autofocalizare în distanţă.În a doua parte a lucrării, este propusă o metodologie generală de detecţie şi monitorizare a centrilorde împrăştiere în imagini SAR în scopul monitorizării elementelor de infrastructură critică. Metoda sebazează pe refocalizarea fiecărei imagini radar pe un model 3D al structurii investigate în scopul identificăriicentrilor de împrăştiere pertinenţi (ţinte fiabile ce pot fi monitorizate în timp) cu ajutorul tomografiei SAR4D (distanţă-azimut-elevaţie-viteză de deplasare). Algoritmul de refocalizare este compatibil cu imaginiSAR achiziţionate în moduri diferite (« stripmap », « spotlight » şi « sliding spotlight ») şi constă într-odefocalizare în azimut urmată de o retroproiecţie modificată (condiţionată de structura timp-frecvenţă asemnalului) pe modelul 3D al structurii. Ţintele sunt identificate în stiva de imagini refocalizate cu ajutorultomografiei 4D prin efectuarea unui test de conformitate cu ipoteza că centrii de împrăştiere pertinenţivor avea elevaţie zero în planul local elevaţie-viteză. Viteza medie de deformare corespunde maximuluide pe axa de elevaţie nulă, iar seria temporară a deplasărilor se obţine printr-o dublă diferenţă de fază aamplitudinilor complexe corespunzătoare ţintelor identificate.În final sunt prezentate campaniile de măsurători pe teren efectuate la un baraj şi o alunecare de terendin regiunea Puylaurent (Franţa) destinate obţinerii modelului 3D al celor două elemente de infrastructurăprin măsurători GPS, topografice şi LIDAR. Comparaţia între deformările măsurate pe teren şi rezultateleobţinute prin combinarea imaginilor SAR cu modelele 3D au permis validarea metodologiei propuse
APA, Harvard, Vancouver, ISO, and other styles
31

Vieren, Christophe. "Segmentation de scènes dynamiques en temps réel : application au traiyement de séquences d'images pour la surveillance de carrefours routiers." Lille 1, 1988. http://www.theses.fr/1988LIL10029.

Full text
Abstract:
Présentation d'une méthode d'analyse de séquences d'images orientée vers l'interprétation de scènes dynamiques où évoluent des objets quelconque, sur fond non uniforme et sous éclairage non contrôlé. La procédure, implanté sur une machine de vision orientée temps réel a été sur des images réelles de trafic routier urbain. Les résultats montrent l'intérêt de l'approche proposée en vue de la surveillance et du contrôle de véhicules guidés en site non protégé.
APA, Harvard, Vancouver, ISO, and other styles
32

Vieren, Christophe. "Segmentation de scènes dynamiques en temps réel application au traitement de séquences d'images pour la surveillance de carrefours routiers /." Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb37619102q.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

Cotton, Julien. "Analyse et traitement de données sismiques 4D en continu et en temps réel pour la surveillance du sous-sol." Electronic Thesis or Diss., Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLEM023.

Full text
Abstract:
La sismique réflexion 3D est largement utilisée dans l'industrie pétrolière. Cette méthode d’auscultation du sous-sol fournit des informations sur les structures géologiques et peut être utilisée pour construire des modèles de réservoir. Cependant, les propriétés dérivées des données sismiques 3D (et 2D) ne sont que statiques: elles ne permettent pas d’évaluer ce qui change avec le temps. L'ajout d'une dimension temporelle aux données 3D est obtenue par la répétition des mesures à plusieurs dates séparées de plusieurs mois voire même de plusieurs années. Ainsi, la sismique4D (time-lapse) permet d’appréhender les modifications du sous-sol sur le long terme. Depuis les années 90, cette méthode est utilisée dans le monde entier en mer et à terre. Pour réaliser une surveillance beaucoup plus fréquente (quotidienne), voire continue (quelques heures) du sous-sol, CGG a développé, en collaboration avec Gaz de France (désormais ENGIE) et l’Institut Français du Pétrole (maintenant IFPEN), une solution basée sur des sources et des récepteurs enterrés: SeisMovie. SeisMovie a été initialement conçu pour suivre et cartographier en temps-réel le front de gaz lors des opérations de stockage en couche géologique. Il est aussi utilisé pour observer l’injection de vapeur nécessaire à la production d’huile lourde. Dans cette thèse, nous apportons des contributions à trois défis qui apparaissent lors du traitement des données sismiques issues de ce système. Le premier concerne l'atténuation des variations de proche surface causées par les ondes « fantômes » qui interfèrent avec les ondes primaires. Le second concerne la quantification des modifications du sous-sol en termes de variation de vitesse de propagation et d’impédance acoustique.Le troisième concerne le temps-réel : le traitement doit être au moins aussi rapide que le cycle d’acquisition (quelques heures). En effet l’analyse des données doit permettre aux ingénieurs réservoirs de prendre rapidement des décisions (arrêt de l’injection, diminution de la production). Dans un cadre plus général, il existe des similitudes conceptuelles entre la 3D et la 4D. En 4D, ce sont les acquisitions répétées qui sont comparées entre elles (ou avec une référence). En3D, pendant l’acquisition, les géophysiciens de terrain comparent les points de tir unitaires entre eux afin d’évaluer la qualité des données pour prendre des décisions (reprendre le point de tir, continuer). Dès lors, certains outils 4D temps réel développés pendant cette thèse peuvent être appliqués. Ainsi une toute nouvelle approche appelée TeraMig pour le contrôle qualité automatisé sur le terrain sera également présentée
3D seismic reflection is widely used in the oil industry. This standard subsoil auscultation method provides information on geological structures and can be used to build reservoir models. However, the properties derived from3D (and 2D) seismic data are only static: 3D does not allow to evaluate the changes with calendar time. The addition of a temporal dimension to 3D data is obtained by repeating the measurements at several dates separated by several months or even several years. Thus, 4D seismic (time-lapse) makes it possible to measure and to analyze the changes of the subsoil in the long term. Since the 90s, this method is used worldwide at sea and on land. To carry out a much more frequent monitoring (daily), even continuous (a few hours) of the subsoil, CGG developed, in collaboration with Gazde France (now ENGIE) and Institut Français du Pétrole (now IFPEN), a solution based on buried sources and receptors: SeisMovie. SeisMovie was originally designed to monitor and map the gas front in real time during geological disposal operations. It is also used to observe the steam injection required for heavy oil production. In this thesis, we bring contributions to three challenges arising in the processing of seismic data from this system. The first one concerns the attenuation of near-surface variations caused by "ghost" waves that interfere with primary waves. The second one concerns the quantification of subsurface changes in terms of propagation velocity variation and acoustic impedance.The third one concerns real-time: the data processing must be at least as fast as the acquisition cycle (a few hours). Infact, the analysis of the data must enable the reservoir engineers to make quick decisions (stop of the injection, decreaseof the production). In a more general context, there are conceptual similarities between 3D and 4D. In 4D, the repeated acquisitions are compared with each other (or with a reference). In 3D, during acquisition, field geophysicists compare unitary shot points with each other to assess the quality of the data for decision-making (reshooting, skipping orcontinuing). Therefore, some 4D real-time tools developed during this thesis can be applied. A new approach called TeraMig for automated quality control in the field will also be presented
APA, Harvard, Vancouver, ISO, and other styles
34

Tanzi, Tullio. "Systeme spatial temps réel d'aide a la décision, application aux risques autoroutiers : D.E.S.T.IN : dispositif d'études et de surveillance du trafic et des incidents." Lyon, INSA, 1998. http://www.theses.fr/1998ISAL0058.

Full text
Abstract:
L'objectif de ces travaux est de concevoir un système temps réel d'analyse de risque afin de compléter les systèmes autoroutiers d'aide à l'exploitation. Plutôt que de s'attacher à la révision d'accidents, le système repose sur l'analyse de l'évolution des conditions de trafic, afin de caractériser les situations à haut risque. Cette anticipation des accidents potentiels doit permettre la mise en œuvre d'actions préventives et une meilleure gestion de la crise. Ces travaux ont permis la définition d'indicateurs de risque dans le contexte routier. Un prototype original a été développé et testé en vraie grandeur. Les indicateurs ont été testés sur un jeu de données de l'autoroute du réseau ESCOT A. Grace à notre approche, les techniques classiques d'analyses spatiales, telles que nous les connaissons dans le monde des systèmes d'information géographiques permettront à la fois de produire des informations quantitatives en temps réel, tels que des distances, des temps prévus d'arrivée, ou encore des périmètres de sécurité, mais aussi de mieux maîtriser l'événement en permettant la simulation de ses phénomènes. Cela nécessite la prise en compte de l'acheminement de l'information au sein du système d'information global. L'originalité de ces travaux peut être résumée en deux points principaux : • Un nouveau concept de système d'information temps réel pour l'analyse des risques. A ce niveau il s'agit de nouveaux indicateurs, • Un nouveau concept qui émerge : la TéléGéomatique, terme fédérateur de la géomatique et des télécommunications, dont l'importance est justifiée par ces travaux
The objective of these works is to specify a real-time system of risk analysis in order to complete systems for motorways to help the exploitation of motorways. Instead of focusing on accidents, the system relies on the analysis of the evolution of traffic conditions, in order to characterise high risk situations. The aim of this potential accident anticipation is to elaborate preventive actions and to allow a better management of the crisis. These works have permitted the definition of risk indicators in the road context. An original prototype has been developed and has been tested in real situations. Indicators have been tested on samples ofdata ofthe freeway of the ESCOT A network. Thanks to our approach, the classic techniques of spatial analyses, as we know them in the world of the geographical information systems will permit to produce sorne quantitative information in real-time, as distances, predicted times of arrivai or security perimeters, but also to better manage the event using phenomena simulations. It requires to take into ac-count the routing of information within the global information system. The originality ofthese works can be summarised in two main points: • A new concept of real-time information system for the analysis of risks (it is about new indicators) A new emerging concept: TéléGéomatique, term based on geomatics and telecommunications, whose importance is justified by these works
APA, Harvard, Vancouver, ISO, and other styles
35

Abed, Hajer. "Interface électronique et logicielle pour la surveillance de la respiration en temps réel en utilisant des vêtements intelligents sans fils." Master's thesis, Université Laval, 2020. http://hdl.handle.net/20.500.11794/68400.

Full text
Abstract:
Dans ce mémoire, on présente une nouvelle architecture d’un chandail intelligent pour surveiller la respiration en temps réel. Ce vêtement intelligent comporte une architecture qui offre une méthode de détection innovante assurant une suivie de l’activité respiratoire en continue. Tout d’abord le chandail détecte la déformation du haut du thorax pendant la respiration à l’aide d’une antenne intégrée dans le chandail. L’antenne a été conçue dans les laboratoires du centre d’optique, photonique et laser de l’université Laval. Un capteur Bluetooth intégré dans le même chandail détecte par la suite la variation du signal RSSI (indicateur d’intensité du signal reçu) et l’envoie à une unité de traitement et d’analyse de données sans fils (un ordinateur ou une tablette). Une interface d’analyse des données a été crée pour permettre la détermination du rythme respiratoire et le caractériser selon le signal de respiration reçu. En plus, le chandail intelligent est alimenté par une source d’énergie sans fils et hybride fonctionnant avec une batterie rechargeable ou par un lien inductif. Deux versions de chandail ont été testées. La première contient un seul capteur alors que la deuxième possède six capteurs positionnés sur la partie frontal du vêtement. En plus, différents paramètres ont été pris en considération durant les tests citant entre autres la morphologie, l’âge et le sexe des utilisateurs. Des tests ont démontré une détection réussie de plusieurs informations pertinentes comme les cycles de respiration (inspiration, expiration), la fréquence respiratoire et d’autres mesures statistiques pour les diagnostics.
In this thesis, we present a new architecture of a smart T-shirt to monitor breathing in real time. This smart garment has an architecture that offers an innovative detection method ensuring continuous monitoring of respiratory activity. First the T-shirt detects deformation of the upper chest during breathing using an antenna built into the T-shirt. The antenna was designed in the laboratories of the optics, photonics and laser center of Laval University. A Bluetooth sensor integrated in the same T-shirt subsequently detects the variation of the RSSI signal (indicator of received signal strength) and sends it to a wireless data processing and analysis unit (a computer or tablet). A data analysis interface has been created to allow determination of the respiratory rate and characterization according to the received breathing signal. In addition, the smart T-shirt is powered by a wireless, hybrid power source powered by a rechargeable battery or by an inductive link. Two versions of the T-shirt were tested. The first contains a single sensor while the second has six sensors positioned on the front of the garment. In addition, different parameters were taken into account during the tests, citing among others the morphology, age and sex of the users. Tests have demonstrated successful detection of several relevant information such as breathing cycles (inspiration, expiration),respiratory rate and other statistical measures for diagnosis.
APA, Harvard, Vancouver, ISO, and other styles
36

Noël, Guillaume. "Indexation dans les bases de données capteurs temps réel : application à la surveillance de phénomènes environnementaux et de risques naturels." Lyon, INSA, 2006. http://theses.insa-lyon.fr/publication/2006ISAL0091/these.pdf.

Full text
Abstract:
L'objectif de cette thèse est d’offrir aux spécialistes des systèmes de surveillance de phénomènes environnementaux une méthode de structuration, de recherche et d'accès rapide aux informations spatio-temporelles en temps-réel et sur différents critères, notamment spatiaux et temporels. Plus précisément, le problème qui nous concerne est celui de l'indexation dans une base de données en mémoire vive d'une masse de données référencées spatio-temporellement avec des contraintes de temps pour la mise à jour de l'index et pour l'exécution des requêtes. Les mesures collectées par un réseau de capteurs doivent être indexées en fonction du capteur dont elles sont issues et de la date de la mesure. De plus, les données les plus récentes doivent valorisées, ce qui n'est actuellement pas le cas pour les index existants. Trois solutions d'indexations sont proposées. Elles se distinguent des solutions existantes en regroupant les données issues des capteurs dans des sous-structures dédiées. Des sous-structures d'accès permettent d'identifier les capteurs concernés par une requête. La première proposition, le PoTree, vise à indexer en mémoire vive les données spatio-temporelles issues d'un réseau de capteurs temps-réel fixes. La seconde, le PasTree, vise à indexer en mémoire vive les données spatio-temporelles issues d'un réseau de capteurs temps-réels agiles. La dernière proposition se nomme le Spatio-temporal / Heat (StH) reprend les ambitions du PasTree et y ajoute la problématique de la gestion de la saturation de la base dès la conception de l’index. Il s’agit de la majeure contribution de cette thèse
This thesis's aim is to provide the specialists in environmental phenomenon monitoring systems with a method for structuring, querying and fast accessing to spatio-temporal data in real time using various criteria, in particular spatial and temporal ones. More precisely, we focus on the indexing of an « in memory » database for masses of spatio-temporally referenced data with time constraints for the index updating and queries. The measurements collected by a sensor network must be indexed according to the source sensor and the date of measurement. Moreover, the most recent data are usually considered as more interesting, a specificity that is usually not featured in existing indexing systems. Three indexing solutions are proposed. They differ from the existing solutions by storing the data from sensors in dedicated substructures. “Access substructures” are used to link a query to a set of sensors. The first proposal, the PoTree, aims at « in-memory » indexing of spatio-temporal data issued from a network of fixed real time sensors. The second, the PasTree, aims at « in-memory » indexing of spatiotemporal data issued from a network of agile real time sensors, i. E. Of which the sensors have a restricted mobility. It allows for a multi-criterion access to the data, using spatial references or sensor identifiers. The last proposal, the Spatio-temporal Heat (StH) aims at « in-memory » indexing of spatio-temporal data issued from a network of agile real time sensors. The main innovation of this structure is the integration of a database saturation management by offering a mechanism allowing a progressive transfer of the data towards a warehouse
APA, Harvard, Vancouver, ISO, and other styles
37

Noël, Guillaume Laurini Robert. "Indexation dans les bases de données capteurs temps réel application à la surveillance de phénomènes environnementaux et de risques naturels /." Villeurbanne : Doc'INSA, 2007. http://docinsa.insa-lyon.fr/these/pont.php?id=noel.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Ly, Fatime. "Contribution par la surveillance prédictive indirecte à l'optimisation de la maintenance dans les systèmes flexibles de production manufacturière." Lille 1, 1999. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1999/50376-1999-83.pdf.

Full text
Abstract:
Ce travail présente une nouvelle approche contribuant à l'optimisation de la maintenance dans les Systèmes Flexibles de Production Manufacturière (SFPM). Le niveau actuel d'automatisation des SFPM et leurs contraintes de production imposent à la maintenance d'être mieux organisée et de s'appuyer sur des stratégies permettant de garantir la disponibilité et la qualité du service des ressources de production. Le problème qui se pose est alors de définir une politique de maintenance qui sache répondre aux exigences de la production. Notre contribution a porté sur deux thèmes : la structuration de la fonction maintenance et la définition d'une stratégie de maintenance préventive basée sur la surveillance prédictive indirecte. La structuration de la maintenance a pour objectif d'identifier l'ensemble des fonctions de la maintenance. Nous avons ainsi montré l'intérêt d'orienter la maintenance vers une approche en ligne qui permet de prendre en compte l'évolution du système et de participer aux prises de décisions en temps réel. Dans une seconde phase, nous proposons de mettre en place une stratégie de maintenance prédictive par une approche de surveillance prédictive. Le principe de la surveillance prédictive indirecte est de caractériser le comportement d'une ressource à partir de son flux de production. Les politiques de maintenance classiques prennent en compte les défaillances catalectiques par une surveillance dite curative, et les défaillances progressives par une surveillance prédictive directe qui consiste à placer des capteurs sur les éléments critiques du système, et à suivre leur état à partir de paramètres significatifs de leur dégradation. Cette méthode de surveillance est facile à mettre en oeuvre sur des équipements unitaires. Elle est plus difficile à appliquer à un système car non intégrée en phase de conception et coûteuse. L'objectif est donc de prendre en compte les défaillances progressives par une approche globale de surveillance. Cette approche permettrait de répondre à l'acuité des contraintes de production par une politique de maintenance plus proche de la production, sur la base d'un repère commun d'interprétation de l'impact d'une défaillance sur le système.
APA, Harvard, Vancouver, ISO, and other styles
39

Marsaud, Elisabeth. "Contribution à une meilleure standardisation de l'INR [International Normalized Ratio] dans la surveillance des traitements anticoagulants oraux." Bordeaux 2, 1992. http://www.theses.fr/1992BOR2P081.

Full text
APA, Harvard, Vancouver, ISO, and other styles
40

Barros, Anne. "Maintenance des systèmes multicomposants sous surveillance imparfaite : modélisation stochastique et optimisation." Troyes, 2003. http://www.theses.fr/2003TROY0004.

Full text
Abstract:
L'optimisation des politiques de maintenance pour des systèmes multicomposants s'appuie sur une modélisation stochastique du comportement du système maintenu et de l'information issue du dispositif de surveillance. L'originalité des travaux présentés ici réside dans l'intérêt qui a été porté au problème de modélisation du dispositif de surveillance. L'étude bibliographique de la première partie montre en effet que dans la plupart des modèles existants, la surveillance est considérée comme parfaite, alors que les algorithmes de détection utilisés en diagnostic sont caractérisés par des erreurs de type non détection, fausse alarme et retard à la détection. On propose donc ici un modèle permettant d'intégrer un de ces défauts de surveillance (non détections aléatoires sur les pannes des composants). La politique de maintenance étudiée consiste à remplacer préventivement tous les composants à une date commune, afin d'éviter une panne totale du système. On montre que la date optimale de renouvellement est entièrement conditionnée par l'évolution d'un indicateur de dégradation du système calculé à partir des observations issues de la surveillance (processus de taux de défaillance observé). Le calcul de cet indicateur présenté dans la deuxième partie est fondé sur l'écriture sous forme de semi martingale régulière du processus indicateur des défaillances du système. La procédure d'optimisation décrite dans la dernière partie consiste à en étudier les trajectoires. Des résultats numériques montrent l'intérêt, en termes de coût, d'un modèle intégrant des défauts de surveillance par rapport à des modèles qui considèrent que l'information est parfaite ou inexistante
Multi-unit systems maintenance optimisation is based on stochastic models which must take into account the stochastic evolution of the system, the maintenance actions and their impact on the system, and the monitorig information on the units state. The aim of this work is to focus on the monitoring model. Actually, the survey on multi unit maintenance optimisation presented in part one, shows that in most of existing stochastic models, the information given by the monitoring device is considered to be perfect. However, the detection algorithms used for systems diagnostis are characterised by errors such as non detection or false alarm, and detection delay. That is why we propose here to model one type of this default : a failure of one unit can be not detected with a given probability. We aim at optimising the following maintenance policy : the whole units are renewed preventively at the same time in order to avoid global system failure. We show that the optimal time of preventive renewal is totally conditionned by the evolution of an indicator of the system degradation. This indicator is a stochastic process (called failure rate process) and is calculated on the basis of the observations given by the monitoring device. The failure rate process is studied in the second part. It is calculated by writing the system failure indicator process as smooth semi martingale. Its paths are used in part three for the optimisation scheme. Numerical results show the maintenance cost obtained with our model taking into account monitoring faults is lower than the one obtained with models considering the information is perfect or does not exist
APA, Harvard, Vancouver, ISO, and other styles
41

Portet, Frédéric. "Monitoring continu de site pollué : mise au point d'une méthodologie de contrôle en continu d'un site pollué en phase de surveillance ou de dé pollution." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2004. http://tel.archives-ouvertes.fr/tel-00802997.

Full text
Abstract:
Le Monitoring Continu de Site Pollué (MCSP), développé au cours de ce travail, a pour but la mise au point d'un outil de gestion en temps réel et à distance de l'évolution d'une pollution HAP (Hydrocarbures Aromatiques Polycycliques) dans un aquifère superficiel issu de l'activité charbonnière. Pour l'expérimentation en vraie grandeur, une ancienne friche de cokerie a été instrumentée (capteurs, analyseurs, central d'acquisition, automate, etc..) en juin 2000. Son suivi est assuré par un pilotage à distance via une connexion télécom.Le Monitoring Continu de Site Pollué est une nécessité pour le contrôle de l'évolution des pollutions et donc des risques induits sur l'homme et l'environnement. En raison des faibles vitesses de propagation d'une contamination aux HAP, on se satisfaisait généralement d'investigations ponctuelles en fait incomplètes et non représentatives de la réalité et masquant certains aspects particulièrement intéressants comme l'activité de biodégradation. Le suivi continu en temps réel de l'évolution naturelle d'une pollution HAP dans l'aquifère superficiel ou les sols avec une confrontation avec l'évolution des paramètres généraux (météo, pluies, etc..) n'a jamais été conduit.Ce MCSP expérimental permet de mettre en évidence des corrélations entre l'évolution de la pollution et les conditions météorologiques. Pour l'activité de biodégradation naturelle déduite des mesures de biogaz en zone non saturée, une forte activité a été observée les saisons chaudes (consommation d'oxygène et dégagement de dioxyde de carbone) et une nette diminution en hiver. Pour l'analyse quotidienne des HAP dans les eaux de l'aquifère, un fluorimètre UV de terrain est utilisé. Calibré avec du naphtalène (HAP le plus soluble), la fluorescence des eaux est donnée en æg/L équivalent naphtalène, mais nécessite un postraitement afin de corriger la dérive de l'analyseur entre deux calibrations. Par la suite, les données mesurées et traitées sont restituées et exploitées au moyen d'un outil intégré, constitué d'un SIG (Système d'Information Géographique), interconnecté à une base de données et à un modèle de transport de polluant. Les résultats sont présentés sur un synoptique convivial et ergonomique servant de support d'aide à la décision. Les gestionnaires de sites pollués peuvent ainsi visualiser toutes les informations enregistrées sur l'évolution de la pollution et donc facilement identifier les indicateurs pertinents à confronter aux paramètres généraux (météo, etc..) ou aux différents scénarii de simulation de transport de polluants.
APA, Harvard, Vancouver, ISO, and other styles
42

Monnier, Thomas. "Ondes de Lamb dans les milieux stratifiés : application à la surveillance in situ et en temps réel de l'endommagement de structures composites." Phd thesis, INSA de Lyon, 2001. http://tel.archives-ouvertes.fr/tel-00573987.

Full text
Abstract:
Par la qualité et la variété de leurs propriétés mécaniques, les matériaux composites s'imposent désormais en remplacement des matériaux traditionnels. Mais nombreux sont les processus d'endommagement observés dans ces matériaux hétérogènes. Aussi, le développement de leur usage en tant qu'éléments de structure primaires reste limité par l'importance des coûts des inspections requises pour déceler l'apparition de défauts internes. Nous avons cherché à définir une méthode d'évaluation non-destructive in situ de l'état de santé des composites, afin d'offrir une meilleure sécurité opérationnelle des structures à moindre coût. Cette technique de contrôle actif s'inscrit dans la thématique des Structures et Matériaux Intelligents car elle repose sur l'intégration à la structure hôte de capteurs, pour la génération et la mesure de perturbations ultrasonores, et de systèmes de traitement de donnée associés. Vecteurs privilégiés de l'information dans les plaques minces, les ondes de Lamb ont vu dans ce travail leur concept se généraliser au cas des matériaux anisotropes stratifiés. La propagation et les caractéristiques de ces modes dispersifs ont été étudiées en relation avec les propriétés microstructurales et la conformation de divers milieux stratifiés. En particulier, nous avons étudié l'influence de la séquence d'empilement des plis sur les courbes de dispersion des ondes de Lamb. La réalisation de plaques instrumentées a permis la détection expérimentale de défauts artificiels ou plus réalistes grâce à la définition de paramètres d'endommagement, basés sur l'analyse en temps réel des signatures ultrasonores transmises à l'intérieur de la structure. L'emplacement des défauts a été estimé par des mesures échographiques en ondes de Lamb. Enfin, nous avons tenté d'apprécier la sensibilité relative des modes de Lamb fondamentaux à l'aide de simulations numériques de l'interaction entre ces ondes guidées et différents types de défauts localisés par la méthode des éléments finis à deux dimensions.
APA, Harvard, Vancouver, ISO, and other styles
43

Boulmakoul, Azedine. "Vers un système à base de connaissances distribué & temps réel pour la surveillance et le contrôle du trafic en site urbain." Lyon 1, 1990. http://www.theses.fr/1990LYO10222.

Full text
Abstract:
Dans l'ingenierie du trafic urbain, le carrefour est un element strategique tres complexe. Cette complexite est due a plusieurs facteurs: diversite des acteurs, des interactions et des conflits, strategies de commandes et integration dans le reseau. De cet ensemble de caracteristiques, il ressort que la gestion des carrefours doit respecter des imperatifs essentiels: tache de surveillance, tache de controle, mecanisme de cooperation et de communication. Ces imperatifs representent les ingredients du systeme carrefour intelligent. Dans le cadre de ce projet nous avons concu une structure d'accueil logicielle flexible dediee a la description de differentes facettes phenomenologiques des carrefours. Cette structure est implementee avec un outil de developpement de systemes a base de connaissances temps reel (frame-based) g2#t#m. Elle distingue trois niveaux de connaissances: niveau contextuel topologique, niveau fonctionnel et niveau controle. A cette structure nous avons integre une nouvelle generation d'indicateurs fondes sur l'analyse d'images de mouvement. Ce couplage constitue la base de developpement de la tache de surveillance et de diagnostic du projet europeen drive: invaid. Une version de demonstration du systeme que nous avons developpe tourne actuellement sur une sparc-machine. Sur le plan theorique, nous proposons des resultats dans le cadre des logiques non monotones au sujet de la formalisation du dignostic ainsi que dans le champ des logiques temporelles pour l'expression des connaissances temporelles
APA, Harvard, Vancouver, ISO, and other styles
44

Monnier, Thomas Baboux Jean-Claude Guy Philippe. "Ondes de Lamb dans les milieux stratifiés application à la surveillance in situ et en temps réel de l'endommagement de structures composites /." [S.l.] : [s.n.], 2001. http://csidoc.insa-lyon.fr/these/2001/monnier/index.html.

Full text
APA, Harvard, Vancouver, ISO, and other styles
45

Gerber, Timothée. "Suivi dynamique de composantes modulées : application à la surveillance automatique de défauts dans les éoliennes." Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAT142/document.

Full text
Abstract:
La surveillance automatique consiste à vérifier le bon fonctionnement d'un système tout au long de sa durée d'utilisation et ce, sans intervention humaine. Elle permet de mettre en place une stratégie de maintenance prévisionnelle qui présente un intérêt économique majeur, en particulier dans le cas de systèmes isolés comme les éoliennes construites en pleine mer. La surveillance automatique se base sur l'acquisition plus ou moins régulière de signaux pendant le fonctionnement du système surveillé. L'analyse de ces signaux doit permettre d'établir un diagnostic et de prendre une décision sur le déclenchement des opérations de maintenance. Dans cette thèse, nous proposons une méthode d'analyse générique permettant de s'adapter à n'importe quel système surveillé. La méthode se déroule en plusieurs étapes. Premièrement, chaque signal est analysé individuellement pour en extraire son contenu spectral, c'est-à-dire identifier les pics spectraux, les séries harmoniques et les bandes de modulation présents dans sa densité spectrale. Ensuite, ce contenu spectral est suivi au cours du temps pour former des trajectoires sur l'ensemble de la séquence de signaux acquis. Ces trajectoires permettent de générer des tendances qui sont le reflet de la santé du système. Enfin, les tendances sont analysées pour identifier un changement au cœur du système qui serait synonyme d'usure ou de défaut naissant. Cette méthodologie est validée sur de nombreux signaux réels provenant de la surveillance de différents systèmes mécaniques
The automatic monitoring consists in verifying without any human intervention that a system is operating well. The monitoring allows to use a predictive maintenance strategy, which is economically interesting, especially in the case of isolated systems like off-shore wind turbines. The automatic monitoring is based on signals acquired more or less regularly while the monitored system is operating. The analysis of these signals should be sufficient to diagnose the system and to decide whether or not the maintenance operations should be done. In this thesis, we propose a generic analysis method able to adapt itself to any monitored system. This method is composed by several steps. First, each signal is analyzed individually in order to extract its spectral content, that is to identify the spectral peaks, the harmonic series and the modulation sidebands presents in the signal spectrum. Then, the spectral content is tracked through time to construct spectral trajectories in the sequence of acquired signal. These trajectories are used to generate trends which indicate the state of the system health. Finally, the trends are analyzed to identify a change in the system response which would indicate some wear or a fault in is early stage. This analysis method is validated on real world signals acquired on different mechanical systems
APA, Harvard, Vancouver, ISO, and other styles
46

Abdallah, Amani. "Réseaux d'eau intelligents : surveillance de la qualité de l'eau par des capteurs en ligne." Thesis, Lille 1, 2015. http://www.theses.fr/2015LIL10150/document.

Full text
Abstract:
L'objectif de ce travail de thèse est d'évaluer les performances des systèmes proposés pour le contrôle en temps réel de la qualité d’eau dans le réseau d’eau potable. Il a été mené dans le cadre du projet européen SmartWater4Europeet du projet SunRise qui vise la construction d’un démonstrateur à grande échelle de la ville intelligente et durable sur le Campus de la Cité Scientifique. Le travail comporte 4 parties:La première partie présente une étude bibliographique des travaux réalisés sur le suivi en temps réel de la qualité de l’eau. Il présente les paramètres utilisés pour surveiller la qualité de l’eau et les technologies disponibles pour suivre ces paramètres.La seconde partie présente la construction d’un pilote en laboratoire pour l’analyse des performances des systèmes de contrôle de la qualité de l’eau et une description des systèmes utilisés (EventLab, s::can et Intellisonde). La troisième partie est consacrée à l’étude de l'efficacité du suivi du chlore pour la détection des contaminants microbiens. Les résultats montrent que le suivi du chlore constitue un outil efficace pour la surveillance de la qualité microbiologique de l'eau potable.La quatrième partie présente les réponses des systèmes utilisés à l’injection de contaminants. Les essais montrent une grande fiabilité d’EventLab et de S::can pour détecter les contaminants chimiques. Concernant les contaminants biologiques, s::can montre une capacité à détecter ces contaminants pour des concentrations bactériennes supérieures à 106UFC/ml.La dernière partie présente le réseau d'eau de la Cité Scientifique qui constitue le support du projet « SunRise». Les résultats des tests de contrôle de la qualité de l’eau sont présentés et analysés. On donne aussi la localisation des systèmes de contrôle de la qualité de l’eau qui seront installés sur le réseau d’eau
The objective of this thesis is to evaluate the performance of systems proposed for real-time monitoring of water quality in the drinking water network. It was conducted within the European project SmartWater4Europe and SunRise project, which aims at the construction of a demonstrator of the smart city on the campus of the“Cité Scientifique”. The work consists of 4parts:The first part presents a literature review of the work conducted on the real-time monitoring of water quality. It shows the parameters used to monitor the water quality and the technologies available to monitor these parameters.The second part presents the construction of a Lab pilot for analyzing the performance of the water quality control systems. After a description of the systems used in this thesis(EventLab, s :: can and Intellisonde), we present the procedure followed for the realization of contaminant.The third part is devoted to the study of the performance of chlorine monitoring for detection of microbial contaminants. The results show that monitoring of chlorine constitutes an effective tool for monitoring the microbiological quality of drinking water.The fourth part presents the responses of EventLab and s::can to the injection of contaminants. Tests show a high reliability of EventLab and s::can to detect chemical contaminants. Regarding biological contaminants, s::can shows an ability to detect these contaminants for bacterial concentrations exceeding 106UFC/ml.The final part presents the water network of Cité Scientifique. The results of the water quality control are presented and analyzed. It also gives the location of the water quality control systems that will be installed on the water network
APA, Harvard, Vancouver, ISO, and other styles
47

Taleb, Miassa. "Exploitation des mesures électriques en vue de la surveillance et du diagnostic en temps réel des piles à combustible pour application transport automobile." Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLC010/document.

Full text
Abstract:
Dans le contexte énergétique mondial actuel, les piles à combustible à membrane échangeuse de protons constituent une solution prometteuse au futur développement d'une nouvelle génération de véhicules électrifiés, permettant une autonomie plus importante que celle des véhicules électrifiés à batteries. Néanmoins, le développement à grand échelle des piles à combustible reste à ce jour limité en raison de certains verrous technologiques, tel que la gestion de l'eau. Afin de permettre une production de masse des piles à combustible, de tels problèmes doivent être résolus. Plusieurs axes de travail peuvent être envisagés, tant sur les aspects matériels sur la structure de la pile, que du point de vue de la commande en développant des outils algorithmiques permettant le suivi de l'état de fonctionnement du système en vue de détecter les défaillances éventuelles, ou la dégradation des conditions de fonctionnement, et permettre ainsi d'y apporter une solution au moyen du système de commande ou de supervision.Les travaux de cette thèse s'inscrivent dans cette seconde approche et portent plus particulièrement sur la mise en évidence des phénomènes d'engorgement ou d'asséchement du cœur de pile afin de diagnostiquer les éventuels problèmes d'hydratation conduisant à la réduction du rendement, à la diminution des performances ou encore à un vieillissement prématuré.Les méthodes développées au cours de ces travaux se fondent sur des stratégies de suivi de paramètres significatifs d'un modèle de pile dont les évolutions, comparativement à des valeurs de référence, sont caractéristiques de l'état hydratation du cœur de pile. Le suivi en temps réel de ces paramètres permet ainsi de mettre en évidence les phénomènes d'engorgement ou d'asséchement du cœur de pile.Les modèles adoptés pour ces travaux font appel à une représentation de l'impédance électrique de la pile.Ainsi, en suivant cette approche, la stratégie adoptée se fonde alors sur le développement de deux modèles de type circuit électrique : un modèle d'ordre entier puis un modèle d'ordre fractionnaire. Cette deuxième formulation des modèles, plus proche de la réalité physique des phénomènes de transports se produisant au cœur de pile, permet une meilleure représentation de la pile tant du point de vue temporel que fréquentiel. En effet, les analyses effectuées en utilisant des résultats expérimentaux obtenus au moyen d'une cellule de pile (surface active de 100 cm2 conçue par la société UBzM) ont permis de valider que le modèle d'ordre fractionnaire, en contrepartie d'une augmentation de la complexité, permet de mieux reproduire d'une part les résultats temporels de la pile (suivi de tension pour un profil de courant donnée), d'autre part une meilleure approximation de l'impédance mesurée.Des méthodes d'identification paramétrique, conventionnelles et adaptées aux systèmes d'ordre fractionnaire, sont ensuite utilisées afin d’extraire les paramètres des modèles développés à partir de données expérimentales temporelles (tension/courant de la pile), ou fréquentielles (spectroscopie d'impédance). Une étude de sensibilité permet alors de définir les paramètres les plus indicatifs des phénomènes d'engorgement et d'assèchement. L'évolution de ces paramètres, associés à la tension et le spectre d'impédance de la pile, sont alors combinés afin de construire une stratégie de diagnostic de l’engorgement et de l’asséchement du cœur de pile
In the current global energy context, proton exchange membrane fuel cells represent a promising solution to the future development of a new generation of electrified vehicles, allowing greater autonomy than electrified vehicles using batteries.Nevertheless, the large-scale development of fuel cells remains limited due to some technological locks, such as water management. To enable mass production of fuel cells, such problems must be solved. Several working axes may be envisaged both on the hardware aspects of the fuel cell structure, and from the point of view of control, by developing algorithmic tools for monitoring the operating state of the system to detect any failures, or degradations that may occur.The work of this thesis falls within this second approach and focuses specifically on the identification of drying and drowning phenomena which can appear in a fuel cell, to diagnose any moisture problems leading to yield reduction.The methods developed in this work are based on the monitoring of relevant parameters of the fuel cell model which changes, compared to reference values, are characteristic of the state of the fuel cell hydration.The real-time monitoring of these parameters can highlight the drying and drowning phenomena.Adopted models for this work are based on a representation of the electrical impedance of the fuel cell.Thus, following this approach, the adopted strategy is then based on the development of two electrical models: an integer order model and a fractional order model. It appears that the second model formulation is closer to the physical reality of transport phenomena occurring in the fuel cell. It allows a better representation of the fuel cell behavior in time and frequency domain. Indeed, the analyzes based on experimental results performed using a single fuel cell (100 cm2 active area designed by UBzM company) have validated that the fractional order model, in return for an increase of complexity, allows better reproduce, in the one hand of the fuel cell time-series voltage response (voltage monitoring for a given current profile), on the other hand a better approximation of the measured impedance. Conventional and of fractional order parametric identification methods are then used to extract the model’s parameters from time-series experimental data (voltage / current from the battery) or frequency data (impedance spectroscopy).A sensitivity analysis allows then the defining of the most indicative parameters of the drowning and drying phenomena. The evolution of these parameters associated with the voltage and impedance spectrum of the fuel cell are then combined to build a diagnosis strategy of the fuel cell water management
APA, Harvard, Vancouver, ISO, and other styles
48

Abat, Cédric. "Développement de nouveaux outils informatiques de surveillance en temps réel des phénomènes anormaux basés sur les données de microbiologie clinique du laboratoire de la Timone." Thesis, Aix-Marseille, 2015. http://www.theses.fr/2015AIXM5029/document.

Full text
Abstract:
Bien que considérées comme étant sous contrôle durant la seconde partie du 20ième siècle avec la découverte des antimicrobiens, les maladies infectieuses demeurent une menace bien réelle pour l’humanité. Quelque soit l’état de connaissance que nous avons sur ces maladies, toutes demeurent imprédictibles. Afin de lutter contre ce phénomène, de nombreuses stratégies de surveillance ont été développées amenant à la mise en place de divers outils informatiques de surveillance épidémiologique visant à détecter et identifier, le plus précocement possible, des événements anormaux. L’objectif initial de notre travail a consisté à mettre en place, au sein de l’Institut Hospitalo-Universitaire Méditerranée Infection et à partir du logiciel Microsoft Excel, deux nouveaux outils informatiques de surveillance épidémiologique visant à identifier, de façon hebdomadaire et automatisée, des événements anormaux sur la base des données de microbiologie clinique issues du laboratoire du Centre Hospitalo-Universitaire Timone à l’Assistance Publique- Hôpitaux de Marseille (AP-HM). Une fois cette étape achevée, nous avons par la suite travaillé au développement d’une structure de surveillance complète intégrant l’investigation et la validation des alarmes émises par les systèmes de surveillance créés, l’émission d’alertes à l’Agence Régionale de Santé (ARS) de la région Provence-Alpes Côte d’Azur (PACA), la valorisation des cas d’événements anormaux confirmés par des publications scientifiques, ainsi que la mise en place de rétro-informations et de bulletins épidémiologiques hebdomadaires visant à informer les acteurs locaux de la surveillance épidémiologique des maladies infectieuses
Although considered under control in the second half of the 20th century with the discovery of antimicrobials, infectious diseases remain a serious threat to humanity. Regardless of the state of knowledge we possess on these diseases, all remained unpredictable. To fight this phenomenon, many monitoring strategies have been developed leading to the implementation of various epidemiological surveillance computer programs to detect and identify, as soon as possible, abnormal events including epidemic phenomena. The initial objective of our work was to implement, within the Hospitalo-Universitaire Méditerranée Infection and based on the Microsoft Excel software, two new automated computer-based programs for the weekly automated epidemiological surveillance of abnormal epidemic events using clinical microbiological data from the Timone teaching hospital of of Assistance Publique- Hôpitaux de Marseille (AP-HM). Once completed, we then worked to develop a comprehensive monitoring structure incorporating the investigation and the validation of alarms emitted by the established surveillance systems, the transmission of alerts to the Regional Health Agency (ARS) of the Provence-Alpes Côte d'Azur (PACA), the public dissemination of confirmed abnormal events by publishing scientific articles, and the implementation of feedback and weekly epidemiological bulletins to inform local infectious diseases epidemiological surveillance actors
APA, Harvard, Vancouver, ISO, and other styles
49

Li, Long. "Contribution au développement d'un système expert multicapteurs pour la surveillance du poinçonnage." Nancy 1, 1994. http://www.theses.fr/1994NAN10336.

Full text
Abstract:
L'usure excessive des outils de poinçonnage constitue une des plus importantes causes de dysfonctionnement de presse parmi d'autres, tels que le bris d'outil, la remontée des pastilles découpées, le défaut d'avance bande, etc ces problèmes entraine des conséquences graves sur la qualité des pièces découpées et sur la productivité. Il est donc nécessaire d'introduire des systèmes de surveillance permettant de détecter en temps réel de telles anomalies du processus afin d'améliorer la productivité et la qualité des produits en poinçonnage. Les signaux générés par l'opération de poinçonnage comme bruit audible, effort, émission acoustique, accélération, etc. , sont des effets physiques du processus de poinçonnage. Les anomalies du processus, lorsqu'elles entrainent des variations des signaux cités plus haut, peuvent être mesurées à l'aide de capteurs. Leurs identifications par observations numériques peuvent nous fournir des informations sur le processus de poinçonnage afin de le surveiller et de l'analyser. Cette étude a pour objectif de définir les spécifications d'un système expert capable d'assurer, à l'aide d'informations fournies par une acquisition multicapteurs, un suivi de l'usure et une détection des anomalies du processus. La méthodologie développée dans cette étude concerne l'acquisition des signaux issus de multicapteurs, l'analyse et l'interprétation de ces signaux à l'aide de plusieurs techniques de traitement du signal afin d'extraire les caractéristiques sensibles à l'usure d'outil, l'estimation de l'usure par un modèle adimensionnel, et enfin une décision à prendre sur l'état d'usure et l'alarme pour le changement de l'outil. Cette méthodologie doit être intégrée dans un système expert afin de développer un système de surveillance du poinçonnage efficace, fiable et convivial
APA, Harvard, Vancouver, ISO, and other styles
50

Tahir, Djamel. "Moustiques et dirofilariose : mise au point et utilisation d'outils innovants pour la détection et la surveillance." Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0406/document.

Full text
Abstract:
Dans ce travail, nous nous sommes intéressés à l’étude des dirofilarioses chez le réservoir canin « le chien » ainsi que chez les vecteurs « moustiques », en particulier, en ce qui concerne la détection, la surveillance et la prophylaxie. Le premier objectif était de développer une PCR duplex en temps réel ciblant le gène COI capable de détecter et de différencier simultanément D. immitis et D. repens. Ainsi, nous avons détecté par cet outil moléculaire, pour la première fois en France, D. immitis et D. repens chez des moustiques tigre "Aedes albopictus". Nous avons, de plus, confirmé la présence de l’infection à D. immitis chez les chiens du nord d'Algérie.Le deuxième objectif était d'évaluer l’intérêt de la spectrométrie de masse MALDI-TOF MS pour la détection de changements dans les profils protéiques d'Aedes aegypti infectés expérimentalement avec des nématodes filaires (D. immitis, Brugia malayi et B. pahangi). Les résultats obtenus montrent la capacité du MALDI-TOF MS à différencier des moustiques infectés et non infectés par les filaires. Ainsi, les meilleurs taux de classification correcte obtenus sont 94,1, 86,6, 71,4 et 68,7% pour les non infectés versus ceux infectés, respectivement, par D. immitis, B. malayi et B. pahangi.Le troisième objectif de ce travail était l’évaluation de l'efficacité anti-gorgement et insecticide d'un ectoparasiticide (Vectra® 3D) contenant trois principes actifs : le dinotéfurane, le pyriproxyfène et la perméthrine contre Ae. albopictus, l'une des principales espèces vectrices de Dirofilaria spp. Les résultats ont démontré que le DPP a une efficacité anti-gorgement et insecticide significative contre Ae. albopictus
In this work, we are interested in studying dirofilarial infections in dogs and vectors “Mosquitoes” especially detection, monitoring and prophylaxis. The first objective is to develop a real-time duplex PCR targeting the COI gene capable of simultaneously detecting and differentiating D. immitis and D. repens. Subsequently, we applied this tool to a canine dirofilariosis surveillance process in different endemic areas of Mediterranean basin (Corsica and Algeria). We have thus detected by this molecular tool for the first time in France, D. immitis and D. repens in Aedes albopictus mosquitoes. We reported, also, the presence of D. immitis in dogs from northern Algeria.The second aim was to assess whether the MALDI-TOF MS can detect changes in the protein profiles of Aedes aegypti infected experimentaly with filarial nematodes (D. immitis, Brugia malayi and B. pahangi). Obtained results showed the potential of MALDI-TOF MS as a reliable tool for differentiating non-infected and filariae-infected Ae. aegypti mosquitoes with a best correct classification rate obtained from the thorax-head part with 94.1 and 86.6, 71.4 and 68.7% for non-infected and D. immitis, B. malayi and B. pahangi infected mosquitoes respectively.The third aim of this work has focused on the evaluation of the anti-feeding and insecticidal efficacy of an ectoparasiticide (Vectra® 3D) containing three active ingredients: dinotefurane, pyriproxyfen and permethrin (DPP) against Ae. albopictus. Results demonstrated that the DPP combination has significant anti-feeding and insecticidal efficacy against Ae. albopictus for at least 4 weeks
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography