To see the other types of publications on this topic, follow the link: Surveillance distribuée.

Dissertations / Theses on the topic 'Surveillance distribuée'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Surveillance distribuée.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Nazarpour, Hosein. "Surveillance de systèmes à composants multi-threads et distribués." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM027/document.

Full text
Abstract:
La conception à base de composants est le processus qui permet à partir d’exigences et un ensemble de composants prédéfinis d’aboutir à un système respectant les exigences. Les composants sont des blocs de construction encapsulant du comportement. Ils peuvent être composés afin de former des composants composites. Leur composition doit être rigoureusement définie de manière à pouvoir i) inférer le comportement des composants composites à partir de leurs constituants, ii) déduire des propriétés globales à partir des propriétés des composants individuels. Cependant, il est généralement impossible d’assurer ou de vérifier les propriétés souhaitées en utilisant des techniques de vérification statiques telles que la vérification de modèles ou l’analyse statique. Ceci est du au problème de l’explosion d’espace d’états et au fait que la propriété est souvent décidable uniquement avec de l’information disponible durant l’exécution (par exemple, provenant de l’utilisateur ou de l’environnement). La vérification à l’exécution (Runtime Verification) désigne les langages, les techniques, et les outils pour la vérification dynamique des exécutions des systèmes par rapport à des propriétés spécifiant formellement leur comportement. En vérification à l’exécution, une exécution du système vérifiée est analysée en utilisant une procédure de décision : un moniteur. Un moniteur peut être généré à partir d’une spécification écrite par l’utilisateur (par exemple une formule de logique temporelle, un automate) et a pour but de détecter les satisfactions ou les violations par rapport à la spécification. Généralement, le moniteur est une procédure de décision réalisant une analyse pas à pas de l’exécution capturée comme une séquence d’états du système, et produisant une séquence de verdicts (valeur de vérité prise dans un domaine de vérité) indiquant la satisfaction ou la violation de la spécification.Cette thèse s’intéresse au problème de la vérification de systèmes à composants multithread et distribués. Nous considérons un modèle général de la sémantique et système à composants avec interactions multi-parties: les composants intrinsèquement indépendants et leur interactions sont partitionées sur plusieurs ordonnanceurs. Dans ce contexte, il est possible d’obtenir des modèles avec différents degrés de parallelisme, des systèmes séquentiels, multi-thread, et distribués. Cependant, ni le modèle exact ni le comportement du système est connu. Ni le comportement des composants ni le comportement des ordonnanceurs est connu. Notre approche ne dépend pas du comportement exact des composants et des ordonnanceurs. En s’inspirant de la théorie du test de conformité, nous nommons cette hypothèse : l’hypothèse de monitoring. L’hypothèse de monitoring rend notre approche indépendante du comportement des composants et de la manière dont ce comportement est obtenu. Lorsque nous monitorons des composants concurrents, le problème qui se pose est celui de l’indisponibilité de l’état global à l’exécution. Une solution naïve à ce problème serait de brancher un moniteur qui forcerait le système à se synchroniser afin d’obtenir une séquence des états globaux à l’exécution. Une telle solution irait complètement à l’encontre du fait d’avoir des exécutions concurrentes et des systèmes distribués. Nous définissons deux approches pour le monitoring de système un composant multi-thread et distribués. Dans les deux approches, nous attachons des contrôleurs locaux aux ordonnanceurs pour obtenir des événements à partir des traces locales. Les événements locaux sont envoyés à un moniteur (observateur global) qui reconstruit l’ensemble des traces globale qui sont i) compatibles avec les traces locales et ii) adéquates pour le monitoring, tout en préservant la concurrence du système
Component-based design is the process leading from given requirements and a set of predefined components to a system meeting the requirements. Components are abstract building blocks encapsulating behavior. They can be composed in order to build composite components. Their composition should be rigorously defined so that it is possible to infer the behavior of composite components from the behavior of their constituents as well as global properties from the properties of individual components. It is, however, generally not possible to ensure or verify the desired property using static verification techniques such as model-checking or static analysis, either because of the state-space explosion problem or because the property can only be decided with information available at runtime (e.g., from the user or the environment). Runtime Verification (RV) is an umbrella term denoting the languages, techniques, and tools for the dynamic verification of system executions against formally-specified behavioral properties. In this context, a run of the system under scrutiny is analyzed using a decision procedure: a monitor. Generally, the monitor may be generated from a user-provided specification (e.g., a temporal-logic formula, an automaton), performs a step-by-step analysis of an execution captured as a sequence of system states, and produces a sequence of verdicts (truth-values taken from a truth-domain) indicating specification satisfaction or violation.This thesis addresses the problem of runtime monitoring multi-threaded and distributed component-based systems with multi-party interactions (CBSs). Although, neither the exact model nor the behavior of the system are known (black box system), the semantic of such CBSs can be modeled with labeled transition systems (LTSs). Inspiring from conformance testing theory, we refer to this as the monitoring hypothesis. Our monitoring hypothesis makes our approach oblivious of (i) the behavior of the CBSs, and (ii) how this behavior is obtained. We consider a general abstract semantic model of CBSs consisting of a set of intrinsically independent components whose interactions are managed by several schedulers. Using such an abstract model, one can obtain systems with different degrees of parallelism, such as sequential, multi-threaded and distributed systems. When monitoring concurrent (multi-threaded and distributed) CBSs, the problem that arises is that a global state of the system is not available at runtime, since the schedulers execute interactions even by knowing the partial state of the system. Moreover, in distributed systems the total ordering of the execution of the interaction is not observable. A naive solution to these problems would be to plug in a monitor which would however force the system to synchronize in order to obtain the sequence of global states as well as the total ordering of the executions at runtime Such a solution would defeat the whole purpose of having concurrent executions and distributed systems. We define two approaches for the monitoring of multi-threaded and distributed CBSs. In both approaches, we instrument the system to retrieve the local events of the schedulers. Local events are sent to an online monitor which reconstructs on-the-fly the set of global traces that are i) compatible with the local traces of the schedulers, and ii) suitable for monitoring purposes, in a concurrency-preserving fashion
APA, Harvard, Vancouver, ISO, and other styles
2

Venturino, Antonello. "Constrained distributed state estimation for surveillance missions using multi-sensor multi-robot systems." Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPAST118.

Full text
Abstract:
Les algorithmes distribués sont dorénavant présents dans de nombreux aspects de l'Automatique avec des applications pour des systèmes multi-robots, des réseaux de capteurs, couvrant des sujets tels que la commande, l'estimation d'état, la détection de défauts, la détection et l'atténuation des cyberattaques sur les systèmes cyber-physiques, etc. En effet, les systèmes distribués sont confrontés à des problèmes tels que l'extensibilité à un grand nombre d'agents et la communication entre eux. Dans les applications de systèmes multi-agents (par exemple, flotte de robots mobiles, réseaux de capteurs), il est désormais courant de concevoir des algorithmes d'estimation d'état de manière distribuée afin que les agents puissent accomplir leurs tâches sur la base de certaines informations partagées au sein de leur voisinage. Dans le cas de missions de surveillance, un réseau de capteurs statique et à faible coût (par exemple, caméras) pourrait ainsi être déployé pour localiser de manière distribuée des intrus dans une zone donnée. Dans ce contexte, l'objectif principal de cette thèse est de concevoir des observateurs distribués pour estimer l'état d'un système dynamique (par exemple, flotte de robots intrus) avec une charge de calcul réduite tout en gérant efficacement les contraintes et les incertitudes. Cette thèse propose de nouveaux algorithmes d'estimation distribuée à horizon glissant avec une pré-estimation de type Luenberger dans la formulation du problème local résolu par chaque capteur, entraînant une réduction significative du temps de calcul, tout en préservant la précision de l'estimation. En outre, ce manuscrit propose une stratégie de consensus pour améliorer le temps de convergence des estimations entre les capteurs sous des conditions de faible observabilité (par exemple, des véhicules intrus non visibles par certaines caméras). Une autre contribution concerne l'amélioration de la convergence de l'erreur d'estimation en atténuant les problèmes de non observabilité à l'aide d'un mécanisme de diffusion de l'information sur plusieurs pas (appelé "l-step") entre voisinages. L'estimation distribuée proposée est conçue pour des scénarios réalistes de systèmes à grande échelle impliquant des mesures sporadiques (c'est-à-dire disponibles à des instants a priori inconnus). À cette fin, les contraintes sur les mesures (par exemple, le champ de vision de caméras) sont incorporées dans le problème d'optimisation à l'aide de paramètres binaires variant dans le temps. L'algorithme développé est implémenté sous le middleware ROS (Robot Operating System) et des simulations réalistes sont faites à l'aide de l'environnement Gazebo. Une validation expérimentale de la technique de localisation proposée est également réalisée pour un système multi-véhicules (SMV) à l'aide d'un réseau de capteurs statiques composé de caméras à faible coût qui fournissent des mesures sur les positions d'une flotte de robots mobiles composant le SMV. Les algorithmes proposés sont également comparés à des résultats de la littérature en considérant diverses métriques telles que le temps de calcul et la précision des estimées
Distributed algorithms have pervaded many aspects of control engineering with applications for multi-robot systems, sensor networks, covering topics such as control, state estimation, fault detection, cyber-attack detection and mitigation on cyber-physical systems, etc. Indeed, distributed schemes face problems like scalability and communication between agents. In multi-agent systems applications (e.g. fleet of mobile robots, sensor networks) it is now common to design state estimation algorithms in a distributed way so that the agents can accomplish their tasks based on some shared information within their neighborhoods. In surveillance missions, a low-cost static Sensor Network (e.g. with cameras) could be deployed to localize in a distributed way intruders in a given area. In this context, the main objective of this work is to design distributed observers to estimate the state of a dynamic system (e.g. a multi-robot system) that efficiently handle constraints and uncertainties but with reduced computation load. This PhD thesis proposes new Distributed Moving Horizon Estimation (DMHE) algorithms with a Luenberger pre-estimation in the formulation of the local problem solved by each sensor, resulting in a significant reduction of the computation time, while preserving the estimation accuracy. Moreover, this manuscript proposes a consensus strategy to enhance the convergence time of the estimates among sensors while dealing with weak unobservability conditions (e.g. vehicles not visible by some cameras). Another contribution concerns the improvement of the convergence of the estimation error by mitigating unobservability issues by using a l-step neighborhood information spreading mechanism. The proposed distributed estimation is designed for realistic large-scale systems scenarios involving sporadic measurements (i.e. available at time instants a priori unknown). To this aim, constraints on measurements (e.g. camera field of view) are embodied using time-varying binary parameters in the optimization problem. Both realistic simulations within the Robot Operating System (ROS) framework and Gazebo environment, as well as experimental validation of the proposed DMHE localization technique of a Multi-Vehicle System (MVS) with ground mobile robots are performed, using a static Sensor Network composed of low-cost cameras which provide measurements on the positions of the robots of the MVS. The proposed algorithms are compared to previous results from the literature, considering several metrics such as computation time and accuracy of the estimates
APA, Harvard, Vancouver, ISO, and other styles
3

Renzaglia, Alessandro. "Optimisation stochastique et adaptative pour surveillance coopérative par une équipe de micro-véhicules aériens." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00721748.

Full text
Abstract:
L'utilisation d'équipes de robots a pris de l'ampleur ces dernières années. Cela est dû aux avantages que peut offrir une équipe de robot par rapport à un robot seul pour la réalisation d'une même tâche. Cela s'explique aussi par le fait que ce type de plates-formes deviennent de plus en plus abordables et fiables. Ainsi, l'utilisation d'une équipe de véhicules aériens devient une alternative viable. Cette thèse se concentre sur le problème du déploiement d'une équipe de Micro-Véhicules Aériens (MAV) pour effectuer des missions de surveillance sur un terrain inconnu de morphologie arbitraire. Puisque la morphologie du terrain est inconnue et peut être complexe et non-convexe, les algorithmes standards ne sont pas applicables au problème particulier traité dans cette thèse. Pour y remédier, une nouvelle approche basée sur un algorithme d'optimisation cognitive et adaptatif (CAO) est proposée et évaluée. Une propriété fondamentale de cette approche est qu'elle partage les mêmes caractéristiques de convergence que les algorithmes de descente de gradient avec contraintes qui exigent une connaissance parfaite de la morphologie du terrain pour optimiser la couverture. Il est également proposé une formulation différente du problème afin d'obtenir une solution distribuée, ce qui nous permet de surmonter les inconvénients d'une approche centralisée et d'envisager également des capacités de communication limitées. De rigoureux arguments mathématiques et des simulations étendues établissent que l'approche proposée fournit une méthodologie évolutive et efficace qui intègre toutes les contraintes physiques particulières et est capable de guider les robots vers un arrangement qui optimise localement la surveillance. Finalement, la méthode proposée est mise en œuvre sur une équipe de MAV réels pour réaliser la surveillance d'un environnement extérieur complexe.
APA, Harvard, Vancouver, ISO, and other styles
4

Roux, Julien. "Conception d'un capteur distribué pour la surveillance de l'état hydrique des sols." Thesis, Toulouse, INSA, 2017. http://www.theses.fr/2017ISAT0031/document.

Full text
Abstract:
A cause du développement du smart farming, des études sont à mener sur la distribution de l’instrumentation pour mesurer l’état hydrique du sol en vue de contrôler l’irrigation. Dans le cadre du projet IRRIS, nous réalisons un capteur d’humidité du sol intelligent. Nous allons tout d’abord réaliser le corps d’épreuve de ce capteur. Nous choisissons une mesure capacitive pour obtenir un capteur réactif malgré un coût de réalisation faible. Le corps est cylindrique pour pouvoir être inséré facilement dans le sol. Les électrodes sont réalisées par dépôt électrochimique de cuivre sur ce cylindre plastique. Nous concevons ensuite l’électronique de mesure associée à ce corps. Pour cela, nous comparons deux solutions, l’une analogique et l’autre logicielle. Puis nous assemblons notre capteur suivant deux modes, le multi capteur ou le mono capteur. Nous réalisons à cette étape la création du réseau de capteurs à l’aide de communication sans fil située dans la bande ISM 868MHz et nous la caractérisons. Enfin, nous observons les résultats de trois campagnes de mesures dans des champs cultivés pour valider le fonctionnement sur différents types de sols et de cultures. Ces travaux aboutissent donc à la création d’un capteur permettant la mesure de l’humidité du sol avec un coût réduit par rapport aux capteurs industriel déjà existant. Les expérimentations sur site montrent sa facilité d’insertion ainsi que son bon fonctionnement
Owing to the development of the smart farming, some new studies need to be lead on a distributed instrumentation to measure soil moisture to control the irrigation.In the project IRRIS context, we realize a smart soil moisture sensor. First, we have to realize the sensing element of this sensor. We choose a capacitive detection to get a reactive sensor despite low cost. The body is a cylinder to be easily buried in the soil. The electrodes are made by electrochemical deposition on the plastic tube. Then, we design the measurement electronic. We compare two solutions, one with discrete components and the other software on embedded microcontroller. We submit those electronics at thermic variations to observe their comportment to create the law of compensation. Next we assemble the sensor according to two ways. The first, the multi sensor, forces the depths of sensing but reduces the costs by pooling the measurement electronic. The second, the mono sensor, frees the choice of depth but multiplies the number of sensors. We create at this step the sensor network thanks a wireless communication placed on 868MHz, an ISM band that we characterize in terms of range depending on the flow rate to optimize this communication. Finally, we observe the results of three measurement campaigns to validate the operating for different soil and cultures.This study ends in the realization of a sensor to measure soil moisture with a reduced cost relative to the industrial sensor on the market. Experiments prove its ease of use as well as its proper functioning
APA, Harvard, Vancouver, ISO, and other styles
5

Marshall, Michael Brian. "A Swarm Intelligence Approach to Distributed Mobile Surveillance." Thesis, Virginia Tech, 2005. http://hdl.handle.net/10919/35120.

Full text
Abstract:
In the post-9/11 world, new and improved surveillance and information-gathering technologies have become a high-priority problem to be solved. Surveillance systems are often needed in areas too hostile or dangerous for a direct human presence. The field of robotics is being looked to for an autonomous mobile surveillance system. One major problem is the control and coordination of multiple cooperating robots. Researchers have looked to the distributed control strategies found in nature in the form of social insects as an inspiration for new control schemes. Swarm intelligence research centers around the interactions of such systems and how they can be applied to contemporary problems. In this thesis, a surveillance system of mobile autonomous robots based on the principles of swarm intelligence is presented.
Master of Science
APA, Harvard, Vancouver, ISO, and other styles
6

Zajdel, Wojciech Piotr. "Bayesian visual surveillance from object detection to distributed cameras /." [S.l. : Amsterdam : s.n.] ; Universiteit van Amsterdam [Host], 2005. http://dare.uva.nl/document/18901.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

BOUFAIED, Amine. "Contribution à la surveillance distribuée des systèmes à événements discrets complexes." Phd thesis, Université Paul Sabatier - Toulouse III, 2003. http://tel.archives-ouvertes.fr/tel-00010972.

Full text
Abstract:
Le travail présenté dans ce mémoire s'inscrit dans le domaine de la surveillance des systèmes à événements discrets et porte plus particulièrement sur le problème de la détection distribuée de procédés complexes. L'architecture proposée repose sur des sites autonomes et coopératifs de surveillance permettant de surveiller les évolutions du procédé. Ces évolutions, traduisant le fonctionnement attendu (normal) du système ou des situations de défaillance, sont décrites par des chroniques. Chaque chronique est composée d'un ensemble d'événements et d'un ensemble de contraintes temporelles entre ces événements. Trois types de contraintes sont considérés : les contraintes de précédence, les contraintes de types intervalles et les contraintes de type fenêtre d'admissibilité. Une chronique est dite reconnue si toutes les contraintes qui la composent sont vérifiées compte tenu des durées séparant les occurrences des événements la constituant. La distribution du modèle temporel représenté par la chronique induit la distribution de la chronique en sous-chroniques distribuées sur plusieurs sites de surveillance (sous-systèmes). La reconnaissance de l'ensemble des sous-chroniques assure la reconnaissance de la chronique. Cette distribution de la chronique en sous-chroniques permet de mettre en évidence deux types de contraintes : les contraintes locales et les contraintes globales. Les délais de communication ou de transport entre sites sont bornés et sont pris en compte lors de la vérification des contraintes temporelles globales. L'incertitude induite par ces délais engendre une incertitude sur la vérification qui se traduit par une mesure de possibilité associée à la vérification d'une contrainte. Des mécanismes de coopération entre sites de surveillance sont définis. Une modélisation des différents mécanismes développés reposant sur les réseaux de Petri p-t-temporels flous est proposée. Enfin, l'ensemble des travaux est appliqué à la surveillance d'un terminal intermodal de fret.
APA, Harvard, Vancouver, ISO, and other styles
8

Boufaied, Amine. "Contribution à la surveillance distribuée des systèmes à évènements discrets complexes." Toulouse 3, 2003. http://www.theses.fr/2003TOU30234.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Di, Caterina Gaetano. "Video analyytics algorithms and distributed solutions for smart video surveillance." Thesis, University of Strathclyde, 2013. http://oleg.lib.strath.ac.uk:80/R/?func=dbin-jump-full&object_id=18949.

Full text
Abstract:
The growth in the number of surveillance cameras deployed and the progress in digital technologies in recent years have steered the video surveillance market towards the usage of computer systems to automatically analyse video feeds in a collaborative and distributive fashion. The semantic analysis and interpretation of video surveillance data through signal and image processing techniques is called Video Analytics (VA). In this thesis new video analytics methods are presented that are shown to be effective and efficient when compared to existing methods. A novel adaptive template matching algorithm for robust target tracking based on a modifed Sum of Absolute Differences (SAD) called Sum of Weighted Absolute Differences (SWAD) is developed. A Gaussian weighting kernel is employed to reduce the effects of partial occlusion, while the target template is updated using an Infinite Impulse Response (IIR) Filter. Experimental results demonstrate that the SWAD-based tracker outperforms conventional SAD in terms of efficiency and accuracy, and its performance is comparable to more complex trackers. Moreover, a novel technique for complete occlusion handling in the context of such a SWAD-based tracker is presented that is shown to preserve the template and recover the target after complete occlusion. A DSP embedded implementation of the SWAD-based tracker is then described, showing that such an algorithm is ideal for real-time implementations on devices with low computational capabilities, as in the case of xed-point embedded DSP platforms. When colour is selected as target feature to track, the mean shift (MS) tracker can be used. Although it has been shown to be fast, effective and robust in many scenarios, it fails in case of severe and complete occlusion or fast moving targets. A new improved MS tracker is presented which incorporates a failure recovery strategy. The improved MS is simple and fast, and experimental results show that it can effectively recover a target after complete occlusion or loss, to successfully track target in complex scenarios, such as crowd scenes. Although many methods have been proposed in the literature to detect abandoned and removed objects, they are not really designed to be able to trigger alerts within a time interval defined by the user. It is actually the background model updating procedure that dictates when the alerts are triggered. A novel algorithm for abandoned and removed object detection in real-time is presented. A detection time can be directly specified and the background is "healed" only after a new event has been detected. Moreover the actual detection time and the background model updating rate are computed in an adaptive way with respect to the algorithm frame processing rate, so that even on different machines the detection time is generally the same. This is in contrast with other algorithms, where either the frame rate or the background updating rate is considered to be fixed. The algorithm is employed in the context of a reactive smart surveillance system, which notified the occurrence of events of interest to registered users, within seconds, through SMS alerts. In the context of multi-camera systems, spatio-temporal information extracted from a set of semantically clustered cameras can be fused together and exploited, to achieve a better understanding of the environment surrounding the cameras and monitor areas wider than a single camera FOV. A highly flexible decentralised system software architecture is presented, for decentralised multi-view target tracking, where synchronisation constraints among processes can be relaxed. The improved MS tracker is extended to a collaborative multi-camera environment, wherein algorithm parameters are set automatically in separate views, upon colour characteristics of the target. Such a decentralised multi-Such a decentralised multi-camera tracking system does not rely on camera positional information to initialise the trackers or handle camera hand off events. Tracking in separate camera views is performed solely on the visible characteristics of the target, reducing the system setup phase to the minimum. Such a system can automatically select from a set of views, the one that gives the best visualisation of the target. Moreover, camera overlapping information can be exploited to overcome target occlusion.
APA, Harvard, Vancouver, ISO, and other styles
10

Salhi, Miyassa. "Étude d’un système de surveillance de structure par fibre optique reposant sur l’effet Brillouin." Thesis, Paris Est, 2020. http://www.theses.fr/2020PESC2031.

Full text
Abstract:
L’utilisation de capteurs distribués à fibres optiques délivrant une information en chaque point de la fibre constitue un outil majeur des stratégies de surveillance de structures à grande échelle en génie civil. Le phénomène de diffusion Brillouin spontanée (ou stimulée), dans le domaine des capteurs à fibres optiques, fait l’objet d’une forte investigation scientifique depuis les années 1990. Les solutions industrielles proposées reposent sur l’analyse spectrale de l’onde Stokes rétrodiffusée tout le long de la fibre. Ainsi, un dispositif B-OTDR (Brillouin Optical Time-Domain Reflectometer) peut réaliser une mesure du décalage de la fréquence Brillouin (de l’ordre de 11 GHz autour de 1.55 µm) avec une résolution spatiale métrique et une sensibilité des mesures de déformation et de température respectivement de l’ordre de 10 µm/m et 0.5°C, mais pour un coût élevé (de l’ordre de 100 k€), ce qui limite leur utilisation.Les travaux de cette thèse sont orientés vers l’étude d’un système de surveillance reposant sur l’utilisation d’une source optique bi-fréquence bi-polarisation, qui permettrait de remédier aux inconvénients des systèmes conventionnels et ayant des performances équivalentes avec les solutions à l’état de l’art
The use of distributed sensors fiber optic delivering information in each point of the fiber is an important tool for large-scale structures surveillance strategies in civil engineering. The spontaneous Brillouin scattering phenomenon (or stimulated) in the field of sensors optical fiber is subject to strong scientific inquiry since the 1990s. The proposed industrial solutions are based on the spectral analysis of the Stokes wavelength backscattered along the length of the fiber. Thus, a B-OTDR device (Brillouin Optical Time-Domain Reflectometer) can perform a measurement of the shift of the Brillouin frequency (of the order of 11GHz around 1.55 µm) with a metric spatial resolution and sensitivity of the strain measurements and temperature respectively of about 10 µm/m and 0.5 °C, but at a high cost (about 100k€) which limits their use. This thesis is oriented towards the study of a monitoring system based on the use of a bi-frequency bi-polarization source, which would make it possible to remedy the drawbacks of conventional systems and have equivalent performances with state of the art solutions
APA, Harvard, Vancouver, ISO, and other styles
11

Andersen, Evan D. "A surveillance system to create and distribute geo-referenced mosaics from SUAV video /." Diss., CLICK HERE for online access, 2008. http://contentdm.lib.byu.edu/ETD/image/etd2416.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

Valera, Espina Maria. "An approach for designing a real-time intelligent distributed surveillance system." Thesis, Kingston University, 2006. http://eprints.kingston.ac.uk/20298/.

Full text
Abstract:
The main aim of this PhD is to investigate how a methodology rooted in systems engineering concepts can be established and applied to the design of distributed wide-area visual surveillance systems. Nowadays, the research community in surveillance systems tends to be mostly focused on the computer vision part of these systems, researching and developing more intelligent algorithms. The integration and finally the creation of the system per se, are usually regarded as a secondary priority. We postulate here that until a robust systems-centred, rather than algorithmic-centred approach is used, the realisation of realistic distributed surveillance systems is unlikely to happen. The future generation of surveillance systems can be categorised, from a system engineering point of view, as concurrent, distributed, embedded, real time systems. An important aspect of these systems is the inherent temporal diversity (heterogeneous timing) that arises from a variety of timing requirements and from the parallelisation and distribution of the processes that compose the system. Embedded, real-time systems are often naturally asynchronous. However, the computer vision part of these surveillance systems is commonly conceived and designed in a sequential and synchronous manner, in many cases using an object-oriented approach. Moreover, to cope with the distributed nature of these systems, technologies such as CORBA are applied. Designing processes in a synchronous manner plus the run-time overheads associated with object oriented implementations may cause communication bottlenecks. Perhaps more importantly, it may produce unpredictable behaviour of some components of the system and hence undetermined performance from a system as a whole. Clearly, this is a major problem on surveillance systems that can often be expected to be safety-critical. This research has explored the use of an alternative approach to object-orientation for the design and implementation of intelligent distributed surveillance systems. The approach is known as Real-Time Networks (exemplified by system engineering methodologies such as MASCOT and extensions such as DORIS). This approach is based conceptually on conceiving solutions as being naturally concurrent, from the highest level of abstraction, with concurrent activities communicating through well-defined data-centred mechanisms. The methodology favours a disciplined approach to design, which yields a modular structure that has close correspondence between functional elements in design and constructional elements for system integration. It is such characteristics that we believe will become essential in overcoming the complexities of going from small-scale computer vision prototypes to large-scale working systems. To justify the selection of this methodology, an overview of different software approach methods that may be used for designing wide-area intelligent surveillance systems is given. This is then, narrowed down to a comparison between Real-Time Networks and Object Orientation. The comparison is followed by an illustration of two different design solutions of an existing real-time distributed surveillance system called ADVISOR. One of the design solutions, based on Object Oriented concepts, uses CORBA as a means for the integration and distribution characteristics of the system. The other design solution, based on Real-Time Networks, uses DORIS methodology as a solution for the design of the system. Once the justification over the selection is done, a' novel design of a generic visual surveillance system using the proposed Real-Time Networks method is presented. Finally, the conclusions and future work are explained in the last chapter.
APA, Harvard, Vancouver, ISO, and other styles
13

Andersen, Evan D. "A Surveillance System to Create and Distribute Geo-Referenced Mosaics Using SUAV Video." BYU ScholarsArchive, 2008. https://scholarsarchive.byu.edu/etd/1679.

Full text
Abstract:
Small Unmanned Aerial Vehicles (SUAVs) are an attractive choice for many surveillance tasks. However, video from an SUAV can be difficult to use in its raw form. In addition, the limitations inherent in the SUAV platform inhibit the distribution of video to remote users. To solve the problems with using SUAV video, we propose a system to automatically create geo-referenced mosiacs of video frames. We also present three novel techniques we have developed to improve ortho-rectification and geo-location accuracy of the mosaics. The most successful of these techniques is able to reduce geo-location error by a factor of 15 with minimal computational overhead. The proposed system overcomes communications limitations by transmitting the mosaics to a central server where there they can easily be accessed by remote users via the Internet. Using flight test results, we show that the proposed mosaicking system achieves real-time performance and produces high-quality and accurately geo-referenced imagery.
APA, Harvard, Vancouver, ISO, and other styles
14

Palaniappan, Ravishankar. "A SELF-ORGANIZING HYBRID SENSOR SYSTEM WITH DISTRIBUTED DATA FUSION FOR INTRUDER TRACKING AND SURVEILLANCE." Doctoral diss., University of Central Florida, 2010. http://digital.library.ucf.edu/cdm/ref/collection/ETD/id/2407.

Full text
Abstract:
A wireless sensor network is a network of distributed nodes each equipped with its own sensors, computational resources and transceivers. These sensors are designed to be able to sense specific phenomenon over a large geographic area and communicate this information to the user. Most sensor networks are designed to be stand-alone systems that can operate without user intervention for long periods of time. While the use of wireless sensor networks have been demonstrated in various military and commercial applications, their full potential has not been realized primarily due to the lack of efficient methods to self organize and cover the entire area of interest. Techniques currently available focus solely on homogeneous wireless sensor networks either in terms of static networks or mobile networks and suffers from device specific inadequacies such as lack of coverage, power and fault tolerance. Failing nodes result in coverage loss and breakage in communication connectivity and hence there is a pressing need for a fault tolerant system to allow replacing of the failed nodes. In this dissertation, a unique hybrid sensor network is demonstrated that includes a host of mobile sensor platforms. It is shown that the coverage area of the static sensor network can be improved by self-organizing the mobile sensor platforms to allow interaction with the static sensor nodes and thereby increase the coverage area. The performance of the hybrid sensor network is analyzed for a set of N mobile sensors to determine and optimize parameters such as the position of the mobile nodes for maximum coverage of the sensing area without loss of signal between the mobile sensors, static nodes and the central control station. A novel approach to tracking dynamic targets is also presented. Unlike other tracking methods that are based on computationally complex methods, the strategy adopted in this work is based on a computationally simple but effective technique of received signal strength indicator measurements. The algorithms developed in this dissertation are based on a number of reasonable assumptions that are easily verified in a densely distributed sensor network and require simple computations that efficiently tracks the target in the sensor field. False alarm rate, probability of detection and latency are computed and compared with other published techniques. The performance analysis of the tracking system is done on an experimental testbed and also through simulation and the improvement in accuracy over other methods is demonstrated.
Ph.D.
School of Electrical Engineering and Computer Science
Engineering and Computer Science
Modeling and Simulation PhD
APA, Harvard, Vancouver, ISO, and other styles
15

Rammal, Ali. "Modélisation multi-agent dans un processus de gestion multi acteur, application au maintien à domicile." Toulouse 3, 2010. http://thesesups.ups-tlse.fr/1116/.

Full text
Abstract:
Les systèmes de maintien ou de surveillance à domicile existants cherchent à répondre aux besoins de ce domaine, mais souffrent néanmoins de quelques limites, une de ces limites étant que ces systèmes sont centrés sur une seule personne et ne permettent pas la surveillance de plusieurs personnes en même temps. Notre objectif est de construire des patrons de comportement à partir des informations provenant du domicile des personnes suivies à l'aide des capteurs de mouvement, des capteurs physiologiques, des cahiers de liaison, et d'autres sources, dans le but d'avoir une vision macroscopique des personnes suivies. Pour ce faire nous déployons une architecture de classification utilisable à grande échelle et basée sur les technologies multi-agent. Nous avons opté pour une méthode de classification multi-agents car l'application des méthodes classiques centralisées (statistiques, neuronales, de formation de concept. . . ) ne sont pas possibles quand les données nécessaires pour faire la classification, sont distribuées. De telles méthodes ne permettent pas le passage à l'échelle qui suppose de pouvoir prendre en compte de nombreuses personnes situées dans des environnements différents et suivies par de nombreux indicateurs dont le nombre et le domaine de valeur peuvent évoluer dans le temps. Un tel passage à l'échelle est possible avec les méthodes multi-agents où chaque agent gère une partie de données sur un sous-ensemble de la population suivie. L'évolution du nombre ou du domaine des indicateurs peut induire la suppression ou l'ajout d'un nouvel agent sans l'obligation de refaire tout le calcul
This research can be seen as a macroscopic approach to a large-scale distributed data gathering. We propose a software architecture to monitor elderly or dependent people in their own house. Many studies have been done on hardware aspects resulting in operational products. But there is a lack of adaptive algorithms to handle all the data generated by these products, because such data is distributed and heterogeneous in a large scale environment. We propose a multi-agent classification method to collect and to aggregate data about activity, movements and physiological information of the monitored people: agent's know-how consists in a simple classification algorithm. Data generated at this local level are communicated and adjusted between agents to obtain a set of patterns. This data is dynamic; the system has to store the built patterns and has to create new patterns when new data is available. Therefore, the system is adaptive and can be spread on a large scale. The generated data is used at a local level, for example to raise an alert, but also to evaluate global risks. We present the specification choices and the massively multi-agent architecture we developed
APA, Harvard, Vancouver, ISO, and other styles
16

Barros, de Sales André. "Gestion de bout en bout de la qualité des services distribués : surveillance et sélection par une approche Modelware." Toulouse 3, 2004. http://www.theses.fr/2004TOU30075.

Full text
Abstract:
Nos travaux concourent à offrir une sélection de services publiés en milieu distribué basée sur des informations de qualité observées. Par une approche informationnelle, nous nous sommes donnés les moyens de modéliser les influences Réseaux et Systèmes afin d'en automatiser leur gestion (identification de dépendances, déduction automatique de changement d'état,. . . ). Notre architecture conduite par des modèles informationnels (Modelware) nous a permis d'élaborer une démarche de conception d'applications de gestion, dégageant une double indépendance : l'une vis-à-vis des domaines spécifiques à gérer et l'autre vis-à-vis des plates-formes de gestion. Nous avons conçu une surveillance intégrée et contextuelle de services couplée à un service de "sélection avancée", offrant ainsi une instrumentation en temps réel des paramètres de Qualité de Service - QS. Notre solution a été expérimentée pour l'environnement CORBA, mettant en exergue les étapes de spécialisation de notre solution " Modelware " vers un environnement spécifique à gérer. Nous avons doté le service de courtage de CORBA, d'informations de QS des services publiés
Our work contributes to offer a selection of published services in distributed systems based on monitored quality management information. From an informational approach, we had the means to model the influence of Systems and Networks so as to automate their management (identification of dependencies, automatic deduction of change of state etc. ). Our informational model driven architecture (Modelware) led us to specify a designing method for management applications, expressing a double independency: one in regard to specific managed domains and another in relation to management platforms. The integrated and contextual monitoring of service was linked to an "advanced selection of service" thus offering a real-time instrumentation of Quality of Service - QoS parameters. Our solution was tested for a CORBA environment, emphasizing our "Modelware" solution's specification steps towards a specific environment to be managed. This QoS information was added to the services published in the CORBA Trader service
APA, Harvard, Vancouver, ISO, and other styles
17

Jedidi, Hatem. "Outils logiciels pour la surveillance et la détection des fautes dans les systèmes distribués." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1997. http://www.collectionscanada.ca/obj/s4/f2/dsk2/tape16/PQDD_0031/MQ26579.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
18

Robinson, Mike. "Design and performance characterisation of a modular surveillance system for a distributed processing platform." Thesis, University of Edinburgh, 2001. http://hdl.handle.net/1842/11319.

Full text
Abstract:
This thesis investigates pedestrian monitoring using image processing for state-of-the-art real-time distributed camera-processor architectures. An integrated design and evaluation process is proposed, where the surveillance task is analysed into component modules, each corresponding to a self-contained vision process. Different approaches to each process are implemented independently, using Object-oriented design principles to facilitate both system construction and module interchange during comparative testing. Standard algorithms, from the computer vision literature, together with novel variants are used but the scope is restricted to what can be implemented to run in real-time, on a modest image processing engine. Comparison is made between median-based and mixture-of-Gaussian based methods for background representation, between connected component and boundary following approaches.to object segmentation and between pixel-based and 2-D model based (PCA with cubic splines) methods for object classification. Quantitative performance-characterization data for existing solutions is not generally available, in the literature, in the form of bench-mark test-sequences and is time-consuming and costly to produce, for novel methods. A substantial test-data-set of real surveillance image-sequences has been acquired, to test; the system and compare alternative approaches. A novel performance-characterization technique is proposed: it offers comparative quantitative evaluation of the performance and resource requirements of a system. This approach is applied to the different system variants, comprised of the alternative module combinations. The results of running the system variants on the test data are compared against manually derived ground-truth data for pedestrian detection. The performance characterization approach provided clear comparative data on performance and resource requirements for each variant, analysed by scene and event type. From a review of these results, the optimum module combination is chosen: this is a system composed of median-based background representation, boundary following object segmentation and model-based object classification.
APA, Harvard, Vancouver, ISO, and other styles
19

Jedidi, Hatem. "Outils logiciels pour la surveillance et la detection des fautes dans les systemes distribués." Sherbrooke : Université de Sherbrooke, 1997.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
20

Liu, Junbin. "Distributed low-power image processing in wireless sensor networks for intelligent video surveillance applications." Thesis, Queensland University of Technology, 2012. https://eprints.qut.edu.au/63311/1/Junbin_Liu_Thesis.pdf.

Full text
Abstract:
Distributed Wireless Smart Camera (DWSC) network is a special type of Wireless Sensor Network (WSN) that processes captured images in a distributed manner. While image processing on DWSCs sees a great potential for growth, with its applications possessing a vast practical application domain such as security surveillance and health care, it suffers from tremendous constraints. In addition to the limitations of conventional WSNs, image processing on DWSCs requires more computational power, bandwidth and energy that presents significant challenges for large scale deployments. This dissertation has developed a number of algorithms that are highly scalable, portable, energy efficient and performance efficient, with considerations of practical constraints imposed by the hardware and the nature of WSN. More specifically, these algorithms tackle the problems of multi-object tracking and localisation in distributed wireless smart camera net- works and optimal camera configuration determination. Addressing the first problem of multi-object tracking and localisation requires solving a large array of sub-problems. The sub-problems that are discussed in this dissertation are calibration of internal parameters, multi-camera calibration for localisation and object handover for tracking. These topics have been covered extensively in computer vision literatures, however new algorithms must be invented to accommodate the various constraints introduced and required by the DWSC platform. A technique has been developed for the automatic calibration of low-cost cameras which are assumed to be restricted in their freedom of movement to either pan or tilt movements. Camera internal parameters, including focal length, principal point, lens distortion parameter and the angle and axis of rotation, can be recovered from a minimum set of two images of the camera, provided that the axis of rotation between the two images goes through the camera's optical centre and is parallel to either the vertical (panning) or horizontal (tilting) axis of the image. For object localisation, a novel approach has been developed for the calibration of a network of non-overlapping DWSCs in terms of their ground plane homographies, which can then be used for localising objects. In the proposed approach, a robot travels through the camera network while updating its position in a global coordinate frame, which it broadcasts to the cameras. The cameras use this, along with the image plane location of the robot, to compute a mapping from their image planes to the global coordinate frame. This is combined with an occupancy map generated by the robot during the mapping process to localised objects moving within the network. In addition, to deal with the problem of object handover between DWSCs of non-overlapping fields of view, a highly-scalable, distributed protocol has been designed. Cameras that follow the proposed protocol transmit object descriptions to a selected set of neighbours that are determined using a predictive forwarding strategy. The received descriptions are then matched at the subsequent camera on the object's path using a probability maximisation process with locally generated descriptions. The second problem of camera placement emerges naturally when these pervasive devices are put into real use. The locations, orientations, lens types etc. of the cameras must be chosen in a way that the utility of the network is maximised (e.g. maximum coverage) while user requirements are met. To deal with this, a statistical formulation of the problem of determining optimal camera configurations has been introduced and a Trans-Dimensional Simulated Annealing (TDSA) algorithm has been proposed to effectively solve the problem.
APA, Harvard, Vancouver, ISO, and other styles
21

Song, Bi. "Scene analysis, control and communication in distributed camera networks." Diss., [Riverside, Calif.] : University of California, Riverside, 2009. http://gateway.proquest.com/openurl?url_ver=Z39.88-2004&rft_val_fmt=info:ofi/fmt:kev:mtx:dissertation&res_dat=xri:pqdiss&rft_dat=xri:pqdiss:3359910.

Full text
Abstract:
Thesis (Ph. D.)--University of California, Riverside, 2009.
Includes abstract. Title from first page of PDF file (viewed January 27, 2010). Includes bibliographical references (p. 99-105). Issued in print and online. Available via ProQuest Digital Dissertations.
APA, Harvard, Vancouver, ISO, and other styles
22

Gandibleux, Jean. "Contribution à l'évaluation de sûreté de fonctionnement des architectures de surveillance/diagnostic embarquées. Application au transport ferroviaire." Phd thesis, Université de Valenciennes et du Hainaut-Cambresis, 2013. http://tel.archives-ouvertes.fr/tel-00990970.

Full text
Abstract:
Dans le transport ferroviaire, le coût et la disponibilité du matériel roulant sont des questions majeures. Pour optimiser le coût de maintenance du système de transport ferroviaire, une solution consiste à mieux détecter et diagnostiquer les défaillances. Actuellement, les architectures de surveillance/diagnostic centralisées atteignent leurs limites et imposent d'innover. Cette innovation technologique peut se matérialiser par la mise en oeuvre d'architectures embarquées de surveillance/diagnostic distribuées et communicantes afin de détecter et localiser plus rapidement les défaillances et de les valider dans le contexte opérationnel du train. Les présents travaux de doctorat, menés dans le cadre du FUI SURFER (SURveillance active Ferroviaire) coordonné par Bombardier, visent à proposer une démarche méthodologique d'évaluation de la sûreté de fonctionnement d'architectures de surveillance/diagnostic. Pour ce faire, une caractérisation et une modélisation génériques des architectures de surveillance/diagnostic basée sur le formalisme des Réseaux de Petri stochastiques ont été proposées. Ces modèles génériques intègrent les réseaux de communication (et les modes de défaillances associés) qui constituent un point dur des architectures de surveillance/diagnostic retenues. Les modèles proposés ont été implantés et validés théoriquement par simulation et une étude de sensibilité de ces architectures de surveillance/diagnostic à certains paramètres influents a été menée. Enfin, ces modèles génériques sont appliqués sur un cas réel du domaine ferroviaire, les systèmes accès voyageurs des trains, qui sont critiques en matière de disponibilité et diagnosticabilité.
APA, Harvard, Vancouver, ISO, and other styles
23

Bettahar, Fehd. "Conception et prototypage d'un système complet pour la surveillance du grain dans les silos de stockage." Thesis, Toulouse 2, 2016. http://www.theses.fr/2016TOU20027/document.

Full text
Abstract:
Cette thèse traite des nouvelles technologies de surveillance appliquées au stockage des grains en silos. Les céréales représentent depuis les premiers regroupements sédentaires l’aliment principal pour l’Homme comme pour le bétail. Les récoltes sont saisonnières et leur stockage est donc une nécessité vitale pour une population mondiale qui compte actuellement 7,2 Mds d'habitants et qui en comptera 9 Mds en 2050. Dans cette problématique autour de la surveillance des silos, les insectes représentent les premiers ravageurs de grain après récolte, ce qui entraîne des pertes considérables pouvant atteindre dans certains cas jusqu’à 10% de la production. Plusieurs techniques et méthodes ont été développées et mises en pratique afin de faire face au danger que représentent ces ravageurs. La méthode la plus répandue est l’utilisation des insecticides chimiques de synthèse dont la dangerosité, impactant tant sur la santé humaine que sur l'environnement, est plus qu'évidente. Ce travail de thèse s'inscrit dans un programme coopératif, nommé ECOSILO, dont l'objectif majeur est de concevoir et de prototyper des solutions alternatives écologiques à l'utilisation systématique et massive de produits insecticides. Il s'agit donc d'une démarche largement pluridisciplinaire dans laquelle nous avons eu en charge d'imaginer un système complet de surveillance : détection au plus tôt des infestations et commande automatique de la diffusion d'attractifs puis d'insecticides. Notre proposition est fondée sur une logique de protection intégrée et privilégie la prévention et la détection précoce d'éventuelles infestations, ce afin de préserver les stocks et d'éviter d'atteindre un stade de perte économique trop élevé. Son originalité fondamentale réside dans la proposition d'un modèle prédictif du développement de l'infestation qui consiste à coupler un modèle thermique du silo avec un modèle biologique décrivant la croissance des insectes. Il est ainsi possible, avec l'appui de données complémentaires météorologiques, d'anticiper le développement des insectes et de lancer des alarmes préventives. Cette solution est accompagnée de développements électroniques et informatiques plus spécifiques de la surveillance continue des silos : un système de détection à l'entrée des silos ; une surveillance sur la partie haute du tas de grain la plus chaude ; une surveillance du tas de grains dans toute sa hauteur. Ces développements mettent en œuvre des modes de détections multiples (température, humidité, sonde acoustique, CO2). Toutes ces contributions techniques sont intégrées sous la forme d'un système complet de surveillance équipé d'une interface utilisateurs qui répond aux exigences du projet global ECOSILO. Les vérifications fonctionnelles ont été réalisées en laboratoire et sur site réel. Nous concluons sur les perspectives ouvertes par ce travail
This thesis deals with new monitoring technologies applied to grain storage in silos. Since the first sedentary groups, cereals have been accounted as the main food for humans, as well as for livestock. The crops are seasonal and storage is a vital necessity for the world population, which currently has 7.2 billion inhabitants and will reach 9 billion in 2050. In this problematic around monitoring of silos, insects represent the first grain postharvest pest, causing considerable losses in some cases up to 10% of the production. Several techniques and methods have been developed and implemented in order to face the danger of these pests. The most common method is the use of synthetic chemical insecticides, which have an obvious negative effect on both, human health and the environment. This work is part of a cooperative program named ECOSILO, whose main objective is to design and create prototype ecological alternatives to the systematic and massive use of insecticides. This is therefore a largely multidisciplinary approach, in which we were in charge to conceptualize a comprehensive monitoring system to detect infestations early and automatically control of the attractive and insecticides spreading. Our proposal is based on logic of IPM and focuses on the prevention and early detection of possible infestations, in order to preserve stocks and to avoid reaching high level of economic loss. Its fundamental originality lies in the proposition of a predictive model of the development of the infestation, which consists of coupling a thermal model of the silo with a biological model describing insect growth. Thus, it is possible, with additional weather data support, to anticipate the development of insects and initiate preventive alarms. This solution is accompanied by more specific electronic and computer monitoring developments in silos: a detection system at the entrance of silos; a supervision of the top of the heap of grain which is the hottest; Monitoring of the heap of grain in its entire height. These developments are implementing multiple detection modes (temperature, humidity, acoustic probe, CO2). All these technical contributions are incorporated in the form of a comprehensive monitoring system with a user interface that meets the requirements of the overall project ECOSILO. The functional checks have been performed in laboratory and actual site. We conclude on the perspectives opened by this work
APA, Harvard, Vancouver, ISO, and other styles
24

Boulmakoul, Azedine. "Vers un système à base de connaissances distribué & temps réel pour la surveillance et le contrôle du trafic en site urbain." Lyon 1, 1990. http://www.theses.fr/1990LYO10222.

Full text
Abstract:
Dans l'ingenierie du trafic urbain, le carrefour est un element strategique tres complexe. Cette complexite est due a plusieurs facteurs: diversite des acteurs, des interactions et des conflits, strategies de commandes et integration dans le reseau. De cet ensemble de caracteristiques, il ressort que la gestion des carrefours doit respecter des imperatifs essentiels: tache de surveillance, tache de controle, mecanisme de cooperation et de communication. Ces imperatifs representent les ingredients du systeme carrefour intelligent. Dans le cadre de ce projet nous avons concu une structure d'accueil logicielle flexible dediee a la description de differentes facettes phenomenologiques des carrefours. Cette structure est implementee avec un outil de developpement de systemes a base de connaissances temps reel (frame-based) g2#t#m. Elle distingue trois niveaux de connaissances: niveau contextuel topologique, niveau fonctionnel et niveau controle. A cette structure nous avons integre une nouvelle generation d'indicateurs fondes sur l'analyse d'images de mouvement. Ce couplage constitue la base de developpement de la tache de surveillance et de diagnostic du projet europeen drive: invaid. Une version de demonstration du systeme que nous avons developpe tourne actuellement sur une sparc-machine. Sur le plan theorique, nous proposons des resultats dans le cadre des logiques non monotones au sujet de la formalisation du dignostic ainsi que dans le champ des logiques temporelles pour l'expression des connaissances temporelles
APA, Harvard, Vancouver, ISO, and other styles
25

Clement, Pierre. "Solutions aux limites des interrogateurs B-OTDR pour la surveillance d'infrastructures : augmentation de la portée de mesure et décorrélation des paramètres de température et de déformation." Electronic Thesis or Diss., Institut polytechnique de Paris, 2020. http://www.theses.fr/2020IPPAT042.

Full text
Abstract:
Cette thèse porte sur l’étude des systèmes de mesure répartie de la rétrodiffusion Brillouin dans une fibre optique, que l’on nomme B-OTDR et qui sont sensibles à la température et à la déformation de la fibre. Les solutions d'interrogateurs actuelles permettent l'instrumentation de grandes infrastructures. Cependant, il existe des limites, inhérentes au phénomène physique utilisé, qui ne permettent pas d'adresser certaines applications spécifiques. Ces limites portent sur la distance de mesure maximale accessible par ces interrogateurs mais également sur la décorrélation de la mesure des paramètres de température et de déformation. Nous avons donc cherché, au cours de cette thèse, à adresser des solutions à ces problématiques. Un nouveau système de ré-amplification optique, basé sur les technologies EDFA, a été mis au point. Associé à un système B-OTDR, cette solution nous a permis de réaliser une mesure distribuée de température sur 150 km de fibre avec une répétabilité de 1,5 °C. Cette avancée propose, à notre connaissance, les meilleurs résultats obtenus avec un tel système et nous permet d’envisager son déploiement pour la surveillance d’infrastructures du transport de l’énergie sur de longues distances. Nous avons dans un second temps conçu un nouvel interrogateur, utilisant la rétrodiffusion Brillouin, et permettant la décorrélation des mesures de température et de déformation sur une seule et unique fibre optique. Ce nouvel interrogateur, caractérisé et breveté durant cette thèse, a permis de réaliser une mesure indépendante de température et de déformation sur un câble spécifique inséré dans un puits de forage. Les résultats de ces mesures ont montré à la fois des variations de température et de déformation sur le câble, donnant des informations précieuses à l’opérateur du puits. Le nouvel interrogateur mis au point, permet une séparation de ces deux paramètres avec une répétabilité inférieure à 1 °C et 20 μm/m pour une distance de l’ordre du kilomètre. Pour des distances de l’ordre de la dizaine de kilomètres, la répétabilité de mesure est de 3 °C et 75 μm/m. Ce résultat fait l'état de l'art dans la séparation température/déformation par B-OTDR. Enfin, les différents travaux réalisés pour répondre à ces deux problématiques ont abouti au développement d’un prototype d’interrogateur qui laisse envisager une mesure simultanée de la température, de la déformation, des vibrations acoustiques et de la pression hydrostatique. Ce prototype conduit à des perspectives intéressantes pour une solution complète de surveillance d’infrastructures
This thesis deals with distributed optical fiber sensors, especially Brillouin sensors called B-OTDR that are sensitive both to temperature and strain. Some actual limitations due to the scattering phenomenon avoid deployment of this technology for some specific applications. These limitations are about the maximum length measured by the sensor but also the double sensitivity to strain and temperature. From our current B-OTDR sensor, we propose solutions to address these issues.A new re-amplification module using EDFA has been developed and characterized associated to a B-OTDR system. A 150 km distributed temperature measurement with 1,5 °C repeatability has been reached. This record performance let us consider a deployment for very long infrastructure monitoring for the energy transport. In another hand, we developed a new sensing device using Brillouin scattering and able to separate temperature and strain. This patented device has been characterized and used on a specific cable inserted in a well drilling. Results have shown a combination of strain and temperature variations on the cable that give very useful information to the well operator. We have reached a temperature repeatability of 1 °C and a strain repeatability of 20 μm/m for 1 km fiber. At 10 km, temperature repeatability has been evaluated to be 3 °C and strain to 75 μm/m. These results are to the state of art for temperature/strain separation using B-OTDR.These works have led to a new distributed measurement prototype that could address simultaneously temperature, strain, acoustic vibrations, and pressure sensing. Some interesting perspectives could result from these works to address a complete infrastructure monitoring using fiber optic sensing
APA, Harvard, Vancouver, ISO, and other styles
26

Hegazy, Tamir A. "A Distributed Approach to Dynamic Autonomous Agent Placement for Tracking Moving Targets with Application to Monitoring Urban Environments." Diss., Georgia Institute of Technology, 2004. http://hdl.handle.net/1853/4901.

Full text
Abstract:
The problem of dynamic autonomous agent placement for tracking moving targets arises in many real-life applications, such as rescue operations, security, surveillance, and reconnaissance. The objective of this thesis is to develop a distributed hierarchical approach to address this problem. After the approach is developed, it is tested on a number of urban surveillance scenarios. The proposed approach views the placement problem as a multi-tiered architecture entailing modules for low-level sensor data preprocessing and fusion, decentralized decision support, knowledge building, and centralized decision support. This thesis focuses upon the modules of decentralized decision support and knowledge building. The decentralized decision support module requires a great deal of coordination among agents to achieve the mission objectives. The module entails two classes of distributed algorithms: non-model-based algorithms and model-based algorithms. The first class is used as a place holder while a model is built to describe agents knowledge about target behaviors. After the model is built and evaluated, agents switch to the model-based algorithms. To apply the approach to urban environments, urban terrain zones are classified, and the problem is mathematically formulated for two different types of urban terrain, namely low-rise, widely spaced and high-rise, closely spaced zones. An instance of each class of algorithms is developed for each of the two types of urban terrain. The algorithms are designed to run in a distributed fashion to address scalability and fault tolerance issues. The class of model-based algorithms includes a distributed model-based algorithm for dealing with evasive targets. The algorithm is designed to improve its performance over time as it learns from past experience how to deal with evasive targets. Apart from the algorithms, a model estimation module is developed to build motion models online from sensor observations. The approach is evaluated through a set of simulation experiments inspired from real-life scenarios. Experimental results reveal the superiority of the developed algorithms over existing ones and the applicability of the online model-building method. Therefore, it is concluded that the overall distributed approach is capable of handling agent placement or surveillance applications in urban environments among other applications.
APA, Harvard, Vancouver, ISO, and other styles
27

Hu, Wenbiao. "Applications of Spatio-temporal Analytical Methods in Surveillance of Ross River Virus Disease." Thesis, Queensland University of Technology, 2005. https://eprints.qut.edu.au/16109/1/Wenbiao_Hu_Thesis.pdf.

Full text
Abstract:
The incidence of many arboviral diseases is largely associated with social and environmental conditions. Ross River virus (RRV) is the most prevalent arboviral disease in Australia. It has long been recognised that the transmission pattern of RRV is sensitive to socio-ecological factors including climate variation, population movement, mosquito-density and vegetation types. This study aimed to assess the relationships between socio-environmental variability and the transmission of RRV using spatio-temporal analytic methods. Computerised data files of daily RRV disease cases and daily climatic variables in Brisbane, Queensland during 1985-2001 were obtained from the Queensland Department of Health and the Australian Bureau of Meteorology, respectively. Available information on other socio-ecological factors was also collected from relevant government agencies as follows: 1) socio-demographic data from the Australia Bureau of Statistics; 2) information on vegetation (littoral wetlands, ephemeral wetlands, open freshwater, riparian vegetation, melaleuca open forests, wet eucalypt, open forests and other bushland) from Brisbane City Council; 3) tidal activities from the Queensland Department of Transport; and 4) mosquito-density from Brisbane City Council. Principal components analysis (PCA) was used as an exploratory technique for discovering spatial and temporal pattern of RRV distribution. The PCA results show that the first principal component accounted for approximately 57% of the information, which contained the four seasonal rates and loaded highest and positively for autumn. K-means cluster analysis indicates that the seasonality of RRV is characterised by three groups with high, medium and low incidence of disease, and it suggests that there are at least three different disease ecologies. The variation in spatio-temporal patterns of RRV indicates a complex ecology that is unlikely to be explained by a single dominant transmission route across these three groupings. Therefore, there is need to explore socio-economic and environmental determinants of RRV disease at the statistical local area (SLA) level. Spatial distribution analysis and multiple negative binomial regression models were employed to identify the socio-economic and environmental determinants of RRV disease at both the city and local (ie, SLA) levels. The results show that RRV activity was primarily concentrated in the northeast, northwest and southeast areas in Brisbane. The negative binomial regression models reveal that RRV incidence for the whole of the Brisbane area was significantly associated with Southern Oscillation Index (SOI) at a lag of 3 months (Relative Risk (RR): 1.12; 95% confidence interval (CI): 1.06 - 1.17), the proportion of people with lower levels of education (RR: 1.02; 95% CI: 1.01 - 1.03), the proportion of labour workers (RR: 0.97; 95% CI: 0.95 - 1.00) and vegetation density (RR: 1.02; 95% CI: 1.00 - 1.04). However, RRV incidence for high risk areas (ie, SLAs with higher incidence of RRV) was significantly associated with mosquito density (RR: 1.01; 95% CI: 1.00 - 1.01), SOI at a lag of 3 months (RR: 1.48; 95% CI: 1.23 - 1.78), human population density (RR: 3.77; 95% CI: 1.35 - 10.51), the proportion of indigenous population (RR: 0.56; 95% CI: 0.37 - 0.87) and the proportion of overseas visitors (RR: 0.57; 95% CI: 0.35 - 0.92). It is acknowledged that some of these risk factors, while statistically significant, are small in magnitude. However, given the high incidence of RRV, they may still be important in practice. The results of this study suggest that the spatial pattern of RRV disease in Brisbane is determined by a combination of ecological, socio-economic and environmental factors. The possibility of developing an epidemic forecasting system for RRV disease was explored using the multivariate Seasonal Auto-regressive Integrated Moving Average (SARIMA) technique. The results of this study suggest that climatic variability, particularly precipitation, may have played a significant role in the transmission of RRV disease in Brisbane. This finding cannot entirely be explained by confounding factors such as other socio-ecological conditions because they have been unlikely to change dramatically on a monthly time scale in this city over the past two decades. SARIMA models show that monthly precipitation at a lag 2 months (=0.004,p=0.031) was statistically significantly associated with RRV disease. It suggests that there may be 50 more cases a year for an increase of 100 mm precipitation on average in Brisbane. The predictive values in the model were generally consistent with actual values (root-mean-square error (RMSE): 1.96). Therefore, this model may have applications as a decision support tool in disease control and risk-management planning programs in Brisbane. The Polynomial distributed lag (PDL) time series regression models were performed to examine the associations between rainfall, mosquito density and the occurrence of RRV after adjusting for season and auto-correlation. The PDL model was used because rainfall and mosquito density can affect not merely RRV occurring in the same month, but in several subsequent months. The rationale for the use of the PDL technique is that it increases the precision of the estimates. We developed an epidemic forecasting model to predict incidence of RRV disease. The results show that 95% and 85% of the variation in the RRV disease was accounted for by the mosquito density and rainfall, respectively. The predictive values in the model were generally consistent with actual values (RMSE: 1.25). The model diagnosis reveals that the residuals were randomly distributed with no significant auto-correlation. The results of this study suggest that PDL models may be better than SARIMA models (R-square increased and RMSE decreased). The findings of this study may facilitate the development of early warning systems for the control and prevention of this widespread disease. Further analyses were conducted using classification trees to identify major mosquito species of Ross River virus (RRV) transmission and explore the threshold of mosquito density for RRV disease in Brisbane, Australia. The results show that Ochlerotatus vigilax (RR: 1.028; 95% CI: 1.001 - 1.057) and Culex annulirostris (RR: 1.013, 95% CI: 1.003 - 1.023) were significantly associated with RRV disease cycles at a lag of 1 month. The presence of RRV was associated with average monthly mosquito density of 72 Ochlerotatus vigilax and 52 Culex annulirostris per light trap. These results may also have applications as a decision support tool in disease control and risk management planning programs. As RRV has significant impact on population health, industry, and tourism, it is important to develop an epidemic forecast system for this disease. The results of this study show the disease surveillance data can be integrated with social, biological and environmental databases. These data can provide additional input into the development of epidemic forecasting models. These attempts may have significant implications in environmental health decision-making and practices, and may help health authorities determine public health priorities more wisely and use resources more effectively and efficiently.
APA, Harvard, Vancouver, ISO, and other styles
28

Hu, Wenbiao. "Applications of Spatio-temporal Analytical Methods in Surveillance of Ross River Virus Disease." Queensland University of Technology, 2005. http://eprints.qut.edu.au/16109/.

Full text
Abstract:
The incidence of many arboviral diseases is largely associated with social and environmental conditions. Ross River virus (RRV) is the most prevalent arboviral disease in Australia. It has long been recognised that the transmission pattern of RRV is sensitive to socio-ecological factors including climate variation, population movement, mosquito-density and vegetation types. This study aimed to assess the relationships between socio-environmental variability and the transmission of RRV using spatio-temporal analytic methods. Computerised data files of daily RRV disease cases and daily climatic variables in Brisbane, Queensland during 1985-2001 were obtained from the Queensland Department of Health and the Australian Bureau of Meteorology, respectively. Available information on other socio-ecological factors was also collected from relevant government agencies as follows: 1) socio-demographic data from the Australia Bureau of Statistics; 2) information on vegetation (littoral wetlands, ephemeral wetlands, open freshwater, riparian vegetation, melaleuca open forests, wet eucalypt, open forests and other bushland) from Brisbane City Council; 3) tidal activities from the Queensland Department of Transport; and 4) mosquito-density from Brisbane City Council. Principal components analysis (PCA) was used as an exploratory technique for discovering spatial and temporal pattern of RRV distribution. The PCA results show that the first principal component accounted for approximately 57% of the information, which contained the four seasonal rates and loaded highest and positively for autumn. K-means cluster analysis indicates that the seasonality of RRV is characterised by three groups with high, medium and low incidence of disease, and it suggests that there are at least three different disease ecologies. The variation in spatio-temporal patterns of RRV indicates a complex ecology that is unlikely to be explained by a single dominant transmission route across these three groupings. Therefore, there is need to explore socio-economic and environmental determinants of RRV disease at the statistical local area (SLA) level. Spatial distribution analysis and multiple negative binomial regression models were employed to identify the socio-economic and environmental determinants of RRV disease at both the city and local (ie, SLA) levels. The results show that RRV activity was primarily concentrated in the northeast, northwest and southeast areas in Brisbane. The negative binomial regression models reveal that RRV incidence for the whole of the Brisbane area was significantly associated with Southern Oscillation Index (SOI) at a lag of 3 months (Relative Risk (RR): 1.12; 95% confidence interval (CI): 1.06 - 1.17), the proportion of people with lower levels of education (RR: 1.02; 95% CI: 1.01 - 1.03), the proportion of labour workers (RR: 0.97; 95% CI: 0.95 - 1.00) and vegetation density (RR: 1.02; 95% CI: 1.00 - 1.04). However, RRV incidence for high risk areas (ie, SLAs with higher incidence of RRV) was significantly associated with mosquito density (RR: 1.01; 95% CI: 1.00 - 1.01), SOI at a lag of 3 months (RR: 1.48; 95% CI: 1.23 - 1.78), human population density (RR: 3.77; 95% CI: 1.35 - 10.51), the proportion of indigenous population (RR: 0.56; 95% CI: 0.37 - 0.87) and the proportion of overseas visitors (RR: 0.57; 95% CI: 0.35 - 0.92). It is acknowledged that some of these risk factors, while statistically significant, are small in magnitude. However, given the high incidence of RRV, they may still be important in practice. The results of this study suggest that the spatial pattern of RRV disease in Brisbane is determined by a combination of ecological, socio-economic and environmental factors. The possibility of developing an epidemic forecasting system for RRV disease was explored using the multivariate Seasonal Auto-regressive Integrated Moving Average (SARIMA) technique. The results of this study suggest that climatic variability, particularly precipitation, may have played a significant role in the transmission of RRV disease in Brisbane. This finding cannot entirely be explained by confounding factors such as other socio-ecological conditions because they have been unlikely to change dramatically on a monthly time scale in this city over the past two decades. SARIMA models show that monthly precipitation at a lag 2 months (=0.004,p=0.031) was statistically significantly associated with RRV disease. It suggests that there may be 50 more cases a year for an increase of 100 mm precipitation on average in Brisbane. The predictive values in the model were generally consistent with actual values (root-mean-square error (RMSE): 1.96). Therefore, this model may have applications as a decision support tool in disease control and risk-management planning programs in Brisbane. The Polynomial distributed lag (PDL) time series regression models were performed to examine the associations between rainfall, mosquito density and the occurrence of RRV after adjusting for season and auto-correlation. The PDL model was used because rainfall and mosquito density can affect not merely RRV occurring in the same month, but in several subsequent months. The rationale for the use of the PDL technique is that it increases the precision of the estimates. We developed an epidemic forecasting model to predict incidence of RRV disease. The results show that 95% and 85% of the variation in the RRV disease was accounted for by the mosquito density and rainfall, respectively. The predictive values in the model were generally consistent with actual values (RMSE: 1.25). The model diagnosis reveals that the residuals were randomly distributed with no significant auto-correlation. The results of this study suggest that PDL models may be better than SARIMA models (R-square increased and RMSE decreased). The findings of this study may facilitate the development of early warning systems for the control and prevention of this widespread disease. Further analyses were conducted using classification trees to identify major mosquito species of Ross River virus (RRV) transmission and explore the threshold of mosquito density for RRV disease in Brisbane, Australia. The results show that Ochlerotatus vigilax (RR: 1.028; 95% CI: 1.001 - 1.057) and Culex annulirostris (RR: 1.013, 95% CI: 1.003 - 1.023) were significantly associated with RRV disease cycles at a lag of 1 month. The presence of RRV was associated with average monthly mosquito density of 72 Ochlerotatus vigilax and 52 Culex annulirostris per light trap. These results may also have applications as a decision support tool in disease control and risk management planning programs. As RRV has significant impact on population health, industry, and tourism, it is important to develop an epidemic forecast system for this disease. The results of this study show the disease surveillance data can be integrated with social, biological and environmental databases. These data can provide additional input into the development of epidemic forecasting models. These attempts may have significant implications in environmental health decision-making and practices, and may help health authorities determine public health priorities more wisely and use resources more effectively and efficiently.
APA, Harvard, Vancouver, ISO, and other styles
29

Megahed, Mohamed Helmy Mostafa. "SurvSec Security Architecture for Reliable Surveillance WSN Recovery from Base Station Failure." Thèse, Université d'Ottawa / University of Ottawa, 2014. http://hdl.handle.net/10393/31154.

Full text
Abstract:
Surveillance wireless sensor networks (WSNs) are highly vulnerable to the failure of the base station (BS) because attackers can easily render the network useless for relatively long periods of time by only destroying the BS. The time and effort needed to destroy the BS is much less than that needed to destroy the numerous sensing nodes. Previous works have tackled BS failure by deploying a mobile BS or by using multiple BSs, which requires extra cost. Moreover, despite using the best electronic countermeasures, intrusion tolerance systems and anti-traffic analysis strategies to protect the BSs, an adversary can still destroy them. The new BS cannot trust the deployed sensor nodes. Also, previous works lack both the procedures to ensure network reliability and security during BS failure such as storing then sending reports concerning security threats against nodes to the new BS and the procedures to verify the trustworthiness of the deployed sensing nodes. Otherwise, a new WSN must be re-deployed which involves a high cost and requires time for the deployment and setup of the new WSN. In this thesis, we address the problem of reliable recovery from a BS failure by proposing a new security architecture called Surveillance Security (SurvSec). SurvSec continuously monitors the network for security threats and stores data related to node security, detects and authenticates the new BS, and recovers the stored data at the new BS. SurvSec includes encryption for security-related information using an efficient dynamic secret sharing algorithm, where previous work has high computations for dynamic secret sharing. SurvSec includes compromised nodes detection protocol against collaborative work of attackers working at the same time where previous works have been inefficient against collaborative work of attackers working at the same time. SurvSec includes a key management scheme for homogenous WSN, where previous works assume heterogeneous WSN using High-end Sensor Nodes (HSN) which are the best target for the attackers. SurvSec includes efficient encryption architecture against quantum computers with a low time delay for encryption and decryption, where previous works have had high time delay to encrypt and decrypt large data size, where AES-256 has 14 rounds and high delay. SurvSec consists of five components, which are: 1. A Hierarchical Data Storage and Data Recovery System. 2. Security for the Stored Data using a new dynamic secret sharing algorithm. 3. A Compromised-Nodes Detection Algorithm at the first stage. 4. A Hybrid and Dynamic Key Management scheme for homogenous network. 5. Powerful Encryption Architecture for post-quantum computers with low time delay. In this thesis, we introduce six new contributions which are the followings: 1. The development of the new security architecture called Surveillance Security (SurvSec) based on distributed Security Managers (SMs) to enable distributed network security and distributed secure storage. 2. The design of a new dynamic secret sharing algorithm to secure the stored data by using distributed users tables. 3. A new algorithm to detect compromised nodes at the first stage, when a group of attackers capture many legitimate nodes after the base station destruction. This algorithm is designed to be resistant against a group of attackers working at the same time to compromise many legitimate nodes during the base station failure. 4. A hybrid and dynamic key management scheme for homogenous network which is called certificates shared verification key management. 5. A new encryption architecture which is called the spread spectrum encryption architecture SSEA to resist quantum-computers attacks. 6. Hardware implementation of reliable network recovery from BS failure. The description of the new security architecture SurvSec components is done followed by a simulation and analytical study of the proposed solutions to show its performance.
APA, Harvard, Vancouver, ISO, and other styles
30

Holt, Ryan S. "Three Enabling Technologies for Vision-Based, Forest-Fire Perimeter Surveillance Using Multiple Unmanned Aerial Systems." BYU ScholarsArchive, 2007. https://scholarsarchive.byu.edu/etd/931.

Full text
Abstract:
The ability to gather and process information regarding the condition of forest fires is essential to cost-effective, safe, and efficient fire fighting. Advances in sensory and autopilot technology have made miniature unmanned aerial systems (UASs) an important tool in the acquisition of information. This thesis addresses some of the challenges faced when employing UASs for forest-fire perimeter surveillance; namely, perimeter tracking, cooperative perimeter surveillance, and path planning. Solutions to the first two issues are presented and a method for understanding path planning within the context of a forest-fire environment is demonstrated. Both simulation and hardware results are provided for each solution.
APA, Harvard, Vancouver, ISO, and other styles
31

Silveira, Marcos da. "Sur la distribution avec redondance partielle de modèles à événements discrets pour la supervision de procédés industriels." Toulouse 3, 2003. http://www.theses.fr/2003TOU30225.

Full text
APA, Harvard, Vancouver, ISO, and other styles
32

Atohoun, Béthel Christian A. R. K. "Architecture logique d'un système multi agents de suivi multi caméra distribué : exploitation du modèle de croyance transférable." Thesis, Littoral, 2013. http://www.theses.fr/2013DUNK0373/document.

Full text
Abstract:
Cette thèse présente l'utilisation conjointe de la théorie de l'évidente et du suivi multi-hypothèses pour la modélisation et la gestion d'un système de suivi multi-caméras dans un environnement autoroutier. Le suivi est basé sur la ré-identification des objets (véhicules) sur la base d'information visio-temporelles. Une concrétisation de ces concepts se traduit par la conception et la mise en oeuvre d'une architecture logicielle multi-agents de gestion du suivi multi-caméras. Après une présentation de l'état de l'art sur les cadres de gestion de l'incertain et celui relatif à fusion de l'information pour la mise en correspondance, et sur les systèmes multi-agents, notre apport dans ce travail se situe à trois niveaux. Le premier a été une adaptation de la phase de décision du modèle de croyance transférable pour y intégrer l'utilisation du suivi multi-hypothèses comme outil de levée d'ambigüité rn cas d'indécision face à une situation de mise en correspondance. Le second apport a été celui de proposer une architecture logicielle à base d'agents pour la gestion du système du suivi multi-caméras. Nous en avons proposé la modélisation globale ainsi que celle des agents et de leurs interactions en utilisant une démarche personnelle d'analyse mais toutefois inspirée de langages et outils de modélisation tels que Agent UML et MaSE pour ne citer que ceux-là, du fait qu'il n'existe pas réellement un standard normalisé à ce jour dans ce domaine. Notre troisième apport a été de faire un début d'implémentation de notre architecture logicielle à base d'agent en nous basant sur la plateforme JADE (Java Agent DEvelopment Framework). Quelques expérimentations et discussions des résultats sont présentées à la fin pour déboucher sur nos conclusions et perspectives
This thesis presents the joint use of the theory of evidence and multiple hypothesis tracking for modeling and managing a system for monitoring multiple cameras in a motorway. The tracking is based on the re-identification of objects (vehicles) on the basis of visuals and times informations. A realization of these concepts results in the design and implementation of a software architecture for multiple agents management of multiple camera tracking system. After presenting the state of the art on the frameworks of uncertainty management and that on information fusion for the matching, and the multi-agent systems, our contribution in this work is on two or three levels. The first was an adaptation of the decision phase of the transferable belief model to incorporate the use of multi-hypotheses tracking as a tool of ambiguity survey in case of indecision in matching situation. The second contribution was a proposition of agent-based software architecture for management of a multiple cameras tracking system. We have proposed the global system modeling as well as agents and their interactions modeling using a personal analysis method but nevertheless inspired by modelisation languages and tolls such as Agent UML, MaSE and others, because there is not yet a standard and normalized tool on the subject. Our third contribution was to begin an implementation of our agent-based software architecture using JADE (Java Agent Development Framework). Some experiment and discussions are presented at the end to lead to our conclusions and perspectives
APA, Harvard, Vancouver, ISO, and other styles
33

Tang, Gula. "Research on distributed warning system of water quality in Mudan river based on EFDC and GIS." Thesis, Strasbourg, 2016. http://www.theses.fr/2016STRAD023/document.

Full text
Abstract:
Le système de simulation et d'avis précoce d'alerte est un outil puissant pour la surveillance de la qualité de l'eau de la rivière Mudan, une rivière importante dans les régions froides du nord-est de la Chine et qui se jette finalement dans la rivière de l'Amour en Russie. Ainsi la qualité de l'eau dans la rivière Mudan est une préoccupation importante non seulement au niveau local et régional,mais aussi au niveau international. L'objectif de cette étude est de créer un système de simulation et d'avis précoce d'alerte pour que la distribution spatio-temporelle de la qualité de l'eau durant les périodes de couverture glaciaire et d'eaux libres soit simulée et visualisée précisément et afin que l'on puisse appréhender la variation spatiale de polluants sur le cours de rivière. La thèse est structurée en 7 chapitres. Dans le premier chapitre nous décrivons le contexte de l'étude et faisons un état de lieu des recherches actuelles. Dans le chapitre Il, la comparaison des modèles principaux disponibles pour l'évaluation de la qualité de l'eau est réaliser ainsi que le choix du meilleur modèle comme base pour créer le système de modélisation. Dans le chapitre Ill, la construction du modèle,les conditions limites requises et les paramètres pour le modèle ont été vérifiés et étalonnés. Une procédure de simulation distribuée est conçue dans le chapitre IV pour améliorer l'efficacité de la simulation. Le chapitre V concerne la programmation et la réalisation la de simulation distribuée et le chapitre VI les techniques fondamentales pour mettre en œuvre le système. Le chapitre VII est la conclusion. Il y a trois points innovants dans ce travail: un modèle bidimensionnel de dynamique de fluides de l'environnement pour la rivière Mudan, une méthode efficace du calcul distribué et un prototype de système de simulation et d'avis précoce d'alerte qui peuvent largement améliorer la capacité de surveillance et de gestion de la qualité de l'eau de la rivière Mudan ou d'autres rivières similaires
Simulation and Early Warning System (SEWS) is a powerful tool for river water quality monitoring. Mudan River, an important river in northeastern cold regions of China, can run out of China into Russia. Thus, the water quality of Mudan River is highly concerned not only locally andregionally but also internationally. Objective of this study is to establish an excellent SEWS of water quality so that the spatio-temporal distribution of water quality in both open-water and ice-covered periods can be accurately simulated and visualized to understand the spatial variation of pollutants along the river course. The dissertation is structured into 7 chapters, chapter 1 outlines the background of the study and reviews the current progress. Chapter Il compares the main available models for evaluating river water quality so that a better model can be selected as the basis to establish a modeling system for Mudan River. Chapter Ill establishes the model, the required boundary conditions and parameters for the model were verified and calibrated. Chapter IV, a distributed simulation procedure was designed to increase the simulation efficiency. Chapter V discusses more about the programing and operational issues of the distributed simulation. Chapter VI is about the core techniques to implement the system. Chapter VII is the conclusion of the study to summarize the key points and innovations of the study. The study has the following three points as innovation : a two-dimensional environmental fluid dynamics model for Mudan River, an efficient distributed model computational method and a prototype of SEWS, which can greatly improve the capability of monitoring and management of water quality in Mudan River and other similar rivers
APA, Harvard, Vancouver, ISO, and other styles
34

Feng, Dawei. "Efficient end-to-end monitoring for fault management in distributed systems." Phd thesis, Université Paris Sud - Paris XI, 2014. http://tel.archives-ouvertes.fr/tel-01017083.

Full text
Abstract:
In this dissertation, we present our work on fault management in distributed systems, with motivating application roots in monitoring fault and abrupt change of large computing systems like the grid and the cloud. Instead of building a complete a priori knowledge of the software and hardware infrastructures as in conventional detection or diagnosis methods, we propose to use appropriate techniques to perform end-to-end monitoring for such large scale systems, leaving the inaccessible details of involved components in a black box.For the fault monitoring of a distributed system, we first model this probe-based application as a static collaborative prediction (CP) task, and experimentally demonstrate the effectiveness of CP methods by using the max margin matrix factorization method. We further introduce active learning to the CP framework and exhibit its critical advantage in dealing with highly imbalanced data, which is specially useful for identifying the minority fault class.Further we extend the static fault monitoring to the sequential case by proposing the sequential matrix factorization (SMF) method. SMF takes a sequence of partially observed matrices as input, and produces predictions with information both from the current and history time windows. Active learning is also employed to SMF, such that the highly imbalanced data can be coped with properly. In addition to the sequential methods, a smoothing action taken on the estimation sequence has shown to be a practically useful trick for enhancing sequential prediction performance.Since the stationary assumption employed in the static and sequential fault monitoring becomes unrealistic in the presence of abrupt changes, we propose a semi-supervised online change detection (SSOCD) framework to detect intended changes in time series data. In this way, the static model of the system can be recomputed once an abrupt change is detected. In SSOCD, an unsupervised offline method is proposed to analyze a sample data series. The change points thus detected are used to train a supervised online model, which gives online decision about whether there is a change presented in the arriving data sequence. State-of-the-art change detection methods are employed to demonstrate the usefulness of the framework.All presented work is verified on real-world datasets. Specifically, the fault monitoring experiments are conducted on a dataset collected from the Biomed grid infrastructure within the European Grid Initiative, and the abrupt change detection framework is verified on a dataset concerning the performance change of an online site with large amount of traffic.
APA, Harvard, Vancouver, ISO, and other styles
35

Trieu, Thanh Ngoan. "Open data and environment simulation : environmental and social simulation on distributed process systems based on irregular cell space." Electronic Thesis or Diss., Brest, 2024. http://www.theses.fr/2024BRES0047.

Full text
Abstract:
La combinaison d’automates cellulaires (CA) et de systèmes distribués offre un moyen simple de modéliser les problèmes environnementaux et sociaux en divisant les zones d’intérêt en segments spatiales discrètes pour le calcul parallèle. L’évolution de l’état de chaque segment est divisée en étapes temporelles discrètes. Les divisions géographiques en tant qu’espace cellulaire irrégulier permettent de tirer parti des données ouvertes pour alimenter les systèmes de simulation. Les données sont analysées pour en déduire les règles de transition apportant des influences distribuées dans un quartier. Une étude de cas de modélisation de la propagation épidémique basée sur les divisions administratives est présentée. Étant donné l’hypothèse que l’épidémie se propage aux personnes vivant dans le quartier, un système de simulation est généré en fonction des voisins adjacents avec des conditions initiales de collecte à partir du portail de données ouvertes du gouvernement. Une approche hybride est introduite avec la coopération entre les tuiles régulières et les espaces cellulaires irréguliers dans la modélisation des activités côtières. Une simulation environnementale est nécessaire pour représenter les caractéristiques du sol et de la mer qui se propagent dans les deux espaces. Ces caractéristiques sont très différentes en raison de la capacité et de la réaction du sol, et du comportement de la mer, en particulier les courants et les marées. Le problème des marées vertes est modélisé lorsque les nutriments sont présents en concentrations élevées et piégés par les courants de marée
The combination of Cellular automata (CA) and distributed systems provide a simple way to model environmental and social issues by dividing the relevant areas into discrete spatial segments for parallel computation. The state evolution of each segment is divided into discrete time steps. Geographic divisions as irregular cell space give a chance to take advantage of Open Data in feeding the simulation systems. Data are analyzed to deduce the transition rules bringing distributed influences in a neighborhood. A case study of epidemic propagation modeling based on geographic divisions is presented. Given an assumption that the epidemic is spreading to people living in the neighborhood, a simulation system is generated based on adjacent neighbors with initial conditions collected from the government open data portal. A hybrid approach is introduced with the cooperation between regular tiles and irregular cellspaces in modeling shore activities. Environmental simulation is needed to represent ground and sea characteristics modeling spreading occurring on both spaces. These characteristics are very different due to soil capability and reaction, and sea behavior, in particular currents and tides. The problem of green tides is modeled when nutrients arepresented in high concentrations and entrapped by tidal currents
APA, Harvard, Vancouver, ISO, and other styles
36

M'Halla, Anis. "Contribution à la gestion des perturbations dans les systèmes manufacturiers à contraintes de temps." Phd thesis, Ecole Centrale de Lille, 2010. http://tel.archives-ouvertes.fr/tel-00612819.

Full text
Abstract:
Les travaux proposés dans cette thèse s'intéressent à la commande et la surveillance d'une classe particulière de systèmes de production : les systèmes manufacturiers à contraintes de temps de séjour. Nous supposons dans l'étude que les ressources ont déjà été affectées et que l'ordre des opérations est déjà fixé par le module de planification/ordonnancement. Les hypothèses de fonctionnement répétitif avec et sans postes d'assemblage sont adoptées. De manière assez classique pour ce type de problématique, le formalisme utilisé est celui des Réseaux de Petri P-temporels pour l'étude des instants de débuts et de fins des opérations.Une étude de la robustesse des ateliers manufacturiers à contraintes de temps a été développée. La robustesse est abordée avec et sans modification de la commande relative à la robustesse active et à la robustesse passive respectivement, face aux perturbations temporelles. Un algorithme de calcul d'une borne supérieure de la robustesse passive est présenté. De plus, trois stratégies de commande robuste face aux perturbations temporelles ont été développées.Par ailleurs, l'incertitude dans les systèmes de production manufacturière à été étudié. Notre contribution dans ce cadre porte sur l'intégration des résultats concernant la robustesse dans la génération de symptômes et la classification des comptes rendus associés aux différentes opérations en utilisant la logique floue.Partant d'un système commandé, nous avons présenté en détail une démarche à suivre pour la mise en œuvre d'un modèle de surveillance en se basant sur les chroniques et les arbres de défaillance flous. Cette démarche est appliquée à un atelier de production laitière
APA, Harvard, Vancouver, ISO, and other styles
37

E, sousa Álan. "Amélioration de la sécurité des systèmes cyber-physiques : stratégies de détection et d'atténuation." Electronic Thesis or Diss., Reims, 2024. http://www.theses.fr/2024REIMS015.

Full text
Abstract:
Les systèmes cyber-physiques (SCP) se situent à l'intersection des opérations physiques, des technologies informatiques et des communications réseau. Ces systèmes sont fondamentaux pour l'infrastructure des environnements de fabrication intelligente, fournissant les moyens d'un contrôle amélioré, d'une optimisation et d'une adaptabilité au sein de divers processus de production. Cette thèse se penche sur les défis associés à la protection des SCP contre une large gamme de menaces cybernétiques qui posent des risques pour la sécurité de ces systèmes. À travers l'application de stratégies de contrôle de pointe telles que l'Observabilité Fonctionnelle et la Théorie des Échelles de Temps, ce travail introduit des méthodes innovantes visant la détection et l'atténuation de l'Injection de Données Fausses (IDF), des Attaques de Dynamique Nulle (ADN), et du Déni de Service (DoS). Ces menaces cybernétiques sont identifiées comme prévalentes et dommageables dans le contexte des SCP industriels. L'incorporation stratégique des textit{observateurs fonctionnels}, l'application du cadre analytique des Échelles de Temps, et l'utilisation du critère de stabilité de Lyapunov se démarquent comme contributions notables au domaine de la sécurité des SCP. Ces approches offrent de nouvelles perspectives et des solutions robustes aux défis multifacettes que rencontrent les systèmes cyber-physiques. De plus, l'efficacité des solutions proposées est testée et validée à travers une combinaison d'études expérimentales et de simulation. Ces efforts de validation soulignent la capacité des améliorations de sécurité proposées à élever les mesures protectrices au sein des environnements de fabrication intelligente. En conséquence, cette travail de thèse repousse non seulement les limites des connaissances actuelles dans le domaine de la sécurité des SCP, mais établit également une base solide pour les recherches en cours et futures visant à renforcer l'infrastructure numérique essentielle au fonctionnement des industries intelligentes. À travers cette étude, la thèse aspire à contribuer de manière significative au développement de systèmes cyber-physiques plus sûrs, fiables et résilients, soutenant ainsi l'évolution continue des technologies de fabrication intelligente
Cyber-physical systems (CPS) stand at the intersection of physical operations, computing technologies, and network communications. These sophisticated systems are fundamental to the infrastructure of smart manufacturing environments, providing the means for improved control, optimization, and adaptability within various production processes. This thesis delves into addressing the significant challenges associated with safeguarding CPS from a wide range of cyber threats that pose risks to the operational integrity and overall safety of these systems. Through the application of cutting-edge control strategies like Functional Observability and Time-Scale Theory, this work introduces innovative methods aimed at the early detection and effective mitigation of False Data Injection (FDI), Zero-Dynamics Attacks (ZDA), and Denial of Service (DoS). These particular cyber threats are identified as especially prevalent and damaging within the context of industrial CPS. The strategic incorporation of textit{functional observers}, the application of the Time-Scale analytical framework, and the use of the Lyapunov stability criterion stand as notable contributions to the domain of CPS security. These approaches provide fresh insights and robust solutions to the multifaceted challenges that cyber-physical systems encounter. Moreover, the efficacy of the proposed solutions is tested and validated through a combination of simulation and hands-on experimental studies. These validation efforts underscore the capability of the proposed security enhancements to elevate the protective measures within smart manufacturing environments. Consequently, this thesis not only pushes the boundaries of current knowledge in the field of CPS security but also establishes a solid foundation for ongoing and future researches aimed at fortifying the digital infrastructure essential to the operation of smart industries. Through this study, the thesis aspires to contribute meaningfully to the development of more secure, reliable, and resilient cyber-physical systems, thereby supporting the continued evolution of smart manufacturing technologies
APA, Harvard, Vancouver, ISO, and other styles
38

M'halla, Anis. "Contribution à la gestion des perturbations dans les systèmes manufacturiers à contraintes de temps." Thesis, Ecole centrale de Lille, 2010. http://www.theses.fr/2010ECLI0008/document.

Full text
Abstract:
Les travaux proposés dans cette thèse s’intéressent à la commande et la surveillance d’une classe particulière de systèmes de production : les systèmes manufacturiers à contraintes de temps de séjour. Nous supposons dans l'étude que les ressources ont déjà été affectées et que l'ordre des opérations est déjà fixé par le module de planification/ordonnancement. Les hypothèses de fonctionnement répétitif avec et sans postes d'assemblage sont adoptées. De manière assez classique pour ce type de problématique, le formalisme utilisé est celui des Réseaux de Petri P-temporels pour l'étude des instants de débuts et de fins des opérations.Une étude de la robustesse des ateliers manufacturiers à contraintes de temps a été développée. La robustesse est abordée avec et sans modification de la commande relative à la robustesse active et à la robustesse passive respectivement, face aux perturbations temporelles. Un algorithme de calcul d'une borne supérieure de la robustesse passive est présenté. De plus, trois stratégies de commande robuste face aux perturbations temporelles ont été développées.Par ailleurs, l’incertitude dans les systèmes de production manufacturière à été étudié. Notre contribution dans ce cadre porte sur l’intégration des résultats concernant la robustesse dans la génération de symptômes et la classification des comptes rendus associés aux différentes opérations en utilisant la logique floue.Partant d’un système commandé, nous avons présenté en détail une démarche à suivre pour la mise en œuvre d’un modèle de surveillance en se basant sur les chroniques et les arbres de défaillance flous. Cette démarche est appliquée à un atelier de production laitière
The works proposed in this thesis are interested in controlling and monitoring of a particular class of production system : manufacturing job-shops with time constraints. We suppose in the study that the resources are allocated and the operations order is fixed by the module of planning/scheduling. The assumptions of repetitive functioning mode with and without assembling tasks are adopted. For this type of problems, the formalism of P-time Petri nets is used in order to study the operations time constraints.A study of the robustness of the manufacturing workshop to time constraints, has been developed. The robustness is approached with and without control reaction qualified as active robustness and passive robustness respectively, towards time disturbances. A computing algorithm of the upper bound of the passive robustness is presented. In addition, three robust control strategies facing time disturbances were developed.Furthermore, uncertainty in manufacturing systems has been studied. Our contribution in this context is by integration of the analytical knowledge of the robustness in the filtering mechanism of sensors signals that are associated to operations, by using fuzzy logic.Starting from a controlled system, we have presented in detail, a method to be followed for the implementation of a monitoring model based on the chronicles and fuzzy fault tree analysis. This approach is applied to a milk production unit
APA, Harvard, Vancouver, ISO, and other styles
39

Carpen-Amarie, Alexandra. "Utilisation de BlobSeer pour le stockage de données dans les Clouds: auto-adaptation, intégration, évaluation." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2011. http://tel.archives-ouvertes.fr/tel-00696012.

Full text
Abstract:
L'émergence de l'informatique dans les nuages met en avant de nombreux défis qui pourraient limiter l'adoption du paradigme Cloud. Tandis que la taille des données traitées par les applications Cloud augmente exponentiellement, un défi majeur porte sur la conception de solutions efficaces pour la gestion de données. Cette thèse a pour but de concevoir des mécanismes d'auto-adaptation pour des systèmes de gestion de données, afin qu'ils puissent répondre aux exigences des services de stockage Cloud en termes de passage à l'échelle, disponibilité et sécurité des données. De plus, nous nous proposons de concevoir un service de données qui soit à la fois compatible avec les interfaces Cloud standard dans et capable d'offrir un stockage de données à haut débit. Pour relever ces défis, nous avons proposé des mécanismes génériques pour l'auto-connaissance, l'auto-protection et l'auto-configuration des systèmes de gestion de données. Ensuite, nous les avons validés en les intégrant dans le logiciel BlobSeer, un système de stockage qui optimise les accès hautement concurrents aux données. Finalement, nous avons conçu et implémenté un système de fichiers s'appuyant sur BlobSeer, afin d'optimiser ce dernier pour servir efficacement comme support de stockage pour les services Cloud. Puis, nous l'avons intégré dans un environnement Cloud réel, la plate-forme Nimbus. Les avantages et les désavantages de l'utilisation du stockage dans le Cloud pour des applications réelles sont soulignés lors des évaluations effectuées sur Grid'5000. Elles incluent des applications à accès intensif aux données, comme MapReduce, et des applications fortement couplées, comme les simulations atmosphériques.
APA, Harvard, Vancouver, ISO, and other styles
40

Rachedi, Abderrezak. "Contributions à la sécurité dans les réseaux mobiles ad Hoc." Phd thesis, Université d'Avignon, 2008. http://tel.archives-ouvertes.fr/tel-00683602.

Full text
Abstract:
La thèse se focalise sur la sécurité dans les réseaux mobiles ad hoc (MANET : Mobile Ad hoc NETwork) [RFC 2501]. L'absence d'une gestion centrale des fonctionnalités du réseau rend ces réseaux beaucoup plus vulnérables aux attaques que les réseaux sans fil (WLAN) et filaires (LAN). Malheureusement, les protocoles de sécurité qui existent actuellement ne sont pas conçus pour un tel environnement (dynamique). Ils ne prennent pas la contrainte des ressources en considération car non seulement l'environnement est dynamique, mais les ressources sont aussi limitées (mémoire, capacité de calcul et surtout énergie), ce qui complique davantage la problématique, car on sait bien que les solutions de sécurité sont gourmandes en terme de ressources. Cependant, en raison de l'importance des domaines d'application des réseaux mobiles ad hoc comme les opérations militaires (communication entre les avions, les voitures et le personnel et opérations de secours, situations d'urgence en cas de sinistre, etc . . .), il faut relever le défi, car concevoir un mécanisme de sécurité infaillible pour les réseaux mobiles ad hoc est nécessaire. L'objectif principal de la thèse consiste à étudier les solutions susceptibles d'assurer la sécurité dans les réseaux mobiles ad hoc, en proposant une architecture hiérarchique distribuée qui permet d'établir une infrastructure dynamique à clé publique. Cette architecture doit supporter les différentes caractéristiques de ces réseaux (absence d'une unité centrale de gestion de réseau, topologie réseau dynamique, etc . . .). Dans ce but, un modèle de confiance adapté à l'environnement dynamique pour assurer l'évolution des niveaux de confiance des nœuds est établi. De plus, les vulnérabilités au niveau des autorités de certification sont prises en compte dans le nouveau concept de DDMZ (zone dynamique démilitarisée) que nous proposons. Dans le but de sécuriser les nœuds dont le rôle est crucial au sein du réseau, leur identité doit être cachée. C'est pourquoi le concept d'anonymat est introduit. Un protocole d'authentification anonyme est proposé. De plus, nous nous inspirons du modèle militaire pour mettre en place un mécanisme de camouflage qui cache le rôle des nœuds sensibles. Pour entretenir le modèle de confiance, un mécanisme de surveillance est indispensable. Il est adapté aux contraintes de l'environnement sans fil dynamique et réduit le taux de fausses alarmes (faux positifs). Il est fondé sur une approche inter-couches et un modèle probabiliste pour améliorer l'observation du nœud surveillant. Pour faire face aux attaques intelligentes de type inter-couches, une étude des vulnérabilités au niveau des couches inférieures comme la couche MAC est menée. Ensuite, des mécanismes de prévention et de détection sont analysés et évalués. La performance de ces mécanismes est évaluée avec la prise en compte des métriques primordiales pour les réseaux mobiles ad hoc, telles que la consommation d'énergie, la mobilité, la densité des nœuds et du trafic, etc . . .
APA, Harvard, Vancouver, ISO, and other styles
41

Maraval, Damien. "Mesure dynamique de déformation par rétrodiffusion Brillouin spontanée B-OTDR." Thesis, Paris, ENST, 2017. http://www.theses.fr/2017ENST0023/document.

Full text
Abstract:
Aujourd’hui, trois technologies distinctes et complémentaires sont disponibles pour réaliser des mesures réparties de température, de déformation ou de vibration grâce à l’analyses des rétrodiffusion Raman, Brillouin et Rayleigh. Les besoins industriels actuels se portent sur la mesure répartie de déformation pour des infrastructures avec de longs linéaires, comme les canalisations, pour lesquelles une cartographie linéaire et en temps réel de leur état est demandée. Nous nous focalisons alors sur la conception d’un système de mesure Brillouin capable de mesurer de manière répartie et dynamique les déformations subies par une fibre optique. La méthode employée sera celle du flanc de frange ; elle a déjà été développée et expérimentée sur une architecture opto-électronique de type analyseur Brillouin (Brillouin-OTDA), nécessitant l’accès aux deux extrémités de la fibre optique. Dans notre cas, elle est implémentée sur une architecture fonctionnant en réflectométrie. Les résultats expérimentaux obtenus seront caractérisés et validés par la simulation des mesures de la déformation et du déplacement d’une canalisation supportée entre deux appuis simples ; un modèle mécanique, adapté à cette configuration et transposable sur des projets réels, est développé. Par le biais de partenaire industriels de Cementys, ce modèle est utilisé dans deux projets de surveillance de canalisation d’hydrocarbures dont les moyens d’installation et la finalité sont différents
Today, three distinct and complementary technologies are available for distributed temperature, strain or vibration measurements with the analysis of Raman, Brillouin and Rayleigh backscattered light. Current industrial needs are distributed strain measurements for linear infrastructures, such as pipelines, for which linear and real-time strain distribution is required. The research work aims to design a new distributed and dynamic strain measurement system based on the analysis of spontaneous Brillouin backscatter by reflectometry. Slope assisted technique is used to accelerate the measurement acquisition, currently limited to static events because of their actual principle of sweep frequency acquisition of the Brillouin backscattering spectrum. The experimental results are characterized and validated by the simulation of the measurements of the deformation and displacement of a pipe supported between two simple supports. A mechanical model, adapted to this configuration and transposable on real projects, is developed. Through Cementys industrial partner, this model is then used for two monitoring project of pipelines with different installation facilities and purpose
APA, Harvard, Vancouver, ISO, and other styles
42

Davis, Cledo L. "The systems integration of autonomous behavior analysis to create a "Maritime Smart Environment" for the enhancement of maritime domain awareness." Thesis, Monterey, California : Naval Postgraduate School, 2010. http://edocs.nps.edu/npspubs/scholarly/theses/2010/Jun/10Jun%5FDavis.pdf.

Full text
Abstract:
Thesis (M.S. in Systems Engineering)--Naval Postgraduate School, June 2010.
Thesis Advisor(s): Goshorn, Rachel ; Goshorn, Deborah. "June 2010." Description based on title screen as viewed on June 24, 2010. Author(s) subject terms: Anomaly Detection, Artificial Intelligence, Automation, Behavior Analysis, Distributed Artificial Intelligence, Intelligence-Surveillance-Reconnaissance, Maritime Domain Awareness, Maritime Force Protection, Multi-agent Systems, Network-centric Operations, Network-centric Systems Engineering, Network-centric Warfare, Smart Sensor Networks, Systems Engineering, Systems Integration, System of Systems. Includes bibliographical references (p. 209-212). Also available in print.
APA, Harvard, Vancouver, ISO, and other styles
43

Maraval, Damien. "Mesure dynamique de déformation par rétrodiffusion Brillouin spontanée B-OTDR." Electronic Thesis or Diss., Paris, ENST, 2017. http://www.theses.fr/2017ENST0023.

Full text
Abstract:
Aujourd’hui, trois technologies distinctes et complémentaires sont disponibles pour réaliser des mesures réparties de température, de déformation ou de vibration grâce à l’analyses des rétrodiffusion Raman, Brillouin et Rayleigh. Les besoins industriels actuels se portent sur la mesure répartie de déformation pour des infrastructures avec de longs linéaires, comme les canalisations, pour lesquelles une cartographie linéaire et en temps réel de leur état est demandée. Nous nous focalisons alors sur la conception d’un système de mesure Brillouin capable de mesurer de manière répartie et dynamique les déformations subies par une fibre optique. La méthode employée sera celle du flanc de frange ; elle a déjà été développée et expérimentée sur une architecture opto-électronique de type analyseur Brillouin (Brillouin-OTDA), nécessitant l’accès aux deux extrémités de la fibre optique. Dans notre cas, elle est implémentée sur une architecture fonctionnant en réflectométrie. Les résultats expérimentaux obtenus seront caractérisés et validés par la simulation des mesures de la déformation et du déplacement d’une canalisation supportée entre deux appuis simples ; un modèle mécanique, adapté à cette configuration et transposable sur des projets réels, est développé. Par le biais de partenaire industriels de Cementys, ce modèle est utilisé dans deux projets de surveillance de canalisation d’hydrocarbures dont les moyens d’installation et la finalité sont différents
Today, three distinct and complementary technologies are available for distributed temperature, strain or vibration measurements with the analysis of Raman, Brillouin and Rayleigh backscattered light. Current industrial needs are distributed strain measurements for linear infrastructures, such as pipelines, for which linear and real-time strain distribution is required. The research work aims to design a new distributed and dynamic strain measurement system based on the analysis of spontaneous Brillouin backscatter by reflectometry. Slope assisted technique is used to accelerate the measurement acquisition, currently limited to static events because of their actual principle of sweep frequency acquisition of the Brillouin backscattering spectrum. The experimental results are characterized and validated by the simulation of the measurements of the deformation and displacement of a pipe supported between two simple supports. A mechanical model, adapted to this configuration and transposable on real projects, is developed. Through Cementys industrial partner, this model is then used for two monitoring project of pipelines with different installation facilities and purpose
APA, Harvard, Vancouver, ISO, and other styles
44

Carpen-Amarie, Alexandra. "BlobSeer as a data-storage facility for clouds : self-Adaptation, integration, evaluation." Thesis, Cachan, Ecole normale supérieure, 2011. http://www.theses.fr/2011DENS0066/document.

Full text
Abstract:
L’émergence de l’informatique dans les nuages met en avant de nombreux défis qui pourraient limiter l’adoption du paradigme Cloud. Tandis que la taille des données traitées par les applications Cloud augmente exponentiellement, un défi majeur porte sur la conception de solutions efficaces pour la gestion de données. Cette thèse a pour but de concevoir des mécanismes d’auto-adaptation pour des systèmes de gestion de données, afin qu’ils puissent répondre aux exigences des services de stockage Cloud en termes de passage à l’échelle, disponibilité et sécurité des données. De plus, nous nous proposons de concevoir un service de données qui soit à la fois compatible avec les interfaces Cloud standard dans et capable d’offrir un stockage de données à haut débit. Pour relever ces défis, nous avons proposé des mécanismes génériques pour l’auto-connaissance, l’auto-protection et l’auto-configuration des systèmes de gestion de données. Ensuite, nous les avons validés en les intégrant dans le logiciel BlobSeer, un système de stockage qui optimise les accès hautement concurrents aux données. Finalement, nous avons conçu et implémenté un système de fichiers s’appuyant sur BlobSeer, afin d’optimiser ce dernier pour servir efficacement comme support de stockage pour les services Cloud. Puis, nous l’avons intégré dans un environnement Cloud réel, la plate-forme Nimbus. Les avantages et les désavantages de l’utilisation du stockage dans le Cloud pour des applications réelles sont soulignés lors des évaluations effectuées sur Grid’5000. Elles incluent des applications à accès intensif aux données, comme MapReduce, et des applications fortement couplées, comme les simulations atmosphériques
The emergence of Cloud computing brings forward many challenges that may limit the adoption rate of the Cloud paradigm. As data volumes processed by Cloud applications increase exponentially, designing efficient and secure solutions for data management emerges as a crucial requirement. The goal of this thesis is to enhance a distributed data-management system with self-management capabilities, so that it can meet the requirements of the Cloud storage services in terms of scalability, data availability, reliability and security. Furthermore, we aim at building a Cloud data service both compatible with state-of-the-art Cloud interfaces and able to deliver high-throughput data storage. To meet these goals, we proposed generic self-awareness, self-protection and self-configuration components targeted at distributed data-management systems. We validated them on top of BlobSeer, a large-scale data-management system designed to optimize highly-concurrent data accesses. Next, we devised and implemented a BlobSeer-based file system optimized to efficiently serve as a storage backend for Cloud services. We then integrated it within a real-world Cloud environment, the Nimbus platform. The benefits and drawbacks of using Cloud storage for real-life applications have been emphasized in evaluations that involved data-intensive MapReduce applications and tightly-coupled, high-performance computing applications
APA, Harvard, Vancouver, ISO, and other styles
45

Toole, Michael T. "TELEMETRY IN THEATER MISSILE DEFENSE DEVELOPMENT." International Foundation for Telemetering, 1994. http://hdl.handle.net/10150/608551.

Full text
Abstract:
International Telemetering Conference Proceedings / October 17-20, 1994 / Town & Country Hotel and Conference Center, San Diego, California
Since the Gulf War, there has been significant interest in Theater Missile Defense (TMD) resulting in funding growth from tens of millions of dollars at the time of the Gulf War to $1.7 Billion in 1994. The Ballistic Missile Defense Organization (BMDO) has developed a Theater Missile Defense test and evaluation program that will assess technological feasibility and the degree to which system functionality and performance meet technical and operational requirements. The complexity of the TMD program necessitates a comprehensive test program which includes flight testing, ground testing, and modeling and simulation. This article will provide and overview the requirements and capabilities needed to satisfy these requirements. The data processing, and telemetry communities will play a major role in providing the expertise to support the development of the nation’s future Theater Missile Defense capabilities.
APA, Harvard, Vancouver, ISO, and other styles
46

TOUAF, SAMIR. "DIAGNOSTIC LOGIQUE DES SYSTEMES COMPLEXES ET DYNAMIQUES DANS UN CONTEXTE MULTI-AGENT." Phd thesis, 2005. http://tel.archives-ouvertes.fr/tel-00008768.

Full text
Abstract:
Cette thèse propose une méthodologie pour la conception de systèmes de diagnostic fiables permettant d'appréhender les systèmes dynamiques complexes et spatialement distribués. Les résultats proposés s'appuient d'une part sur des techniques d'analyse diagnostic formelle ou à base de consistance, qui permettent de garantir la justesse de l'analyse diagnostic, et d'autre part, sur le paradigme multi-agents. Les algorithmes proposés permettent de déduire tous les défauts possibles pour un comportement observé en les classant suivant différents critères de vraisemblance. Notre contribution a consisté à proposer une méthode de diagnostic qui tire partie des deux approches DX (communauté d'Intelligence Artificielle) et FDI (communauté Automatique) en distinguant la phase de détection, qui peut se faire à base de techniques variées et parfois très sophistiquées (observateur d'état, relation de parité, traitement de signal,...), de la phase de localisation ou d'analyse diagnostic, qui doit permettre de garantir ce qui peut l'être et d'analyser toutes les informations disponibles pour en déduire le diagnostic le plus juste et complet possible. De plus, nous avons montré qu'il était possible d'appréhender des incertitudes de décision en transposant la logique de l'analyse diagnostic en logique floue. Le travail présenté dans ce mémoire a été développé dans le cadre du projet européen MAGIC (Multi-Agents-Based Diagnostic Data Acquisition and Management in Complex systems). Les résultats sont en cours de transfert vers différentes industries grâce aux partenaires industriels du projet : les entreprises SATE (System Advanced Technologies Engineering) et SMS-DEMAG.
APA, Harvard, Vancouver, ISO, and other styles
47

Gabin, KPODA, and 普達. "A Video Surveillance System Based on the Distributed Ommateum." Thesis, 2013. http://ndltd.ncl.edu.tw/handle/45357050310875090021.

Full text
Abstract:
碩士
國立中興大學
電機工程學系所
101
This work deal with the design of distributed video surveillance system. Our purpose is to realize an embedded video surveillance system capable of video streaming back to a remote server, detecting and tracking any moving object using pan-tilt cameras. The constructed system should be perfectly monitorable from the remote server. We can say that we have achieved this goal by using embedded technology, socket programing, computer vision resources (algorithms) and distributed system design method. The algorithm used for detection is a background subtraction technique namely temporal frame difference. To be able to locate and track the detected object we made use of camshift algorithm. The built system is composed of four client boards and one server PC. Client’s subsystem is based on an embedded processor (Beagleboard xM) and an embedded microcontroller (MSP430F5438). A pan-tilt camera is also part of each client’s subsystem. From the remote server we make use of one two or three cameras to detect and track the same target. We also can form tracking groups each composed of two cameras to track the two different targets. So, the four cameras are considered as a compound eye of our surveillance system. The major contribution of this work is without doubt the cooperative tracking technique we have implemented. In fact, by using a leader election algorithm, we elect a leader. This leader will then select it direct neighbors (followers) and get them involved in the tracking process. With this approach we get a good cooperative tracking results. Moreover the pan–tilt system automation provide a multi-view of the monitoring scene. At last the embedded technology devices we chose give our system good computation capabilities, mobility and real-time ability.
APA, Harvard, Vancouver, ISO, and other styles
48

Hilal, Allaa. "An Intelligent Sensor Management Framework for Pervasive Surveillance." Thesis, 2013. http://hdl.handle.net/10012/7481.

Full text
Abstract:
The nature and complexity of the security threats faced by our society in recent years have made it clear that a smart pervasive surveillance system constitutes the most effective cure, as it presents a conducive framework for seamless interaction between preventative capabilities and investigative protocols. Applications such as wild-life preserve monitoring, natural disaster warnings, and facility surveillance tend to be characterized by large and remote geographic areas, requiring large numbers of unattended sensor nodes to cover the volume-of-interest. Such large unattended sensor networks add new challenges as well as complicate the system management problem. Such challenges can be in the form of distributed operation with collaborative decision making, adaptive performance, and energy-aware strategies, to name a few. To meet the challenges of these mission-critical applications, the sensor system must exhibit capabilities such as heterogeneous and self-organized behaviour, data and information fusion, and collaborative resources control and management. Sensor Management (SM) refers to the process that plans and controls the use of the sensor nodes in a manner that synergistically maximizes the success rate of the whole system in achieving the goals of its mission in assessing the situation in a timely, reliable, and accurate fashion. Managing heterogeneous sensors involves making decisions and compromises regarding alternate sensing strategies under time and resource availability constraints. As a result, the performance of the collective sensors dictates the performance of the entire system. Consequently, there is a need for an intelligent Sensor Management Framework (SMF) to drive the system performance. SMF provides a control system to manage and coordinate the use of sensing resources in a manner that maximizes the system success rate in achieving its goals. An SMF must handle an overwhelming amount of information collected, and adapt to the highly dynamic environments, in addition to network and system limitations. This thesis proposes a resource-aware and intelligent SMF for managing pervasive sensor systems in surveillance context. The proposed SMF considerably improves the process of information acquisition by coordinating the sensing resources in order to gather the most reliable data from a dynamic scene while operating under energy constraints. The proposed SMF addresses both the operation of the coordination paradigm, as well as, the local and collaborative decision making strategies. A conceptual analysis of the SM problem in a layered structure is discussed to introduce an open and flexible design framework based on the service-oriented architecture to provide a modular, reusable, and extendable framework for the proposed SMF solution. A novel sensor management architecture, called Extended Hybrid Architecture for Sensor Management (E-HASM), is proposed. E-HASM combines the operation of the holonic, federated, and market-based architectures in a complementary manner. Moreover, a team-theoretic formulation of Belief-Desire-Intention (BDI), that represent the E-HASM components, is proposed as a mechanism for effective energy-aware decision making to address the local sensor utility. Also, intelligent schemes that provide adaptive sensor operation to the changes in environment dynamics and sensor energy levels are designed to include adaptive sleep, active sensing, dynamic sensing range, adaptive multimodality, and constrained communication. Furthermore, surveillance systems usually operate under uncertainty in stochastic environment. Therefore, this research formulates the collaborative decision-making entities as Partially Observable Markov Decision Processes (POMDP). To increase the tracking quality and the level of the information reliability, cooperation between the sensors is adopted, which adds an extra dimension in the design of the proposed SMFs. The propose SMF is implemented using the Jadex platform and is compared to the popular centralized architecture. The results illustrate the operation of the proposed SMF outperforms in terms of tracking quality, detection rate, energy consumption, network lifetime, and scalability.
APA, Harvard, Vancouver, ISO, and other styles
49

Weng, Chi-Yu, and 翁基育. "Design of a Quick Face Detection Algorithm for the Distributed IP-based Surveillance Systems." Thesis, 2009. http://ndltd.ncl.edu.tw/handle/5m6629.

Full text
Abstract:
碩士
國立臺北科技大學
資訊工程系研究所
97
In an environment with high secure requirement, multiple video surveillance devices may be installed in the secure environment. In this thesis, a multi-camera surveillance system is built for these environments by a set of low-cost IP-based video surveillance cameras. An embedded distributed computing library is used to support the distributed computing. The library is called D2MCE, which provides a set of easy-to-use interfaces for the programmers to develop distributed parallel programs in a logically shared memory space. The surveillance system involves four phases, including simultaneous intruder detection (SID), distributed camera selection (DCS), distributed & parallel face detection algorithm (DP-FDA), and automatic CAMShift face tracker (ACAM-FT). The advantage is that the system response time for the face detection will be shortened on the low-cost but low-performance embedded IP-cameras without the help of expensive server machines. The ACAM-FT helps system track faces and improves the performance of face tracking without the need to perform complete face detection repeatedly. The system has been implemented on a set of the Intel PXA270 embedded platforms. The result shows that good performance can be achieved on the system.
APA, Harvard, Vancouver, ISO, and other styles
50

Hsu, Ming-Yuan, and 許明源. "Moving Human Detection and Behavior Analysis under Complex Foreground for Surveillance System Development Using Storm – a Distributed and fault-tolerant Real-time Computation in the Cloud." Thesis, 2015. http://ndltd.ncl.edu.tw/handle/11221435889012992542.

Full text
Abstract:
碩士
崑山科技大學
電子工程研究所
103
This paper is a cloud-based surveillance system, which utilizes Pan-Tile-Zoom camera (PTZC) to develop a moving human detection and behavior analysis under complex foreground for surveillance system development using Storm, a distributed and fault-tolerant real-time computation in the cloud. The system first builds the background image needed for moving human and behavior detection, and then uses the temporal difference to obtain the moving objects. The information of moving human is obtained from a rate algorithm. Finally, the combination of temporal difference and background subtraction methods is used as the foundation for moving human detection and behavior analysis under the complex Foreground. To detect moving human smoothly, the ratio of moving objects was used to differentiate between human and the others. After video streaming was processed by the algorithm, an extra frame was put on the moving human and the sequential actions can also be detected. From the tracking results, the system would generate internal events and send warning messages to users, relative people or organizations through email, SMS or some subsystems coordinated by XMPP protocol. Moreover, this paper will do further experiments on multiple moving humans to show that the system can reach the expectations of multiple moving humans detection and behavior analysis under complex foreground, and the feasibility of the proposed methods.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography