Dissertations / Theses on the topic 'Sécurité des données routières'

To see the other types of publications on this topic, follow the link: Sécurité des données routières.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Sécurité des données routières.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Izri-Lahleb, Sonia. "Architecture de fusion de données pour le suivi dynamique de véhicules." Amiens, 2006. http://www.theses.fr/2006AMIE0603.

Full text
Abstract:
Les travaux réalisés dans ce mémoire traitent la problématique de fusion de données appliquées à la sécurité routière (assistance à la conduite). Cette étude est réalisée à l’aide d’une approche multi-niveaux et notamment basée sur l’exploitation de données complémentaires qui émanent de deux systèmes de perception : un télémètre laser à temps de vol et un capteur de vision omnidirectionnelle. Cette association permet de gérer des données complémentaires et redondantes, offrant la possibilité de bâtir un modèle de l’environnement riche et robuste. Le capteur omnidirectionnel a la particularité de fournir des données sur 360° en une seule acquisition. Le télémètre laser, quant à lui, permet d’obtenir la distance de tout objet se trouvant sur la trajectoire du véhicule équipé avec une très grande précision, de l’ordre du centimètre. La première partie de ces travaux concerne les traitements des données sensorielles issues de la télémétrie laser et de la vision omnidirectionnelle. Nous proposons une méthode d'extraction de primitives de type segment permettant de représenter les amers routiers, suivie d’une méthode de segmentation utilisée pour l’extraction des véhicules, basée sur un modèle déformable de type contour actif. Cette phase s’accompagne d’une deuxième partie qui traite la gestion de quantification des incertitudes sur les primitives du modèle bi-sensoriel en utilisant la théorie de l’évidence de Dempster-Shaffer, permettant de réaliser une fusion plusieurs critères qui caractérisent de façon robuste la croyance accordée à chaque primitive obtenue avec la télémétrie laser et la vision omnidirectionnelle.
APA, Harvard, Vancouver, ISO, and other styles
2

Ould, Yahia Sabiha. "Interrogation multi-critères d'une base de données spatio-temporelles." Troyes, 2005. http://www.theses.fr/2005TROY0006.

Full text
Abstract:
Les travaux décrits dans cette thèse s'inscrivent dans le cadre du projet interrégional intitulé CAractérisation Symbolique de SItuations de ConduitE (CASSICE) qui regroupe plusieurs équipes de chercheurs. L'objectif du projet CASSICE est l'automatisation et l'alimentation d'une base de données de situations de conduite. Cela comprend notamment la reconnaissance des manoeuvres. Ces manoeuvres réalisées par le conducteur sont détectées à partir des données issues de capteurs installés sur un véhicule expérimental en situation de conduite réelle. Il s'agit dans cette thèse de proposer une interface permettant à un expert psychologue une analyse des comportements du conducteur mis en évidence par la base de données. Le projet CASSICE permet l'accès à une base de données à représentation continue, numériques ou symboliques, associées à des images. Le langage d'interrogation doit être le plus proche possible des critères de recherche employés par les experts psychologues. Ces fonctionnalités sont proposées dans le système CIBAM (Construction et Interrogation d'une BAse de données Multimédia) qui utilise une méthode d'indexation et d'interrogation multi-critères d'une base de données représentant une situation dynamique
The study of the human behavior in driving situations is of primary importance for the improvement of drivers security. This study is complex because of the numerous situations in which the driver may be involved. The objective of the CASSICE project (Symbolic Characterization of Driving Situations) is to elaborate a tool in order to simplify the analysis task of the driver's behavior. In this paper, we will mainly take an interest in the indexation and querying of a multimedia database including the numerical data and the video sequences relating to a type of driving situations. We will put the emphasis on the queries to this database. They are often complex because they are formulated according to criteria depending on time, space and they use terms of the natural language
APA, Harvard, Vancouver, ISO, and other styles
3

Totozafiny, Théodore. "Compression d'images couleur pour application à la télésurveillance routière par transmission vidéo à très bas débit." Pau, 2007. http://www.theses.fr/2007PAUU3003.

Full text
Abstract:
L'objectif de cette thèse est de valider, pour un réseau sans fil bas débit GSM (débit maximal 9600 bits/s), la possibilité d'obtenir la cadence de la transmission à une image par seconde. Cela contraint la taille de l'image en mémoire à être inférieure à 1. 2 Ko et l'image doit être encodée avec un standard existant. Afin de répondre à cet objectif, différents points ont été étudiés. Le premier point concerne le type de données à envoyer : séquence d'images ou image fixe. Pour cela nous avons réalisé des tests comparatifs, dans notre contexte applicatif, entre la norme de codage vidéo MPEG-4 (la plus répandue actuellement) et le standard de codage d'image fixe JPEG2000 (le plus performant en terme de taux de compression). Le deuxième point concerne la réduction maximale de données à envoyer. L'idée est la suivante : détourner la fonctionnalité de la gestion de régions d'intérêt du standard JPEG2000, afin d'obtenir un taux de compression très élevé 1:250. Nous divisons l'image en deux régions: le fond fixe et les régions mobiles. L'image contenant les régions mobiles est ensuite encodée par la gestion de régions d'intérêt du JPEG2000, implémentée avec la technique Maxshift, puis envoyée au décodeur. Le dernier point étudie la réactualisation de l'image de référence au décodeur. Nous proposons une technique originale réalisant une mise à jour de l'image de référence du décodeur par morceaux. Ces derniers représentent les régions pertinentes dans l'image de référence. Nous conduisons cette mise à jour selon le même principe basé sur la gestion de région d'intérêt. Le déclenchement de la mise à jour est fonction des trois configurations suivantes: sans mouvement, peu de mouvement ou beaucoup de mouvement, définies en fonction du taux de pixels mobiles dans l'image
This thesis presents a feasibility study for transmitting images in GSM wireless networks (9600 bits/s maximal bit rate) with a frequency of one image per second, by using widespread image or video codecs. Due to this constraint, the maximal size of image data is 1. 2 KiB. In particular, the following aspects were studied. First, the type of data to be sent : video streaming or still image sequencing. We carried out several comparative tests, in the context of video surveillance, between video streaming with the MPEG-4 video coding standard (currently, the most widespread) and still image sequencing with JPEG2000 coding standard (currently, the best compression ratio). The second aspect is the maximal reduction of transmission data. Our approach is as follows: to divert the functionality of the JPEG2000's ROI feature at the start, in order to obtain a very high compression ratio—around 1:250. The image is divided in two areas: background and regions of interest (i. E. Mobile object areas). Only the image mobile object regions are compressed with the JPEG2000 ROI feature, implemented using the Maxshift technique. Our technique exploits this property by sending exclusively the ROI data. The last aspect refers to the reference image updating at the decoder. We propose an original technique to update by pieces. These pieces represent the relevant areas of the reference image. To achieve this, we employ the same mechanism for encoding mobile object regions. The definition of the updating strategy, considering the three following configurations: no mobile objects, few mobile objects or many mobile objects, defined accordingly to the rate of mobile pixels in the image
APA, Harvard, Vancouver, ISO, and other styles
4

Fayad, Fadi. "Gestion de la confiance dans un système de fusion multisensorielle : application à la détection de piétons en situations routières." Compiègne, 2009. http://www.theses.fr/2009COMP1795.

Full text
Abstract:
Cette étude est une contribution aux systèmes d'aide à la conduite automobile en mettant principalement l'accent sur la détection des obstacles routiers. A partir de traitements des données fournies par un ou plusieurs capteurs embarqués sur un véhicule routier, on cherche à détecter, identifier et suivre les obstacles mobiles ce qui permettra d'envisager ensuite une assistance adaptée à la situation. Pour un tel système de fusion de données, la fiabilité des résultats de détection et de reconnaissance est très importante, c'est pourquoi nous proposons une méthode de gestion de la confiance à différentes étapes du processus : détection, reconnaissance et suivi. Lors du suivi temporel, nous proposons une technique de mise à jour de la confiance dans la détection et la reconnaissance à l’aide de fonctions de croyance. La détection de piétons qui est le coeur du projet LOVe (Logiciel d'Observation des Vulnérables) représente un cas particulier de cet étude pour laquelle un système embarqué temps réel à été développé pour détecter, identifier et suivre les piétons. Le système est intégré dans CARMEN, la plateforme du laboratoire HEUDIASYC
This study is a contribution to the advanced driver assistance systems (ADAS), mainly in the domain of road obstacles detection. Using data provided by one or more sensors embarked on a road vehicle, we're trying to identify and track mobile obstacles, thus allowing an automatic assistance which is adapted to the situation. For such data fusion system, the reliability of objects detection and recognition is very important; this is why we propose to manage the confidence in different stages of the process: detection, recognition and tracking. While tracking objects, we propose a technique to update the confidence in detection and recognition using belief functions. Pedestrian detection, which is the heart of the project LOVe (Logiciel d'Observation des Vulnérables), represents a particular case of this study for which a real time embedded system is developed to detect, identify and track pedestrians. The system is integrated in CARMEN, the experimental vehicle of HEUDIASYC laboratory
APA, Harvard, Vancouver, ISO, and other styles
5

Ceausu-Dragos, Valentina. "Définition d'un cadre sémantique pour la catégorisation de données textuelles : application à l'accidentologie." Paris 5, 2007. http://www.theses.fr/2007PA05S001.

Full text
Abstract:
L'exploitation des connaissances propres à un domaine nécessite des techniques pour l'extraction, la modélisation et la formalisation de ces connaissances. Les travaux présentés dans cette thèse portent sur le développement de techniques relatives à la gestion de ressources sémantiques et à leur utilisation comme support à la mise en oeuvre d'une application. Les techniques proposées ainsi que leur application définissent un cadre sémantique pour la catégorisation de données textuelles. Sur le plan théorique, ce cadre sémantique permet : (I) l'extraction et la validation des connaissances à partir de textes; (II) la modélisation des connaissances contenues dans les textes sous la formae de ressources sémantiques ; (III) la mise en correspondance entre une ressource ainsi créee et un corpus du domaine; (IV) la mise en correspondance entre plusieurs ressources sémantiques modélisant un même domaine. Sur le plan applicatif, ce cadre propose un mécanisme de réaisonnement qui fait appel à ces techniques poour exploiter des connaissances en accidentologie. Il deveint ainsi possible de mettre en oeuvre une solution à un problème concret qui concerne l'exploitation automaitque des scénarios type d'accidents de la route
Knowledge engineering requires the application of techniques for knowledge extraction, modeling and formalization. The work presented concerns the definition of a semantic portal for text categorization. This portal relies on several techniques developed for semantic resources engineering. From a theorical point of view, this semantic portal allows ; (I) knowledge extraction from text ; (II) semantic resources construction ; (III) finding correspondances between semantic resources and textual corpora ; (IV) aligning semantic resources. The core of this portal is a knowledge system allowing text categorization in accidentology. This system implements a reasoning mechanism supported by domain knowledge and it offers a solution for the automatic exploitation of accident scenarios
APA, Harvard, Vancouver, ISO, and other styles
6

Yahia, Jamal Charles. "Validation d'un modèle physique de prévision de la température de surface du revêtement de la chaussée : intégration de données in situ et de prévisions à moyenne échéance pour l'élaboration d'informations en météorologie routière hivernale." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2006. http://tel.archives-ouvertes.fr/tel-00688806.

Full text
Abstract:
Assurer la sécurité routière et maintenir les autorités en état de circulation est une charge qui incombe aux gestionnaires autoroutiers. Cette charge se voit compliquer en période hivernale par des conditions météorologiques difficiles dont la formation de verglas routier. Pour lutter contre ce fléau, il convient de savoir prévoir la température de la surface du revêtement de la chaussée. Une telle approche notamment mise en place au travers du système PREVIROUTE sur l'autoroute de semi montagne A75, a servi de cadre aux études réalisées au cours de cette thèse. Les études du système PREVIROUTE se sont articulées autour de deux thèmes : l'étude de la sensibilité du système aux variables et paramètres du modèle physique de prévision de la température de surface à 24 heures d'échéance qui le constitue et l'étude des performances de ce système dans différentes conditions afin d'en connaître les limites. L'étude de la sensibilité de la prévision de la température de surface aux variables et aux paramètres du modèle a commencé par la constitution d'une base de données contenant huit années de mesures et de prévisions météorologiques relatives à l'autoroute A75. Ensuite, pour cette étude il a été procédé de deux manières différentes. La première a consisté à faire la relation entre les erreurs sur les variables météorologiques prévisionnelles et celles faites sur les prévitions de la température de surface. La seconde a consisté à apporter des variations volontaires sur les variables et paramètres et d'en observer l'influence sur la prévision de la température de surface. Cette étude a permis de conclure que parmi les paramètres du modèle, seule la diffusivité thermique possède une influence considérable sur le modèle. Quant à ce qui concerne les variables atmosphériques alimentant le modèle, ce sont la température de l'air et la nébulosité qui jouent le rôle le plus important par leur intervention dans le calcul des grandeurs radiatives. Par ailleurs, j'ai évalué en utilisant la base de données constituée, la performance du modèle dans diverses configurations. Il fut ainsi possible de distinguer trois phases de fonctionnement pour ce modèle : une première phase diurne où le modèle fournit des prévisions avec un écart moyen de 2,5°C+-3,2°C, une phase noctrune où le modèle fournit des prévisions avec un écart moyen de -0,1°C+-2,1°C et une phase diurne où le modèle fournit des prévisions avec un écart moyen de -1, 1°C+-3,8°C. J'ai pu constater et démontrer que ces performances étaient inchangées quel que soit le mois de prévision, l'état de la surface de la chaussée ou le lieu géographique ce qui fait du système PREVIROUTE un outil performant pour la prévision de la température de surface spécialement en phase nocturne, phase critique en terme de formation de verglas
APA, Harvard, Vancouver, ISO, and other styles
7

Yahia, Jamal Charles. "Validation d'un modèle physique de prévision de la température de surface du revêtement de la chaussée : intégration de données in situ et de prévisions à moyenne échéance pour l'élaboration d'informations en météorologie routière hivernale." Phd thesis, Clermont-Ferrand 2, 2006. https://theses.hal.science/docs/00/68/88/06/PDF/2006CLF21645.pdf.

Full text
Abstract:
Assurer la sécurité routière et maintenir les autorités en état de circulation est une charge qui incombe aux gestionnaires autoroutiers. Cette charge se voit compliquer en période hivernale par des conditions météorologiques difficiles dont la formation de verglas routier. Pour lutter contre ce fléau, il convient de savoir prévoir la température de la surface du revêtement de la chaussée. Une telle approche notamment mise en place au travers du système PREVIROUTE sur l'autoroute de semi montagne A75, a servi de cadre aux études réalisées au cours de cette thèse. Les études du système PREVIROUTE se sont articulées autour de deux thèmes : l'étude de la sensibilité du système aux variables et paramètres du modèle physique de prévision de la température de surface à 24 heures d'échéance qui le constitue et l'étude des performances de ce système dans différentes conditions afin d'en connaître les limites. L'étude de la sensibilité de la prévision de la température de surface aux variables et aux paramètres du modèle a commencé par la constitution d'une base de données contenant huit années de mesures et de prévisions météorologiques relatives à l'autoroute A75. Ensuite, pour cette étude il a été procédé de deux manières différentes. La première a consisté à faire la relation entre les erreurs sur les variables météorologiques prévisionnelles et celles faites sur les prévitions de la température de surface. La seconde a consisté à apporter des variations volontaires sur les variables et paramètres et d'en observer l'influence sur la prévision de la température de surface. Cette étude a permis de conclure que parmi les paramètres du modèle, seule la diffusivité thermique possède une influence considérable sur le modèle. Quant à ce qui concerne les variables atmosphériques alimentant le modèle, ce sont la température de l'air et la nébulosité qui jouent le rôle le plus important par leur intervention dans le calcul des grandeurs radiatives. Par ailleurs, j'ai évalué en utilisant la base de données constituée, la performance du modèle dans diverses configurations. Il fut ainsi possible de distinguer trois phases de fonctionnement pour ce modèle : une première phase diurne où le modèle fournit des prévisions avec un écart moyen de 2,5°C+-3,2°C, une phase noctrune où le modèle fournit des prévisions avec un écart moyen de -0,1°C+-2,1°C et une phase diurne où le modèle fournit des prévisions avec un écart moyen de -1, 1°C+-3,8°C. J'ai pu constater et démontrer que ces performances étaient inchangées quel que soit le mois de prévision, l'état de la surface de la chaussée ou le lieu géographique ce qui fait du système PREVIROUTE un outil performant pour la prévision de la température de surface spécialement en phase nocturne, phase critique en terme de formation de verglas
APA, Harvard, Vancouver, ISO, and other styles
8

Wybo, Sébastien. "Aide à la conduite des systèmes à risques par la prise en compte du risque : exemple de l'application à la conduite automobile." Toulouse 3, 2010. http://thesesups.ups-tlse.fr/878/.

Full text
Abstract:
Les systèmes à risques peuplent aujourd'hui notre quotidien, qu'il s'agisse des centrales nucléaires, du transport aérien ou de l'automobile individuelle. La conduite de ses systèmes diffère grandement entre chaque système. Cependant, un facteur essentiel est commun à chacun de ces systèmes. La conscience de la situation et en particulier la conscience du risque encouru conditionne en effet toute conduite d'un tel système. La défaillance de cette conscience de la situation peut ainsi entraîner des conduites en conditions dégradées plus risquées qui ont plus de risques d'accidents. Cette thèse propose ainsi un concept d'aide à la conduite visant à améliorer le niveau de sûreté de ces systèmes à risques. Pour ce faire on propose d'évaluer le niveau de risque courant et d'en informer le conducteur afin de l'inciter à rester dans une conduite sûre. Ce travail de thèse s'attache ensuite à proposer une telle aide appliquée au domaine de la conduite automobile et en propose une implémentation basée sur l'utilisation de la fusion de données multi capteurs pour détecter l'état de l'environnement, du véhicule et de son conducteur. Cette fusion de données permet par la suite au système de comprendre la situation de conduite courante et d'anticiper son évolution afin de prédire les risques encourus puis d'en informer le conducteur
Nowadays, risky systems are encountered in everyday life, from nuclear power plants to civilian air transport or individual vehicle driving. Driving such systems is greatly different from one system to the next. Yet, an essential factor is shared among all these systems. Situation awareness and risk awareness in particular drive any such system driving. Failure in correctly understanding the driving situation can result in driving in degraded conditions that are riskier and thus have more probability of an accident. This thesis thus proposes a driving assistant system aimed at improving risky systems safety. To reach this goal it is proposed to assess current risk level and to inform the driver to bring him to safer driving conditions. This concept is then applied for automotive driving. This thesis proposes an implementation of such an automotive driving assistant system based on multi sensors data fusion to assess environment, driver and vehicles states. Such fusion is later used by the system to understand current driving situation, predict its evolution to predict the risks applied to the driver and his vehicle so as to inform the driver afterwards
APA, Harvard, Vancouver, ISO, and other styles
9

Datondji, Sokèmi René Emmanuel. "Stéréovision Omnidirectionnelle Large Entraxe pour la Supervision d'Intersections Routières." Thesis, Normandie, 2017. http://www.theses.fr/2017NORMR090/document.

Full text
Abstract:
La surveillance visuelle des objets dynamiques dans les carrefours routiers a été un sujet de recherche majeur au sein des communautés de vision par ordinateur et de transports intelligents, ces dernières années. De nombreux projets ont été menés afin d’améliorer la sécurité dans le contexte très particulier des carrefours. Notre analyse approfondie de l’état de l’art révèle que la majorité des systèmes en bord de voie, utilisent la vision monoculaire. Dans cette thèse, nous présentons un systèmenon-intrusif, de stéréovision-fisheye à large entraxe. Le dispositif proposé est particulièrement adapté aux carrefours ruraux ou sans signalisation. Notre objectif principal est la localisation des véhicules afin de reconstruire leurs trajectoires. Pour ce faire, l’estimation de la calibration extrinsèque entre les caméras est nécessaire afin d’effectuer des analyses à l’échelle métrique. Cette tâche s’avère très complexe dans notre configuration de déploiement. En effet la grande distance entre les caméras, la différence de vue et la forte présence de végétation, rendent inapplicables les méthodes de calibration qui requièrent la mise en correspondance d’images de mires. Il est donc nécessaire d’avoir une solution indépendante de la géométrie de la scène. Ainsi, nous proposons une méthode automatique reposant sur l’idée que les véhicules mobiles peuvent être utilisés comme objets dynamiques de calibration. Il s’agit d’une approche de type Structure à partir du Mouvement, découplée en l’estimation de la rotation extrinsèque à partir de points de fuite, suivie du calcul de la translation extrinsèque à l’échelle absolue par mise en correspondance de plans virtuels. Afin de généraliser notre méthode, nous adoptons le modèle de caméra sphérique sous l’hypothèse d’un mouvement plan. Des expérimentations conduites en laboratoire, puis dans des carrefours en Normandie, permettent de valider notre approche. Les paramètres extrinsèques sont alors directement exploités pour la trajectographie métrique des véhicules, en vue d’évaluer le risque et procéder à un diagnostic des intersections rurales
Visual surveillance of dynamic objects at road intersections has been an active research topic in the computer vision and intelligent transportations systems communities, over the past decades. Several projects have been carried out in order to enhance the safety of drivers in the special context of intersections. Our extensive review of related studies revealedthat most roadside systems are based on monocular vision and provide output results generally in the image domain. In this thesis, we introduce a non-intrusive, wide-baseline stereoscopic system composed of fisheye cameras, perfectly suitable for rural or unsignalized intersections. Our main goal is to achieve vehicle localization and metric trajectory estimation in the world frame. For this, accurate extrinsic calibration is required to compute metric information. But the task is quite challenging in this configuration, because of the wide-baseline, the strong view difference between the cameras, and the important vegetation. Also, pattern-based methods are hardly feasible without disrupting the traffic. Therefore, we propose a points-correspondence-free solution. Our method is fully-automatic and based on a joint analysis of vehicles motion and appearance, which areconsidered as dynamic calibration objects. We present a Structure-from-Motion approach decoupled into the estimation of the extrinsic rotation from vanishing points, followed by the extrinsic translation at scale from a virtual-plane matching strategy. For generalization purposes we adopt the spherical camera model under the assumption of planar motion. Extensive experiments both in the lab and at rural intersections in Normandy allow to validate our work, leading to accurate vehicle motion analysis for risk assessment and safety diagnosis at rural intersections
APA, Harvard, Vancouver, ISO, and other styles
10

Devogele, Thomas. "Processus d'intégration et d'appariement de bases de données géographiques : application à une base de données routières multi-échelles." Versailles-St Quentin en Yvelines, 1997. https://tel.archives-ouvertes.fr/tel-00085113.

Full text
Abstract:
Les phénomènes du monde réel sont actuellement représentés dans les bases de données géographiques (bdg) sous différentes formes. La réutilisation de telles bdg nécessite un processus d'intégration afin de fédérer l'information provenant de différentes sources. L'objectif de cette thèse est de définir un processus d'intégration de bdg en mode vecteur a deux dimensions dans une base multi-représentations. Il propose l'extension d'un processus d'intégration a trois phases (pre-intégration, déclaration, intégration). L'extension est fondée sur une taxonomie des conflits d'intégration entre bdg et sur l'ajout d'un processus d'appariement géométrique et topologique. Ce processus a été mis en oeuvre sur les trois principales bases de données de l'ign pour le thème routier dans la région de Lagny. Etant donnée la complexité des phénomènes géographiques, plusieurs modélisations des phénomènes peuvent entre définies. La taxonomie des conflits d'intégration de bdg effectue une structuration de ces différences en six catégories de conflits qui ont été traitées dans le processus d'intégration. Certains conflits sont pris en compte dans la phase de pre-intégration. D'autres font l'objet d'un traitement spécifique : extension du langage de déclaration des correspondances, ajout d'opérations de résolution de ce conflit. Le processus d'appariement consiste à identifier les données représentant le même phénomène du monde réel. Un processus d'appariement a été développé pour les données de types routières à différentes échelles. Les résultats obtenus font apparaître un taux de correspondance de l'ordre de 90%. Un processus générique en a été déduit afin de guider la conception des processus d'appariement concernant d'autres types de données. Cette thèse apporte donc un cadre général et détaillé pour l'intégration de bdg et contribue ainsi à l'essor d'applications multi -représentations et de l'interopérabilité entre les bdg en adaptant ces processus à des bdg réparties sur un réseau.
APA, Harvard, Vancouver, ISO, and other styles
11

Christoforou, Zoi. "Incidence occurrence and response on urban freeways." Phd thesis, Université Paris-Est, 2010. http://tel.archives-ouvertes.fr/tel-00626573.

Full text
Abstract:
Research on road safety has been of great interest to engineers and planners for decades. Regardless of modeling techniques, a serious factor of inaccuracy - in most past studies - has been data aggregation. Nowadays, most freeways are equipped with continuous surveillance systems making disaggregate traffic data readily available ; these have been used in few studies. In this context, the main objective of this dissertation is to capitalize highway traffic data collected on a real-time basis at the moment of accident occurrence in order to expand previous road safety work and to highlight potential further applications. To this end, we first examine the effects of various traffic parameters on type of road crash as well as on the injury level sustained by vehicle occupants involved in accidents, while controlling for environmental and geometric factors. Probit models are specified on 4-years of data from the A4-A86 highway section in the Ile-de -France region, France. Empirical findings indicate that crash type can almost exclusively be defined by the prevailing traffic conditions shortly before its occurrence. Increased traffic volume is found to have a consistently positive effect on severity, while speed has a differential effect on severity depending on flow conditions. We then establish a conceptual framework for incident management applications using real-time traffic data on urban freeways. We use dissertation previous findings to explore potential implications towards incident propensity detection and enhanced management
APA, Harvard, Vancouver, ISO, and other styles
12

Zahoor, Ehtesham. "Gouvernance de service : aspects sécurité et données." Phd thesis, Université Nancy II, 2011. http://tel.archives-ouvertes.fr/tel-00643552.

Full text
Abstract:
Les travaux autour de la conception, de la vérification et de la surveillance de compositions de services Web forment un domaine de recherche très actif actuellement. Cependant, peu de ces travaux s'intéressent à la prise en compte globale des problématiques de composition, vérification et surveillance grâce à un formalisme unifié. Dans la thèse, nous proposons l'approche DISC qui est une approche déclarative unifiée utilisant un formalisme à base d'événements, et qui permet grâce à un formalisme unique de concevoir, de vérifier et de surveiller des compositions de services, réduisant ainsi les transformations nécessaires pour passer d'un formalisme à un autre. De plus, le formalisme utilisé permet de prendre en compte des aspects non fonctionnels tels que les données, les aspects temporels, ou certains aspects liés à la sécurité. L'approche permet en outre d'instancier et de vérifier des compositions de services, et d'exécuter et surveiller ces compositions lors de l'exécution. Enfin, les effets de violations lors de l'exécution de la composition peuvent être calculés, et un ensemble d'actions de recouvrement sont proposées, permettant aux compositions d'être en partie autonomes vis-à-vis des problèmes pouvant survenir à l'exécution.
APA, Harvard, Vancouver, ISO, and other styles
13

El, Khalil Firas. "Sécurité de la base de données cadastrales." Thesis, Polynésie française, 2015. http://www.theses.fr/2015POLF0001/document.

Full text
Abstract:
Le contrôle d'agrégation dit Quantity Based Aggregation (QBA) est lié au contrôle de l'inférence dans les bases de données et a rarement été traité par la communauté scientifique. Considérons un ensemble S formé de N éléments. L'agrégation d'éléments de l'ensemble S n'est considérée comme étant confidentielle qu'à partir d'un certain seuil k, avec k < N. Le but du contrôle QBA est donc de garantir que le nombre d'éléments de S délivrés à un utilisateur reste toujours inférieur à k. Dans cette thèse, nous traitons du problème du contrôle QBA dans les bases de données cadastrales. Ce travail répond à un besoin du service des affaires foncières de la Polynésie française. La politique de sécurité qu'il nous a été demandé d'implanter donne le droit à chaque utilisateur de connaître le propriétaire de n'importe quelle parcelle. Cette permission est toutefois limitée par les interdictions suivantes: l'utilisateur ne doit jamais arriver à connaître 1- tous les propriétaires dans une région donnée, et 2- toutes les parcelles appartenant au même propriétaire. Chacune de ces interdictions correspond, de manière évidente, à un problème de type QBA. Dans cette thèse, nous développons d'abord un modèle pour assurer la première interdiction, ensuite nous montrons comment adapter notre modèle à la seconde interdiction. Nous présentons, en outre, une implémentation de notre modèle pour les bases de données relationnelles
Quantity Based Aggregation (QBA) controls closely related to inference control database and has been rarely addressed by the scientific community. Let us consider a set S of N elements. The aggregation of k elements, at most, out of N is not considered sensitive, while the aggregation of mor than k out of N elements is considered sensitive and should be prevented. The role of QBA control is to make sure the number of disclosed elements of S is less than or equal to k, where k
APA, Harvard, Vancouver, ISO, and other styles
14

Jemel, Mayssa. "Stockage des données locales : sécurité et disponibilité." Electronic Thesis or Diss., Paris, ENST, 2016. http://www.theses.fr/2016ENST0053.

Full text
Abstract:
Le progrès technologique offre désormais de plus en plus aux utilisateurs divers équipements connectés et intelligents. En conséquence, la gestion des données entre ces équipements a fait l’objet d’ un nombre croissant d’études. Les applications déjà proposées sont principalement basées sur des solutions propriétaires dites solutions privées ou fermées. Toutefois, cette stratégie a toujours montré ses insuffisances en termes de problèmes de sécurité, de coût, de simplicité pour les développeurs et de transparence des solutions. Migrant vers des solutions standardisées, HTML5 propose de nouvelles fonctionnalités pour répondre aux exigences des entreprises et des utilisateurs. L’objectif principal est de mettre à la disposition des développeurs web un langage simple pour la mise en œuvre des applications concurrentes à moindre coût. Ces applications ne sont pas liées ni aux dispositifs utilisés ni aux logiciels installés. Trois contributions font l’objet de nos travaux. Dans la première partie, nous proposons un Coffre Fort Client basé sur les APIs HTML5 de stockage. Tout d’abord, nous commençons par le renforcement de la sécurité de ces API pour fournir une base sécurisée à notre Coffre Fort Client. Dans la deuxième contribution, nous proposons un protocole de synchronisation appelé SyncDS qui est caractérisé par son efficacité avec une consommation minimale des ressources. Nous traitons enfin les problèmes de sécurité, et nous nous concentrons principalement sur le contrôle d’accès dans le cas de partage des données tout en respectant les exigences des Coffres Forts
Due to technological advancements, people are constantly manipulating multiple connected and smart devices in their daily lives. Cross-device data management, therefore, remains the concern of several academic and industrial studies. The proposed frameworks are mainly based on proprietary solutions called private or closed solutions. This strategy has shown its deficiency on security issues, cost, developer support and customization. In recent years, however, the Web has faced a revolution in developing standardized solutions triggered by the significant improvements of HTML5. With this new version, innovative features and APIs are introduced to follow business and user requirements. The main purpose is to provide the web developer with a vendor-neutral language that enables the implementation of competing application with lower cost. These applications are related neither to the used devices nor to the installed software. The main motivation of this PhD thesis is to migrate towards the adoption of standardized solutions to ensure secure and reliable cross-device data management in both the client and server side. There is already a proposed standardized Cloud Digital Safe on the server side storage that follows the AFNOR specification while there is no standardized solution yet on the client-side. This thesis is focused on two main areas : 1) the proposal of a standardized Client Digital Safe where user data are stored locally and 2) the synchronization of these data between the Client and the Cloud Digital Safe and between the different user devices. We contribute in this research area in three ways. First, we propose a Client Digital Safe based on HTML5 Local Storage APIs. We start by strengthening the security of these APIs to be used by our Client Digital Safe. Second, we propose an efficient synchronization protocol called SyncDS with minimum resource consumption that ensures the synchronization of user data between the Client and the Cloud Digital Safe. Finally, we address security concerns, in particular, the access control on data sharing following the Digital Safe requirements
APA, Harvard, Vancouver, ISO, and other styles
15

Babari, Raouf. "Estimation des conditions de visibilité météorologique par caméras routières." Phd thesis, Université Paris-Est, 2012. http://tel.archives-ouvertes.fr/tel-00786898.

Full text
Abstract:
La mesure de la visibilité météorologique est un élément important pour la sécurité des transports routiers et aériens. Nous proposons dans ce travail de recherche un indicateur de la visibilité météorologique adapté aux caméras fixes de vidéo surveillance du réseau routier. Il est fondé sur le module du gradient sélectionné dans des zones dont le comportement suit une loi de réflexion de Lambert vis à vis des conditions d'éclairage. La réponse de cet indicateur est issue d'une modélisation fondée sur une hypothèse de la distribution des profondeurs dans la scène. Celle-ci est calibrée avec des données provenant d'un visibilimètre ou bien avec une carte de profondeurs issue d'un modèle numérique de terrain. Les estimations sont ensuite comparées avec des données de référence obtenues par un visibilimètre et montrent une erreur moyenne similaire pour des images prises dans différentes conditions d'éclairage et de visibilité météorologique
APA, Harvard, Vancouver, ISO, and other styles
16

Gruyer, Dominique. "Etude du traitement de données imparfaites pour le suivi multi-objets : application aux situations routières." Compiègne, 1999. http://www.theses.fr/1999COMP1239.

Full text
Abstract:
Nous proposons dans ce mémoire une méthode pour traiter et prendre en compte des données imparfaites dans le but de suivre des objets dynamiques. Nous avons considéré dans ce travail que les données provenant des capteurs sont imparfaites et nous avons cherché d'une part à développer des algorithmes qui prennent en compte ces imperfections et d'autre part à caractériser la qualité des résultats obtenus. L'étude des différentes modélisations dans la littérature pour représenter l'imprécision et l'incertitude nous ont amené à proposer une modélisation de mesures floues construites à partir de l'espace des mesures et non plus à partir de la mesure seule. A l'aide de cette modélisation, nous avons réalisé un estimateur-prédicteur flou servant à la détection multi-objets. L'aspect dynamique des objets est obtenu à l'aide d'un prédicteur linéaire utilisant des variables d'états floues. Afin de passer de la détection d'objets au suivi multi-objets, nous avons développé un algorithme d'association basé sur la théorie des croyances et ayant les propriétés d'associativité et de commutativité. Nous avons proposé une approche pour la génération des jeux de masses initiaux adaptée au cas du suivi, puis une généralisa¬tion de la combinaison de Dempster et enfin une méthode basée sur un algorithme d'af-fectation optimale pour lever les conflits. Nous sommes également en mesure de quan-tifier la confiance que nous avons sur le résultat du suivi. Nous montrons ensuite que cet algorithme permet une gestion simple et automatique des apparitions, des disparitions et de la propagation des objets dans un suivi multi-objets. Une étude sur l'extension de l'algorithme d'association à la fusion multi-capteurs est proposée dans un contexte plus général. Finalement, notre approche est validée par deux applications concrètes utilisant des données réelles fournies par un télémètre laser à balayage. La première application présente le suivi de véhicules routiers et la seconde le suivi d'êtres humains.
APA, Harvard, Vancouver, ISO, and other styles
17

Morin, Étienne. "Optimisation de la gestion de l'information météo-routière pour le ministère des Transports du Québec, Direction de l'Estrie." Mémoire, Université de Sherbrooke, 2010. http://savoirs.usherbrooke.ca/handle/11143/2670.

Full text
Abstract:
De nombreuses données sont collectées par le ministère des Transports du Québec (MTQ) en rapport avec les activités d'entretien hivernal des routes, dans le but d'améliorer la gestion et les prises de décision. Le nombre et la diversité des données les rendent difficiles à exploiter pour mettre les événements météo routiers en rapport avec les ressources à déployer. La finalité de cette recherche est de proposer un processus de mise en valeur des données multi sources collectées par le MTQ en Estrie, afin d'offrir des pistes d'amélioration de la prise des décisions ou de la gestion de l'entretien hivernal. Une analyse des besoins des gestionnaires du MTQ en termes d'information météo routière est dans un premier temps effectuée, ainsi qu'un inventaire et des considérations sur le traitement des données pour leur validation et leur uniformisation. Une classification des risques météo-routiers est ensuite proposée afin d'explorer de façon optimale les données, et mettre au point à terme des processus pour leur mise en valeur selon les types de besoins exprimés. Les résultats de la recherche établissent des relations entre les principales caractéristiques des événements météo routiers, leurs impacts sur la chaussée et le dimensionnement des opérations d'entretien routier hivernal. Les événements les plus marquants peuvent ainsi être détectés ce qui permet de les analyser avec une plus grande exhaustivité dans le but de prendre en considération les particularités régionales. Cette recherche devrait apporter des éléments de réponse aux attentes des gestionnaires de Transports Québec pour leur souci d'évaluer les opérations d'entretien hivernal. Car, bien qu'étant une composante essentielle à l'optimisation de la gestion, le déploiement des ressources en fonction des caractéristiques des événements météo routiers est quelques fois difficile à mesurer. D'autre part, cette étude s'inscrit dans la volonté de rentabiliser la mise en place de technologies qui génère une imposante masse de données afin d'en soutirer des informations ou des connaissances conduisant à mettre en place des stratégies efficientes et qui s'inscrivent dans le contexte de transport durable.
APA, Harvard, Vancouver, ISO, and other styles
18

Fansi, Janvier. "Sécurité des bases de données XML (eXtensible Markup Language)." Pau, 2007. http://www.theses.fr/2007PAUU3007.

Full text
Abstract:
XML est devenu le standard de représentation et d'échange de données sur Internet. Puisque Internet est un réseau public, les entreprises et organismes qui se servent de XML ont besoin de mécanismes de protection des données XML contre les accès non autorisés. C'est ainsi que plusieurs travaux se sont intéressés à la protection de XML. Ceux-ci peuvent être classés en deux grandes catégories, à savoir celles qui procèdent par matérialisation des vues et celles qui opèrent par réécriture des requêtes. Dans cette thèse, nous montrons les limites des approches qui procèdent par matérialisation des vues à travers le développement d'un prototype de base de données XML basé sur l'une de ces approches. Par la suite, nous proposons une technique de protection des documents XML par réécriture des requêtes. Nous prouvons sa correction et montrons qu'elle est plus efficace que les approches concurrentes. Enfin, nous étendons notre proposition afin de prendre en compte le contrôle des accès en écriture aux bases de données XML
XML has emerged as the de facto standard for representing and exchanging information on the Internet. As Internet is a public network, corporations and organizations which use XML need mechanisms to protect XML data against unauthorised access. Thus, several schemes for XML access control have been proposed. They can be classified in two major categories: views materialization and queries rewriting techniques. In this thesis, we point out the drawbacks of views materialization approaches through the development of a prototype of secured XML database based on one of those approaches. Afterwards, we propose a technique aimed at securing XML by means of queries rewriting. We prove its correctness and show that it is more efficient than competing works. Finally, we extend our proposal in order to controlling the updating of XML databases
APA, Harvard, Vancouver, ISO, and other styles
19

Relaza, Théodore Jean Richard. "Sécurité et disponibilité des données stockées dans les nuages." Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30009/document.

Full text
Abstract:
Avec le développement de l'Internet, l'informatique s'est basée essentiellement sur les communications entre serveurs, postes utilisateurs, réseaux et data centers. Au début des années 2000, les deux tendances à savoir la mise à disposition d'applications et la virtualisation de l'infrastructure ont vu le jour. La convergence de ces deux tendances a donné naissance à un concept fédérateur qu'est le Cloud Computing (informatique en nuage). Le stockage des données apparaît alors comme un élément central de la problématique liée à la mise dans le nuage des processus et des ressources. Qu'il s'agisse d'une simple externalisation du stockage à des fins de sauvegarde, de l'utilisation de services logiciels hébergés ou de la virtualisation chez un fournisseur tiers de l'infrastructure informatique de l'entreprise, la sécurité des données est cruciale. Cette sécurité se décline selon trois axes : la disponibilité, l'intégrité et la confidentialité des données. Le contexte de nos travaux concerne la virtualisation du stockage dédiée à l'informatique en nuage (Cloud Computing). Ces travaux se font dans le cadre du projet SVC (Secured Virtual Cloud) financé par le Fond National pour la Société Numérique " Investissement d'avenir ". Ils ont conduit au développement d'un intergiciel de virtualisation du stockage, nommé CloViS (Cloud Virtualized Storage), qui entre dans une phase de valorisation portée par la SATT Toulouse-Tech-Transfer. CloViS est un intergiciel de gestion de données développé au sein du laboratoire IRIT, qui permet la virtualisation de ressources de stockage hétérogènes et distribuées, accessibles d'une manière uniforme et transparente. CloViS possède la particularité de mettre en adéquation les besoins des utilisateurs et les disponibilités du système par le biais de qualités de service définies sur des volumes virtuels. Notre contribution à ce domaine concerne les techniques de distribution des données afin d'améliorer leur disponibilité et la fiabilité des opérations d'entrées/sorties dans CloViS. En effet, face à l'explosion du volume des données, l'utilisation de la réplication ne peut constituer une solution pérenne. L'utilisation de codes correcteurs ou de schémas de seuil apparaît alors comme une alternative valable pour maîtriser les volumes de stockage. Néanmoins aucun protocole de maintien de la cohérence des données n'est, à ce jour, adapté à ces nouvelles méthodes de distribution. Nous proposons pour cela des protocoles de cohérence des données adaptés à ces différentes techniques de distribution des données. Nous analysons ensuite ces protocoles pour mettre en exergue leurs avantages et inconvénients respectifs. En effet, le choix d'une technique de distribution de données et d'un protocole de cohérence des données associé se base sur des critères de performance notamment la disponibilité en écriture et lecture, l'utilisation des ressources système (comme l'espace de stockage utilisé) ou le nombre moyen de messages échangés durant les opérations de lecture et écriture
With the development of Internet, Information Technology was essentially based on communications between servers, user stations, networks and data centers. Both trends "making application available" and "infrastructure virtualization" have emerged in the early 2000s. The convergence of these two trends has resulted in a federator concept, which is the Cloud Computing. Data storage appears as a central component of the problematic associated with the move of processes and resources in the cloud. Whether it is a simple storage externalization for backup purposes, use of hosted software services or virtualization in a third-party provider of the company computing infrastructure, data security is crucial. This security declines according to three axes: data availability, integrity and confidentiality. The context of our work concerns the storage virtualization dedicated to Cloud Computing. This work is carried out under the aegis of SVC (Secured Virtual Cloud) project, financed by the National Found for Digital Society "Investment for the future". This led to the development of a storage virtualization middleware, named CloViS (Cloud Virtualized Storage), which is entering a valorization phase driven by SATT Toulouse-Tech-Transfer. CloViS is a data management middleware developped within the IRIT laboratory. It allows virtualizing of distributed and heterogeneous storage resources, with uniform and seamless access. CloViS aligns user needs and system availabilities through qualities of service defined on virtual volumes. Our contribution in this field concerns data distribution techniques to improve their availability and the reliability of I/O operations in CloViS. Indeed, faced with the explosion in the amount of data, the use of replication can not be a permanent solution. The use of "Erasure Resilient Code" or "Threshold Schemes" appears as a valid alternative to control storage volumes. However, no data consistency protocol is, to date, adapted to these new data distribution methods. For this reason, we propose to adapt these different data distribution techniques. We then analyse these new protocols, highlighting their respective advantages and disadvantages. Indeed, the choice of a data distribution technique and the associated data consistency protocol is based on performance criteria, especially the availability and the number of messages exchanged during the read and write operations or the use of system resources (such as storage space used)
APA, Harvard, Vancouver, ISO, and other styles
20

Diallo, El-hacen. "Study and Design of Blockchain-based Decentralized Road Traffic Data Management in VANET (Vehicular Ad hoc NETworks)." Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG017.

Full text
Abstract:
La prolifération des véhicules autonomes a imposé la nécessité d'une gestion plus sécurisée des données du trafic routier (c'est-à-dire les événements liés aux accidents, l'état de la circulation, le rapport d'attaque, etc.) dans les réseaux Ad hoc pour véhicules (VANET). Les systèmes centralisés traditionnels répondent à ce besoin en exploitant des serveurs distants éloignés des véhicules. Cette solution n’est pas optimale, car les données relatives au trafic routier doivent être distribuées et mises en cache de manière sécurisée à proximité des véhicules. Cela améliore la latence et réduit la surcharge sur la bande passante du réseau de communication.La technologie Blockchain est apparue comme une solution prometteuse grâce à sa propriété de décentralisation. Certaines questions restent néanmoins sans réponse. Comment concevoir une validation appropriée des données du trafic routier par blockchain, qui semble plus complexe qu'une transaction financière ? Quelles sont les performances attendues dans les scénarios VANET ?Cette thèse offre des réponses à ces questions en concevant une gestion des données du trafic routier adaptée aux contraintes imposée par la blockchain. La performance ainsi que la validité des protocoles proposés sont ensuite évaluées à travers diverses simulations de scénarios pris d’un trafic routier réel.Nous proposons d'abord une adaptation du mécanisme de consensus Preuve de Travail (PoW) dans un réseau VANET, où les infrastructures situées aux bords de routes (RSUs) maintiennent une base de données décentralisée des données du trafic routier. Ensuite, une évaluation rigoureuse des performances en présence de véhicules malveillants est réalisée. Les résultats ont montré que le schéma proposé permet de construire une base de données sécurisée et décentralisée des données du trafic routier au niveau des RSUs.Ensuite, motivés par nos résultats, nous utilisons PBFT (Practical Byzantine Fault Tolerance), un mécanisme de consensus établi grâce au vote, pour réduire la latence dans le processus de validation dans une blockchain. Les RSUs validatrices de données de trafic sont sélectionnées dynamiquement en fonction de la localisation des événements du trafic. Nous proposons un nouveau schéma de réplication de la blockchain entre les RSUs. Cette réplication choisit un compromis entre les performances en termes de latence et la fréquence de réplication des blocs de la chaine. Les résultats de simulation montrent de meilleures performances, lorsque les RSUs validatrices, sont réduites au minimum.Dans la dernière partie de la thèse, nous proposons un modèle de confiance pour réduire au minimum le nombre de validatrices sans compromettre la décentralisation et l'équité de la création de blocs. Ce modèle de confiance s'appuie sur la distance géographique et la confiance des RSUs pour former dynamiquement un groupe de validateurs pour chaque bloc de la chaîne. Nous formalisons et évaluons ce modèle de réputation, en considérant divers scénarios avec des RSUs malicieuses. Les résultats démontrent l'efficacité de la proposition pour minimiser le groupe de validateurs tout en isolant les RSUs malicieuses
The prominence of autonomous vehicles has imposed the need for more secure road traffic data (i.e., events related to accidents, traffic state, attack report, etc.) management in VANET (Vehicular Ad hoc NETworks). Traditional centralized systems address this need by leveraging remote servers far from the vehicles. That is not an optimal solution as road traffic data must be distributed and securely cached close to cars to enhance performance and reduce bandwidth overhead. Blockchain technology offers a promising solution thanks to its decentralization property. But some questions remain unanswered: how to design blockchain-adapted traffic data validation, which is more complex than an economic transaction? What is the performance in real-world VANET scenarios?This thesis addresses those questions by designing blockchain-adapted traffic data management. The performance analysis and the validation of the proposed schemes are conducted through various simulations of real scenarios.We first adapt the PoW (Proof of Work) consensus mechanism to the VANET context whereby the RSUs (Road Side Units) maintain the decentralized database of road traffic data. After that, the proposed scheme is evaluated in the presence of malicious vehicles. The results show that the proposed approach enables a secure and decentralized database of road traffic data at the RSUs level.Next, motivated by our findings, we adopt PBFT (Practical Byzantine Fault Tolerance), a voting-based consensus mechanism, to reduce the blockchain latency. The traffic data validators are dynamically selected based on traffic event appearance location. Finally, we propose a novel blockchain replication scheme between RSUs. This scheme offers a trade-off between the blockchain latency and replication frequency. Simulation results show better performance when the validators (i.e., RSUs) are minimized.Finally, we propose a trust model to minimize the validators without compromising the decentralization and fairness of block-creation. This trust model leverages the geographical distance and the RSUs trust to dynamically form a group of validators for each block in the blockchain. We formalize and evaluate this trust model, considering various scenarios with malicious RSUs. Results show the efficiency of the proposed model to minimize the validators group while isolating malicious RSUs
APA, Harvard, Vancouver, ISO, and other styles
21

Nallet, Nathalie. "Profils de personnalité en lien avec les infractions et/ou les accidents de la route : qui sont les stagiaires permis à points ?" Thesis, Lyon 2, 2009. http://www.theses.fr/2009LYO20018/document.

Full text
Abstract:
« L’observable est-il calculable » constitue le leitmotiv de cette recherche qui trouve son origine dans une pratique d’animateur psychologue lors de nombreux stages de Permis à Points, dits stages PAP. La sécurité routière, enjeu de santé publique et préoccupation mondiale, en est le terrain d’application. L’idéologie du système repose sur l’existence d’un lien entre infractions et accidents. La question de l’éducation à la route se pose en termes de traitement cognitif et de rapport au social et à la loi. Or le fait de commettre des infractions est un acte complexe et situé, sous l’influence de plusieurs paramètres, notamment : l’âge, le genre, la personnalité, la prise de risque, la recherche de sensations, les représentations mentales et le comportement ainsi que les influences sociales et sociétales. Une revue de la littérature permet de faire le lien entre les facteurs de risque individuel et l’infraction, voire l’accidentologie. Une approche d’un échantillon de 854 stagiaires (PAP), dans le cadre d’une enquête cas/témoins sur un effectif total de 2014 sujets, permet de définir la population des stagiaires PAP et d’invalider l’hypothèse selon laquelle le stagiaire s’assimilerait à Monsieur tout le monde. Tout comme il a été démontré que dans l’enfance la petite fille est plus sensible à la sanction alors que le petit garçon, l’est plus aux encouragements ; le stagiaire PAP, pour une grande partie de sexe masculin (90 % d’entre eux) est peu sensible à la sanction. Il reste donc à imaginer un système d’éducation/prévention qui prenne en compte la récompense. Le principe de la récompense ne doit pas permettre une thésaurisation des points, puis ensuite un déstockage à volonté permettant ainsi au sujet de « s’offrir » une infraction.Les spécificités sociales, de mode de vie et de personnalité des stagiaires permettent d’éclairer les préceptes en matière de formation. Des mesures post-permis permettant de faire entrer les préoccupations individuelles dans un enjeu collectif de santé publique pourraient favoriser le passage du curatif au préventif. La pédagogie développée avec les récidivistes en stage PAP devra aujourd’hui plus qu’hier s’orienter sur le mode de vie plus que sur l’aspect technique. Le rapport européen Dan sur les mesures post-permis a déjà souligné que plus l’accent est mis sur la personnalité dans ce genre d’animation, plus le taux de récidive est faible (DAN 2000). Reste à savoir s’il s’agit d’animation ou de thérapeutique, auquel cas la durée du stage ainsi qu’une absence d’évaluation et de suivi posent problème
« Is the visible computable » constitutes the leitmotiv of this research. It finds its origin in the practice of a psychologist animator in numerous point recovery courses. The application ground is road safety; part of a public health and worldwide preoccupation. The system ideology is based on the link between offences and accidents. The road education issue questions terms of cognitive treatment and is linked to social and legal preoccupations. But committing offences is a complex and located act, under the influence of several parameters, particulary: age, sex, personality, risk-taking, sensation-seeking, mental representations and behaviour as well as social influence. The literature review allows the link between individual risk factors and traffic violations, or even accidents to be made. A case-control study (n=2014), with 854 course takers describes them and invalidates the idea according to which they would be comparable to Mister Everybody. Course takers are not very sensitive to sanction, as seen during childhood where girls are more sensitive to punishment than boys who are sensitive to encouragement. Therefore an education and prevention system which takes reward into account remains to be imagined in constructing the pedagogy of the courses. The reward principle should not allow anybody, in particular men who represent 90% of the course takers, to stock points in order to reduce them later. Social characteristics, way of life and personality of drivers in the course bring knowledge to construct the courses. Post licence assessments including individual concerns in a collective stake of public health could allow a move from remedy to prevention. The pedagogy must focus even more on way of life and especially living together rather than theoretical content. It has already been shown that the more the accent is put on personality in this type of animation the lower the rate of repetition (DAN 2000). It remains to be seen whether it is support or therapy, and in the latter case whether the length of the point recovery course period as well as an absence of valuation and monitoring is a problem or a utopian ideal
APA, Harvard, Vancouver, ISO, and other styles
22

Trinh, Viet Cuong. "Sécurité et efficacité des schémas de diffusion de données chiffrés." Paris 8, 2013. http://octaviana.fr/document/181103516#?c=0&m=0&s=0&cv=0.

Full text
Abstract:
Dans cette thèse, nous étudions le domaine de la diffusion de données chiffrés avec traçage de traîtres et nous avons trois contributions. Tout d’abord, dans le contexte de traçage de traîtres, nous rappelons les trois modèles dans la litérature: modèle de traçage sans boîte-noire, modèle de traçage avec boîte-noire à une clé, et modèle de traçage boîte-noire générale. Le dernier modèle est évidemment le plus important car il couvre toutes les stratégies d’adversaires, mais les deux premiers modèles sont également utiles car il couvre de nombreux scénarios pratiques. Nous proposons un schéma optimal dans le modèle traçage sans boîte-noire et dans le modèle de traçage avec boîte-noire à une clé. Ensuite, nous étudions les deux nouveaux types d’attaques avancés (à savoir les pirates évolutifs et les Pirates 2. 0) qui ont été proposées pour souligner certaines faiblesses des schémas du paradigme de subset-cover, ou plus généralement les schémas combinatoires. Comme les schémas du paradigme de subset-cover ont été largement mis en oeuvre dans la pratique, il est nécessaire de trouver des contre-mesures pour résister à ces deux types d’attaque. Dans notre travail, nous construisons deux types de schémas qui sont relativement efficaces et qui résistent bien deux types d’attaque. Enfin, nous étudions un modèle généralisé de la diffusion de données chiffrés qui peut être appliquée dans la pratique comme dans les systèmes de télévision à péage. Dans ce contexte, le centre peut chiffrer plusieurs messages à plusieurs ensembles des utilisateurs légitimes “en même temps”. Nous appelons cette nouvelle primitive la diffusion de données chiffrés multi-chaîne. Nous arrivons à construire un schéma efficace avec les chiffrés de taille constante
In this thesis, we work on the domain of broadcast encryption and tracing traitors. Our contributions can be divided into three parts. We first recall the three tracing models: non-black-box tracing model, single-key black box tracing model, and general black box tracing model. While the last model is the strongest model, the two former models also cover many practical scenarios. We propose an optimal public key traitor tracing scheme in the two first models. We then consider two new advanced attacks (pirate evolution attack and Pirates 2. 0) which were proposed to point out some weaknesses of the schemes in the subset-cover framework, or more generally of combinatorial schemes. Since these schemes have been widely implemented in practice, it is necessary to find some counter-measures to these two types of attacks. In the second contribution, we build two schemes which are relatively efficient and which resist well these two types of attacks. In the last contribution, we study a generalized model for broadcast encryption which we call multi-channel broadcast encryption. In this context, the broadcastor can encrypt several messages to several target sets “at the same time”. This covers many scenarios in practice such as in pay-TV systems in which providers have to send various contents to different groups of users. We propose an efficient scheme with constant size ciphertext
APA, Harvard, Vancouver, ISO, and other styles
23

Gabillon, Alban. "Sécurité multi-niveaux dans les bases de données à objets." Toulouse, ENSAE, 1995. http://www.theses.fr/1995ESAE0010.

Full text
Abstract:
Après un état de l'art critique des modèles de sécurité multi-niveaux existants pour les bases de données à objets, cette thèse présente un modèle complet et formel de sécurité multi-niveaux pour les bases de données à objets. Un langage du premier ordre est d'abord défini. Ce langage permet de formaliser aussi bien le contenu d'une base de données à objets que des contraintes d'intégrité devant être respectées dans une bases de données à objets. Ce langage est ensuite étendu afin de pouvoir classifier toute formule atomique représentant une information contenue dans la base de données. A partir des contraintes d'intégrité, des théorèmes de contrôle des flux d'information sont dérivés. Ces théorèmes doivent être respectés dans toute base de données à objets multi-niveaux. Un premier modèle de sécurité est ainsi obtenu. Ce modèle est appelé le modèle Vue Unique. Dans le modèle Vue Unique, les attributs d'un objet ou d'une classe peuvent être classifiés de façon indépendante. Le modèle Vue Unique permet donc de gérer des entités multi-niveaux. Cependant, de ce fait, le modèle Vue Unique semble difficilement implémentable. Un raffinement du modèle Vue Unique est alors proposé. Ce nouveau modèle de sécurité est appelé le modèle Multi-Vues. Dans le modèle Multi-Vues, chaque entité multi-niveaux est décomposée en plusieurs entités mono-niveau. Un langage d'interrogation ainsi que des opérations de mise à jour (insertion, suppression) pour une base de données à objets sécurisée avec le modèle Multi-Vues sont alors spécifiés. Une solution pour implémenter le modèle Multi-Vues est aussi présentée. Enfin, le problème de la déclassification des informations dans une base de données en général et dans une base de données à objets en particulier est étudié.
APA, Harvard, Vancouver, ISO, and other styles
24

Soua, Ahmed. "Vehicular ad hoc networks : dissemination, data collection and routing : models and algorithms." Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2013. http://www.theses.fr/2013TELE0028.

Full text
Abstract:
Chaque jour, l'humanité perd des milliers de personnes sur les routes pendant qu'ils se rendaient à travailler, à étudier ou même à se distraire. Ce nombre alarmant s'accumule avec le coût financier terrifiant de ces décès: Certaines statistiques évaluent le coût à 160 milliards d'euros par an en Europe. Dans ce contexte, les réseaux véhiculaires (VANETs) émergent comme une technologie sans fil prometteuse capable d'améliorer la vision des conducteurs et ainsi offrir un horizon télématique plus vaste. Les applications de sécurité routière exigent que le message d'alerte soit propagé de proche en proche par les véhicules jusqu'à arriver à la zone concernée par l'alerte tout en respectant les délais minimaux exigés par ce type d'applications et la grande fiabilité des transmissions. Dans cette thèse, nous nous intéressons à l'amélioration de l'efficacité des communications inter-véhiculaires sous différents scénarios: tout d'abord, nous nous concentrons sur le développement d'une nouvelle solution, appelée EBDR, pour disséminer les informations d'alertes dans un réseau VANET tout en assurant des courts délais de bout en bout et une efficacité pour les transmissions. Notre proposition est basée sur des transmissions dirigées effectuées à l'aide des antennes directionnelles pour la diffusion des messages et un algorithme de guidage d'itinéraire afin de choisir le meilleur chemin pour le paquet. En dépit de son fonctionnement en diffusion, les transmissions de notre technique s'arrêtent très rapidement après l'arrivée du paquet à la destination finale ce qui représente une caractéristique fondamentale dans la conception d’EBDR. Deuxièmement, nous proposons un framework mathématique ayant pour objectif l'évaluation des performances d’EBDR analytiquement. Nos modèles analytiques permettent de dériver des métriques de performances significatives à savoir la probabilité de succès et le nombre de sauts requis pour atteindre la destination finale. En outre, nous proposons une amélioration de notre protocole EBDR dans le but de fournir une diffusion plus efficace. Pour cela, nous nous basons sur l'ajustement de la puissance de transmission de chaque véhicule en fonction de la distance qui le sépare de la destination et la densité locale des nœuds. Ce mécanisme de contrôle de congestion permet de mieux minimiser les interférences et économiser de la bande passante. En plus, un modèle mathématique a été élaboré pour calculer la surface de la zone de transmission dans le cas d'une distribution uniforme des nœuds. Finalement, nous nous sommes intéressés aux mécanismes de collecte de données dans les réseaux véhiculaires. Notre approche est basée sur l'utilisation du principe du Q-learning pour la collecte des données des véhicules en mouvement. L'objectif de l'utilisation de ce mécanisme d'apprentissage est de rendre l'opération de collecte mieux adaptée à la mobilité des nœuds et le changement rapide de la topologie du réseau. Notre technique a été comparée à des méthodes n'utilisant pas du "learning", afin d'étudier l'effet du mécanisme d'apprentissage. Les résultats ont montré que notre approche dépasse largement les autres propositions en terme de performances et réalise un bon compromis entre le taux de collecte et les délais de bout en bout. Pour conclure, nous pensons que nos différentes contributions présentées tout le long de cette thèse permettront d'améliorer l'efficacité des communications sans fil inter-véhiculaires dans les deux directions de recherches ciblées par cette thèse à savoir : la dissémination des messages et la collecte des données. En outre, nos contributions de modélisation mathématique enrichiront la littérature en termes de modèles analytiques capables d'évaluer les techniques de transmission des données dans un réseau véhiculaire
Each day, Humanity loses thousands of persons on roads when they were traveling to work, to study or even to distract. The financial cost of these injuries is also terrifying: Some statistics evaluate the financial cost of vehicle accidents at 160 billion Euro in Europe each year. These alarming figures have driven researchers, automotive companies and public governments to improve the safety of our transportation systems and communication technologies aiming at offering safer roads and smooth driving to human beings. In this context, Vehicular Adhoc Networks, where vehicles are able to communicate with each others and with existent road side units, emerge as a promising wireless technology able to enhance the vision of drivers and offer larger telematic horizon. VANETs promising applications are not only restricted to road safety but span from vehicle trafficoptimization like flow congestion control to commercial applications like file sharing and internet access. Safety applications require that their alert information is propagated to the concerned vehicles (located in the hazardous zone) with little delay and high reliability. For these reasons, this category of applications is considered as delay sensitive and broadcast-oriented nature. While classical blind flooding is rapid, its major drawback is its huge bandwidth utilization. In this thesis, we are interested on enhancing vehicular communications under different scenarios and optimizations: First, We focus on deriving a new solution (EBDR) to disseminate alert messages among moving vehicles while maintaining it efficient and rapid. Our proposal is based on directional antennas to broadcast messages and a route guidance algorithm to choose the best path for the packets. Findings confirmed the efficiency of our approach in terms of probability of success and end-to-end delays. Moreover, in spite of the broadcast nature of the proposed technique, all transmissions stop very soon after the arrival of a packet to its destination representing a strong feature in the conception of EBDR. Second, we propose a novel mathematical framework to evaluate the performance of EBDR analytically. Although most of the proposed techniques present in literature use experimental or simulation tools to defend their performance, we rely here on mathematical models to confirm our achieved results. Our proposed framework allows to derive meaningful performance metrics including the probability of transmission success and the required number of hops to reach thefinal destination. Third, we refine our proposed broadcast-based routing EBDR to provide more efficient broadcasting by adjusting the transmission range of each vehicle based on its distance to the destination and the local node density. This mechanism allows better minimization of interferences and bandwidth's saving. Furthermore, an analytical model is derived to calculate thetransmission area in the case of a simplified node distribution. Finally, we are interested on data collection mechanisms as they make inter-vehicle communications more efficient and reliable and minimize the bandwidth utilization. Our technique uses Q-learning to collect data among moving vehicles in VANETs. The aim behind using the learning technique is to make the collecting operation more reactive to nodes mobility and topology changes. For the simulation part, we compare it to a non-learning version to study the effect of the learning technique. Findings show that our technique far outperforms other propositions and achieves a good trade off between delay and collection ratio. In conclusion, we believe that the different contributions presented in this Thesis will improve the efficiency of inter-vehicle communications in both dissemination and data collection directions. In addition, our mathematical contributions will enrich the literature in terms of constructing suitable models to evaluate broadcasting techniques in urban zones
APA, Harvard, Vancouver, ISO, and other styles
25

Cherif, Amina. "Sécurité des RFIDs actifs et applications." Thesis, Limoges, 2021. http://www.theses.fr/2021LIMO0015.

Full text
Abstract:
Au cours des 30 dernières années, les dispositifs RFID actifs sont passés de simples dispositifs d’identification (tags) à des noeuds autonomes qui, en prime, collectent (à partir de l’environnement ou d’autres sources) et échangent des données. En conséquence, le spectre de leurs applications s’est largement étendu, passant de la simple identification à la surveillance et à la localisation en temps réel. Ces dernières années, grâce à leurs avantages, l’utilisation de noeuds RFID actifs pour la collecte de données mobiles a suscité une attention particulière. En effet, dans la plupart des scénarios, ces noeuds sont déployés dans des environnements adverses. Les données doivent donc être stockées et transmises de manière sécurisée pour empêcher toute attaque par des adversaires actifs : même si les noeuds sont capturés, la confidentialité des données doit être assurée. Toutefois, en raison des ressources limitées des noeuds en termes d’énergie, de stockage et/ou de calcul, la solution de sécurité utilisée doit être légère. Cette thèse est divisée en deux parties. Dans la première, nous étudierons en détail l’évolution des noeuds RFID actifs et leur sécurité. Nous présenterons ensuite, dans la seconde partie, un nouveau protocole sans serveur permettant à des MDC (collecteurs de données mobiles), par exemple des drones, de collecter en toute sécurité des données provenant de noeuds RFID actifs mobiles et statiques afin de les transmettre ultérieurement à un tiers autorisé. L’ensemble de la solution proposée garantit la confidentialité des données à chaque étape (de la phase de mesure, avant la collecte des données par le MDC, une fois les données collectées par le MDC et lors de la livraison finale), tout en satisfaisant les exigences de faible consommation des ressources (calcul, mémoire, etc.) des entités impliquées. Pour évaluer l’adéquation du protocole aux exigences de performance, nous l’implémenterons sur les dispositifs de sécurité les plus limités en ressources c’est-à-dire à base de processeur de cartes à puce pour prouver qu’il est efficace même dans les pires conditions. De plus, pour prouver que le protocole satisfait aux exigences de sécurité, nous l’analyserons à l’aide de jeux de sécurité et également d’outils de vérification formelle : AVISPA et ProVerif
Over the 30 last years, active RFID devices have evolved from nodes dedicated to identification to autonomous nodes that, in addition, sense (from environment or other sources) and exchange data. Consequently, the range of their applications has rapidly grown from identification only to monitoring and real time localisation. In recent years, thanks to their advantages, the use of active RFID nodes for mobile data collection has attracted significant attention. However, in most scenarios, these nodes are unattended in an adverse environments, so data must be securely stored and transmitted to prevent attack by active adversaries: even if the nodes are captured, data confidentiality must be ensured. Furthermore, due to the scarce resources available to nodes in terms of energy, storage and/or computation, the used security solution has to be lightweight. This thesis is divided in two parts. In the first, we will study in details the evolution of active RFID nodes and their security. We will then, present, in the second part, a new serverless protocol to enable MDCs (Mobile Data Collectors), such as drones, to collect data from mobile and static Active RFID nodes and then deliver them later to an authorized third party. The whole solution ensures data confidentiality at each step (from the sensing phase, before data collection by the MDC, once data have been collected by MDC, and during final delivery) while fulfilling the lightweight requirements for the resource-limited entities involved. To assess the suitability of the protocol against the performance requirements, we will implement it on the most resource-constrained secure devices to prove its efficiency even in the worst conditions. In addition, to prove the protocol fulfills the security requirements, we will analyze it using security games and we will also formally verify it using the AVISPA and ProVerif tools
APA, Harvard, Vancouver, ISO, and other styles
26

Ben, Dhia Imen. "Gestion des grandes masses de données dans les graphes réels." Thesis, Paris, ENST, 2013. http://www.theses.fr/2013ENST0087/document.

Full text
Abstract:
De nos jours, un grand nombre d’applications utilisent de grands graphes pour la modélisation de données du monde réel. Nous avons assisté, ces dernières années, à une très rapide croissance de ces graphes dans divers contextes ; à savoir, les réseaux sociaux, la bioinformatique, le web sémantique, les systèmes de gestion des données géographiques, etc. La gestion, l’analyse et l’interrogation de ces données constituent un enjeu très important et ont suscité un vaste intérêt dans la communauté des Bases de Données. L’objectif de cette thèse est de fournir des algorithmes efficaces pour l’indexation et l’interrogation des données dans les grands graphes. Nous avons proposé EUQLID, une technique d’indexation qui permet de répondre efficacement aux requêtes de calcul de distance dans les grands graphes orientés. L’efficacité de cette technique est dûe au fait qu’elle exploite des propriétés intéressantes des graphes du monde réel. En effet, nous proposons un algorithme basé sur une variante efficace du fameux algorithme 2-hop. Les résultats obtenus montrent que notre algorithme surpassent les approches existantes en terme de temps d’indexation, ainsi qu’en temps de réponse. En effet, il permet de calculer la distance entre deux noeuds en quelques centaines de millisecondes sur de très grands graphes. Nous proposons également un modèle de contrôle d’accès pour les réseaux sociaux qui permet aux utlisateurs de spécifier leurs poltiques de contrôle d’accès en se basant sur leurs relations sociales, et qui peut utiliser EUQLID pour passer à l’échelle. Nous décrivons Primates comme étant un prototype appliquant le modèle proposé
In the last few years, we have been witnessing a rapid growth of networks in a wide range of applications such as social networking, bio-informatics, semantic web, road maps, etc. Most of these networks can be naturally modeled as large graphs. Managing, analyzing, and querying such data has become a very important issue, and, has inspired extensive interest within the database community. In this thesis, we address the problem of efficiently answering distance queries in very large graphs. We propose EUQLID, an efficient algorithm to answer distance queries on very large directed graphs. This algorithm exploits some interesting properties that real-world graphs exhibit. It is based on an efficient variant of the seminal 2-hop algorithm. We conducted an extensive set of experiments against state-of-the-art algorithms which show that our approach outperforms existing approaches and that distance queries can be processed within hundreds of milliseconds on very large real-world directed graphs. We also propose an access control model for social networks which can make use of EUQLID to scale on very large graphs. This model allows users to specify fine-grained privacy policies based on their relations with other users in the network. We describe and demonstrate Primates as a prototype which enforces the proposed access control model and allows users to specify their privacy preferences via a graphical user-friendly interface
APA, Harvard, Vancouver, ISO, and other styles
27

Kreipe, Nils. "Les "autorisations" données par le Conseil de sécurité à des mesures militaires." Paris 10, 2004. http://www.theses.fr/2004PA100183.

Full text
Abstract:
Il est admis que le Conseil de sécurité peut " autoriser " le recours à la force armée, et que la contrainte militaire sur la base d'une " autorisation " est licite. Une explication satisfaisante de l'" autorisation " fait pourtant défaut. En effet, l'" autorisation " n'est pas une permission d'un recours à la force, dispensant les États du respect de l'interdiction du recours à la force (article 2 (4) de la Charte). L'" autorisation " doit en revanche être considérée comme une manière de faire entreprendre les mesures de coercition prévues par la Charte. Les États " autorisés " agissent pour le compte du Conseil de sécurité : ils exercent les compétences militaires dont la Charte lui confère le monopole. En ce sens, l'" autorisation " rappelle le concept du mandat du droit public. De récents exemples, les affaires du Kosovo et de l'Iraq, montrent qu'il est concevable que le Conseil puisse accorder un tel mandat implicitement. Il peut également " ratifier " des mesures a posteriori
It is generally acknowledged that the Security Council can "authorize" the recourse to armed force, and that such "authorization" provides sufficient legal basis for military measures. However, no satisfactory explanation of the "authorization" has yet been developed. Actually, the "authorization" is not to be regarded as a "permission" of recourse to armed force, exempting the States of the respect of the prohibition of the military coercion (article 2 (4) of the Charter). Rather, it reminds the concept of agency, the "authorization" providing a mandate that enables States to undertake military enforcement measures on behalf of the Council. "Authorized" States thus exercise the Security Council's powers of military coercion. The cases of Kosovo and Iraq show that it is conceivable that the Security Council can grant such a mandate implicitly, and that he can also "ratify" military measures ex post
APA, Harvard, Vancouver, ISO, and other styles
28

Januel, Jean-Marie. "Les données de routine des séjours d'hospitalisation pour évaluer la sécurité des patients : études de la qualité des données et perspectives de validation d'indicateurs de la sécurité des patients." Phd thesis, Université Claude Bernard - Lyon I, 2011. http://tel.archives-ouvertes.fr/tel-00690802.

Full text
Abstract:
Évaluer la sécurité des patients hospitalisés constitue un enjeu majeur de la gestion des risques pour les services de santé. Le développement d'indicateurs destinés à mesurer les événements indésirables liés aux soins (EIS) est une étape cruciale dont le défi principal repose sur la performance des données utilisées. Le développement d'indicateurs de la sécurité des patients - les Patient Safety Indicators (PSIs) - par l'Agency for Healthcare Research and Quality (AHRQ) aux Etats Unis, utilisant des codes de la 9ème révision (cliniquement modifiée) de la Classification Internationale des Maladies (CIM) présente des perspectives intéressantes. Nos travaux ont abordé cinq questions fondamentales liées au développement de ces indicateurs : la définition du cadre nosologique, la faisabilité de calcul des algorithmes et leur validité, la qualité des données pour coder les diagnostics médicaux à partir de la CIM et leur performance pour comparer plusieurs pays, et la possibilité d'établir une valeur de référence pour comparer ces indicateurs. Certaines questions demeurent cependant et nous proposons des pistes de recherche pour améliorer les PSIs : une meilleure définition des algorithmes et l'utilisation d'autres sources de données pour les valider (i.e., données de registre), ainsi que l'utilisation de modèles d'ajustement utilisant l'index de Charlson, le nombre moyen de diagnostics codés et une variable de la valeur prédictive positive, afin de contrôler les variations du case-mix et les différences de qualité du codage entre hôpitaux et pays.
APA, Harvard, Vancouver, ISO, and other styles
29

Januel, Jean-Marie. "Les données de routine des séjours d’hospitalisation pour évaluer la sécurité des patients : études de la qualité des données et perspectives de validation d’indicateurs de la sécurité des patients." Thesis, Lyon 1, 2011. http://www.theses.fr/2011LYO10355/document.

Full text
Abstract:
Évaluer la sécurité des patients hospitalisés constitue un enjeu majeur de la gestion des risques pour les services de santé. Le développement d’indicateurs destinés à mesurer les événements indésirables liés aux soins (EIS) est une étape cruciale dont le défi principal repose sur la performance des données utilisées. Le développement d’indicateurs de la sécurité des patients – les Patient Safety Indicators (PSIs) – par l’Agency for Healthcare Research and Quality (AHRQ) aux Etats Unis, utilisant des codes de la 9ème révision (cliniquement modifiée) de la Classification Internationale des Maladies (CIM) présente des perspectives intéressantes. Nos travaux ont abordé cinq questions fondamentales liées au développement de ces indicateurs : la définition du cadre nosologique, la faisabilité de calcul des algorithmes et leur validité, la qualité des données pour coder les diagnostics médicaux à partir de la CIM et leur performance pour comparer plusieurs pays, et la possibilité d’établir une valeur de référence pour comparer ces indicateurs. Certaines questions demeurent cependant et nous proposons des pistes de recherche pour améliorer les PSIs : une meilleure définition des algorithmes et l’utilisation d’autres sources de données pour les valider (i.e., données de registre), ainsi que l’utilisation de modèles d’ajustement utilisant l’index de Charlson, le nombre moyen de diagnostics codés et une variable de la valeur prédictive positive, afin de contrôler les variations du case-mix et les différences de qualité du codage entre hôpitaux et pays
Assessing safety among hospitalized patients is a major issue for health services. The development of indicators to measure adverse events related to health care (HAE) is a crucial step, for which the main challenge lies on the performance of the data used for this approach. Based on the limitations of the measurement in terms of reproducibility and on the high cost of studies conducted using medical records audit, the development of Patient Safety Indicators (PSI) by the Agency for Healthcare Research and Quality (AHRQ) in the United States, using codes from the clinically modified 9th revision of the International Classification of Diseases (ICD) shows interesting prospects. Our work addressed five key issues related to the development of these indicators: nosological definition; feasibility and validity of codes based algorithms; quality of medical diagnoses coding using ICD codes, comparability across countries; and possibility of establishing a benchmark to compare these indicators. Some questions remain, and we suggest several research pathways regarding possible improvements of PSI based on a better definition of PSI algorithms and the use of other data sources to validate PSI (i.e., registry data). Thus, the use of adjustment models including the Charlson index, the average number of diagnoses coded and a variable of the positive predictive value should be considered to control the case-mix variations and differences of quality of coding for comparisons between hospitals or countries
APA, Harvard, Vancouver, ISO, and other styles
30

St-Jacques, Michèle. "Des aménagements routiers sécuritaires et des techniques routières urbaines dans une perspective de gestion durable de la voirie : le cas du Québec." Thesis, Paris Est, 2019. http://www.theses.fr/2019PESC2018/document.

Full text
Abstract:
Pendant plusieurs années, les aménagements de la voirie urbaine ont été adaptés à un accroissement continuel de la circulation automobile avec l’élargissement des emprises roulables et la prédominance du noir des revêtements bitumineux. Or, la route accueille maintenant des usagers variés. Elle doit donc tenir compte de tous ces utilisateurs, leur donner la place qui leur revient et réussir à les faire cohabiter. La route doit mettre en valeur les territoires qu’elle traverse, tout en répondant à sa mission première qui est de desservir adéquatement les communautés avoisinantes. Il faut concevoir des routes de façon à ce que les conducteurs de véhicules motorisés fassent naturellement ce qu’on attend d’eux. Les revêtements colorés peuvent être utilisés pour créer des ambiances urbaines, renforcer l’identité d’une ville et faciliter la lecture des espaces. Plusieurs nouveaux aménagements routiers, allant des carrefours giratoires aux stationnements en passant par la signalisation et toutes les mesures qui permettent de modérer la circulation, sont à la disposition des concepteurs. De plus, dans un contexte de développement durable, de nouvelles techniques routières ont fait leur apparition. Parmi celles-ci, en plus des revêtements colorés, il y a les enrobés tièdes. Cette thèse, basée sur une trentaine d’années de recherches, d’enseignements, de réalisations et d’observations à travers le monde, présente ces nouveaux aménagements routiers et ces nouveaux matériaux
For years, the development and maintenance of urban road systems responded to a continuous increase in automobile traffic by extending the network, with the blacktop for asphalt pavements taking the lead. However, the road now serves a wide variety of users, which it must now satisfy even as it struggles to meet their competing end goals. The road must enhance the landscape, while adequately serving the surrounding communities. Road design must be realized in a manner that allows drivers to perform what is expected of them naturally. Coloured bituminous surfaces can be used to create urban atmospheres, to reinforce the identity of a city, to facilitate the reading of spaces, to support the cohabitation of different users and to identify different places. Several new road engineering measures, such as roundabouts, parking, traffic signs and traffic calming measures, are now available to urban planners, traffic engineers and road designers. Furthermore, in the framework of sustainable development, new road techniques have emerged, including coloured bituminous pavements and a variety of warm mix asphalt techniques. This thesis, wich is based on thirty years of research, teaching, accomplishments and observations from around the world, presents these new road management measures and materials
APA, Harvard, Vancouver, ISO, and other styles
31

Soua, Ahmed. "Vehicular ad hoc networks : dissemination, data collection and routing : models and algorithms." Phd thesis, Institut National des Télécommunications, 2013. http://tel.archives-ouvertes.fr/tel-00919774.

Full text
Abstract:
Each day, Humanity loses thousands of persons on roads when they were traveling to work, to study or even to distract. The financial cost of these injuries is also terrifying: Some statistics evaluate the financial cost of vehicle accidents at 160 billion Euro in Europe each year. These alarming figures have driven researchers, automotive companies and public governments to improve the safety of our transportation systems and communication technologies aiming at offering safer roads and smooth driving to human beings. In this context, Vehicular Adhoc Networks, where vehicles are able to communicate with each others and with existent road side units, emerge as a promising wireless technology able to enhance the vision of drivers and offer larger telematic horizon. VANETs promising applications are not only restricted to road safety but span from vehicle trafficoptimization like flow congestion control to commercial applications like file sharing and internet access. Safety applications require that their alert information is propagated to the concerned vehicles (located in the hazardous zone) with little delay and high reliability. For these reasons, this category of applications is considered as delay sensitive and broadcast-oriented nature. While classical blind flooding is rapid, its major drawback is its huge bandwidth utilization. In this thesis, we are interested on enhancing vehicular communications under different scenarios and optimizations: First, We focus on deriving a new solution (EBDR) to disseminate alert messages among moving vehicles while maintaining it efficient and rapid. Our proposal is based on directional antennas to broadcast messages and a route guidance algorithm to choose the best path for the packets. Findings confirmed the efficiency of our approach in terms of probability of success and end-to-end delays. Moreover, in spite of the broadcast nature of the proposed technique, all transmissions stop very soon after the arrival of a packet to its destination representing a strong feature in the conception of EBDR. Second, we propose a novel mathematical framework to evaluate the performance of EBDR analytically. Although most of the proposed techniques present in literature use experimental or simulation tools to defend their performance, we rely here on mathematical models to confirm our achieved results. Our proposed framework allows to derive meaningful performance metrics including the probability of transmission success and the required number of hops to reach thefinal destination. Third, we refine our proposed broadcast-based routing EBDR to provide more efficient broadcasting by adjusting the transmission range of each vehicle based on its distance to the destination and the local node density. This mechanism allows better minimization of interferences and bandwidth's saving. Furthermore, an analytical model is derived to calculate thetransmission area in the case of a simplified node distribution. Finally, we are interested on data collection mechanisms as they make inter-vehicle communications more efficient and reliable and minimize the bandwidth utilization. Our technique uses Q-learning to collect data among moving vehicles in VANETs. The aim behind using the learning technique is to make the collecting operation more reactive to nodes mobility and topology changes. For the simulation part, we compare it to a non-learning version to study the effect of the learning technique. Findings show that our technique far outperforms other propositions and achieves a good trade off between delay and collection ratio. In conclusion, we believe that the different contributions presented in this Thesis will improve the efficiency of inter-vehicle communications in both dissemination and data collection directions. In addition, our mathematical contributions will enrich the literature in terms of constructing suitable models to evaluate broadcasting techniques in urban zones
APA, Harvard, Vancouver, ISO, and other styles
32

El, Khoury Hicham. "Une modélisation formelle orientée flux de données pour l'analyse de configuration de sécurité réseau." Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2499/.

Full text
Abstract:
La mise en œuvre d’une politique de sécurité réseau consiste en la configuration de mécanismes de sécurité hétérogènes (passerelles IPsec, listes de contrôle d’accès sur les routeurs, pare-feux à états, proxys, etc. ) disponibles dans un environnement réseau donné. La complexité de cette tâche réside dans le nombre, la nature, et l’interdépendance des mécanismes à considérer. Si différents travaux de recherche ont tenté de fournir des outils d’analyse, la réalisation de cette tâche repose aujourd’hui encore sur l’expérience et la connaissance des administrateurs sécurité qui doivent maîtriser tous ces paramètres. Dans cette thèse nous proposons une solution pour faciliter le travail des administrateurs réseau. En effet, nombre d’inconsistances viennent de l’incompatibilité de règles de politiques, de l’incompatibilité de mécanismes mis en œuvre successivement au sein des équipements traversés. Une théorie formelle générique qui permet de raisonner sur les flux de données réseau est manquante. Dans cette optique, nous présentons trois résultats complémentaires : 1-un modèle formel orienté flux de données pour l’analyse de politiques de sécurité réseau afin de détecter les problèmes de consistance entre différents mécanismes de sécurité sur des équipements différents jouant un rôle à différents niveaux dans les couches ISO. Dans ce modèle, nous avons modélisé un flux d’information par un triplet contenant la liste des protocoles de communication dont le flux résulte, la liste des attributs dont l’authentification est garantie, et la liste des attributs dont la confidentialité est garantie. 2-un formalisme indépendant de la technologie basé sur les flux de données pour la représentation des mécanismes de sécurité ; nous avons spécifié formellement la capacité et la configuration des mécanismes de sécurité devant être mis en œuvre en construisant une abstraction des flux physiques de blocs de données. Nous avons proposé une solution qui peut répondre aux exigences de sécurité et qui peut aider à analyser les conflits liés au déploiement de plusieurs technologies installées sur plusieurs équipements 3-afin d’évaluer à la fois la capacité d’expression et d’analyse du langage de modélisation, nous avons utilisé les réseaux de Petri colorés pour spécifier formellement notre langage. L’objectif de nos recherches vise l’intérêt et la mise à disposition d’un langage de modélisation pour décrire et valider les architectures solutions répondant à des exigences de sécurité réseau. Des simulations appliquées à des cas particuliers, comme le protocole IPsec, NA(P)T et Netfilter/iptables, complètent notre démarche. Néanmoins, l’analyse des conflits de sécurité se fait actuellement par simulation et de manière non exhaustive. Nos travaux futurs viseront à aider/automatiser l’analyse en permettant aux intéressés de définir les propriétés en logique temporelle par exemple qui seront contrôlées automatiquement
The implementation of network security policy requires the configuration of heterogeneous and complex security mechanisms in a given network environment (IPsec gateways, ACLs on routers, stateful firewalls, proxies, etc. ). The complexity of this task resides in the number, the nature, and the interdependence of these mechanisms. Although several researchers have proposed different analysis tools, achieving this task still requires experienced and proficient security administrators who can handle all these parameters. In this thesis, we propose a solution to facilitate the work of network administrators. Indeed, many inconsistencies come from the incompatibility of policy rules and/or incompatible mechanisms implemented in devices through which packets travel. A generic formal theory that allows reasoning about network data flows and security mechanisms is missing. With this end in mind, we develop in this thesis three results: •A formal data-flow oriented model to analyze and detect network security conflicts between different mechanisms playing a role at various ISO levels. We modeled a flow of information by a triplet containing the list of communication protocols (i. E. , encapsulation), the list of authenticated attributes and the list of encrypted attributes, •A generic attribute-based model for network security mechanisms representation and configuration. We have formally specified the capacity and configuration of security mechanisms by constructing an abstraction of physical flows of data blocks. We have proposed a solution that can satisfy security requirements and can help conflicts analysis in the deployment of technologies installed on different devices, •To evaluate both the ability of expression and analysis power of the modeling language. We have used CPN Tools [Jensen et Kristensen 2009] and [CPN tools] to formally specify our language. The goal of our research is to propose a modeling language for describing and validating architectural solutions that meet network security requirements. Simulations are applied to specific scenarios, such as the IPsec, NA(P)T and Netfilter/iptables protocols, to validate our approach. Nevertheless, the analysis of security conflicts is currently done by simulation and in a non-exhaustive manner. Our future work will aim to assist/automate the analysis by allowing the definition of properties in temporal logic for instance which will be automatically controlled
APA, Harvard, Vancouver, ISO, and other styles
33

Brunet, Solenn. "Conception de mécanismes d'accréditations anonymes et d'anonymisation de données." Thesis, Rennes 1, 2017. http://www.theses.fr/2017REN1S130/document.

Full text
Abstract:
L'émergence de terminaux mobiles personnels, capables à la fois de communiquer et de se positionner, entraîne de nouveaux usages et services personnalisés. Néanmoins, ils impliquent une collecte importante de données à caractère personnel et nécessitent des solutions adaptées en termes de sécurité. Les utilisateurs n'ont pas toujours conscience des informations personnelles et sensibles qui peuvent être déduites de leurs utilisations. L'objectif principal de cette thèse est de montrer comment des mécanismes cryptographiques et des techniques d'anonymisation de données peuvent permettre de concilier à la fois le respect de la vie privée, les exigences de sécurité et l'utilité du service fourni. Dans une première partie, nous étudions les accréditations anonymes avec vérification par clé. Elles permettent de garantir l'anonymat des utilisateurs vis-à-vis du fournisseur de service : un utilisateur prouve son droit d'accès, sans révéler d'information superflue. Nous introduisons des nouvelles primitives qui offrent des propriétés distinctes et ont un intérêt à elles-seules. Nous utilisons ces constructions pour concevoir trois systèmes respectueux de la vie privée : un premier système d'accréditations anonymes avec vérification par clé, un deuxième appliqué au vote électronique et un dernier pour le paiement électronique. Chaque solution est validée par des preuves de sécurité et offre une efficacité adaptée aux utilisations pratiques. En particulier, pour deux de ces contributions, des implémentations sur carte SIM ont été réalisées. Néanmoins, certains types de services nécessitent tout de même l'utilisation ou le stockage de données à caractère personnel, par nécessité de service ou encore par obligation légale. Dans une seconde partie, nous étudions comment rendre respectueuses de la vie privée les données liées à l'usage de ces services. Nous proposons un procédé d'anonymisation pour des données de mobilité stockées, basé sur la confidentialité différentielle. Il permet de fournir des bases de données anonymes, en limitant le bruit ajouté. De telles bases de données peuvent alors être exploitées à des fins d'études scientifiques, économiques ou sociétales, par exemple
The emergence of personal mobile devices, with communication and positioning features, is leading to new use cases and personalized services. However, they imply a significant collection of personal data and therefore require appropriate security solutions. Indeed, users are not always aware of the personal and sensitive information that can be inferred from their use. The main objective of this thesis is to show how cryptographic mechanisms and data anonymization techniques can reconcile privacy, security requirements and utility of the service provided. In the first part, we study keyed-verification anonymous credentials which guarantee the anonymity of users with respect to a given service provider: a user proves that she is granted access to its services without revealing any additional information. We introduce new such primitives that offer different properties and are of independent interest. We use these constructions to design three privacy-preserving systems: a keyed-verification anonymous credentials system, a coercion-resistant electronic voting scheme and an electronic payment system. Each of these solutions is practical and proven secure. Indeed, for two of these contributions, implementations on SIM cards have been carried out. Nevertheless, some kinds of services still require using or storing personal data for compliance with a legal obligation or for the provision of the service. In the second part, we study how to preserve users' privacy in such services. To this end, we propose an anonymization process for mobility traces based on differential privacy. It allows us to provide anonymous databases by limiting the added noise. Such databases can then be exploited for scientific, economic or societal purposes, for instance
APA, Harvard, Vancouver, ISO, and other styles
34

Bascol, Kevin. "Adaptation de domaine multisource sur données déséquilibrées : application à l'amélioration de la sécurité des télésièges." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSES062.

Full text
Abstract:
Bluecime a mis au point un système de vidéosurveillance à l'embarquement de télésièges qui a pour but d'améliorer la sécurité des passagers. Ce système est déjà performant, mais il n'utilise pas de techniques d'apprentissage automatique et nécessite une phase de configuration chronophage. L’apprentissage automatique est un sous-domaine de l'intelligence artificielle qui traite de l'étude et de la conception d'algorithmes pouvant apprendre et acquérir des connaissances à partir d'exemples pour une tâche donnée. Une telle tâche pourrait consister à classer les situations sûres ou dangereuses dans les télésièges à partir d'exemples d'images déjà étiquetées dans ces deux catégories, appelés exemples d’entraînement. L'algorithme d'apprentissage automatique apprend un modèle capable de prédire la catégories de nouveaux cas. Depuis 2012, il a été démontré que les modèles d'apprentissage profond sont les modèles d'apprentissage machine les mieux adaptés pour traiter les problèmes de classification d'images lorsque de nombreuses données d’entraînement sont disponibles. Dans ce contexte, cette thèse, financée par Bluecime, vise à améliorer à la fois le coût et l'efficacité du système actuel de Bluecime grâce à l'apprentissage profond
Bluecime has designed a camera-based system to monitor the boarding station of chairlifts in ski resorts, which aims at increasing the safety of all passengers. This already successful system does not use any machine learning component and requires an expensive configuration step. Machine learning is a subfield of artificial intelligence which deals with studying and designing algorithms that can learn and acquire knowledge from examples for a given task. Such a task could be classifying safe or unsafe situations on chairlifts from examples of images already labeled with these two categories, called the training examples. The machine learning algorithm learns a model able to predict one of these two categories on unseen cases. Since 2012, it has been shown that deep learning models are the best suited machine learning models to deal with image classification problems when many training data are available. In this context, this PhD thesis, funded by Bluecime, aims at improving both the cost and the effectiveness of Bluecime's current system using deep learning
APA, Harvard, Vancouver, ISO, and other styles
35

Noumon, Allini Elie. "Caractérisation, évaluation et utilisation du jitter d'horloge comme source d'aléa dans la sécurité des données." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSES019.

Full text
Abstract:
Cette thèse, financée par la DGA, est motivée par la problématique d’évaluation des TRNG pour des applications à très haut niveau de sécurité. Les standards actuels tels que AIS-31 n’étant pas suffisants pour ces types d’applications, la DGA propose une procédure complémentaire, validée sur les TRNG utilisant les oscillateurs en anneau (RO), qui vise à caractériser la source d’aléa des TRNG afin d’identifier les bruits électroniques présents dans celle-ci. Ces bruits se traduisent dans les circuits numériques par le jitter d’horloge générée dans les RO. Ils peuvent être caractérisés par leur densité spectrale de puissance reliée à la variance d’Allan temporelle qui permet, contrairement à la variance standard pourtant encore largement utilisée, de discriminer ces différents types de bruit (thermique, flicker principalement). Cette étude a servi de base à l’estimation de la part du jitter due au bruit thermique utilisé dans les modèles stochastiques décrivant la sortie des TRNG. Afin d’illustrer et de valider l’approche de certification DGA sur d’autres principes de TRNG que les RO, nous proposons une caractérisation de la PLL en tant que source d’aléa. Nous avons modélisé la PLL en termes de fonctions de transfert. Cette modélisation a conduit à l’identification de la source de bruit en sortie de la PLL, ainsi que de sa nature en fonction des paramètres physiques de la PLL. Cela a permis de proposer des recommandations quant au choix des paramètres afin de garantir une entropie maximale. Afin d’aider à la conception de ce type de TRNG, nous proposons également un outil de recherche des paramètres non physiques du générateur assurant le meilleur compromis sécurité/débit
This thesis, funded by the DGA, is motivated by the problem of evaluation of TRNG for applications with a very high level of security. As current standards such as AIS-31 are not sufficient for these types of applications, the DGA proposes a complementary procedure, validated on TRNG using ring oscillators (RO), which aims to characterize the source of randomness of TRNG in order to identify electronic noises present in it. These noises are manifested in the digital circuits by the clock jitter generated in the RO. They can be characterized by their power spectral density related to the time Allan variance which allows, unlike the standard variance which is still widely used, to discriminate these different types of noise (mainly thermal, flicker). This study was used as a basis for estimating the proportion of jitter due to thermal noise used in stochastic models describing the output of TRNG. In order to illustrate and validate the DGA certification approach on other principles of TRNG apart from RO, we propose a characterization of PLL as a source of randomness. We have modeled the PLL in terms of transfer functions. This modeling has led to the identification of the source of noise at the output of the PLL, as well as its nature as a function of the physical parameters of the PLL. This allowed us to propose recommendations on the choice of parameters to ensure maximum entropy. In order to help in the design of this type of TRNG, we also propose a tool to search for the non-physical parameters of the generator ensuring the best compromise between security and throughput
APA, Harvard, Vancouver, ISO, and other styles
36

Bost, Raphaël. "Algorithmes de recherche sur bases de données chiffrées." Thesis, Rennes 1, 2018. http://www.theses.fr/2018REN1S001/document.

Full text
Abstract:
La recherche sur les bases de données chiffrées vise à rendre efficace une tâche apparemment simple : déléguer le stockage de données à un serveur qui ne serait pas de confiance, tout en conservant des fonctionnalités de recherche. Avec le développement des services de stockage dans le Cloud, destinés aussi bien aux entreprises qu'aux individus, la mise au point de solutions efficaces à ce problème est essentielle pour permettre leur déploiement à large échelle. Le principal problème de la recherche sur bases de données chiffrées est qu'un schéma avec une sécurité ''parfaite'' implique un surcoût en termes de calcul et de communication qui serait inacceptable pour des fournisseurs de services sur le Cloud ou pour les utilisateurs - tout du moins avec les technologies actuelles. Cette thèse propose et étudie de nouvelles notions de sécurité et de nouvelles constructions de bases de données chiffrées permettant des recherches efficaces et sûres. En particulier, nous considérons la confidentialité persistante et la confidentialité future de ces bases de données, ce que ces notions impliquent en termes de sécurité et d'efficacité, et comment les réaliser. Ensuite, nous montrons comment protéger les utilisateurs de bases de données chiffrées contre des attaques actives de la part du serveur hébergeant la base, et que ces protections ont un coût inévitable. Enfin, nous étudions les attaques existantes contre ces bases de données chiffrées et comment les éviter
Searchable encryption aims at making efficient a seemingly easy task: outsourcing the storage of a database to an untrusted server, while keeping search features. With the development of Cloud storage services, for both private individuals and businesses, efficiency of searchable encryption became crucial: inefficient constructions would not be deployed on a large scale because they would not be usable. The key problem with searchable encryption is that any construction achieving ''perfect security'' induces a computational or a communicational overhead that is unacceptable for the providers or for the users --- at least with current techniques and by today's standards. This thesis proposes and studies new security notions and new constructions of searchable encryption, aiming at making it more efficient and more secure. In particular, we start by considering the forward and backward privacy of searchable encryption schemes, what it implies in terms of security and efficiency, and how we can realize them. Then, we show how to protect an encrypted database user against active attacks by the Cloud provider, and that such protections have an inherent efficiency cost. Finally, we take a look at existing attacks against searchable encryption, and explain how we might thwart them
APA, Harvard, Vancouver, ISO, and other styles
37

Calas, Christel. "Pour une protection efficace des données et des traitements dans les systèmes informatiques répartis." Toulouse, ENSAE, 1995. http://www.theses.fr/1995ESAE0012.

Full text
Abstract:
Cette thèse décrit étape par étape la construction d'un système informatique distribué multiniveau. Elle montre comment il est possible de construire un système qui garantit la sécurité de ses informations et de ses traitements, y compris contre tous les types de canaux cachés. Partant des attaques contre lesquelles nous cherchons à nous prémunir, elle introduit notre démarche en montrant la nécessité d'un modèle formel qui décrive précisement la sécurité escomptée. Ce modèle est ensuite présenté. Il énonce directement des principes qui permettent la construction de systèmes sûrs. La thèse démontre ensuite que la machine M2S (Machine Multiniveau pour la Sécurité) et le réseau développés au CERT implantent bien ces principes en réalisant les contrôles de sécurité directement dans la couche matérielle. Un système opératoire distribué (sMach) est ensuite construit au dessus de cette plate-forme matérielle sûre. Il est chargé de gérer en multiniveau les ressources du système en intégrant les contrôles de sécurité qui sont réalisés dans le matériel. Il permet la création et la manipulation de traitements tournant à différents niveaux au travers de services qui sont compatibles avec ceux du micro-noyau Mach de CMU. Ce noyau opératoire est ensuite installé sur plusieurs machines qui sont reliées les unes aux autres au travers du réseau sûr. Cet ensemble constitue le système réparti multiniveau que nous voulions construire. Finalement la thèse montre comment ce système peut être utilisé en décrivant d'abord le développement d'un système distribué de gestion de fichiers multiniveaux et ensuite la construction d'une application distribuée multiniveau.
APA, Harvard, Vancouver, ISO, and other styles
38

Ben, Dhia Imen. "Gestion des grandes masses de données dans les graphes réels." Electronic Thesis or Diss., Paris, ENST, 2013. http://www.theses.fr/2013ENST0087.

Full text
Abstract:
De nos jours, un grand nombre d’applications utilisent de grands graphes pour la modélisation de données du monde réel. Nous avons assisté, ces dernières années, à une très rapide croissance de ces graphes dans divers contextes ; à savoir, les réseaux sociaux, la bioinformatique, le web sémantique, les systèmes de gestion des données géographiques, etc. La gestion, l’analyse et l’interrogation de ces données constituent un enjeu très important et ont suscité un vaste intérêt dans la communauté des Bases de Données. L’objectif de cette thèse est de fournir des algorithmes efficaces pour l’indexation et l’interrogation des données dans les grands graphes. Nous avons proposé EUQLID, une technique d’indexation qui permet de répondre efficacement aux requêtes de calcul de distance dans les grands graphes orientés. L’efficacité de cette technique est dûe au fait qu’elle exploite des propriétés intéressantes des graphes du monde réel. En effet, nous proposons un algorithme basé sur une variante efficace du fameux algorithme 2-hop. Les résultats obtenus montrent que notre algorithme surpassent les approches existantes en terme de temps d’indexation, ainsi qu’en temps de réponse. En effet, il permet de calculer la distance entre deux noeuds en quelques centaines de millisecondes sur de très grands graphes. Nous proposons également un modèle de contrôle d’accès pour les réseaux sociaux qui permet aux utlisateurs de spécifier leurs poltiques de contrôle d’accès en se basant sur leurs relations sociales, et qui peut utiliser EUQLID pour passer à l’échelle. Nous décrivons Primates comme étant un prototype appliquant le modèle proposé
In the last few years, we have been witnessing a rapid growth of networks in a wide range of applications such as social networking, bio-informatics, semantic web, road maps, etc. Most of these networks can be naturally modeled as large graphs. Managing, analyzing, and querying such data has become a very important issue, and, has inspired extensive interest within the database community. In this thesis, we address the problem of efficiently answering distance queries in very large graphs. We propose EUQLID, an efficient algorithm to answer distance queries on very large directed graphs. This algorithm exploits some interesting properties that real-world graphs exhibit. It is based on an efficient variant of the seminal 2-hop algorithm. We conducted an extensive set of experiments against state-of-the-art algorithms which show that our approach outperforms existing approaches and that distance queries can be processed within hundreds of milliseconds on very large real-world directed graphs. We also propose an access control model for social networks which can make use of EUQLID to scale on very large graphs. This model allows users to specify fine-grained privacy policies based on their relations with other users in the network. We describe and demonstrate Primates as a prototype which enforces the proposed access control model and allows users to specify their privacy preferences via a graphical user-friendly interface
APA, Harvard, Vancouver, ISO, and other styles
39

Hajjeh, Ibrahim. "Sécurité des échanges. Conception et validation d'un nouveau protocole pour la sécurisation des échanges." Paris, ENST, 2003. https://pastel.archives-ouvertes.fr/pastel-00001168.

Full text
Abstract:
De nombreux mécanismes de sécurité ont été proposés pour les réseaux fixes et mobiles. Bien que ces mécanismes aient pu répondre à un ensemble d'exigences de sécurité, ils demeurent uniquement efficaces dans un contexte spécifique lié aux hypothèses et aux exigences restrictives qui ont été émises lors de la conception. Dans un premier temps, nous définissons une liste d'exigences en sécurité qui permet d'analyser les solutions de sécurité les plus déployées. Dans un second temps, nous proposons d'étendre le protocole SSL/TLS avec de nouveaux services. SSL/TLS est une solution de sécurité générique et transparente aux applications. Ainsi, il ne couvre pas les besoins spécifiques à certaines classes d'application telles que les applications de paiement sur Internet. Notre propositions d'intégrer le protocole d'échange des clés ISAKMP avec SSL/TLS permet de fournir, entre autres, la protection d'identité des utilisateurs et l'unification des associations de sécurité. Afin d'étendre l'utilisation de SSL/TLS vers les systèmes de paiement sur Internet, nous intégrons un module générique pour la génération d'une preuve de non répudiation dans le protocole SSL/TLS. Par ailleurs, toutes ces propositions restent, cernées par le problème d'interopérabilité avec les anciennes versions de chaque protocole. Ce qui rend la satisfaction de tous les besoins à travers un des protocoles existants irréalisables. Pour cela, nous proposons finalement de concevoir et de valider un nouveau protocole de sécurité qui intègre nativement l'évolution des protocoles de sécurité des échangeset des réseaux d'une manière performante. Nous avons appelé ce protocole SEP (Secure and Extensible Protocol)
Many security mechanisms have been proposed for wired and wireless networks. Although these mechanisms have answered some security requirements, they remain efficient in a specific context related to the assumptions and the restrictive requirements which have been emitted at the time of their design. Firstly, we define a list of security requirements which make it possible to analyze the most deployed security solutions. Secondly, we propose to extend the SSL/TLS protocol with new services. SSL/TLS is a transparent security solution. Thus, security services providedto applications are the same. SSL/TLS does not meet specific needs to some classes of applications such as internet payment applications. We integrate the Internet Security Association and Key Management Protocol (ISAKMP) in SSL/TLS to provide, among others, identity protection and unification of security associations. In order to extend the use of SSL/TLS towards the Internet payment systems, we integrate a generic signature module in SSL/TLS that generate a non repudiation proof over all exchanged data. This module is interoperable with SSL/TLS and TLS Extensions standards. However, all these proposals suffer from the lack of interoperability with their previous versions. This will make it impossible to satisfy all the security needs through one existing protocol. Thus, we propose to design, validate and develop a new security protocol, which natively integrates the evolutions of the security protocols, in a powerful and elegant way. We called this protocol SEP for Secure and Extensible Protocol
APA, Harvard, Vancouver, ISO, and other styles
40

Jansen, van rensburg Bianca. "Sécurisation des données 3D par insertion de données cachées et par chiffrement pour l'industrie de la mode." Electronic Thesis or Diss., Université de Montpellier (2022-....), 2023. http://www.theses.fr/2023UMONS044.

Full text
Abstract:
Au cours des dernières décennies, les objets 3D sont devenus un élément essentiel de la vie quotidienne, tant dans le contexte privé que professionnel. Ces objets 3D sont souvent stockés sur le cloud et transférés sur des réseaux plusieurs fois au cours de leur existence, où ils sont susceptibles de faire l'objet d'attaques malveillantes. Par conséquent, des méthodes de sécurisation des objets 3D, comme le chiffrement ou l'insertion des données cachées, sont essentielles. Le chiffrement est utilisé pour protéger la confidentialité visuelle du contenu d’un objet 3D. Il est également possible d'utiliser des schémas de chiffrement sélectif, dans lesquels seulement une partie de l’objet 3D est chiffrée. L'insertion des données cachées est généralement utilisée pour protéger les droits d'auteur ou l'authenticité des objets 3D. Toutefois, lorsqu'un objet 3D est chiffré, un tiers, tel qu'un serveur, peut avoir besoin d'intégrer des données dans l'objet 3D confidentiel. Dans ce cas, les données sont cachées dans le domaine chiffré. Les objets 3D sont souvent constitués de millions de sommets, de sorte que le stockage et le partage en ligne sont coûteux. Par conséquent, la compression des objets 3D est essentielle. Dans ce travail, nous présentons trois contributions dans différents domaines de recherche.Premièrement, nous présentons notre travail sur une nouvelle méthode permettant d'obtenir un objet 3D marqué à partir d'une insertion de données cachées de haute capacité dans le domaine chiffré. Basée sur des propriétés homomorphiques du cryptosystème de Paillier, notre méthode permet d'insérer plusieurs messages secrets dans le domaine chiffré avec une haute capacité. Ces messages peuvent être extraits dans le domaine en clair après le déchiffrement de l'objet 3D. À notre connaissance, nous sommes les premiers à proposer une méthode d'insertion de données cachées dans le domaine chiffré où les données cachées de haute capacité sont conservées dans le domaine en clair après le déchiffrement de l'objet 3D. Le chiffrement et l'insertion de données cachées dans le domaine chiffré sont conformes au format et sans expansion de taille, malgré l'utilisation du cryptosystème de Paillier.Nous présentons ensuite notre travail sur une mesure d'évaluation du niveau de sécurité visuelle des objets 3D chiffrés sélectivement. Basé sur une nouvelle base de données composée d'objets 3D chiffrés sélectivement et évalués, nous proposons un modèle pour déterminer les paramètres de sécurité en fonction du niveau de sécurité souhaité. Enfin, nous détaillons notre score 3DVS qui sert à mesurer le niveau de sécurité visuelle des objets 3D chiffrés sélectivement.Nous présentons également, à notre connaissance, la première méthode permettant de déchiffrer hiérarchiquement un objet 3D chiffré en fonction d'un trousseau de clés généré. Ce trousseau se compose d'un ensemble de clés qui permettent un déchiffrement plus ou moins fort de l'objet 3D chiffré. Chaque objet 3D déchiffré hiérarchiquement a un niveau de sécurité visuelle différent, où l'objet 3D est plus ou moins accessible visuellement. Notre méthode est essentielle lorsqu'il s'agit d'empêcher des fuites des secrets commerciales au sein d'une entreprise ou par des attaquants extérieurs. Elle est également écologique et plus sécurisée que les méthodes traditionnelles de chiffrement sélectif.Enfin, nous présentons notre travail sur des méthodes conjointes de sécurité et de compression basées sur la méthode de compression d'objets 3D de Google, Draco, dans laquelle nous intégrons une étape de sécurité dans Draco, qui est en train de devenir la nouvelle norme de l'industrie. Ces étapes de sécurité sont le chiffrement, le chiffrement sélectif et le tatouage
Over the last few decades, 3D objects have become an essential part of everyday life, in both private and professional contexts. These 3D objects are often stored on the cloud and transferred over networks many times during their existence, where they are susceptible to malicious attacks. Therefore, 3D object security, such as encryption or data hiding, is essential. Encryption is used to protect the visual confidentiality of the 3D object's content. Selective encryption schemes can also be used, where part of a component, such as a part of each vertex, is encrypted. Data hiding is generally used to protect the copyright or the authenticity of the 3D object. However, when a 3D object is encrypted, a third party such as a server may need to embed data in the confidential 3D object. In this case, data hiding in the encrypted domain is performed. In many applications, 3D objects often consist of millions of vertices, and so storing and sharing them online is expensive, time consuming and not environmentally friendly. Consequently, 3D object compression is essential. In this work, we present three contributions in different research areas. First, we present our work on a new method to obtain a watermarked 3D object from high-capacity data hiding in the encrypted domain. Based on the homomorphic properties of the Paillier cryptosystem, our proposed method allows us to embed several secret messages in the encrypted domain with a high-capacity. These messages can be extracted in the plaintext domain after the 3D object decryption. To the best of our knowledge, we are the first to propose a data hiding method in the encrypted domain where the high-capacity watermark is conserved in the plaintext domain after the 3D object is decrypted. The encryption and the data hiding in the encrypted domain are format compliant and without size expansion, despite the use of the Paillier cryptosystem. Then, we present our work on an evaluation metric for the visual security level of selectively encrypted 3D objects. We present a new dataset composed of evaluated selectively encrypted 3D objects. We propose a model to determine the security parameters according to a desired security level. Finally, we detail our proposed 3DVS score which serves to measure the visual security level of selectively encrypted 3D objects. We also present a method which allows us to hierarchically decrypt an encrypted 3D object according to a generated ring of keys. This ring consists of a set of keys that allow a stronger or weaker decryption of the encrypted 3D object. Each hierarchically decrypted 3D object has a different visual security level, where the 3D object is more or less visually accessible. Our method is essential when it comes to preventing trade secrets from being leaked from within a company or by exterior attackers. It is also ecologically friendly and more secure than traditional selective encryption methods. Finally, we present our work on joint security and compression methods based on Google's 3D object compression method Draco, where we integrate a security step in Draco, which is becoming the new industry standard. These security steps are encryption, selective encryption and watermarking
APA, Harvard, Vancouver, ISO, and other styles
41

Larbre, David. "Les échanges de données personnelles entre l’union européenne et les tiers dans le domaine de la sécurité." Thesis, Paris 10, 2014. http://www.theses.fr/2014PA100174.

Full text
Abstract:
L’intérêt d’une réflexion sur les échanges de données personnelles de sécurité entre l’Union européenne et les tiers est né d’une interrogation sur le cadre juridique auquel ces échanges se rattachent, et l’existence de garanties en matière de protection des données. En partant du constat que les États sont à l’origine de la création de réseaux de coopération policière et judiciaire, l’irruption de l’Union européenne et de ses Agences dans des sphères régaliennes a de quoi déconcerter. L’intervention de l’UE et de ses Agences doit également attirer l’attention sur le respect des conditions de ces échanges qui sont soumis à l’exigence de garanties adéquates de la part des États tiers et Cet avènement nécessite de déterminer au préalable comment les échanges de données avec les tiers sont devenues progressivement un instrument au service de l’espace de liberté de sécurité et de justice (ELSJ). En cela, la sécurité telle qu’elle est ici appréhendée, concerne la lutte contre le terrorisme, la criminalité organisée et l’immigration clandestine. Ainsi cette thèse vise, à travers un examen des accords conclus par l’UE et ses Agences avec les tiers, à déceler, analyser, et mettre en évidence les règles qui régissent ces échanges de données personnelles ainsi que la protection qui s’y rattache. Elle doit permettre de mieux cerner la fonction de l’Union européenne et le rôle des États membres dans ces échanges, d’évaluer les garanties apportées par l’UE et ses partenaires, et d’aboutir à l’émergence d’un régime d’ensemble hétérogène mais dont l’unité réside dans le souci d’assurer une protection adéquate
Enabling security between the European Union and third party personal data exchange leads one to reflect on the related legal framework and safeguards regarding data protection. As states are at the origin of police networks and judicial cooperation, the emergence of the EU and its agencies in sovereign spheres has been astonishing. For the EU,respecting the conditions of such exchanges requires adequate guarantees from third states. To better understand this, one should first analyze to which extent these exchanges have gradually become an instrument servicing the areas of freedom, security and justice (AFSJ, "security" here implies the fight against terrorism, organized crime and illegal immigration). This thesis aims to detect, analyze and highlight the rules governing the exchanges of personal data and the protection attached to them. Its goal is to understand the function of the EU and the role of member states in these exchanges, to assess the guarantees provided by the EU or its partners and to lead to the emergence of a system which could provide adequate protection. The first part will determine the modalities of cooperation between the EU and third parties in the field of personal data security exchanges; identifying the existence of safety data exchange networks before looking into the fight against terrorism and organized crime’s international dimension. A focus on external standards in the EU will lead the reader to grasp how safety within third party data exchange networks may be structured and to understand the role of international organizations such as the UN (or extraterritorial jurisdiction from third countries such as the USA). The EU having developed its cooperation regarding safety data exchanges, its foreign policy in terms of AFSJ gives one an overview of safety data exchange networks and their diversity, but it also shows the limits of their extension. These different forms of cooperation are the foundations of constituent EU treaties, yet they face legal and democratic issues as far as EU legitimacy is concerned. The EU integration process, on which safety with third party data exchanges is based, will also be studied; if this integration is a success overall, sovereignty issues have also brought their share of safety data protection alterations. This thesis’ second part focuses on the guarantees related to safety data exchanges, fundamental rights protection regarding this personal data and the need for adequate protection when transferring data to third parties. The adequacy of "normative" protection must be analyzed in global terms, that is to say within an international framework. The study of normative protection will be followed by a thorough examination of their effective protection. The reader will see how data exchange security transparency enables people to exercise their right to both access data and challenge decisions taken on the basis of data exchange safety. Effective protection leads to the identification of responsibilities related to safety data exchanges, the mechanisms of which may highlight that the EU or third parties have breaches in their obligations
APA, Harvard, Vancouver, ISO, and other styles
42

Gregorutti, Baptiste. "Forêts aléatoires et sélection de variables : analyse des données des enregistreurs de vol pour la sécurité aérienne." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066045/document.

Full text
Abstract:
De nouvelles réglementations imposent désormais aux compagnies aériennes d'établir une stratégie de gestion des risques pour réduire encore davantage le nombre d'accidents. Les données des enregistreurs de vol, très peu exploitées à ce jour, doivent être analysées de façon systématique pour identifier, mesurer et suivre l'évolution des risques. L'objectif de cette thèse est de proposer un ensemble d'outils méthodologiques pour répondre à la problématique de l'analyse des données de vol. Les travaux présentés dans ce manuscrit s'articulent autour de deux thèmes statistiques : la sélection de variables en apprentissage supervisé d'une part et l'analyse des données fonctionnelles d'autre part. Nous utilisons l'algorithme des forêts aléatoires car il intègre des mesures d'importance pouvant être employées dans des procédures de sélection de variables. Dans un premier temps, la mesure d'importance par permutation est étudiée dans le cas où les variables sont corrélées. Nous étendons ensuite ce critère pour des groupes de variables et proposons une nouvelle procédure de sélection de variables fonctionnelles. Ces méthodes sont appliquées aux risques d'atterrissage long et d'atterrissage dur, deux questions importantes pour les compagnies aériennes. Nous présentons enfin l'intégration des méthodes proposées dans le produit FlightScanner développé par Safety Line. Cette solution innovante dans le transport aérien permet à la fois le monitoring des risques et le suivi des facteurs qui les influencent
New recommendations require airlines to establish a safety management strategy to keep reducing the number of accidents. The flight data recorders have to be systematically analysed in order to identify, measure and monitor the risk evolution. The aim of this thesis is to propose methodological tools to answer the issue of flight data analysis. Our work revolves around two statistical topics: variable selection in supervised learning and functional data analysis. The random forests are used as they implement importance measures which can be embedded in selection procedures. First, we study the permutation importance measure when the variables are correlated. This criterion is extended for groups of variables and a new selection algorithm for functional variables is introduced. These methods are applied to the risks of long landing and hard landing which are two important questions for airlines. Finally, we present the integration of the proposed methods in the software FlightScanner implemented by Safety Line. This new solution in the air transport helps safety managers to monitor the risks and identify the contributed factors
APA, Harvard, Vancouver, ISO, and other styles
43

Bertrand, Yoann. "Gestion du contrôle de la diffusion des données d’entreprises et politiques de contrôles d’accès." Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4012/document.

Full text
Abstract:
Cette thèse traite des problèmes de fuite de données accidentelles au sein des entreprises. Ces fuites peuvent être dues à l’utilisation conjointe de politiques de Contrôle d’Accès (CA) et de Contrôle de Transmission (CT). De plus, l’utilisation conjointe de ces deux types de politique génère plusieurs problèmes pour les personnes ayant la charge de créer et maintenir ces politiques. Parmi ces problèmes, nous pouvons citer des problèmes de généricité des modèles existants, de cohérence entre les règles de CA et de CT ainsi que des problèmes de densité, d’adaptabilité, d’interopérabilité et de réactivité. Dans cette thèse, nous proposons en premier lieu un méta-modèle pour prendre en compte la plupart des modèles de CA utilisés dans les entreprises. Nous proposons ensuite la génération cohérente et semi-automatique des politiques de CT à partir de politiques de CA existantes pour répondre au problème de cohérence. De plus, différentes fonctionnalités sont proposées pour résoudre les problèmes de densité, d’adaptabilité et d’interopérabilité. Afin de valider la pertinence de notre solution, nous proposons une étude (type questionnaire) auprès d’experts sécurité et d’administrateurs. Cette étude révèle des informations sur la taille des politiques gérées, la pénibilité à les définir ou encore l’utilité des fonctionnalités proposées pour résoudre les problèmes précédents. Enfin, nous testons notre preuve de concept sur des données aléatoires et réelles en prenant en compte les performances et la réactivité, validant ainsi que notre solution répond bien aux problèmes soulevés
The main objective of this thesis is to solve the problem of unintentional data leakage within companies. These leaks can be caused by the use of both Access Control (AC) and Transmission Control (TC) policies. Moreover, using both AC and TC can lead to many problems for the security experts and the administrators that are in charge of the definition and maintenance of such policies. Among these problems, we can underline the genericity problem of existing models, the coherence problem between AC and TC rules and problems such as density, adaptability, interoperability and reactivity. In this thesis, we first define a meta-model to take into account the main AC models that are used within companies. We also propose a coherent and semi-automatic generation of TC policies based on existing AC to tackle the coherence problem. Moreover, several mechanisms have been proposed to tackle complexity, adaptability and interoperability issues. In order to validate the relevance of our solution, we have first conducted a survey among security experts and administrators. This survey has highlighted several information regarding the policies’ size and density, the tiresomeness of having to define them and the interest for several functionalities that can cover the aforementioned problems. Finally, our solution has been tested on stochastically generated and real policies in order to take performances and reactivity under consideration. Results of these tests have validated that our solution covers the underlined problems
APA, Harvard, Vancouver, ISO, and other styles
44

Hachana, Safaà. "Techniques de rôle mining pour la gestion de politiques de sécurité : application à l'administration de la sécurité réseau." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2014. http://www.theses.fr/2014ESMA0017/document.

Full text
Abstract:
Cette thèse est consacrée à une approcheascendante pour l’administration de la sécurité desréseaux informatiques d’un haut niveau d’abstraction.Nous montrons que le modèle Net-RBAC (Network RoleBased Access Control) s'adapte à la spécification despolitiques de contrôle d’accès des réseaux. Nousproposons une approche ascendante et automatiquebaptisée policy mining qui extrait la politique modéliséepar Net-RBAC à partir des règles de sécurité déployéessur un pare-Feu. Notre algorithme basé sur lafactorisation matricielle est capable d’adapter la plupartdes techniques de role mining existantes. Comme lesréseaux des entreprises sont souvent protégés parplusieurs pare-Feu, nous traitons le problèmed’intégration de politiques résultant de l’application depolicy mining sur chaque pare-Feu. Nous vérifions lespropriétés de sécurité reliées à la cohérence dudéploiement de la politique sur plusieurs dispositifs. Enoutre, nous proposons des outils qui assistent unadministrateur dans l’analyse des résultats du role mininget du policy mining. Nous formalisons le problème decomparaison de deux configurations de rôles et prouvonsqu'il est NP-Complet. Nous définissons un algorithme quiprojette les rôles d’une configuration dans une autre ense basant sur des expressions Booléennes. Noussoulignons que la présence de rôles ombragés dans uneconfiguration se manifeste par une augmentation de lacomplexité de la comparaison avec une autreconfiguration et présentons une solution pour détecterdifférentes anomalies d’ombrage. Chaque contribution sebase sur un cadre théorique solide, est illustrée par desexemples réels, et appuyée par des résultatsexpérimentaux
This thesis is devoted to a bottom-Up approachfor the management of network security policies fromhigh abstraction level with low cost and high confidence.We show that the Network Role Based Access Control(Net-RBAC) model is adapted to the specification ofnetwork access control policies. We propose policymining, a bottom-Up approach that extracts from thedeployed rules on a firewall the corresponding policymodeled with Net-RBAC. We devise a generic algorithmbased on matrix factorization, that could adapt most ofthe existing role mining techniques to extract instancesof Net-RBAC. Furthermore, knowing that the large andmedium networks are usually protected by multiplefirewalls, we handle the problem of integration of Net-RBAC policies resulting from policy mining over severalfirewalls. We demonstrate how to verify securityproperties related to the deployment consistency overthe firewalls. Besides, we provide assistance tools foradministrators to analyze role mining and policy miningresults as well. We formally define the problem ofcomparing sets of roles and evidence that it is NPcomplete.We devise an algorithm that projects rolesfrom one set into the other set based on Booleanexpressions. This approach is useful to measure howcomparable the two configurations of roles are, and tointerpret each role. Emphasis on the presence ofshadowed roles in the role configuration will be put as itincreases the time complexity of sets of rolescomparison. We provide a solution to detect differentcases of role shadowing. Each of the abovecontributions is rooted on a sound theoreticalframework, illustrated by real data examples, andsupported by experiments
APA, Harvard, Vancouver, ISO, and other styles
45

Fila-Kordy, Barbara. "Automates pour l'analyse de documents XML compressés, applications à la sécurité d'accès." Orléans, 2008. http://www.theses.fr/2008ORLE2029.

Full text
Abstract:
Le problème d'extraction d'information dans les documents XML est un domaine de recherche important en informatique. Nous proposons deux approches pour l'évaluation de requêtes sur les documents XML, compressés ou non, et/ou assujettis à des politiques du contrôle d'accès. La première est basée sur la logique de Horn: les politiques du contrôle d'accès de même que les requêtes sont modélisées comme des clauses de Horn contraintes, et l'évaluation de requêtes s'appuie sur une technique de résolution adaptée. La deuxième approche que nous présentons vise les documents XML pouvant être présentés sous une forme compressée comme des dags. Cette approche est basée sur sept automates de mots, correspondant aux sept axes de base de XPath. Ils courent de façon top-down sur les dags, et permettent d'évaluer les requêtes sur les documents compressés sans devoir les décompresser. Cette technique d'évaluation d'une requête Q, sur un document compressé t, peut être adaptée de façon à fournir la même réponse que l'évaluation de Q sur l'arbre équivalent à t. La complexité de nos deux approches est linéaire par rapport au nombre d'arêtes du document, et la taille de la requête. Outre ces deux approches, nous avons également présenté une approche basée sur les techniques de réécriture qui permet de résoudre le problème d'inclusion de patterns, sur un fragment purement descendant de XPath ; nous déduisons ainsi une condition nécessaire et suffisante pour ce problème (pour les patterns de ce fragment). Cette vue réécriturale peut être adaptée de façon à fournir une technique d'évaluation pour les requêtes modélisées par ces patterns, sur les documents XML arborescents ou compressés comme des dags.
APA, Harvard, Vancouver, ISO, and other styles
46

Demir, Levent. "Module de confiance pour externalisation de données dans le Cloud." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM083/document.

Full text
Abstract:
L’externalisation des données dans le Cloud a engendré de nouvelles problématiques de sécurité. L’enjeu est de protéger les données des utilisateurs et leur vie privée. En ce sens, deux principes ont été suivis durant cette thèse : le premier est d’avoir une confiance limitée envers l’hébergeur de données (entre autres), le deuxième est d’établir une architecture basée sur un modulede confiance placé en rupture entre le poste client et le Cloud, d’où l’approche "Trust The Module,Not The Cloud" (TTM).Déléguer donc les opérations de sécurité à un module matériel dédié permet alors plusieurs bénéfices : d’abord s’affranchir d’un poste client davantage vulnérable face à des attaques internes ou externes ; ensuite limiter les composants logiciels au strict minimum afin d’avoir un meilleur contrôle du fonctionnement et enfin dédier les opérations cryptographiques à des co-processeurs spécialisés afin d’obtenir des performances élevées. Ainsi, les travaux menés durant cette présente thèse suivent trois axes. Dans un premieraxe nous avons étudié les défis d’un Cloud personnel destiné à protéger les données d’un particulier, et basé sur une carte nano-ordinateur du marché peu coûteuse. L’architecture que nous avons définie repose sur deux piliers : une gestion transparente du chiffrement grâce à l’usage d’un chiffrement par conteneur appelé Full Disk Encryption (FDE), initialement utilisédans un contexte de protection locale (chiffrement du disque d’un ordinateur ou d’un disque dur externe) ; et une gestion transparente de la distribution grâce à l’usage du protocole iSCSI qui permet de déporter le conteneur sur le Cloud. Nous avons montré que ces deux piliers permettent de construire un service sécurisé et fonctionnellement riche grâce à l’ajout progressif de modules"sur étagère" supplémentaires.Dans un deuxième axe, nous nous sommes intéressés au problème de performance lié à l’usage du FDE. Une étude approfondie du mode de chiffrement XTS-AES recommandé pour le FDE, du module noyau Linux dm-crypt et des co-processeurs cryptographiques (ne supportant pas tous le mode XTS-AES), nous ont conduit à proposer différentes optimisations dont l’approche extReq, qui étend les requêtes cryptographiques envoyées aux co-processeurs. Ces travaux nousont ainsi permis de doubler les débits de chiffrement et déchiffrement.Dans un troisième axe, afin de passer à l’échelle, nous avons utilisé un module de sécurité matériel (Hardware Secure Module ou HSM) certifié et plus puissant, dédié à la protection des données et à la gestion des clés. Tout en capitalisant sur l’architecture initiale, l’ajout du module HSM permet alors de fournir un service de protection adapté aux besoins d’une entreprise par exemple
Data outsourcing to the Cloud has led to new security threats. The main concerns of this thesis are to protect the user data and privacy. In particular, it follows two principles : to decrease the necessary amount of trust towards the Cloud, and to design an architecture based on a trusted module between the Cloud and the clients. Both principles are derived from a new design approach : "Trust The Module, Not The Cloud ".Gathering all the cryptographic operations in a dedicated module allows several advantages : a liberation from internal and external attacks on client side ; the limitation of software to the essential needs offers a better control of the system ; using co-processors for cryptographic operations leads to higher performance.The thesis work is structured into three main sections. In the first section , we confront challenges of a personal Cloud, designed to protect the users’ data and based on a common and cheap single-board computer. The architecture relies on two main foundations : a transparent encryption scheme based on Full Disk Encryption (FDE), initially used for local encryption (e.g., hard disks), and a transparent distribution method that works through iSCSI network protocol in order to outsource containers in Cloud.In the second section we deal with the performance issue related to FDE. By analysing the XTS-AES mode of encryption, the Linux kernel module dm-crypt and the cryptographic co-processors, we introduce a new approach called extReq which extends the cryptographic requests sent to the co-processors. This optimisation has doubled the encryption and decryption throughput.In the final third section we establish a Cloud for enterprises based on a more powerful and certified Hardware Security Module (HSM) which is dedicated to data encryption and keys protection. Based on the TTM architecture, we added "on-the-shelf" features to provide a solution for enterprise
APA, Harvard, Vancouver, ISO, and other styles
47

Gorand, Olivier. "Création d'une base de données informatique de toxicologie industrielle dans la centrale nucléaire du Blayais." Bordeaux 2, 1998. http://www.theses.fr/1998BOR23069.

Full text
APA, Harvard, Vancouver, ISO, and other styles
48

Gharout, Saïd. "Sécurité des communications dans les groupes dynamiques." Compiègne, 2009. http://www.theses.fr/2009COMP1841.

Full text
Abstract:
Nous assistons ces dernières années à l'émergence d'applications destinées à un groupe d'utilisateurs dans divers domaines. Les avantages de l'utilisation de IP multicast dans les communications de groupe, tels que la bande passante, la simplicité et l'efficacité sont bénéfiques aux nouveaux services combinant voix, vidéo et texte dans l'Internet. La gestion de clés de groupe, qui est une brique de base dans la sécurité des communications de groupe, a reçu une attention particulière de la part des milieux académique et industriel. Ceci est dû à l'importance économique des applications orientées-groupe telles que la vidéo à la demande, la vidéo-conférence, les travaux collaboratifs. La gestion de clés concerne la distribution et la mise à jour de clés du groupe à chaque fois qu'il y a un changement dans la composition du groupe. La nature dynamique des applications de groupe due aux adhésions et départs ouverts à tous les utilisateurs, en plus de la mobilité des membres, complique la conception de protocoles de gestion de clés passables à l'échelle. Dans cette thèse, nous nous intéressons au problème de sécurité dans les communications dans les groupes dynamiques. Nous faisons une présentation détaillée du problème en montrant les exigences et défis. Nous présentons les solutions existantes dans la littérature. Ensuite, nous présentons nos contributions originales en montrant leur avantage par rapport à ce qui existe déjà dans la littérature
Group-oriented services are among the emerging technologies of the last few years. The advantages of using IP multicast in group communications, such as saving bandwidth, simplicity and efficiency are typically interesting for new services combining voice, video and text over Internet. Group key management, which is an important building block in securing group communications, has received a particular attention in both academic and industry research communities. This is due to the economical relevance of group-based applications, such as video on demand, videoconferencing, collaborative work. The key management concerns the distribution and updates of the key material each time a member joins or leaves the group. The dynamic aspect of group applications due to free membership joins and leaves in addition to members' mobility makes difficult the design of efficient and scalable key management protocols. In this thesis we deal with the security issue of communication in dynamic groups. We present a detailed analysis of the problem while highlighting special features and issues inherent to the group communication nature. Then, we review existing solutions in the literature and analyze their advantages and shortcomings. Finally, we provide our own original proposals, depicting their advantages over the existing solutions
APA, Harvard, Vancouver, ISO, and other styles
49

Noura, Mohamad. "Solutions cryptographiques efficaces et sécurisées pour les données médicales." Thesis, Bourgogne Franche-Comté, 2019. http://www.theses.fr/2019UBFCD037.

Full text
Abstract:
Dans cette thèse, des schémas cryptographiques efficaces et robustes ont été proposés pour surmonter les problèmes actuels de sécurité et de confidentialité des systèmes et applications médicaux récents. La principale contribution de cette thèse est d'atteindre un haut niveau de sécurité avec un minimum de surcoût de calcul contrairement à de nombreuses autres solutions existantes. Par conséquent, deux schémas de chiffrement et une approche de disponibilité des données ont été proposés pour les données médicales afin de garantir les services de sécurité suivants : confidentialité, intégrité et disponibilité des données ainsi que l'authentification de la source. Les solutions cryptographiques proposées sont basées sur les structures de chiffrement cryptographiques dynamiques pour assurer une meilleure résistance aux attaques existantes et modernes. De plus, ces solutions ont été conçues pour être légères et ne nécessitent qu'un petit nombre d'itérations. La fonction de chiffrement proposée n'est répétée qu'une seule fois et utilise une permutation de bloc dépendante de la clé.Elle satisfait également les propriétés de confusion et de diffusion requises, assurant ainsi les propriétés cryptographiques souhaitables. Les résultats de simulation et d'expérimentation ont démontré l'efficacité et la robustesse des solutions cryptographiques proposées. De plus, l'utilisation des schémas cryptographiques proposés ouvre la porte à des algorithmes cryptographiques dynamiques qui peuvent conduire à un gain de performance et de sécurité significatif par rapport à l'état de l'art
In this thesis, effective and robust cryptographic schemes were proposed to overcome the current security and privacy issues of recent medical systems and applications. The main contribution of this thesis is to reach a high level of security with minimum possible overhead contrary to many other existing solutions. Therefore, two cipher schemes and a data availability approach were proposed for medical data to ensure the following security services: data confidentiality, integrity and availability as well as source authentication. The proposed cryptographic solutions are based on the dynamic cryptographic cipher structures to ensure a better resistance against existing and modern attacks. Moreover, these solutions were designed to be lightweight and they require a small number of iterations. The proposed ciphers round function is iterated only once and uses a key dependent block permutation. It also satisfies the required confusion and diffusion properties, consequently ensuring the desirable cryptographic properties. Simulation and experimental results demonstrated the efficiency and the robustness of the proposed cryptographic solutions. Furthermore, employing the proposed cryptographic schemes open the door to a dynamic cryptographic algorithms that can lead to a significant performance and security gain compared with other recent related state-of-art
APA, Harvard, Vancouver, ISO, and other styles
50

Hiscock, Thomas. "Microcontrôleur à flux chiffré d'instructions et de données." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLV074/document.

Full text
Abstract:
Un nombre important et en constante augmentation de systèmes numériques nous entoure. Tablettes, smartphones et objets connectés ne sont que quelques exemples apparents de ces technologies omniprésentes, dont la majeure partie est enfouie, invisible à l'utilisateur. Les microprocesseurs, au cœur de ces systèmes, sont soumis à de fortes contraintes en ressources, sûreté de fonctionnement et se doivent, plus que jamais, de proposer une sécurité renforcée. La tâche est d'autant plus complexe qu'un tel système, par sa proximité avec l'utilisateur, offre une large surface d'attaque.Cette thèse, se concentre sur une propriété essentielle attendue pour un tel système, la confidentialité, le maintien du secret du programme et des données qu'il manipule. En effet, l'analyse du programme, des instructions qui le compose, est une étape essentielle dans la conception d'une attaque. D'autre part, un programme est amené à manipuler des données sensibles (clés cryptographiques, mots de passes, ...), qui doivent rester secrètes pour ne pas compromettre la sécurité du système.Cette thèse, se concentre sur une propriété essentielle attendue pour un tel système, la confidentialité, le maintien du secret du programme et des données qu'il manipule. Une première contribution de ces travaux est une méthode de chiffrement d'un code, basée sur le graphe de flot de contrôle, rendant possible l'utilisation d'algorithmes de chiffrement par flots, légers et efficaces. Protéger les accès mémoires aux données d'un programme s'avère plus complexe. Dans cette optique, nous proposons l'utilisation d'un chiffrement homomorphe pour chiffrer les données stockées en mémoire et les maintenir sous forme chiffrée lors de l'exécution des instructions. Enfin, nous présenterons l'intégration de ces propositions dans une architecture de processeur et les résultats d'évaluation sur logique programmable (FPGA) avec plusieurs programmes d'exemples
Embedded processors are today ubiquitous, dozen of them compose and orchestrate every technology surrounding us, from tablets to smartphones and a large amount of invisible ones. At the core of these systems, processors gather data, process them and interact with the outside world. As such, they are excepted to meet very strict safety and security requirements. From a security perspective, the task is even more difficult considering the user has a physical access to the device, allowing a wide range of specifically tailored attacks.Confidentiality, in terms of both software code and data is one of the fundamental properties expected for such systems. The first contribution of this work is a software encryption method based on the control flow graph of the program. This enables the use of stream ciphers to provide lightweight and efficient encryption, suitable for constrained processors. The second contribution is a data encryption mechanism based on homomorphic encryption. With this scheme, sensible data remain encrypted not only in memory, but also during computations. Then, the integration and evaluation of these solutions on Field Programmable Gate Array (FPGA) with some example programs will be discussed
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography