Tesi sul tema "Systèmes informatiques – Mesures de sûreté – Évaluation"

Segui questo link per vedere altri tipi di pubblicazioni sul tema: Systèmes informatiques – Mesures de sûreté – Évaluation.

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-50 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Systèmes informatiques – Mesures de sûreté – Évaluation".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Rabah, Mourad. "Évaluation de la sûreté de fonctionnement de systèmes multiprocesseurs à usage multiple". Toulouse, INPT, 2000. http://www.theses.fr/2000INPT021H.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La généralisation des systèmes multiprocesseurs non spécialisés, ayant plusieurs niveaux d'accomplissement du service et destinés à des applications variées, a donné naissance à ce que nous appelons des systèmes multiprocesseurs à usage multiple. Ce mémoire est consacré à la modélisation de tels systèmes et l'évaluation de leurs mesures de sûreté de fonctionnement et de performabilité. Nous proposons une méthode générale permettant d'évaluer ces mesures, de façon générique, pour toute une gamme de systèmes à usage multiple. Cette méthode est basée sur une idée originale : séparer explicitement les aspects inhérents à l'architecture du système et les aspects relatifs au service tel qu'il est perçu par les applications des utilisateurs. Le modèle global construit avec cette méthode est ainsi composé de deux parties : a) un modèle architectural décrivant le comportement de l'architecture support, incluant ses composants matériels et logiciels et leurs interactions et b) un modèle du service exprimant les besoins en service des applications utilisant cette architecture. La méthode est structurée en quatre étapes et la construction des deux modèles est régie par un ensemble de règles et de recommandations. Cette méthode est appliquée à la modélisation d'un système multiprocesseur à usage multiple réel mettant en oeuvre une mémoire partagée distribuée. Cette architecture sert de référence pour la conception d'architectures plus évoluées. Nous montrons comment réutiliser le modèle et les résultats obtenus pour l'architecture de référence afin d'évaluer les mesures de ces architectures évoluées. Nous présentons enfin l'ensemble des résultats et montrons comment ils peuvent servir à la fois au constructeur et aux utilisateurs de tels systèmes.
2

Vache, Géraldine. "Evaluation quantitative de la sécurité informatique : approche par les vulnérabilités". Toulouse, INSA, 2009. http://eprint.insa-toulouse.fr/archive/00000356/.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse présente une nouvelle approche pour l’évaluation quantitative de la sécurité des systèmes informatiques. L’objectif de ces travaux est de définir et d’évaluer plusieurs mesures quantitatives. Ces mesures sont des mesures probabilistes visant à quantifier les influences de l’environnement sur un système informatique en présence de vulnérabilités. Dans un premier temps, nous avons identifié les trois facteurs ayant une influence importante sur l’état du système : 1) le cycle de vie de la vulnérabilité, 2) le comportement de la population des attaquants et 3) le comportement de l’administrateur du système. Nous avons étudié ces trois facteurs et leurs interdépendances et distingué ainsi deux scénarios principaux, basés sur la nature de la découverte de la vulnérabilité, malveillante ou non. Cette étape nous a permis d'identifier les états possibles du système en considérant le processus d’exploitation de la vulnérabilité et de définir quatre mesures relatives à l'état du système qui peut être vulnérable, exposé, compromis, corrigé ou sûr. Afin d'évaluer ces mesures, nous avons modélisé ce processus de compromission. Par la suite, nous avons caractérisé de manière quantitative les événements du cycle de vie de la vulnérabilité à partir de données réelles issues d'une base de données de vulnérabilités pour paramétrer nos modèles de manière réaliste. La simulation de ces modèles a permis d’obtenir les valeurs des mesures définies. Enfin, nous avons étudié la manière d’étendre le modèle à plusieurs vulnérabilités. Ainsi, cette approche a permis l’évaluation de mesures quantifiant les influences de différents facteurs sur la sécurité du système
This thesis presents a new approach for quantitative security evaluation for computer systems. The main objective of this work is to define and evaluate several quantitative measures. These measures are probabilistic and aim at quantifying the environment influence on the computer system security considering vulnerabilities. Initially, we identified the three factors that have a high influence on system state: 1) the vulnerability life cycle, 2) the attacker behaviour and 3) the administrator behaviour. We studied these three factors and their interdependencies and distinguished two main scenarios based on nature of vulnerability discovery, i. E. Malicious or non malicious. This step allowed us to identify the different states of the system considering the vulnerability exploitation process and to define four measures relating to the states of the system: vulnerable, exposed, compromised, patched and secure. To evaluate these measures, we modelled the process of system compromising by vulnerability exploitation. Afterwards, we characterized the vulnerability life cycle events quantitatively, using real data from a vulnerability database, in order to assign realistic values to the parameters of the models. The simulation of these models enabled to obtain the values of the four measures we had defined. Finally, we studied how to extend the modelling to consider several vulnerabilities. So, this approach allows the evaluation of measures quantifying the influences of several factors on the system security
3

Gadelrab, Mohammed El-Sayed Gadelrab. "Évaluation des systèmes de détection d'intrusion". Toulouse 3, 2008. http://thesesups.ups-tlse.fr/435/.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse vise à contribuer à l'amélioration des méthodes d'évaluation des systèmes de détection d'intrusions (en anglais, Intrusion Detection Systems ou IDS). Ce travail est motivé par deux problèmes actuels : tout d'abord, l'augmentation du nombre et de la complexité des attaques que l'on observe aujourd'hui nécessite de faire évoluer les IDS pour leur permettre de les détecter. Deuxièmement, les IDS actuels génèrent de trop fréquentes fausses alertes, ce qui les rend inefficaces, voir inutiles. Des moyens de test et d'évaluation sont donc nécessaires pour déterminer la qualité de détection des IDS et de leurs algorithmes de détection. Malheureusement, aucune méthode d'évaluation satisfaisante n'existe de nos jours. En effet, les méthodes employées jusqu'ici présentent trois défauts majeurs : 1) une absence de méthodologie rigoureuse d'évaluation, 2) l'utilisation de données de test non représentatives, et 3) l'utilisation de métriques incorrectes. Partant de ce constat, nous proposons une démarche rigoureuse couvrant l'ensemble des étapes de l'évaluation des IDS. Premièrement, nous proposons une méthodologie d'évaluation qui permet d'organiser l'ensemble du processus d'évaluation. Deuxièmement, afin d'obtenir des données de test représentatives, nous avons défini une classification des types d'attaques en fonction des moyens de détection utilisés par les IDS. Cela permet non seulement de choisir les attaques à inclure dans les données de test, mais aussi d'analyser les résultats de l'évaluation selon les types d'attaques plutôt que pour chaque attaque individuellement. Troisièmement, nous avons analysé un grand nombre d'attaques réelles et de programmes malveillants (communément appelés maliciels) connus, tels que les virus et les vers. Grâce à cette analyse, nous avons pu construire un modèle générique de processus d'attaques qui met en évidence la dynamique des activités d'attaque. Ce modèle permet de générer un nombre important de scénarios d'attaques, qui soient le plus possible représentatifs et variés. Pour montrer la faisabilité de notre approche, nous avons appliqué expérimentalement les étapes de notre démarche à deux systèmes différents de détection d'intrusions. .
This thesis contributes to the improvement of intrusion detection system (IDS) evaluation. The work is motivated by two problems. First, the observed increase in the number and the complexity of attacks requires that IDSes evolve to stay capable of detecting new attack variations efficiently. Second, the large number of false alarms that are generated by current IDSes renders them ineffective or even useless. Test and evaluation mechanisms are necessary to determine the quality of detection of IDSes or of their detection algorithms. Unfortunately, there is currently no IDS evaluation method that would be unbiased and scientifically rigorous. During our study, we have noticed that current IDS evaluations suffer from three major weaknesses: 1) the lack of a rigorous methodology; 2) the use of non-representative test datasets; and 3) the use of incorrect metrics. From this perspective, we have introduced a rigorous approach covering most aspects of IDS evaluation. In the first place, we propose an evaluation methodology that allows carrying out the evaluation process in a systematic way. Secondly, in order to create representative test datasets, we have characterized attacks by classifying attack activities with respect to IDS-relevant manifestations or features. This allows not only to select attacks that will be included in the evaluation dataset but also to analyze the evaluation result with respect to attack classes rather than individual attack instances. Third, we have analyzed a large number of attack incidents and malware samples, such as viruses and worms. Thanks to this analysis, we built a model for the attack process that exhibits the dynamics of attack activities. This model allows us to generate a large number of realistic and diverse attack scenarios. The proposed methods have been experimented on two very different IDSes to show how general is our approach. The results show that the proposed approach allows overcoming the two main weaknesses of existing evaluations, i. E. , the lack of a rigorous methodology and the use of non-representative datasets. .
4

Martinello, Magnos. "Modélisation et évaluation de la disponibilité de services mis en oeuvre sur le web : une approche pragmatique". Toulouse, INPT, 2005. https://hal.science/tel-04595476.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse porte sur le développement d'une approche de modélisation pragmatique permettant aux concepteurs d'applications et systèmes mis en oeuvre sur le web d'évaluer la disponibilité du service fourni aux utilisateurs. Plusieurs sources d'indisponibilité du service sont prises en compte, en particulier i) les défaillances matérielles ou logicielles affectant les serveurs et ii) des dégradations de performance (surcharge des serveurs, temps de réponse trop long, etc. ). Une approche hiérarchique multi-niveau basée sur une modélisation de type performabilité est proposée, combinant des chaînes de Markov et des modèles de files d'attente. Les principaux concepts et la faisabilité de cette approche sont illustrés à travers l'exemple d'une agence de voyage. Plusieurs modèles analytiques et études de sensibilité sont présentés en considérant différentes hypothèses concernant l'architecture, les stratégies de recouvrement, les fautes, les profils d'utilisateurs, et les caractéristiques du trafic
This thesis presents a pragmatic modeling approach allowing designers of web-based applications and systems to evaluate the service availability provided to the users. Multiple sources of service unavailability are taken into account, in particular i) hardware and software failures affecting the servers, and ii) performance degradation (overload of servers, very long response time, etc. ). An hierarchical multi-level approach is proposed based on performability modeling, combining Markov chains and queueing models. The main concepts and the feasibility of this approach are illustrated using a web-based travel agency. Various analytical models and sensitivity studies are presented considering different assumptions with respect to the architectures, recovery strategies, faults, users profile and traffic characteristics
5

Kang, Eun-Young. "Abstractions booléennes pour la vérification des systèmes temps-réel". Thesis, Nancy 1, 2007. http://www.theses.fr/2007NAN10089/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse présente un schéma formel et efficace pour la vérification de systèmes temps-réel. Ce schéma repose sur la combinaison par abstraction de techniques déductives et de model checking, et cette combinaison permet de contourner les limites de chacune de ces techniques. La méthode utilise le raffinement itératif abstrait (IAR) pour le calcul d'abstractions finies. Etant donné un système de transitions et un ensemble fini de prédicats, la méthode détermine une abstraction booléenne dont les états correspondent à des ensembles de prédicats. La correction de l'abstraction par rapport au système d'origine est garantie en établissant un ensemble de conditions de vérification, issues de la procédure IAR. Ces conditions sont à démontrer à l'aide d'un prouveur de théorèmes. Les propriétés de sûreté et de vivacité sont ensuite vérifiées par rapport au modèle abstrait. La procédure IAR termine lorsque toutes les conditions sont vérifiées. Dans le cas contraire, une analyse plus fine détermine si le modèle abstrait doit être affiné en considérant davantage de prédicats. Nous identifions une classe de diagrammes de prédicats appelés PDT (predicate diagram for timed system) qui décrivent l'abstraction et qui peuvent être utilisés pour la vérification de systèmes temporisés et paramétrés
This thesis provides an efficient formal scheme for the tool-supported real-time system verification by combination of abstraction-based deductive and model checking techniques in order to handle the limitations of the applied verification techniques. This method is based on IAR (Iterative Abstract Refinement) to compute finite state abstractions. Given a transition system and a finite set of predicates, this method determines a finite abstraction, where each state of the abstract state space is a true assignment to the abstraction predicates. A theorem prover can be used to verify that the finite abstract model is a correct abstraction of a given system by checking conformance between an abstract and a concrete model by establishing/proving that a set of verification conditions are obtained during the IAR procedure. Then the safety/liveness properties are checked over the abstract model. If the verification condition holds successfully, IAR terminates its procedure. Otherwise more analysis is applied to identify if the abstract model needs to be more precise by adding extra predicates. As abstraction form, we adopt a class of predicate diagrams and define a variant of predicate diagram PDT (Predicate Diagram for Timed systems) that can be used to verify real-time and parameterized systems
6

Varet, Antoine. "Conception, mise en oeuvre et évaluation d'un routeur embarqué pour l'avionique de nouvelle génération". Phd thesis, INSA de Toulouse, 2013. http://tel.archives-ouvertes.fr/tel-00932283.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le contexte aéronautique a depuis plusieurs années mis en évidence le besoin croissant de technologies de sécurité permettant d'éviter des utilisations malveillantes des matériels ou services installés à bord des avions. La plupart des approches de sécurisation 'avion' se concentre sur des méthodes et techniques permettant de sécuriser les échanges au sein de l'avion. Elles sont cependant inadaptées à la sécurisation dans les cas d'interconnexion des réseaux avioniques avec le reste des réseaux de communication (réseau Internet par exemple). Le problème abordé dans ce travail de thèse vise donc à proposer une architecture de sécurité et de sûreté pour l'ensemble des communications aéronautiques et permettant une interconnexion sécurisée entre le monde 'avion' et le monde extérieur, en tenant compte de l'ensemble des critères de sécurité qui caractérisent les divers environnements traversés et considère dès le départ les divers principes de standardisation associés afin de garantir la pérennité scientifique et industrielle. La solution architecturale proposée dans ce travail de thèse repose principalement sur un composant central de routage, de filtrage et de sécurisation des flux de données aéronautiques. Le travail de conception et de développement de ce composant appelé Routeur Sécurisé de Nouvelle Génération (routeur SNG) a permis une validation expérimentale sur un système reproduisant un système embarqué.
7

Dacier, Marc. "Vers une évaluation quantitative de la sécurité informatique". Phd thesis, Institut National Polytechnique de Toulouse - INPT, 1994. http://tel.archives-ouvertes.fr/tel-00012022.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les systèmes d'information actuels doivent, à la fois, protéger les informations qui leur sont confiées et se plier à des environnements opérationnels variables. Cesdeux objectifs, sécurité et flexibilité, peuvent être antinomiques. Ce conflit conduit généralement à l'utilisation de systèmes offrant un niveau de sécurité acceptable, mais non maximal. Définir un tel niveau présuppose l'existence de méthodes d'évaluation de la sécurité. Cette problématique fait l'objet de cette thèse. L'auteur y passe en revue les différents critères d'évaluation existant ainsi que les méthodes dites d'analyse de risques. Ceci introduit la nécessité de définir un cadre formel capable de modéliser tout système et d'évaluer dans quelle mesure il satisfait à des objectifs de protection précis.
Les modèles formels développés pour l'étude de la sécurité informatique, n'offrent pas le cadre mathématique désiré. L'auteur montre qu'ils adoptent une hypothèse de pire cas sur le comportement des utilisateurs, incompatible avec une modélisation réaliste. Après avoir montré, sur la base du modèle take-grant, comment s'affranchir de cette hypothèse, l'auteur définit un nouveau modèle, le graphe des privilèges, plus efficace pour gérer certains problèmes de protection. Il illustre son utilisation dans le cadre des systèmes Unix.
Enfin, l'auteur propose d'évaluer la sécurité en calculant le temps et l'effort nécessaires à un intrus pour violer les objectifs de protection. Il montre comment définir un cadre mathématique apte à représenter le système pour obtenir de telles mesures. Pour cela, le graphe des privilèges est transformé en un réseau de Petri stochastique et son graphe des marquages est dérivé. Les mesures sont calculées sur cette dernière structure et leurs propriétés mathématiques sont démontrées. L'auteur illustre l'utilité du modèle par quelques résultats issus d'un prototype développé afin d'étudier la sécurité opérationnelle d'un système Unix.
8

Duchene, Julien. "Développement et évaluation d'obfuscations de protocoles basées sur la spécification". Electronic Thesis or Diss., Toulouse, INSA, 2018. http://www.theses.fr/2018ISAT0054.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Il existe de plus en plus de protocoles de communications différents. La spécification de beaucoup d’entre eux est disponible. Cependant, quand il s’agit de moyens de communication propriétaires, cette spécification est gardée secrète : un attaquant qui aurait accès à cette spécification pourrait compromettre un système utilisant ce protocole. Même s’il n’a pas accès à cette spécification, l’attaquant peut l’obtenir par rétro-conception. Ainsi, il est intéressant de créer des protocoles qui sont difficiles à rétro-concevoir. Dans cette thèse, nous proposons une nouvelle approche spécifiquement développée pour rendre complexe la rétro-conception de protocole. Nous appliquons pour cela des obfuscations au format du message et ceci de façon automatique à partir de la spécification du protocole. Pour cela, nous avons dans un premier temps étudié plus de 30 contributions différentes concernant des outils de rétro-conception de protocole et en avons tiré des conclusions suivantes : 1) les outils de rétro-conception de protocole pratiquent l’inférence de modèles réguliers ; 2) ils supposent que le parsing d’un message s’effectue de gauche à droite ; 3) ils délimitent le message en champs d’après des délimiteurs bien connus ou via des algorithmes ad-hoc ; 4) ils regroupent les messages d’après des mesures de similarité sur des patterns. Ainsi, pour créer un protocole difficile à rétro-concevoir, une solution est de s’assurer que le protocole ne respecte pas ces conditions. Dans un second temps, nous avons donc proposé un modèle de format de messages qui permet l’application d’obfuscations. Nous avons défini des obfuscations atomiques qui peuvent être composées. Chacune de ces obfuscations cible une ou plusieurs des hypothèses des outils de rétro-conception. La composition des obfuscations assure l’efficacité de notre solution et rend la rétro-conception de protocole complexe. Ce modèle est utilisé pour générer automatiquement le code du parseur, du sérialiseur et des accesseurs. Cette solution est implémentée dans un prototype nommé ProtoObf grâce auquel nous avons pu évalué les performances des obfuscations. Les résultats montrent une nette augmentation de la complexité de la rétro-conception avec le nombre de compositions d’obfuscation tandis que les coûts induits (particulièrement la taille du buffer sérialisé) restent bas
There are more and more protocols. Many of them have their specification available for interoperability purpose for instance. However, when it comes to intellectual property, this specification is kept secret. Attackers might use a wrongly implemented protocol to compromise a system, if he has access to the specification, it’s attack would be far more efficient. Even if he does not have access to the specification, he can reverse-engine it. Thus, create protocols hard to reverse is interesting. In this thesis, we develop a novel approach of protocol protections to make protocol reverse engineering more complex. We apply some obfuscations on protocol message format, furthermore, we do it automatically from the original protocol specification. Firstly, we have analyzed more than 30 different contributions of protocol reverse engineering tools. We retrieved the following elements : 1) Protocol reverse engineering tools try to infer regular models ; 2) They suppose that the parsing is done from left to right ; 3) They delimit fields based on well-known delimiters or with ad-hoc techniques ; 4) They cluster messages based on pattern similarity measures. Thus, to make protocol reverse harder, one can create protocols which does not respect theses statements. Secondly, we have proposed a model of message format on which obfuscations can be applied. With this model, we also provide some atomic obfuscations which can be composed. Each obfuscation target one or more protocol reverse engineering hypothesis. Obfuscation composition ensures effectiveness of our solution and makes protocol reverse-engineering more complex. This model is used to automatically generate code for parser, serializer and accessors. This solution is implemented into a framework we called ProtoObf. ProtoObf is used to evaluate obfuscations performance. Results show an increase of protocol complexity with the number of obfuscation composition while costs (particularly the serialized buffer size) stay low
9

Bennaceur, Mokhtar Walid. "Formal models for safety analysis of a Data Center system". Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLV078/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Un Data Center (DC) est un bâtiment dont le but est d'héberger des équipements informatiques pour fournir différents services Internet. Pour assurer un fonctionnement constant de ces équipements, le système électrique fournit de l'énergie, et pour les maintenir à une température constante, un système de refroidissement est nécessaire. Chacun de ces besoins doit être assuré en permanence, car la conséquence de la panne de l'un d'eux entraîne une indisponibilité de l'ensemble du système du DC, ce qui peut être fatal pour une entreprise.A notre connaissance, il n'existe pas de travaux d'étude sur l'analyse de sûreté de fonctionnement et de performance, prenant en compte l'ensemble du système du DC avec les différentes interactions entre ses sous-systèmes. Les études d'analyse existantes sont partielles et se concentrent sur un seul sous-système, parfois deux. L'objectif principal de cette thèse est de contribuer à l'analyse de sûreté de fonctionnement d'un Data Center. Pour cela, nous étudions, dans un premier temps, chaque sous-système (électrique, thermique et réseau) séparément, afin d'en définir ses caractéristiques. Chaque sous-système du DC est un système de production qui transforment les alimentations d'entrée (énergie pour le système électrique, flux d'air pour le système thermique, et paquets pour le réseau) en sorties, qui peuvent être des services Internet. Actuellement, les méthodes d'analyse de sûreté de fonctionnement existantes pour ce type de systèmes sont inadéquates, car l'analyse de sûreté doit tenir compte non seulement de l'état interne de chaque composant du système, mais également des différents flux de production qui circulent entre ces composants. Dans cette thèse, nous considérons une nouvelle technique de modélisation appelée Arbres de Production (AP) qui permet de modéliser la relation entre les composants d'un système avec une attention particulière aux flux circulants entre ces composants.La technique de modélisation en AP permet de traiter un seul type de flux à la fois. Son application sur le sous-système électrique est donc appropriée, car il n'y a qu'un seul type de flux (le courant électrique). Toutefois, lorsqu'il existe des dépendances entre les sous-systèmes, comme c'est le cas pour les sous-systèmes thermiques et les sous-systèmes de réseaux, différents types de flux doivent être pris en compte, ce qui rend l'application de la technique des APs inadéquate. Par conséquent, nous étendons cette technique pour traiter les dépendances entre les différents types de flux qui circulent dans le DC. En conséquence, il est facile d'évaluer les différents indicateurs de sûreté de fonctionnement du système global du DC, en tenant compte des interactions entre ses sous-systèmes. De plus, nous faisons quelques statistiques de performance. Nous validons les résultats de notre approche en les comparant à ceux obtenus par un outil de simulation que nous avons implémenté et qui est basé sur la théorie des files d'attente.Jusqu'à présent, les modèles d'arbres de production n'ont pas d'outils de résolution. C'est pourquoi nous proposons une méthode de résolution basée sur la Distribution de Probabilité de Capacité (Probability Distribution of Capacity - PDC) des flux circulants dans le système du DC. Nous implémentons également le modèle d'AP en utilisant le langage de modélisation AltaRica 3.0, et nous utilisons son simulateur stochastique dédié pour estimer les indices de fiabilité du système. Ceci est très important pour comparer et valider les résultats obtenus avec notre méthode d'évaluation. En parallèle, nous développons un outil qui implémente l'algorithme de résolution des APs avec une interface graphique basée qui permet de créer, éditer et analyser des modèles d'APs. L'outil permet également d'afficher les résultats et génère un code AltaRica, qui peut être analysé ultérieurement à l'aide du simulateur stochastique de l'outil AltaRica 3.0
A Data Center (DC) is a building whose purpose is to host IT devices to provide different internet services. To ensure constant operation of these devices, energy is provided by the electrical system, and to keep them at a constant temperature, a cooling system is necessary. Each of these needs must be ensured continuously, because the consequence of breakdown of one of them leads to an unavailability of the whole DC system, and this can be fatal for a company.In our Knowledge, there exists no safety and performance studies’, taking into account the whole DC system with the different interactions between its sub-systems. The existing analysis studies are partial and focus only on one sub-system, sometimes two. The main objective of this thesis is to contribute to the safety analysis of a DC system. To achieve this purpose, we study, first, each DC sub-system (electrical, thermal and network) separately, in order to define their characteristics. Each DC sub-system is a production system and consists of combinations of components that transform entrance supplies (energy for the electrical system, air flow for the thermal one, and packets for the network one) into exits, which can be internet services. Currently the existing safety analysis methods for these kinds of systems are inadequate, because the safety analysis must take into account not only the internal state of each component, but also the different production flows circulating between components. In this thesis, we consider a new modeling methodology called Production Trees (PT) which allows modeling the relationship between the components of a system with a particular attention to the flows circulating between these components.The PT modeling technique allows dealing with one kind of flow at once. Thus its application on the electrical sub-system is suitable, because there is only one kind of flows (the electric current). However, when there are dependencies between sub-systems, as in thermal and network sub-systems, different kinds of flows need to be taken into account, making the application of the PT modeling technique inadequate. Therefore, we extend this technique to deal with dependencies between the different kinds of flows in the DC. Accordingly it is easy to assess the different safety indicators of the global DC system, taking into account the interactions between its sub-systems. Moreover we make some performance statistics. We validate the results of our approach by comparing them to those obtained by a simulation tool that we have implemented based on Queuing Network theory.So far, Production Trees models are not tool supported. Therefore we propose a solution method based on the Probability Distribution of Capacity (PDC) of flows circulating in the DC system. We implement also the PT model using the AltaRica 3.0 modeling language, and use its dedicated stochastic simulator to estimate the reliability indices of the system. This is very important to compare and validate the obtained results with our assessment method. In parallel, we develop a tool which implements the PT solution algorithm with an interactive graphical interface, which allows creating, editing and analyzing PT models. The tool allows also displaying the results, and generates an AltaRica code, which can be subsequently analyzed using the stochastic simulator of AltaRica 3.0 tool
10

Liu, Yi. "Security Assessment Against Side-Channel Attacks : Insights from an Information-Theoretic Perspective". Electronic Thesis or Diss., Institut polytechnique de Paris, 2023. http://www.theses.fr/2023IPPAT033.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'utilisation répandue des dispositifs cryp-tographiques met en évidence le besoin de leur fonctionnement sécurisé sur des plateformes physiques. Des fuites d'informations involontaires, telles que la durée d'exécution, la puissance, et les émissions électromagnétiques, peuvent permettre aux attaquants de déduire les clés secrètes utilisées via des attaques par canaux cachés (SCAs). L'importance des SCAs a intensifie la recherche sur la sécurité des dispositifs cryptographiques, avec l'émergence de mesures théoriques de l'information comme outils d'évaluation efficaces. Dans ce contexte, les objectifs centraux de cette thèse sont de quantifier les fuites par canaux cachés , évaluer la sécurité des dispositifs cryptographiques face aux SCAs (à la fois non protégés et masqués), et de trouver une méthode pour élaborer des codes de masquage plus efficaces. Pour la construction du code de masquage, nous trouvons des bornes par programmation linéaire sur le nombre de contact des codes q-aires. Nous montrons également que le code est d'autant plus performant que le polynôme enumérateur des poids du code dual est minimal pour l'ordre lexicographique. Concernant l'évaluation des fuites par canaux cachés, nous introduisons une nouvelle métrique d'information, appelée alpha-information conditionnelle de Sib-son. Elle peut exprimer par une formule explicite propice aux évaluations numériques et vérifie plusieurs propriétés utiles. En utilisant cette mesure, nous examinons les fuites par canaux cachés des dispositifs non protégés. De plus, nous utilisons l'information mutuelle de Fano pour évaluer les fuites par canaux cachés des implémentations masquées basées sur un code sous un modèle de sondage. Enfin, pour l'évaluation de la sécurité des implémentations masquées, nous utilisons l'alpha-information pour évaluer les implémentations de masquage arithmétique et booléen. Nous définissons des limites inférieures universelles sur le nombre de requêtes nécessaires pour atteindre un taux de succès donné
In today's world, the widespread use of cryptographic devices highlights the need for their secure operation. Unintended leakages, like time, power, and electromagnetic emissions, can allow attackers to deduce secret keys via side-channel attacks (SCAs). Evaluating the security of cryptographic devices against SCAs is important for both the industrial and academic sectors, and information-theoretic metrics turn out to be effective tools. “Masking” stands out as a key countermeasure, with ongoing discussions on its optimization and the security of its implementations. In light of this context, the central aims of this thesis are to quantify side-channel leakage, appraise the security of cryptographic devices against SCAs (both unprotected and masked), and to explore methodologies for formulating more potent masking codes. For masking code construction, we establish linear programming bounds for the kissing number of q-ary linear codes, guided by recent findings on optimized code-based masking performance related to the dual code's kissing number. In addition, we demonstrate the connection between code-based masking efficacy and the whole weight enumeration of the dual of the masking code. The lexicographical order based on weight distribution prefixes is proposed for selecting ideal masking codes. Regarding side-channel leakage evaluation, we introduce a novel information metric, called conditional Sibson's alpha-information. This metric has an explicit expression and possesses several beneficial properties. Utilizing this metric, we delve into the sidechannel leakage of unprotected devices. Additionally, we use Fano's mutual information to evaluate the sidechannel leakage of code-based masked implementations under probing model. Lastly, when considering the security assessment of masked implementations, we utilize the alphainformation measure to appraise the security of both arithmetic and Boolean masking implementations. We derive universal bounds on the probability of success of any type of side-channel attack. These also provide lower bounds on the minimum number of queries required to achieve a given success rate
11

Piètre-Cambacédès, Ludovic. "Des relations entre sûreté et sécurité". Phd thesis, Télécom ParisTech, 2010. http://pastel.archives-ouvertes.fr/pastel-00570432.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Historiquement séparées, sûreté et sécurité sont pourtant deux problématiques intimement liées. Si les trop rares initiatives de décloisonnement, adaptant notamment des outils d'un domaine à l'autre, ont abouti à des résultats convaincants, ce décloisonnement reste encore timide et son potentiel considérable. De plus, la récente convergence de risques de sécurité et de sûreté implique des interactions inédites entre exigences et mesures auparavant distinctes, dont la caractérisation nécessite une perspective globale. Dans ces conditions, ces travaux de thèse ont d'abord visé à mieux cerner les notions de sûreté et de sécurité. Ils ont conduit à un cadre référentiel dénommé SEMA (Système-Environnement Malveillant-Accidentel) permettant de positionner ces concepts l'un par rapport à l'autre selon les contextes. La complémentarité des outils de chaque discipline a ensuite été explorée. Cette démarche s'est concrétisée par l'adaptation des BDMP (Boolean logic Driven Markov Processes), issus de la sûreté, au domaine de la modélisation graphique d'attaques. Ils permettent de dépasser bien des limites des techniques classiquement employées. Enfin, l'extension des BDMP a été mise à profit pour fournir un formalisme intégratif, permettant de capturer graphiquement et de caractériser des situations où risques sûreté et sécurité s'exercent conjointement. Pour chacune de ces trois contributions, limites, améliorations et voies alternatives ont été identifiées. Elles n'auront sens que si les communautés de la sûreté et de la sécurité accentuent leur rapprochement, dont cette thèse se veut à la fois une manifestation et une invitation.
12

Srivastava, Brij Mohan Lal. "Anonymisation du locuteur : représentation, évaluation et garanties formelles". Thesis, Université de Lille (2018-2021), 2021. https://pepite-depot.univ-lille.fr/LIBRE/EDMADIS/2021/2021LILUB029.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'émergence et la généralisation des interfaces vocales présentesdans les téléphones, les applications mobiles et les assistantsnumériques ont permis de faciliter la communication entre les citoyens,utilisateurs d'un service, et les prestataires de services. Citons àtitre d'exemple l'utilisation de mots de passe vocaux pour lesopérations bancaires, des haut-parleurs intelligents personnalisés, etc.Pour réaliser ces innovations, la collecte massive de données vocalesest essentielle aux entreprises comme aux chercheurs. Mais le stockagecentralisé à grande échelle des données vocales pose de graves menaces àla vie privée des locuteurs. En effet, le stockage centralisé estvulnérable aux menaces de cybersécurité qui, lorsqu'elles sont combinéesavec des technologies vocales avancées telles que le clonage vocal, lareconnaissance du locuteur et l'usurpation d'identité peuvent conférer àune entité malveillante la capacité de ré-identifier les locuteurs et devioler leur vie privée en accédant à leurs caractéristiques biométriquessensibles, leurs états émotionnels, leurs attributs de personnalité,leurs conditions pathologiques, etc.Les individus et les membres de la société civile du monde entier, etparticulièrement en Europe, prennent conscience de cette menace. Avecl'entrée en vigueur du règlement général sur la protection des données(RGPD), plusieurs initiatives sont lancées, notamment la publication delivres blancs et de lignes directrices, pour sensibiliser les masses etréguler les données vocales afin que la vie privée des citoyens soitprotégée.Cette thèse constitue un effort pour soutenir de telles initiatives etpropose des solutions pour supprimer l'identité biométrique deslocuteurs des signaux de parole, les rendant ainsi inutiles pourré-identifier les locuteurs qui les ont prononcés.Outre l'objectif de protéger l'identité du locuteur contre les accèsmalveillants, cette thèse vise à explorer les solutions qui le font sansdégrader l'utilité de la parole.Nous présentons plusieurs schémas d'anonymisation basés sur des méthodesde conversion vocale pour atteindre ce double objectif. La sortie detels schémas est un signal vocal de haute qualité qui est utilisablepour la publication et pour un ensemble de tâches en aval.Tous les schémas sont soumis à un protocole d'évaluation rigoureux quiest l'un des apports majeurs de cette thèse.Ce protocole a conduit à la découverte que les approches existantes neprotègent pas efficacement la vie privée et a ainsi directement inspirél'initiative VoicePrivacy qui rassemble les individus, l'industrie et lacommunauté scientifique pour participer à la construction d'un schémad'anonymisation robuste.Nous introduisons une gamme de schémas d'anonymisation dans le cadre del'initiative VoicePrivacy et prouvons empiriquement leur supériorité entermes de protection de la vie privée et d'utilité.Enfin, nous nous efforçons de supprimer l'identité résiduelle dulocuteur du signal de parole anonymisé en utilisant les techniquesinspirées de la confidentialité différentielle. De telles techniquesfournissent des garanties analytiques démontrables aux schémasd'anonymisation proposés et ouvrent des portes pour de futures recherches.En pratique, les outils développés dans cette thèse sont un élémentessentiel pour établir la confiance dans tout écosystème logiciel où lesdonnées vocales sont stockées, transmises, traitées ou publiées. Ilsvisent à aider les organisations à se conformer aux règles mandatées parles gouvernements et à donner le choix aux individus qui souhaitentexercer leur droit à la vie privée
Large-scale centralized storage of speech data poses severe privacy threats to the speakers. Indeed, the emergence and widespread usage of voice interfaces starting from telephone to mobile applications, and now digital assistants have enabled easier communication between the customers and the service providers. Massive speech data collection allows its users, for instance researchers, to develop tools for human convenience, like voice passwords for banking, personalized smart speakers, etc. However, centralized storage is vulnerable to cybersecurity threats which, when combined with advanced speech technologies like voice cloning, speaker recognition, and spoofing, may endow a malicious entity with the capability to re-identify speakers and breach their privacy by gaining access to their sensitive biometric characteristics, emotional states, personality attributes, pathological conditions, etc.Individuals and the members of civil society worldwide, and especially in Europe, are getting aware of this threat. With firm backing by the GDPR, several initiatives are being launched, including the publication of white papers and guidelines, to spread mass awareness and to regulate voice data so that the citizens' privacy is protected.This thesis is a timely effort to bolster such initiatives and propose solutions to remove the biometric identity of speakers from speech signals, thereby rendering them useless for re-identifying the speakers who spoke them.Besides the goal of protecting the speaker's identity from malicious access, this thesis aims to explore the solutions which do so without degrading the usefulness of speech.We present several anonymization schemes based on voice conversion methods to achieve this two-fold objective. The output of such schemes is a high-quality speech signal that is usable for publication and a variety of downstream tasks.All the schemes are subjected to a rigorous evaluation protocol which is one of the major contributions of this thesis.This protocol led to the finding that the previous approaches do not effectively protect the privacy and thereby directly inspired the VoicePrivacy initiative which is an effort to gather individuals, industry, and the scientific community to participate in building a robust anonymization scheme.We introduce a range of anonymization schemes under the purview of the VoicePrivacy initiative and empirically prove their superiority in terms of privacy protection and utility.Finally, we endeavor to remove the residual speaker identity from the anonymized speech signal using the techniques inspired by differential privacy. Such techniques provide provable analytical guarantees to the proposed anonymization schemes and open up promising perspectives for future research.In practice, the tools developed in this thesis are an essential component to build trust in any software ecosystem where voice data is stored, transmitted, processed, or published. They aim to help the organizations to comply with the rules mandated by civil governments and give a choice to individuals who wish to exercise their right to privacy
13

Jolly, Germain. "Evaluation d’applications de paiement sur carte à puce". Caen, 2016. https://hal.archives-ouvertes.fr/tel-01419220.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse traite des méthodes d'évaluation de haut niveau, proche des applications. Une méthode d'évaluation d'application sur cartes à puces, complémentaire aux méthodes existantes, a été définie durant de la thèse. Le but est de détecter les anomalies présentes sur cartes à puce (et plus précisément sur l'application de la carte à puce) et de fournir une documentation accrue sur cette erreur ainsi que les raisons déclencheurs de cette erreur. L'utilisateur de l'outil configure un ensemble de propriétés correspondant aux comportements attendus de l'application qu'il va vérifier. Afin de connaître la conformité du comportement de l'application carte vis à vis de la théorie (spécifications), la première étape est la génération de l'oracle, élément de référence lors d'une activité de vérification et validation. Nous nous sommes orientés vers une technique plus intelligente basée sur un algorithme génétique prenant en entrée un ensemble de logs de transaction qui permet de générer automatiquement un ensemble de propriétés (c'est à dire un ensemble de comportements locaux et attendus de l'application carte). La méthode de vérification est développée grâce au framework WSCT. Nous avons utilisé une applet JavaCard développée au laboratoire afin de tester la faisabilité de la méthode pour deux cas d'usages : lors de la phase de test, la méthodologie peut être utilisée en parallèle de la méthode utilisée par l'entreprise de certification et lors du développement de l'application, l'utilisation de cette méthodologie permet un guidage du développement, ce qui permet de l'utiliser dans le cadre de l'enseignement du développement JavaCard et de l'évaluation d'applications
This thesis deals with high-level evaluation of applications in smartcards. The proposed method combines observation of the communication and detection of violated properties. The goal is to detect anomalies on smart cards (and more precisely on its implementation) and provide a better documentation on this error and on the reasons that triggered this error. We can know on the fly if an application has an error of implementation. The user of the tool configures a set of properties corresponding to the expected behavior of the application. To ascertain compliance of the behavior of the card application with the theory (specifications), the first step is the generation of the oracle, reference used during verification and validation activity. We quickly directed to a smarter technique to target the most interesting behaviors to check for our study. We worked on a generation method based on a genetic algorithm taking as input a set of transaction logs to automatically generate a set of properties (i. E. A set of local and expected behaviors of the applications). The evaluation methodology is developed through the WSCT framework. Two plugins were created and used to communicate with the smart card application, but also to observe and detect an abnormality in the behavior of the application. We used a JavaCard applet developed in the laboratory to test the feasibility of the method for two use cases: during the test phase, the methodology can be used in parallel by the certification firm and during the development of an application, for example, allowing improving the teaching of the JavaCard development and the evaluation of application
14

Lone, Sang Fernand. "Protection des systèmes informatiques contre les attaques par entrées-sorties". Phd thesis, INSA de Toulouse, 2012. http://tel.archives-ouvertes.fr/tel-00863020.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les attaques ciblant les systèmes informatiques vont aujourd'hui au delà de simples logiciels malveillants et impliquent de plus en plus des composants matériels. Cette thèse s'intéresse à cette nouvelle classe d'attaques et traite, plus précisément, des attaques par entrées-sorties qui détournent des fonctionnalités légitimes du matériel, tels que les mécanismes entrées-sorties, à différentes fins malveillantes. L'objectif est d'étudier ces attaques, qui sont extrêmement difficiles à détecter par des techniques logicielles classiques (dans la mesure où leur mise en oeuvre ne nécessite pas l'intervention des processeurs) afin de proposer des contre-mesures adaptées, basées sur des composants matériels fiables et incontournables. Ce manuscrit se concentre sur deux cas : celui des composants matériels qui peuvent être délibérément conçus pour être malveillants et agissants de la même façon qu'un programme intégrant un cheval de Troie ; et celui des composants matériels vulnérables qui ont été modifiés par un pirate informatique, localement ou au travers du réseau, afin d'y intégrer des fonctions malveillantes (typiquement, une porte dérobée dans son firmware). Pour identifier les attaques par entrées-sorties, nous avons commencé par élaborer un modèle d'attaques qui tient compte des différents niveaux d'abstraction d'un système informatique. Nous nous sommes ensuite appuyés sur ce modèle d'attaques pour les étudier selon deux approches complémentaires : une analyse de vulnérabilités traditionnelle, consistant à identifier une vulnérabilité, développer des preuves de concept et proposer des contre-mesures ; et une analyse de vulnérabilités par fuzzing sur les bus d'entrées-sorties, reposant sur un outil d'injection de fautes que nous avons conçu, baptisé IronHide, capable de simuler des attaques depuis un composant matériel malveillant. Les résultats obtenus pour chacunes de ces approches sont discutés et quelques contre-mesures aux vulnérabilités identifiées, basées sur des composants matériels existants, sont proposées.
15

Chaudemar, Jean-Charles. "Étude des architectures de sécurité de systèmes autonomes : formalisation et évaluation en Event B". Thesis, Toulouse, ISAE, 2012. http://www.theses.fr/2012ESAE0003/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La recherche de la sûreté de fonctionnement des systèmes complexes impose une démarche de conception rigoureuse. Les travaux de cette thèse s’inscrivent dans le cadre la modélisation formelle des systèmes de contrôle autonomes tolérants aux fautes. Le premier objectif a été de proposer une formalisation d’une architecture générique en couches fonctionnelles qui couvre toutes les activités essentielles du système de contrôle et qui intègre des mécanismes de sécurité. Le second objectif a été de fournir une méthode et des outils pour évaluer qualitativement les exigences de sécurité. Le cadre formel de modélisation et d’évaluation repose sur le formalisme Event-B. La modélisation Event-B proposée tire son originalité d’une prise en compte par raffinements successifs des échanges et des relations entre les couches de l’architecture étudiée. Par ailleurs, les exigences de sécurité sont spécifiées à l’aide d’invariants et de théorèmes. Le respect de ces exigences dépend de propriétés intrinsèques au système décrites sous forme d’axiomes. Les preuves que le principe d’architecture proposé satisfait bien les exigences de sécurité attendue ont été réalisées avec les outils de preuve de la plateforme Rodin. L’ensemble des propriétés fonctionnelles et des propriétés relatives aux mécanismes de tolérance aux fautes, ainsi modélisées en Event-B, renforce la pertinence de la modélisation adoptée pour une analyse de sécurité. Cette approche est par la suite mise en œuvre sur un cas d’étude d’un drone ONERA
The study of complex system safety requires a rigorous design process. The context of this work is the formal modeling of fault tolerant autonomous control systems. The first objective has been to provide a formal specification of a generic layered architecture that covers all the main activities of control system and implement safety mechanisms. The second objective has been to provide tools and a method to qualitatively assess safety requirements. The formal framework of modeling and assessment relies on Event-B formalism. The proposed Event-B modeling is original because it takes into account exchanges and relations betweenarchitecture layers by means of refinement. Safety requirements are first specified with invariants and theorems. The meeting of these requirements depends on intrinsic properties described with axioms. The proofs that the concept of the proposed architecture meets the specified safety requirements were discharged with the proof tools of the Rodin platform. All the functional properties and the properties relating to fault tolerant mechanisms improve the relevance of the adopted Event-B modeling for safety analysis. Then, this approach isimplemented on a study case of ONERA UAV
16

Ciarletta, Laurent. "Contribution à l'évaluation des technologies de l'informatique ambiante". Nancy 1, 2002. http://www.theses.fr/2002NAN10234.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'informatique et les réseaux s'embarquent toujours plus dans notre quotidien. L' " informatique (devenant) ambiante " est à la convergence de quatre domaines classiques : les réseaux (qui assureront l'interconnexion des divers éléments), l'informatique personnelle (et les services qu'elle fournit), l'informatique embarquée (et les progrès de la miniaturisation matérielle et logicielle), ainsi que l'interaction homme-machine (où l'intelligence artificielle fournira l'intelligence nécessaire à cette interaction). Le document présente ce domaine émergent et les différents outils, architectures et méthodes d'évaluation de ces technologies développés pendant ma thèse : le modèle LCP de l'informatique ambiante, la plate-forme d'évaluation EXiST et l'architecture de sécurité VPSS. Ils sont une première étape à la résolution des problèmes de sécurité, de standardisation, d'intégration et de convergence des technologies en jeu. Il présente aussi les résultats de nos expérimentations avec les adaptateurs Aroma (fournissant de l'intelligence adhoc à des appareils électroniques), une salle de conférence intelligente et l'utilisation d'agents intelligents avec EXiST
Computer Science and Networks are more and more embedded into our daily life. Pervasive or Ubiquitous Computing is at the crossroad of four typical areas: Networking (connecting the elements), Personal Computing (providing services), Embedded Computing (improving software and hardware miniaturization), and Computer-Human Interaction (where artificial intelligence will provide the needed cleverness). This document introduces this emerging technology and the tools, architectures and methods that were developed during the course of my PhD: the Layered Pervasive Computing model, EXiST, the evaluation and distributed simulation platform and the VPSS security architecture. They are first steps towards the resolution of security, standardization, integration, and convergence issues of the technologies at play. Some prototypes and implementations, such as the Aroma Adapter (providing adhoc "intelligence" to electronic devices), a Smart conference Room and a version of EXiST working with Intelligent Agents, are also detailed
17

Girol, Guillaume. "Robust reachability and model counting for software security". Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG071.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les techniques modernes de recherche de bugs sont devenues si efficaces que le problème n'est plus de trouver des bugs mais de trouver le temps de les corriger. Une façon répandue d'éluder ce problème est de concentrer l'effort de correction de bug prioritairement sur les bugs ayant un impact en termes de sécurité, aussi désignés sous le nom de vulnérabilités. Cela conduit naturellement à la question de l'évaluation de cet impact: un attaquant pourrait-il tirer parti de tel ou tel bug ? Cette thèse se concentre sur une dimension particulière de ce problème: un attaquant serait-il capable de déclencher ce bug ? Nous appelons cette propriété la réplicabilité. Nous nous fixons pour objectif de concevoir des méthodes de recherches de bugs qui ne détectent que des bugs suffisamment réplicables. Le point de départ est de considérer des modèles de menace où l'on distingue les entrées du programme qui peuvent être choisies par l'attaquant (comme les entrées réseau) de celle qui ne peuvent ni être contrôlées ni connues de lui (comme les sources d'entropie). Nous proposons deux approches pour évaluer la réplicabilité. D'abord, nous définissons l'atteignabilité robuste, une propriété qualitative qui exprime qu'un bug est non seulement atteignable mais que lorsqu'il choisit les entrées qu'il peut correctement, l'attaquant déclenche toujours le bug, indépendamment des valeurs des entrées qu'il ne peut pas choisir. Dans un second temps, nous affinons cette approche en une approche quantitative où nous déterminons la proportion d'entrées non contrôlées qui permettent à l'attaquant optimal de déclencher le bug. Nous adaptons ensuite l'exécution symbolique pour prouver l'atteignabilité robuste ou bien calculer cette proportion. L'atteignabilité robuste est une analyse moins fine que cette approche quantitative parce qu'elle est "tout ou rien", mais en contrepartie elle passe mieux à l'échelle. Enfin nous illustrons dans des études de cas les applications potentielles de ces concepts, en particulier à l'évaluation de vulnérabilité
Modern bug-finding techniques have become effective enough that the bottleneck is not finding bugs but finding the time to fix them. A popular way to address this problem is to focus first on bugs with a security impact, also known as vulnerabilities. This leads to the question of vulnerability assessment: could an attacker take advantage of a bug? In this thesis we attempt to assess one particular dimension contributing to the security impact of a bug: whether an attacker could trigger it reliably. We call this property replicability. Our goal is to formalize replicability to design bug-finding techniques which only report bugs which are replicable enough. We do so by considering a threat model where inputs to the program which the attacker can choose (like network inputs) are distinguished from inputs which the attacker does not control nor know (like entropy sources). We propose two approaches to replicability. Firstly, we define robust reachability, a qualitative property that expresses that a bug is not only reachable, but that when he chooses the right inputs, the attacker triggers the bug whatever the values of the program inputs he does not control. Secondly, we refine robust reachability quantitatively as the proportion of uncontrolled inputs that let the optimal attacker trigger the bug. We adapt symbolic execution to prove robust reachability and compute this proportion. Robust reachability is more coarse-grained because it is all-or-nothing but scales better than the quantitative approach. We illustrate in case studies the potential applications of these techniques, notably in terms of vulnerability assessment
18

Mekki, Mokhtar Amina. "Processus d'identification de propriétés de sécurité-innocuité vérifiables en ligne pour des systèmes autonomes critiques". Toulouse 3, 2012. http://thesesups.ups-tlse.fr/1776/.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les progrès récents dans la définition de mécanismes décisionnels ont permis de déléguer de plus en plus de responsabilités aux systèmes informatiques. Par exemple, des robots de service travaillent aujourd'hui en interaction avec l'humain et réalisent des tâches de plus en plus complexes. Ce transfert de responsabilité pose alors de manière critique le problème de la sécurité pour l'homme, l'environnement du système, ou le système lui-même. La surveillance en ligne par un moniteur de sécurité indépendant vise à assurer un comportement sûr malgré la présence de fautes et d'incertitudes. Un tel moniteur doit détecter des situations potentiellement dangereuses afin d'enclencher des actions de mise en état sûr et d'éviter les défaillances catastrophiques. Cette thèse traite de l'identification de conditions de déclenchement de sécurité permettant de lancer des actions de mise en état sûr. Un processus systématique permettant d'identifier de telles conditions est défini, en partant d'une analyse de risque HazOp/UML du système fonctionnel. Par ailleurs, une méthode est proposée pour identifier les états du système où des actions de sécurité peuvent être enclenchées simultanément, afin d'être revues et corrigées, en cas de besoin, par un expert du système. L'approche proposée est appliquée à un robot déambulateur
Recent progress in the definition of decisional mechanisms has allowed computer-based systems to become more and more autonomous. For example, service robots can nowadays work in direct interaction with humans and carry out increasingly complex tasks. This transfer of responsibility poignantly raises the issue of system safety towards humans, the environment and the system itself. System surveillance by an independent safety monitor aims to enforce safe behaviour despite faults and uncertainties. Such a monitor must detect potentially dangerous situations in order to trigger safety actions aiming to bring the system towards a safe state. This thesis addresses the problem of identifying safety trigger conditions. A systematic process is proposed for the identification, starting from a HazOp/UML risk analysis. The proposed methodology also allows the identification of system states in which multiple safety actions might be executed concurrently, in order to be checked and, if necessary, corrected by a system expert. The methodology is applied to a robotic rollator
19

Landry, Simon. "Étude de la résistance des algorithmes cryptographiques symétriques face à la cryptanalyse moderne". Electronic Thesis or Diss., Sorbonne université, 2021. http://www.theses.fr/2021SORUS287.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’objectif de cette thèse est de proposer de nouvelles pistes de recherche dans l’état de l’art afin de sécuriser les algorithmes cryptographiques au sein d’un circuit électronique. Notre axe d’étude principal s’articule autour de la contre-mesure des implémentations à seuil, résistante contre les attaques par observations en présence de glitches. Ces derniers phénomènes apparaissent dans un circuit électronique de manière aléatoire et sont à l’origine de nombreuses attaques en cryptanalyse. Nous étudions l’application des implémentations à seuil sur la cryptographie symétrique. Dans un premier temps, nous contribuons à la littérature cryptographique par la conception de nouvelles implémentations à seuil applicables sur un grand nombre d’algorithmes symétriques. Les travaux réalisés sont appuyés par des preuves mathématiques formelles et permettent de contrer les attaques physiques par observations en présence de glitches. Par ailleurs, nos recherches ont également débouché à la proposition de deux brevets au sein de l’entreprise STMicroelectronics, participant ainsi au processus d’innovation industriel. Dans un second temps, nous nous intéressons à l’étude de l’algorithme symétrique SM4 et sa résistance face à la cryptanalyse actuelle. Les travaux obtenus permettent de centraliser les différentes implémentations du SM4 sécurisées contre les attaques par observations proposées dans l’état de l’art et d’offrir une visibilité sur les performances de ces constructions. Nous contribuons également à la recherche académique par la première proposition d’une implémentation à seuil du SM4, mathématiquement résistante contre les attaques par observations en présence de glitches
The goal of this thesis is to contribute to the state-of-the-art by proposing new areas of research in order to secure cryptographic algorithms within an embedded device.Our main focal axis is organized around the countermeasure called threshold implementations which is known to be resistant against side-channel analysis attacks in the presence of glitches.These latter phenomenon occur randomly within an electronic circuit and lead to numerous attacks in cryptanalysis. We study the application of threshold implementations on symmetric-key cryptography.In a first phase, we participate to the cryptographic litterature by designing new threshold implementations easily applicable on a large variety of symmetric-key algorithms. Our countermeasures are provable mathematically secured against side-channel analysis attacks in the presence of glitches. In comparison with the recent publications of the state-of-the-art, we adress new issues and we assure similar or better performances. Therefore, our research has resulted in two patents within STMicroelectronics, thereby contributing to the industrial innovation process.In a second phase, we are interested in the study of the symmetric-key algorithm SM4 and its resistance against side-channel analysis attacks. The works obtained allow to centralize the proposed SM4 countermeasures against side-channel analysis attacks of the state-of-the-art and offer a visibility on the software performances of these constructions. We finally introduce the first threshold implementation of the SM4 algorithm. Our construction is provably mathematically resistant against side-channel analysis attacks in the presence of glitches
20

Godefroy, Erwan. "Définition et évaluation d'un mécanisme de génération de règles de corrélation liées à l'environnement". Thesis, CentraleSupélec, 2016. http://www.theses.fr/2016SUPL0007/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans les systèmes d'informations, les outils de détection produisent en continu un grand nombre d'alertes.Des outils de corrélation permettent de réduire le nombre d'alertes et de synthétiser au sein de méta-alertes les informations importantes pour les administrateurs.Cependant, la complexité des règles de corrélation rend difficile leur écriture et leur maintenance.Cette thèse propose par conséquent une méthode pour générer des règles de corrélation de manière semi-automatique à partir d’un scénario d’attaque exprimé dans un langage de niveau d'abstraction élevé.La méthode repose sur la construction et l'utilisation d’une base de connaissances contenant une modélisation des éléments essentiels du système d’information (par exemple les nœuds et le déploiement des outils de détection). Le procédé de génération des règles de corrélation est composé de différentes étapes qui permettent de transformer progressivement un arbre d'attaque en règles de corrélation.Nous avons évalué ce travail en deux temps. D'une part, nous avons déroulé la méthode dans le cadre d'un cas d'utilisation mettant en jeu un réseau représentatif d'un système d'une petite entreprise.D'autre part, nous avons mesuré l'influence de fautes touchant la base de connaissances sur les règles de corrélation générées et sur la qualité de la détection
Information systems produce continuously a large amount of messages and alerts. In order to manage this amount of data, correlation system are introduced to reduce the alerts number and produce high-level meta-alerts with relevant information for the administrators. However, it is usually difficult to write complete and correct correlation rules and to maintain them. This thesis describes a method to create correlation rules from an attack scenario specified in a high-level language. This method relies on a specific knowledge base that includes relevant information on the system such as nodes or the deployment of sensor. This process is composed of different steps that iteratively transform an attack tree into a correlation rule. The assessment of this work is divided in two aspects. First, we apply the method int the context of a use-case involving a small business system. The second aspect covers the influence of a faulty knowledge base on the generated rules and on the detection
21

Akrout, Rim. "Analyse de vulnérabilités et évaluation de systèmes de détection d'intrusions pour les applications Web". Phd thesis, INSA de Toulouse, 2012. http://tel.archives-ouvertes.fr/tel-00782565.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Avec le développement croissant d'Internet, les applications Web sont devenues de plus en plus vulnérables et exposées à des attaques malveillantes pouvant porter atteinte à des propriétés essentielles telles que la confidentialité, l'intégrité ou la disponibilité des systèmes d'information. Pour faire face à ces malveillances, il est nécessaire de développer des mécanismes de protection et de test (pare feu, système de détection d'intrusion, scanner Web, etc.) qui soient efficaces. La question qui se pose est comment évaluer l'efficacité de tels mécanismes et quels moyens peut-on mettre en oeuvre pour analyser leur capacité à détecter correctement des attaques contre les applications web. Dans cette thèse nous proposons une nouvelle méthode, basée sur des techniques de clustering de pages Web, qui permet d'identifier les vulnérabilités à partir de l'analyse selon une approche boîte noire de l'application cible. Chaque vulnérabilité identifiée est réellement exploitée ce qui permet de s'assurer que la vulnérabilité identifiée ne correspond pas à un faux positif. L'approche proposée permet également de mettre en évidence différents scénarios d'attaque potentiels incluant l'exploitation de plusieurs vulnérabilités successives en tenant compte explicitement des dépendances entre les vulnérabilités. Nous nous sommes intéressés plus particulièrement aux vulnérabilités de type injection de code, par exemple les injections SQL. Cette méthode s'est concrétisée par la mise en oeuvre d'un nouveau scanner de vulnérabilités et a été validée expérimentalement sur plusieurs exemples d'applications vulnérables. Nous avons aussi développé une plateforme expérimentale intégrant le nouveau scanner de vulnérabilités, qui est destinée à évaluer l'efficacité de systèmes de détection d'intrusions pour des applicationsWeb dans un contexte qui soit représentatif des menaces auxquelles ces applications seront confrontées en opération. Cette plateforme intègre plusieurs outils qui ont été conçus pour automatiser le plus possible les campagnes d'évaluation. Cette plateforme a été utilisée en particulier pour évaluer deux techniques de détection d'intrusions développées par nos partenaires dans le cadre d'un projet de coopération financé par l'ANR, le projet DALI.
22

Bachy, Yann. "Sécurité des équipements grand public connectés à Internet : évaluation des liens de communication". Thesis, Toulouse, INSA, 2015. http://www.theses.fr/2015ISAT0014/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Aujourd’hui, les équipements intégrant du logiciel et connectés à Internet sont de plus en plus nombreux et variés. Avec l’arrivée de l’“Internet des objets” et la tendance au “tout connecté”, de nombreux équipements de notre quotidien bénéficient maintenant d’une connexion à Internet : les Smart-TVs, les lecteurs DVD, les systèmes d’alarmes, les systèmes domotiques, jusqu’aux équipements facilitant l’hospitalisation à domicile de patients par exemple. Ces évolutions technologiques s’accompagnent malheureusement de problèmes de sécurité. L’utilisation massive du réseau Internet a facilité la propagation de logiciels malveillants, qui peuvent aujourd’hui cibler tout type d’équipement informatique et notamment les équipements connectés. Alors qu’il existe déjà des normes permettant d’évaluer la sécurité d’équipements informatiques industriels, leur application aux équipements grand public est encore limitée. La présence et la criticité des vulnérabilités qui peuvent affecter ces équipements sont encore mal connues car elles n’ont pas fait l’objet d’études approfondies. C’est précisément l’objectif de cette thèse, qui propose une méthode permettant de mener une analyse de vulnérabilités des équipements grand public connectés à Internet. Cette méthode est constituée de deux grandes phases : une phase d’analyse des risques suivie d’unephase d’expérimentations. L’analyse de sécurité d’un équipement, quelle qu’elle soit, nécessite une bonne connaissance de l’environnement de celui-ci. Afin de guider l’évaluateur dans cette tâche, nous proposons, dans une première phase, de nous fonder sur des méthodes d’analyse des risques existantes. Ces méthodes sont aujourd’hui bien éprouvées et permettent à l’évaluateur d’obtenir une vue globale des risques encourus par l’utilisation de l’équipement étudié. Ensuite, lors de la seconde phase de l’étude, l’évaluateur se concentre sur les risques les plus importants afin de montrer la faisabilité technique des scénarios menant aux risques considérés, à l’aide d’expérimentations. Étant donné le grand nombre et la diversité des connexions présentes sur les équipements connectés, il est important de mettre l’accent sur les scénarios d’attaque qui peuvent s’avérer riches, même si ces scénarios ont pour origine une vulnérabilité locale simple. Pour cette seconde phase, une méthode d’expérimentation est donc proposée pour étudier ces scénarios d’attaque, qui, de plus, ciblent des équipementsdont les spécifications ne sont pas forcément disponibles. Afin d’illustrer la méthode globale, cette thèse se fonde sur deux cas d’étude : les box ADSL et les téléviseurs connectés. Ces études ont été menées sur un panel d’équipements provenant des principaux fournisseurs d’accès à Internet et des principaux fabricants de téléviseurs, ce qui nous a permis de comparer les différents équipements présents sur le marché. Les vulnérabilités mises en évidence concernent en particulier les liens de communication (boucle locale pour les Box ADSL, interface DVB-T pour les Smarts TVs) reliant les équipements à leurs fournisseurs de service (FAI pour les Box ADSL, TV et VoD pour les Smart TVs). Ces liens de communication sont habituellement considérés de confiance et ne sont à notre connaissance pas ou peu étudiés jusqu’à présent. Cette thèse contribue ainsi à l’analyse de sécurité sur ces liens particuliers des équipements connectés et met en lumière des chemins d’attaque originaux.Enfin, cette thèse se termine par la présentation des différents mécanismes de protection existants afin d’empêcher l’introduction ou l’exploitation des failles de sécurité identifiées
Today, equipment embedding software and an Internet connection are more and more numerous and various. With the emergence of “the internet of things” and the trend to interconnect everything, many equipment used in our every day life are now connected to the internet: Smart-Tvs, DVD players, alarm and home automation systems, and even health assistance home devices, for example. Unfortunately, these technological evolutions also introduce new security threats. The massive use of internet facilitates the propagation of malware, capable of targeting any computer device, and more specifically any internet connected device. Although several methods allowing security analysis of industrial systems exist, their application to home devices is still limited. The existence and the criticality of potential vulnerabilities in these devices are not well-known, because they have not been thoroughly studied. This is precisely the objective of this thesis, which presents a method allowing to carry out a vulnerability analysis of internet connected home devices. This method is composed of two main phases: a risk analysis phasefollowed by an experimental phase. The security analysis of any type of equipement, requires a good knowledge ofits environment. In order to guide the evaluator in this task, we propose, as a first step, to rely on existing risk analysis methods. These methods are now mature, and allow the evaluator to obtain a global view of the risks incurred by the usage of anequipment. Then, during the second step of our method, the evaluator concentrates on the most important risks in order to demonstrate the technical feasibility of the scenarios leading to the considered risks, by carrying out several experiments.Considering the large amount and the diversity of I/Os on connected devices, it is important to focus on specifically rich attack scenarios, possibly depending on a simple local vulnerability. For this second step, an experimental method is proposedin order to study these attack scenarios, which, moreover, target equipement whose specifications are not necessarily available.In order to illustrate the entire method, this thesis presents two case studies: Integrated Access Devices and Smart-Tvs. These studies are carried out on a panel of devices from major internet service providers and TV manufacturers, allowing us to compare several devices available on the market. The vulnerabilities pointed out, mainly concern the communication means (local loop for the IAD, DVB-T interface for the smart-TVs) connecting these devices to their service providers (ISP for the IAD, TV and VoD for the smart-TVs). These communication links are usually considered safe, and have been, to our knowledge, seldom explored. Thisthesis thereby contributes to the security analysis of these particular communication means for connected devices and points out some original attack paths. Finally, this thesis ends by presenting different existing security mechanisms that can be used to avoid exploitation of the identified weaknesses
23

Mendy, Norbert Lucien. "Les attaques et la sécurité des systèmes informatiques". Paris 8, 2006. http://www.theses.fr/2006PA082735.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le piratage informatique est apparu avec les premiers micro-ordinateurs vers 1980 et depuis n'a cessé de s'amplifier. Au début, cette pratique était essentiellement individuelle et ludique. Elle est désormais principalement constituée par les activités des personnes qui, individuellement ou en groupe, avec des motivations très diverses, piratent les ordinateurs des autres. Aujourd'hui, l'explosion des moyens de communications électroniques fait que la sécurité des données concerne sans cesse de nouvelles populations. Cette thèse examine dans un premier temps, d’un point de vue technique et sociologique, les méthodes et procédures d’attaques et de défense en matière de piratage informatique. Dans un second temps, elle expose une théorisation de ces mécanismes d’attaques et de défense, avant de proposer une nouvelle conception de la sécurité qui n’est plus seulement centrée sur des moyens techniques mais également sur la prise en compte de la dimension sociale des attaques et de défense
Hacking activities appeared around 1980 with first personal computers and since did not stop developing. At the beginning, this practice was primarily individual and playful. Now it is mainly made up by the activities of groups, with very various motivations. Today, due to the development of electronic means of communication, data security concerns a wider public. This thesis examines initially, from a technical and sociological point of view, attacks and defense mechanisms, and proposes a new concept of the security which is not only any centered on technical solutions but also takes in consideration the social dimension of the problem
24

Balduzzi, Marco. "Mesures automatisées de nouvelles menaces sur Internet". Paris, Télécom ParisTech, 2011. http://www.theses.fr/2011ENST0042.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Pendant les vingt dernières années, Internet s'est transformé d'un réseau simple de taille limitée à un système complexe de grandes dimensions. Alors qu'Internet était initialement utilisé pOUf offrir du contenu statique,organisé autour de simples sites web, aujourd'hui il fournit en même temps contenu et services complexes (comme chat, e-mail ou le web) ainsi que l'externalisation de calculs et d'applications (cloud computing). Les attaquants ne sont pas indifférents à l'évolution d'Internet Souvent motivées par un florissant marché noir, les attaquants sont constamment à la recherche de vulnérabilités, d'erreurs de configuration et de nouvelles techniques. Ceci afin d'accéder à des systèmes protégées, de voler des informations privées, ou propager du contenu malveillant. A ce jour, peu de recherches ont été réalisées pour mesurer la prévalence et l'importance de ces menaces émergentes sur Internet. Or, les techniques traditionnelles de détection ne peuvent pas être facilement adaptés aux installations de grandes dimensions, et des nouvelles méthodologies sont nécessaires pour analyser et découvrir failles et vulnérabilités dans ces systèmes complexes. CeUe thèse avance l'état de l'art dans le test et la mesure à grande échelle des menaces sur Internet. Nous analysons trois nouvelles classes de problèmes de sécurité sur ces infrastructures qui ont connu une rapide augmentation de popularité: le clickjacking, la pollution de paramètres http et les risque liés au cloud computing. De plus, nous introduisons la première tentative d'estimer à grande échelle la prévalence et la pertinence de ces problèmes
Ln the last twenty years, the Internet has grown from a simple, small network to a complex, large-scale system. While the Internet was originally used to offer static content that was organized around simple websites, today, it provides both content and services (e. G. Chat, e-mail, web) as weil as the outsourcing of computation and applications (e. G. Cloud computing). Attackers are not indifferent to the evolution of the Internet. Often driven by a flourishing underground economy, attackers are constantly looking for vulnerabilities, misconfigurations and novel techniques to access protected and authorized systems, to steal private information, or to deliver malicious content. To date, not much research has been conducted to measure the importance and extent of these emerging Internet threats. Conventional detection techniques cannot easily scale to large scale installations, and novel methodologies are required to analyze and discover bugs and vulnerabilities in these complex systems. Ln this thesis, we advance the state-of-art in large scale testing and measurement of Internet threats. We research lnto three novel classes of security problems that affect Internet systems that experienced a fast surge in popularity (i. E. , ClickJacking, HTIP Parameter Pollution, and commercial cloud computing services that allow the outsourcing of server infrastructures). We introduce the tirst, large scale attempt to estimate the prevalence and relevance of these problems on the Internet
25

Kanoun, Wael. "Intelligent risk-aware system for activating and deactivating policy-based response". Télécom Bretagne, 2011. http://www.theses.fr/2011TELB0165.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
The growth of information and critical systems in size and complexity, combined with the steady increase in attacks’ frequency and sophistication, renders current response systems obsolete. The system can be targeted by different but simultaneous attacks, which require the activation of different responses. Furthermore, the appropriate response action for a given attack can have side effects: (i) intrinsic cost for the system or (ii) allowing or facilitating the execution of other attacks. Thus, intelligent response systems are certainly needed in order to enhance the response procedure in automated systems, or to assist the administrators in the process of taking the appropriate response decision. While the majority of existing response models is cost-oriented, we adopt a more general perspective: risk-awareness. Conformably to the definition of risk, we consider jointly the impact and the success likelihood of ongoing attacks, during the response selection procedure. First, we propose a response workflow with two distinctive levels: tactical response and strategic response. Tactical response is composed of simple countermeasures, which have a limited scope in the system. They are generally associated with an ongoing attack’s occurrence. On the other hand, strategic response is specified using a formal policy language (Organization-based Access Control - OrBAC), and deployed in the system to counter a major threat. Second, we focus on tactical response and propose a risk-aware framework. When an ongoing attack is detected, we assess dynamically the overall risk of the attack, by combining mainly its potential impact with its success likelihood. Then, candidate countermeasures are prioritized with respect to their effectiveness in reducing the overall risk. Afterward, we focus on the success likelihood factor, by proposing a dynamic model to assess this metric, which considers the progress’ state of the ongoing attack and the system’s state. Third, we proceed by presenting a risk-aware activation and deactivation framework for strategic response. A strategic response (i. E. Policy-based) is activated and maintained in the system, as long as the dynamic risk of an ongoing attack exceeds the cost of the response. Contrary to other response systems, we consider the deactivation of the response, which is performed when the attack’s risk drops, or when the cost of the response is too high. In this thesis, a VoIP service was selected to demonstrate our proposal. The implementation of the risk-aware tactical response module is mainly based on the CRIM prototype, while we used the MotOrBAC prototype to specify, activate and deactivate strategic response. We believe that a risk-aware approach can offer to the administrator or to the automated response system, a more comprehensive view on the ongoing attacks, and goes beyond by prioritizing candidate responses with respect to their effectiveness in reducing the overall risks
La croissance de l'échelle des systèmes d'information critiques, combinée à l'augmentation continue de la fréquence et de la sophistication des attaques, rend les systèmes de réponses classiques inadéquats. Le système peut être la cible de plusieurs attaques simultanées, qui nécessitent l'activation de réponses différentes et contradictoires. En outre, une réponse peut avoir des effets collatéraux, comme (i) induire un coût intrinsèque sur le système, (ii) permettre et faciliter l'exécution d'autres attaques. Ainsi, les systèmes de réponse doivent être conçus d'une manière intelligente, pour optimiser l'activation des réponses appropriées, soit pour les automatiser, soit pour fournir une assistance à la décision aux administrateurs. Alors que la majorité des modèles de réponses existants considère seulement le coût des attaques et des réponses, nous adoptons une perspective plus générale basée sur le risque. Conformément à la définition du risque, nous considérons conjointement l'impact et la vraisemblance de succès des attaques en cours dans le processus de sélection de réponse. D'abord, nous proposons un workflow qui permet de réagir sur deux plans distincts, sur le plan tactique, et sur le plan stratégique. La réponse tactique est composée des contremesures élémentaires à portées limitées dans le système. Elles sont généralement liées à l'occurrence d'attaque en cours. En revanche, la réponse stratégique est spécifiée avec un langage formel qui permet d'exprimer des politiques de sécurité. Elles sont déployées globalement dans le système pour des menaces majeures. Ensuite, nous proposons un modèle pour la réponse tactique, basé sur une évaluation de risques dynamique. Quand une attaque en cours est détectée, nous évaluons le risque global en combinant l'impact potentiel avec la vraisemblance de succès de l'attaque. Les contremesures seront ordonnées par rapport à leur efficacité à réduire le risque global. Nous mettons l'accent sur le facteur de vraisemblance de succès, et nous proposons un modèle dynamique pour évaluer ce paramètre, en tenant compte du progrès de l'attaque en cours et l'état du système. Enfin, nous présentons un framework basé sur les risques pour l'activation et la désactivation de la réponse stratégique. Cette réponse est activée et déployée quand le risque de l'attaque en cours dépasse le coût cumulé de la réponse, et elle est maintenue tant que le risque reste présent. Contrairement aux systèmes existants, nous considérons la désactivation d'une réponse qui est effectuée lorsque le risque de l'attaque décroît, ou dés lors que le coût de la réponse devient important. Dans cette thèse, un service VoIP a été choisi pour valider nos propositions, tout en respectant les contraintes opérationnelles et de sécurité
26

Znaidi, Wassim. "Quelques propositions de solutions pour la sécurité des réseaux de capteurs sans fil". Lyon, INSA, 2010. http://theses.insa-lyon.fr/publication/2010ISAL0083/these.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse a pour objectif d'étudier des solutions susceptibles d'assurer la sécurité dans les réseaux de capteurs sans fil. Après avoir présenté l'état de l'art du domaine, cette thèse s'articule autour de trois grandes parties. La première partie propose des solutions algorithmiques pour la sécurité des réseaux de capteurs. Deux mécanismes dédiés permettant de détecter deux attaques particulières de ces réseaux sont proposés. Il s'agit d'une première solution permettant de détecter l'attaque. La deuxième solution permet de détecter l'attaque de réplication de nœuds en se basant sur une approche hiérarchique. La deuxième partie se concentre sur des solutions fondées sur l'utilisation de la cryptographie symétrique. Ainsi, un premier protocole de gestion clés et de contrôle d'accès est proposé. Son but est de partager une clé commune entre chaque paire de nœuds présents dans le réseau. Dans un deuxième temps, nous nous sommes intéressés à la sécurisation de l'agrégation des données. Plus précisément, nous proposons deux mécanismes fondés sur sur les fonctions de hachage universelles permettant d'agréger des preuves d'intégrité des données transmises afin de permettre au puits de vérifier l'intégrité des données agrégées. Dans une troisième partie, alors que la diversité des solutions de sécurité permet de définir des politiques de sécurité capable d'assurer des propriétés bien définies, nous présentons une démarche de modélisation formelle permettant de simuler et d'évaluer l'impact des politiques de sécurité sur la consommation énergétique d'un réseau. Le but est ici d'évaluer l'impact en terme d'énergie du passage d'une politique à une autre, ce qui nous permettra ensuite de mieux gérer par exemple la durée de vie d'un réseau de capteurs
The self-organized growth of three-dimensional (3D) quantum dots has attracted a lot of interest for their potential applications in ptoelectronic and in nanophotonic devices. In this work, we study by optical spectroscopy lnAs/lnP and lnAs/GaAs quantum dots grown by molecular beam epitaxy (MBE) using the Stanski-Krastanov (SK) growth mode. The quantum dots are then embedded in an electric-field tunable device called « nanopixel ». Ln the case of the lnAs/lnP quantum dots, we focused on the impact of growth conditions like the cap thickness of the double cap process on the emission energy, the influence of the first cap, temperature effect and the exciton-biexciton system. In the case of lnAs/GaAs system, we studied the impact of the capping layer, the excited level sates, the excitonbi-exciton system, and the impact of temperature. We successfully fabricated nanopixels including a quantum dots layer inside the intrinsic region of a Schottky diode. First results showing the effect of an electric field on a single quantum dot emission are finally described
27

Garcia-Alfaro, Joaquin. "Platform of intrusion management : design and implementation". Télécom Bretagne, 2006. http://www.theses.fr/2006TELB0025.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Since computer infrastructures are currently getting more vulnerable than ever, traditional security mechanisms are still necessary but not sufficient. We need to design effective response techniques to circumvent intrusions when they are detected. We present in this dissertation the design of a platform which is intended to act as a central point to analyze and verify network security policies, and to control and configure – without anomalies or errors – both prevention and detection security components. We also present in our work a response mechanism based on a library that implements different types of countermeasures. The objective of such a mechanism is to be a support tool in order to help the administrator to choose, in this library, the appropriate counter-measure when a given intrusion occurs. We finally present an infrastructure for the communication between the components of our platform, as well as a mechanism for the protection of such components. All these approaches and proposals have been implemented and evaluated. We present the obtained results within the respectives sections of this dissertation
Aujourd’hui les systèmes informatiques sont plus vulnérables aux activités malveillantes qu’auparavant. C’est pour cela que l’utilisation des mécanismes de sécurité traditionnaux est encore nécessaire mais pas suffisante. Nous devons élaborer des méthodes efficaces de détection et de réponse aux attaques afin d’arrêter les événements détectés. Nous présentons dans cette thèse la conception d’une architecture générale qui agira en tant que point central pour analyser et vérifier des politiques de sécurité réseaux, et pour contrôler et configurer – sans anomalies ou erreurs de configuration – des composants de sécurité préventifs et de détection. Nous présentons également un mécanisme de réponse basé sur une bibliothèque de différents types de contremesures. L’objectif de ce mécanisme est d’aider l’administrateur à choisir dans cette bibliothèque la contremesure la mieux adaptée quand une intrusion est détectée. Nous finissons par la présentation d’une infrastructure pour la communication des composants de notre plateforme, et d’un mécanisme pour la protection des composants de celle-ci. Toutes les propositions et approches introduites dans cette thèse ont été implémentées et évaluées. Nous présentons les résultats obtenus dans les sections respectives de cette dissertation
28

Falcone, Yliès Carlo. "Etude et mise en oeuvre de techniques de validation à l'exécution". Université Joseph Fourier (Grenoble), 2009. http://www.theses.fr/2009GRE10239.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'étude de cette thèse porte sur trois méthodes de validation dynamiques : les méthodes de vérification, d'enforcement (mise en application), et de test de propriétés lors de l'exécution des systèmes. Nous nous intéresserons à ces approches en l'absence de spécification comportementale du système à valider. Pour notre étude, nous nous plaçons dans la classification Safety-Progress des propriétés. Ce cadre offre plusieurs avantages pour la spécification de propriétés sur les systèmes. Nous avons adapté les résultats de cette classification, initialement développés pour les séquences infinies, pour prendre en compte de manière uniforme les séquences finies. Ces dernières peuvent être vues comme une représentation abstraite de l'exécution d'un système. Se basant sur ce cadre général, nous nous sommes intéressés à l'applicabilité des méthodes de validation dynamiques. Nous avons caractérisé les classes de propriétés vérifiables, enforçables, et testables. Nous avons ensuite proposé trois approches génériques de vérification, d'enforcement, et de test de propriétés opérant à l'exécution des systèmes. Nous avons montré comment il était possible d'obtenir, à partir d'une propriété exprimée dans le cadre de la classification Safety-Progress, des mécanismes de vérification, d'enforcement, ou de test dédiés à la propriété considérée. Enfin, nous proposons également les outils j-VETO et j-POST mettant en œuvre l'ensemble des résultats proposés sur les programmes Java
This thesis deals with three dynamic validation techniques: runtime verification (monitoring), runtime enforcement, and testing from property. We consider these approaches in the absence of complete behavioral specification of the system under scrutiny. Our study is done in the context of the Safety-Progress classification of properties. This framework offers several advantages for specifying properties on systems. We adapt the results on this classification, initially dedicated to infinite sequences, to take into account finite sequences. Those sequences may be considered as abstract representations of a system execution. Relying on this general framework, we study the applicability of dynamic validation methods. We characterize the classes of monitorable, enforceable, and testable properties. Then, we proposed three generic approaches for runtime verification, enforcement, and testing. We show how it is possible to obtain, from a property expressed in the {\SP} framework, some verification, enforcement, and testing mechanisms for the property under consideration. Finally, we propose the tools j-VETO and j-POST implementing all the aforementioned results on Java programs
29

Blond, Julien. "Modélisation et implantation d'une politique de sécurité d'un OS multi-niveaux via une traduction de FoCaLyze vers C". Paris 6, 2010. http://www.theses.fr/2010PA066370.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans un monde informatique ou les comportements non spécifiés (boggues) sont nombreux, le souci de parvenir à réaliser des programmes plus sûrs est de plus en plus présent. Cette volonté, appuyée par les normes actuelles comme les Critères Communs dans la sécurité, conduit naturellement à l’utilisation de méthode d’ingénierie comme le test et les méthodes formelles qui sont reconnues comme des méthodes éprouvées pour diminuer les erreurs logicielles. C’est dans ce cadre que le département de la sécurité des systèmes d’information de la société Bertin Technologies développe un système d’exploitation. La sécurité mise en oeuvre dans ce système est certifiée par une évaluation de niveau normatif EAL-5 vis-à-vis des Critères Communs. Une telle évaluation nécessite l’utilisation de méthodes formelles pour tout ce qui concerne les politiques de sécurité. Dans ce travail, nous présentons une expérience facilitant le développement de logiciels certifiables dans un cadre industriel en utilisant l’atelier FoCaLize. Cette expérience s’appuie sur les mécanismes de certification proposés par l’atelier mais aussi sur une compilation du source FoCaLize vers du C. Cette traduction est essentielle dans le cadre d’une utilisation industrielle où les langages basés sur C sont majoritairement présents.
30

Contes, Arnaud. "Une architecture de sécurité hiérarchique, adaptable et dynamique pour la Grille". Nice, 2005. http://www.theses.fr/2005NICE4025.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les intergiciels actuels intègrent un grand nombre de technologies relatives aux concepts de sécurité. Cependant, ils laissent aux développeurs la tâche de choisir la technologie la plus adaptée ainsi que la gestion des processus sous-jacents. Cet exercice se révèle d’autant plus difficile lorsque l’application évolue dans un environnement dynamique tel que celui des grilles de calcul. Afin de faciliter le déploiement d’applications distribuées et sécurisées, cette thèse présente un modèle de sécurité décentralisé permettant aux divers acteurs (administrateurs, fournisseurs de ressources, utilisateur) d’exprimer leurs politiques de sécurité. Son utilisation se veut totalement transparente au code métier des applications. La configuration de la politique de sécurité d’une application est exprimée dans es fichiers externes en dehors du code source de cette dernière. Il est ainsi possible d’adapter la sécurité de l’application en fonction de son déploiement. Notre mécanisme de sécurité est conçu pour s’adapter dynamiquement aux situations survenant dans le cycle de vie d’une application distribuée, notamment l’acquisition de nouvelles ressources et la création de nouveaux objets. L’implantation du modèle au sein d’une bibliothèque pour le calcule distribué a permis de démontrer la faisabilité de l’approche et ses avantages. En effet, son implantation transparente a permis son intégration immédiate avec les autres modules de la bibliothèque (communications de groupe, mobilité, composants, pair-à-pair). Les tests de performance réalisés afin d’évaluer son surcoût ont confirmé la validité de l’approche
Whereas security is a key notion in the world of distributed applications, its numerous concepts are a difficult step to overcome when constructing such applications. Current middlewares provide all major security-related technologies. However developers still have to select the more accurate one and handle all its underlying processes which is particularly difficult with dynamic, grid-enabled applications. To facilitate the use of security concepts in such applications, tis thesis presents a decentralised security model which takes care of security requirements expressed by all actors (resource provides, administrators, users) involved in a computation. The model is implemented outside the application source code. Its configuration is read from external policy files allowing the adaptation of the application’s security according to its deployments. It has been conceived to handle specific behaviors which could happen during a distributed application life-cycle (use of newly discovered resources, remote object creation)
31

Thomas, Yohann. "Policy-based response to intrusions through context activation". Télécom Bretagne, 2007. http://www.theses.fr/2007TELB0057.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
We present in this thesis a novel approach for automated threat response. The emergence of SIM (Security Information Management) platforms, as well as recent advances in the field of intrusion detection, raises the question of response to the threat reported by such tools. Till now, response is mainly left to the initiative of the security officer. Due to complexity of the analysis, such manual response suffers from a lack of reactivity and possibly relevancy. We propose to replace the security officer by a component in charge of assessing threats considering alerts reported by security monitoring tools, and responsible for deciding which countermeasures are suitable. The core of our proposal relies on the use of a contextual security policy, which is instantiated depending on current context. Beyond traditional operational requirements, the policy includes reaction and minimal requirements. The reaction policy deals with threat contexts, which are activated considering alerts, so that new policy instances (permissions or prohibitions) may be deployed according to threat. The minimal policy allows to guarantee requirements which must always be ensured, even in case of threat. The corresponding architecture of a threat response system is provided, and the use of Or-BAC to model reaction and minimal requirements is discussed, to allow fine-grained and suitable countermeasures. Our approach allows to establish the missing connection between security policies and security monitoring (IDS). This results in a continuous assessment of the best compromise between multiple adjustment variables, including security, but also other requirements such as performance, convenience and business constraints.
Nous présentons dans cette thèse une nouvelle approche de réponse face aux menaces auxquelles les systèmes informatiques sont soumis. Cette approche est basée sur l'intégration de la notion de contre-mesure au sein même de la politique de sécurité. En particulier, la notion de contexte permet d'évaluer l'état courant du système, et d'exprimer la politique en fonction de cet état. Pour ce faire, le modèle de contrôle d'accès basé sur l'organisation (Or-BAC) est utilisé, distinguant la définition générique de la politique de son implémentation effective en fonction du contexte. Le contexte intègre aussi bien des paramètres spatiaux et temporels que des paramètres plus proprement liés au domaine de la sécurité opérationnelle, comme les alertes remontées par les systèmes de détection d'intrusions (IDS). Ces alertes permettent la caractérisation de la menace à laquelle est soumis le système d'information à un instant donné. Des contextes de menace sont instanciés par notre système de réponse, permettant de déclencher des mises a jour de la politique et son déploiement subséquent. Ainsi, le système est capable d'adapter dynamiquement ses paramètres de fonctionnement en considérant notamment la menace. Nous proposons une approche innovante établissant le lien entre la politique de sécurité et l'un des principaux moyens qui permet d'encontrôler le respect, à savoir les systèmes de détection d'intrusions. Ce lien n'existait pas jusqu'alors, c'est-à-dire que les violations de la politique de sécurité détectées par les IDS n'avaient que peu de conséquences sur les exigences de la politique de sécurité effectivement implementées par les points d'application. Pourtant, force est de constater que l'implementation de la politique ne doit pas être statique. En particulier, nous montrons qu'il est possible de gérer dynamiquement l'accès aux services et aux ressources en fonction de la menace. En outre, ce travail fournit un début de réponse a la problématique de la réactivité et de la pertinence de la réponse face aux menaces. La réponse aux attaques informatiques est le plus souvent gérée manuellement par l'opérateur de sécurité. Ce même opérateur de sécurité manque malheureusement bien souvent de réactivité et de discernement pour répondre de manière adéquate à la menace, notamment parce qu'il est bien souvent noyé sous le flot des alertes ; le travail d'analyse est fastidieux et difficile au vu du nombre de paramètres a considérer. D'un autre côté, les attaques se multiplient, les attaquants mettent de moins en moins de temps a pénétrer les systèmes et à produire des dégâts qui peuvent rapidement se chiffrer en millions d'euros pour les entreprises. Automatiser la réponse est donc une nécessité
32

Disson, Eric. "Sécurité des accès dans les systèmes d'information coopératifs". Lyon 3, 2001. http://www.theses.fr/2001LYO33032.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail de recherche s'inscrit dans le domaine de la sécurité des accès dans les systèmes d'information coopérant. La modélisation proposée doit prendre en compte l'interopération de systèmes d'information ouverts et évolutifs et, de plus, garantir le respect des différentes politiques de sécurité locales. La coexistance de sources d'information hétérogènes dans le cadre d'un système d'information pose des problèmes d'homogénéisation au niveau des politiques locales de sécurité. On peut distinguer deux types d'hétérogénéité des politiques d'accès locales et hétérogénéité sémantique entre les instances d'objets / sujets de schémas d'accès locaux. Pour résoudre cette double difficulté, nous proposons un processus d'intégration d'unsystème local à la fédération se déroulant en trois étapes. Dans un premier temps, les administrateurs locaux définissent un schéma d'exportation de données. Un modèle de rôle original appelé "modèle de rôle étendu" permet alors la représentation unifiée des schémas d'accès locaux tout en conservant les propriétés du contrôle de flux des trois principales politiques d'accès (discrétionniare, modèle de rôles et modèles multi-niveaux). Lors de la troisième phase du processus, les schémas d'accès décrits sont enrichis pour établir les autorisations d'accès inter-schémas. L'objectif principal de la politique de contrôle des flux du niveau global est de respecter les profils utilisateurs locaux : un utilisateur local ne peut lire ou modifier des informations fédérées que si elles sont équivalentes aux informations locales sur lesquelles il a de telles autorisations. Dans ce but, nous définissons une session globale sécurisée permettant de respecter une politique d'importation et d'exportation des données entre la fédération et ses divers membres. L'ensemble de ces proposisions s'appuie et complète le modèle de coopération de l'équipe MODEME. Une solution pour implanter le modèle objet de coopération sécurisée est aussi présentée.
33

Pham, Van-Hau. "De l'identification d'événements d'attaques dans des traces recueillies sur des pots de miel". Paris, Télécom ParisTech, 2009. http://www.theses.fr/2009ENST0017.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La sécurité de I'lnternet représente un souci majeur de nos jours. De nombreuses initiatives sont menées qui cherchent à offrir une meilleure compréhension des menaces. Récemment, un nouveau domaine de recherches a vu le jour qui vise à étudier le mode opératoire des attaquants et à identifier les caractéristiques des groupes responsables des attaques observées. Le travail réalisé dans cette thèse concourt à cet objectif. Nous montrons que, à partir de traces réseau obtenues à partir d'un réseau mondial de pots de miel sur une période de deux ans, il est possible d'extraire de la connaissance significative et utile sur les attaquants. Pour atteindre ce but, la thèse offre plusieurs contributions importantes. Tout d'abord, nous montrons que les traces d'attaques peuvent être groupées en trois classes distinctes, correspondant à des phénoménes d'attaque différents. Nous avons défini, implémenté et validé des algorithmes qui permettent de classifier un trés grand nombre de traces selon ces trois catégories. Deuxièmement, nous montrons que, pour deux de ces classes, il est possible d'identifier des micro et macro événements d'attaques présents durant un nombre limité de jours. Ces événements sont des éléments importants pour identifier des activités spécifiques qui, autrement, auraient été perdues dans le bruit diffus des autres attaques. Ici encore, un environnement été défini, réalisé et validé à I'aide de deux ans de trace. Des centaines d'événements ont été ainsi été trouvés dans nos traces. Enfin, nous montrons que, en regroupant ces événements, il es possible de mettre en lumière le mode opératoire des organisations responsables des attaques. La validation expérimentale de notre approche nous a menés à l'identification de dizaines de ce que nous appelons des armées de zombies. Leurs caractéristiques principales sont présentées dans la thèse et elles révèlent des informations importantes sur la dynamique associée aux attaques observables sur internet
Lnternet security is a major issue nowadays. Several research initiatives have been carried out to understand the Internet security threats. Recently, a domain has emerged called attack attribution that aims at studying the modus operandi of the attacks and at identifying the characteristics of the groups responsible for the observed attacks. The work presented in this thesis participates to the efforts in this area. We show in this work that, starting from network traces collected over two years on a distributed system of low interaction honeypots, one can extract meaningful and useful knowledge about the attackers. To reach this goal, the thesis makes several important contributions. First of all, we show that attack traces can be automatically grouped into three distinct classes, corresponding to different attack phenomena. We have defined, implemented and validated algorithms to automatically group large amount of traces per category. Secondly, we show that, for two of these classes, so called micro and macro attack events can be identified that span a limited amount of time. These attack events represent a key element to help identifying specific activities that would, otherwise, be lost in the so called attack background radiation noise. Here too, a new framework has been defined, implemented and validated over 2 years of traces. Hundreds of significant attack events have been found in our traces. Last but not least, we showed that, by grouping attack events together, it was possible to highlight the modus operandi of the organizations responsible for the attacks. The experimental validation of our approach led to the identification of dozens of so called zombie armies. Their main characteristics are presented in the thesis and they reveal new insights on the dynamics of the attacks carried ou over the Internet
34

Briffaut, Jérémy. "Formation et garantie de propriétés de sécurité système : application à la détection d'intrusions". Orléans, 2007. http://www.theses.fr/2007ORLE2053.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans cette thèse, nous nous intéressons à la garantie des propriétés d'intégrité et de confidentialité d'un système d'information. Nous proposons tout d'abord un langage de description des activités système servant de base à la définition d'un ensemble de propriétés de sécurité. Ce langage repose sur une notion de dépendance causale entre appels système et sur des opérateurs de corrélation. Grâce à ce langage, nous pouvons définir toutes les propriétés de sécurité système classiquement rencontrées dans la littérature, étendre ces propriétés et en proposer de nouvelles. Afin de garantir le respect de ces propriétés, une implantation de ce langage est présentée. Nous prouvons que cette implantation capture toutes les dépendances perceptibles par un système. Cette méthode permet ainsi d'énumérer l'ensemble des violations possibles des propriétés modélisables par notre langage. Notre solution exploite la définition d'une politique de contrôle d'accès afin de calculer différents graphes. Ces graphes contiennent les terminaux du langage et permettent de garantir le respect des propriétés exprimables. Nous utilisons alors cette méthode pour fournir un système de détection d'intrusion qui détecte les violations effectives des propriétés. L'outil peut réutiliser les politiques de contrôle d'accès disponibles pour différents systèmes cibles DAC (Windows, Linux) ou MAC tels que SELinux et grsecurity. Cet outil a été expérimenté sur un pot de miel durant plusieurs mois et permet de détecter les violations des propriétés souhaitées.
35

Abdelnur, Humberto Jorge. "Gestion de vulnérabilités voix sur IP". Thesis, Nancy 1, 2009. http://www.theses.fr/2009NAN10005/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les solutions voix sur IP (VoIP) sont actuellement en plein essor et gagnent tous le jours de nouveaux marché en raison de leur faible coût et d'une palette de services riche. Comme la voix sur IP transite par l'Internet ou utilise ses protocoles, elle devient la cible de multiples attaques qui peuvent mettre son usage en péril. Parmis les menaces les plus dangereuses on trouve les bugs et les failles dans les implantations logicielles des équipements qui participent à la livraison de ces services. Cette thése comprend trois contributions à l'amélioration de la sécurité des logiciels. La première est une architecture d'audit de sécurité pour les services VoIP intégrant découverte, gestion des données et attaques à des fins de test. La seconde contribution consiste en la livraison d'une approche autonome de discrimination de signatures de messages permettant l'automatisation de la fonction de fingerprinting passif utilisée pour identifier de façon unique et non ambigüe la source d'un message. La troisième contribution porte sur la détection dynamique de vulnérabilités dans des états avancés d'une interaction protocolaire avec un équipement cible. L'expérience acquise dans la recherche de vulnérabilités dans le monde de la VoIP avec nos algorithmes est également partagée dans cette thèse
VoIP networks are in a major deployment phase and are becoming widely accepted due to their extended functionality and cost efficiency. Meanwhile, as VoIP traffic is transported over the Internet, it is the target of a range of attacks that can jeopardize its proper functionality. Assuring its security becomes crucial. Among the most dangerous threats to VoIP, failures and bugs in the software implementation will continue rank high on the list of vulnerabilities. This thesis provides three contributions towards improving software security. The first is a VoIP specific security assessment framework integrated with discovery actions, data management and security attacks allowing to perform VoIP specific assessment tests. The second contribution consists in an automated approach able to discriminate message signatures and build flexible and efficient passive fingerprinting systems able to identify the source entity of messages in the network. The third contribution addresses the issue of detecting vulnerabilities using a stateful fuzzer. It provides an automated attack approach capable to track the state context of a target device and we share essential practical experience gathered over a two years period in searching for vulnerabilities in the VoIP space
36

Benali, Fatiha. "Modélisation et classification automatique des informations de sécurité". Lyon, INSA, 2009. http://theses.insa-lyon.fr/publication/2009ISAL0007/these.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La sécurité d’un système d’information est devenue un enjeu stratégique important. Actuellement, les organisations (organismes ou entreprises) évoluent et disposent de multiples nœuds exécutant de multiples systèmes. Ces organisations déploient de multiples équipements de sécurité et offrent différents services à leurs utilisateurs. Les services, les ressources ainsi que les équipements déployés peuvent être des cibles pour les intrus. L'interopérabilité entre les produits déployés pour la surveillance du SI est absolument nécessaire. Nous proposons dans notre travail une architecture pour un système de détection d’intrusion basée sur l'interopérabilité entre les différents produits (de sécurité et de management) et les services déployés dans un organisme. Cette architecture va fournir une vision globale et répond aux besoins actuels de l'administrateur de sécurité. La détection d'intrusion dans ce contexte consiste à analyser les informations (alertes et événements) remontées par tous ces dispositifs mis en place afin de *surveiller un système d'information* et de prévenir toute action non légalement autorisée. Les processus d'analyse des informations de sécurité rencontrent des problèmes sérieux à cause de l’hétérogénéité des mécanismes impliqués dans la surveillance du SI et à cause du manque de standard pour la représentation de ces informations. Les travaux de thèse s’inscrivent dans le cadre de la modélisation des informations de sécurité afin de faire face au problème d’hétérogénéité des produits de surveillance, ce qui permet par la suite aux processus de gestion des informations de sécurité (comme la détection d’intrusion ou la recherche de causes d’un incident de sécurité) d’être opérationnelles et efficaces. La première partie de la thèse propose une solution pour la modélisation de la sémantique des informations de sécurité au travers d’une ontologie. Le but de l’ontologie réalisée est de décrire d'une manière uniforme la sémantique de toutes les activités qui peuvent être effectuées par des utilisateurs du SI, en faisant abstraction des produits impliqués dans la surveillance d’un SI, et en focalisant que sur les concepts porteurs de connaissance pour les mécanismes de traitement de ces informations. La mise en œuvre de l’ontologie consiste à faire une classification des alertes et événements remontés par les produits de surveillance dans les catégories qui ont été décrites par l’ontologie. La deuxième partie de la thèse s'attache à l'automatisation de la classification des messages de sécurité. Comme nous possédons un corpus de messages préalablement classifiés, nous nous intéressons donc aux techniques de catégorisation automatique de texte (CT). Ces techniques s'appuient sur des méthodes d'apprentissage. Le processus de classification proposé se compose en deux étapes. La première étape permet la préparation de données et leur représentation dans un format exploitable par les algorithmes de classification. La deuxième étape s'attache à appliquer les algorithmes des machines d'apprentissage sur les informations de sécurité prétraitées. L’application des solutions proposées dans la thèse se fait sur une base d’alertes et d’événements fournie par l’entreprise Exaprotect (un éditeur de logiciel de sécurité)
The security of the Information System(IS) has become an important strategic issue. Currently, organizations or companies are evolving and have multiple nodes running multiple systems. These organizations are deploying multiple security devices and offer different services to their users. Services, resources and equipment deployed may be the targets for intruders. Interoperability between products to monitoring the IS is absolutely necessary. We present in our work an architecture for intrusion detection system based on interoperability between different products (security and management) and services deployed in an organization. This architecture will provide a comprehensive and meets the current needs of the security administrator. Intrusion detection in this context is to analyze the information (alerts and events) generated from all these devices to prevent any action not legally permitted. The process of analyzing information security faced serious problems because of the heterogeneity of the mechanisms involved in the monitoring of the IS and because of the lack of standard to presents of such information. The thesis is part of the modeling of security information to address the problem of the heterogeneity of the products, allowing the management process of information security (such as intrusion detection or the search for causes of a security incident) to be operational and efficient. The first part of the thesis proposes a solution for modeling the semantics of information security through an ontology. The purpose of the ontology is to describe in a uniform manner the semantics for all activities that may be made by users of IS, regardless of the products involved in the supervision of an IS, and focusing on the concepts of knowledge for mechanisms for processing such information. The implementation of the ontology is to make a classification of events and alerts generated by the monitoring products, in categories that were described by the ontology. The second part of the thesis focuses on automating the classification of security messages. As we have a corpus of previously classified messages, therefore we are interested in the techniques for automatic categorization of text (CT). These techniques are based on machine learning methods. The proposed classification process consists of two stages. The first step allows the data preparation and representation in a format usable by the classification algorithms. The second step aims to implement the algorithms machine learning on information security preprocessed. The application of the solutions proposed in the thesis is on a basis of alerts and events provided by the company Exaprotect (a publisher of software security)
37

Hasrouny, Hamssa. "Gestion de confiance et solutions de sécurité pour les réseaux véhiculaires". Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2018. http://www.theses.fr/2018TELE0001.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les réseaux véhiculaires sont constitués de véhicules capables de s’échanger des informations par voie radio afin d'améliorer la sécurité routière (diffusion de messages d'alerte en cas d’accident ou de ralentissement anormal, conduite collaborative entre véhicules…) ou de permettre aux passager d’accéder à l’Internet (applications de réseaux collaboratifs, jeux interactifs, gestion des espaces libres dans les parkings…). Malheureusement, les messages liés à la sécurité routière échangés entre les véhicules peuvent être falsifiés ou éliminés par des entités malveillantes afin de causer des accidents et mettre en péril la vie des personnes. Dans cette thèse, nous nous concentrons particulièrement sur la définition, conception et l’évaluation d’une solution de sécurité pour les communications entre véhicules afin d’assurer une communication sécurisée et un bon niveau de confiance entre les différents véhicules participants. En adoptant un modèle basé sur la formation de groupes, nous procédons à l'évaluation de niveau de confiance des véhicules participants à ces réseaux et nous développons un modèle de confiance qui sert à analyser leurs comportements dans leurs groupes respectifs tout en respectant la vie privée des participants et en maintenant une surcharge minimale dans le réseau. Ensuite, nous proposons un modèle hiérarchique et modulaire permettant la détection de comportement malveillant et la gestion de la révocation des certificats des véhicules concernés
VANETs (Vehicular Ad-hoc Networks) consist of vehicles capable of exchanging information by radio to improve road safety (alerts in case of accidents or in case of abnormal slowdowns, collaborative driving…) or allow internet access for passengers (collaborative networks, infotainment, etc.). Road safety messages exchanged between vehicles may be falsified or eliminated by malicious entities in order to cause accidents and endanger people life. In this thesis, we focus on defining, designing and evaluating a security solution for V2V communications in VANET, to ensure a secure communication and a good level of confidence between the different participating vehicles. Adopting a group-based model, we consider the Trustworthiness evaluation of vehicles participating in VANET and we develop a Trust Model to analyze the behavior of the vehicles in the group while preserving the privacy of the participants and maintaining low network overhead. We then propose a hierarchical and modular framework for Misbehavior Detection and Revocation Management
38

Sadde, Gérald. "Sécurité logicielle des systèmes informatiques : aspects pénaux et civils". Montpellier 1, 2003. http://www.theses.fr/2003MON10019.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
De l'instant de l'attaque logicielle contre le système, jusqu'aux conséquences macro-économiques induites, nous suivrons la propagation du dommage et ses implications juridiques en matière d'obligations et de responsabilité. Cela nous donnera tout d'abord l'occasion d'aborder l'aspect répressif de la sécurité au travers de la sanction pénale de l'acte. Mais tout autant nous nous intéresserons aux relations contractuelles qui vont naître de la prévention du dommage, au travers des mesures prises par la victime, le maître du système, pour protéger ses intérêts. Nous envisagerons les recours qui s'offrent non seulement à ce dernier mais aussi aux utilisateurs du système attaqué, qui subiront parfois un préjudice du fait d'une atteinte, à leurs biens, à la qualité d'un service, ou à leur vie privée. Enfin la sécurité informatique est à nos yeux un impératif d'ordre public et ce sont les dommages potentiels à l'économie dans son ensemble qui concluront donc cette étude.
39

Bascou, Jean-Jacques. "Contribution à la sécurité des systèmes : une méthodologie d'authentification adaptative". Toulouse 3, 1996. http://www.theses.fr/1996TOU30253.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les mecanismes de protection les plus repandus actuellement sur les systemes d'information proposent certaines formes de barrages ne pouvant etre franchis que par des utilisateurs autorises (mots de passe) dans le cas ou ces filtres sont franchis, la plupart des systemes deviennent completement accessibles et a la merci de l'intrus. L'idee directrice de notre travail est d'apporter un complement aux mecanismes d'authentification traditionnels. Ce complement n'a aucunement la pretention d'etre infaillible, mais il permet de generer un facteur de risque dont l'effet peut etre particulierement dissuasif. Notre travail a porte sur l'etude d'une methode de conception d'un outil permettant de confirmer periodiquement l'authenticite d'un sujet agissant sur un systeme d'information donne. Ce complement d'authentification s'exerce apres le passage des mecanismes de securite traditionnels. Cette authentification doit s'effectuer de maniere transparente pour le sujet et peut s'apparenter a une verification comportementale. Le comportement du sujet controle doit correspondre dans une certaine mesure au comportement attendu. Une methode de decomposition arborescente d'un probleme de securite complexe en sous problemes a ete definie. Cette methode permet de resoudre une requete d'authentification en resolvant un certain nombre de sous requetes dont l'equivalence avec la premiere est quantifiee par une approche probabiliste. Les feuilles de l'arborescence representent des requetes fondamentales dont la complexite de resolution peut etre variable. Pour la resolution de requetes fondamentales complexes, nous proposons une strategie de choix de parametres mesurables dont la correlation entre eux est une consequence de l'authenticite du sujet etudie. Des resultats d'experiences sont exposes ensuite. Une premiere experience evoque la conception d'un systeme d'authentification dont le but est de limiter les fraudes bancaires dues a une utilisation illicite des cartes de paiement. Une deuxieme experience concerne l'etude de cas d'un utilisateur de systeme unix dont l'authenticite peut etre confirmee par l'analyse de la vitesse de frappe de son mot de passe par un perceptron, ainsi que par les commandes qu'il utilise
40

Jacob, Grégoire. "Malware behavioral models : bridging abstract and operational virology". Rennes 1, 2009. http://www.theses.fr/2009REN1S204.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
This thesis is devoted to the modeling of malicious behaviors inside malevolent codes, commonly called malware. The thesis work follows two directions, one operational, one theoretical. The objective is to eventually combine these two approaches in order to elaborate detection methods covering most of existing malware, while offering formal security guarantees against appearing ones. The operational approach introduces an abstract behavioral language, independent from implementation. The language itself relies on the attribute-grammar formalism, capable of expressing the behavior semantics. Within the language, several behavior descriptions are specified in order to build a multi-layered detection method based on parsing. Its deployment has shown satisfying results in terms of coverage. On the basis of the same language, some techniques of behavioral mutation have been formalized using compilation techniques. These mutations have proved themselves interesting tools for the evaluation of antiviral products. The theoretical approach introduces a formal viral model, no longer based on functional paradigms, but on process algebras. This new model enables the description of self-replication as well as other more complex behaviors based on interactions. It supports the redemonstration of fundamental results such as the detection undecidability or the prevention by isolation. Moreover, the model supports the formalization of several existing techniques of behavioral detection, thus allowing the formal evaluation of their resilience
Cette thèse s'intéresse à la modélisation des comportements malicieux au sein des codes malveillants, communément appelés malwares. Les travaux de thèse s'articulent selon deux directions, l'une opérationnelle, l'autre théorique. L'objectif à terme est de combiner ces deux approches afin d'élaborer des méthodes de détection comportementales couvrant la majorité des malwares existants, tout en offrant des garanties formelles de sécurité contre ceux susceptibles d'apparaître. L'approche opérationnelle introduit un langage comportemental abstrait, décorrélé de l'implémentation. Le langage en lui-même repose sur le formalisme des grammaires attribuées permettant d'exprimer la sémantique des comportements. A l'intérieur du langage, plusieurs descriptions de comportements malicieux sont spécifiées afin de construire une méthode de détection multicouche basée sur le parsing. Sur la base de ce même langage, des techniques de mutation comportementale sont également formalisées à l'aide de techniques de compilation. Ces mutations se révèlent un outil intéressant pour l'évaluation de produits antivirus. L'approche théorique introduit un nouveau modèle viral formel, non plus basé sur les paradigmes fonctionnels, mais sur les algèbres de processus. Ce nouveau modèle permet la description de l'auto-réplication ainsi que d'autres comportements plus complexes, basés sur les interactions. Il supporte la redémonstration de résultats fondamentaux tels que l'indécidabilité de la détection et la prévention par isolation. En outre, le modèle supporte la formalisation de plusieurs techniques existantes de détection comportementale, permettant ainsi d'évaluer formellement leur résistance
41

Trabelsi, Slim. "Services spontanés sécurisés pour l'informatique diffuse". Phd thesis, Télécom ParisTech, 2008. http://pastel.archives-ouvertes.fr/pastel-00004140.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le paradigme de l'informatique diffuse suppose implicitement un modèle d'interaction dynamique qui s'appuie en premier lieu sur la découverte d'applications ambiantes et d'appareils environnants. Quoique la découverte soit au cœur de tels systèmes, en particulier ceux qui s'organisent selon une architecture orientée services, le besoin de sécuriser ce composant critique et la complexité de cette tâche ont été largement sous-estimés, voire négligés jusqu'à aujourd'hui. Cette thèse s'attaque à la conception de protocoles sécurisés et d'architectures fiables pour résoudre les problèmes des techniques actuelles de découverte de service. Après avoir présenté les besoins de sécurité de ce type de protocole, nous proposons trois solutions sécurisées pour la découverte de services correspondant à des degrés divers d'organisation et d'échelle de l'infrastructure sur laquelle le mécanisme est déployé. Nous montrons tout d'abord comment le chiffrement est suffisant pour protéger des architectures décentralisées de type LAN ou WLAN en restreignant l'accès aux messages de découverte diffusés d'après une politique à base d'attributs. Nous proposons ensuite l'utilisation de politiques de découvertes comme concept essentiel à la sécurisation de la découverte de services dans les architectures centralisées qui s'appuient sur un registre comme tiers de confiance. Nous introduisons enfin une architecture pour le déploiement d'un mécanisme de découverte de services sécurisé à plus grande échelle s'appuyant sur un système d'indexation pair à pair accessible via une couche de routage anonyme. Dans une deuxième partie de la thèse, nous analysons l'efficacité des mécanismes de découverte de service sécurisée proposés par une étude de performance. Un modèle Markovien est construit afin de calculer différents paramètres de performances liées à la robustesse, la disponibilité, l'efficacité ou le coût en termes de ressources consommées lors de l'exécution d'un processus de découverte en charge normale aussi bien que soumis à une attaque de déni de service. Nous discutons finalement dans une dernière partie des problèmes de sécurité et de confiance liés à l'introduction de sensibilité contextuelle dans les mécanismes de découverte de service.
42

Fadlallah, Ahmad. "Des solutions pour la traçabilité des attaques Internet". Paris, ENST, 2008. http://www.theses.fr/2008ENST0012.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les attaques de déni de service (DoS) constituent un véritable danger menaçant la disponibilité et la stabilité du réseau Internet. Leur danger ascendant et continu fut le principal moteur de motivation pour notre recherche, qui démarre par une analyse approfondie de ces attaques allant de l’analyse des origines du problème jusqu’à l'étude des tendances des attaques DoS. La deuxième étape dans notre recherche était d'étudier les solutions de défense existantes contre le DoS. Notre étude fournit une analyse des solutions les plus connues, leurs avantages et limitations. En particulier, nous nous sommes intéressés par l’étude des solutions de traçabilité des attaques, vu leur rôle considérable dans le cadre de la défense contre le DoS. L'analyse des différentes catégories de solution de traçabilité nous a conduits à établir un nombre d'exigences pour une solution efficace et déployable. Notre première solution part de l'existant et propose d'utiliser deux techniques de marquage et log de paquets, afin de résoudre mutuellement les problèmes de chaque technique. Notre deuxième solution tente de résoudre le problème de l’overhead de stockage de la première solution. Elle est basée sur la signalisation hors-bande, qui permet de tracer un flux IP en générant des messages de signalisation. Nous proposons ensuite une amélioration de cette solution en mixant la signalisation hors-bande avec le marquage de paquets. Cette méthode réduit d'une manière significative l'overhead en bande passante de la solution précédente tout en respectant les autres exigences de performance, sécurité et déploiement
The Denial of Service (DoS) attacks are a real threat for the availability and stability of the Internet. Their continuous growth was the main motivation of our research, which starts with a thorough analysis of these attacks. The second step in our research was to study the existing DoS defense solutions. Our study provides an analysis of the most well known defense schemes, their advantages and limitations. In particular, we were interested in studying attack traceback solutions, given their important role in the framework of DoS defense. The analysis of different categories of traceback schemes led us to establish a number of requirements for an effective and deployable traceback solution. Our first solution proposes to mix two existing traceback techniques: packet marking and packet logging in order to mutually solve their problems. Our second solution tries to solve the storage overhead problem of the first solution. It is based on out-of-band signaling, which allows tracing IP flows through generating signaling messages. We enhance this solution by mixing the out of band signaling with packet marking. This method significantly reduces the bandwidth overhead of the previous solution while respecting the rest of performance, security and deployment requirements
43

Saadi, Rachid. "The Chameleon : un système de sécurité pour utilisateurs nomades en environnements pervasifs et collaboratifs". Lyon, INSA, 2009. http://theses.insa-lyon.fr/publication/2009ISAL0040/these.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’avènement de l’informatique pervasive permet la mise en place d’environnements intelligents et communicants offrant à l’utilisateur la possibilité de faire interagir ses équipements avec son environnement de manière aisée et transparente. La mobilité de l’utilisateur et la multiplication des dispositifs légers et autonomes accentuent et rendent plus complexes les problèmes de sécurité. En effet, la mise en place d’environnements pervasifs permet à l’utilisateur nomade de solliciter ou de communiquer avec d’autres utilisateurs, des ressources ou des services au sein d’environnements ou de domaines qui lui sont inconnus et réciproquement. Les mécanismes et les solutions existants sont inadéquats pour pallier les nouveaux challenges issus principalement des problèmes d’authentification, de contrôle d’accès et de protection de la vie privée. Dans un système aussi fortement distribué et imprédictible, l’existence d’une autorité centralisatrice n’est en effet pas possible. Il est donc nécessaire de rendre la décision d’accès plus autonome et donc répartie. Dans cette thèse, nous défendons l’idée que l’implémentation d’un système de sécurité basé sur la confiance constitue une solution particulièrement adaptée aux environnements pervasifs. Notre travail à conduit à l’élaboration d’une architecture générique de sécurité prenant en charge l’utilisateur depuis l’identification jusqu’à l’attribution de droits d’accès dans des milieux inconnus. Nommée «Chameleon», celle-ci prend en charge les problèmes issus de l’authentification et du contrôle d’accès dans les environnements mobiles et ubiquitaires. La mise en place de notre approche a nécessité l’implémentation d’un nouveau format de certification « X316 » adaptable au contexte de l’utilisateur, ainsi que la définition d’un modèle de confiance inter-organisations (T2D) dont le but est d’étendre le champ d’accès des utilisateurs mobiles aux ressources environnantes
While the trust is easy to set up between the known participants of a communication, the evaluation of trust becomes a challenge when confronted with unknown environment. It is more likely to happen that the collaboration in the mobile environment will occur between totally unknown parties. An approach to handle this situation has long been to establish some third parties that certify the identities, roles and/or rights of both participants in a collaboration. In a completely decentralized environment, this option is not sufficient. To decide upon accesses one prefer to rely only on what is presented to him by the other party and by the trust it can establish, directly by knowing the other party or indirectly, and vice-versa. Hence a mobile user must for example present a set of certificates known in advance and the visited site may use these certificates to determine the trust he can have in this user and thus potentially allow an adapted access. In this schema the mobile user must know in advance where she wants to go and what she should present as identifications. This is difficult to achieve in a global environment. Moreover, the user likes to be able to have an evaluation of the site she is visiting to allow limited access to her resources. And finally, an user does not want to bother about the management of her security at fine grain while preserving her privacy. Ideally, the process should be automatized. Our work was lead to define the Chameleon architecture. Thus the nomadic users can behave as chameleons by taking the "colors" of their environments enriching their nomadic accesses. It relies on a new T2D trust model which is characterized by support for the disposition of trust. Each nomadic user is identified by a new morph certification model called X316. The X316 allows to carry out the trust evaluation together with the roles of the participants while allowing to hide some of its elements, preserving the privacy of its users
44

Razafindraibe, Hanitriniaina Mamitiana Alin. "Analyse et amélioration de la logique double rail pour la conception de circuits sécurisés". Montpellier 2, 2006. http://www.theses.fr/2006MON20117.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans le domaine de la conception de circuits sécurisés (cartes à puce) et plus particulièrement des circuits robustes aux attaques différentielles en puissance (DPA), la logique double rail apparaît comme une alternative intéressante à la logique statique CMOS. En effet, le codage associé à ce style de logique offre la possibilité d'équilibrer la consommation rendant ainsi impossible les attaques DPA. Partant de ce constat, dans cette thèse, nous nous sommes focalisés sur l’analyse des atouts et faiblesses de la logique double rail et surtout à son amélioration. Dans un premier temps, nous avons montré qu'un circuit double rail est nettement plus résistant aux attaques DPA que son homologue simple rail. Dans un deuxième temps, après une étude approfondie de l'impact de la synthèse physique sur la robustesse de la logique double rail, nous avons abouti à la conclusion qu'en présence de déséquilibres des capacités de charge, des temps de transition et des temps d'arrivée, les circuits double rail peuvent perdre leur avantage et devenir vulnérables aux attaques DPA. Cette étude a permis de définir quelques métriques de robustesse aux attaques DPA à partir desquelles nous avons clairement établi qu'une cellule double rail n'est robuste que si les signaux la contrôlant arrivent tous dans un intervalle de temps particulièrement réduit. Afin d’éliminer cette faiblesse résiduelle de la logique double rail, nous avons finalement proposé une amélioration simple mais efficace de la logique double rail. La logique résultante a été appelée STTL (Secured Triple Track Logic). La mise en œuvre de cette logique a permis de montrer que la logique STTL permet d’obtenir des circuits dont les temps de calcul et la consommation sont indépendants des données
45

Maingot, Vincent. "Conception sécurisée contre les attaques par fautes et par canaux cachés". Grenoble INPG, 2009. https://tel.archives-ouvertes.fr/tel-00399450.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'évolution des besoins en sécurité des applications grand public a entraîné la multiplication du nombre de systèmes sur puces doués de capacités de chiffrement. En parallèle, l'évolution des techniques de cryptanalyse permet d'attaquer les implantations des méthodes de chiffrement utilisées dans ces applications. Cette thèse porte sur le développement d'une méthodologie permettant l'évaluation de la robustesse apportée par des protections intégrées dans le circuit. Cette évaluation est basée d'une part sur l'utilisation de plates-formes laser pour étudier les types de fautes induits dans un prototype de circuit sécurisé ; et d'autre part, sur l'utilisation d'une méthode basée sur des simulations pendant la phase de conception pour comparer l'influence sur les canaux cachés de protections contre les fautes. Cette méthodologie a été utilisée dans un premier temps sur le cas simple d'un registre protégé par redondance d'information, puis sur des primitives cryptographiques telles qu'une S-Box AES et des co-processeurs AES et RSA. Ces deux études ont montré que l'ajout de capacités de détection ou de correction améliore la robustesse du circuit face aux différentes attaques
L'évolution des besoins en sécurité des applications grand public a entraîné la multiplication du nombre de systèmes sur puces doués de capacités de chiffrement. En parallèle, l'évolution des techniques de cryptanalyse permet d'attaquer les implantations des méthodes de chiffrement utilisées dans ces applications. Cette thèse porte sur le développement d'une méthodologie permettant l'évaluation de la robustesse apportée par des protections intégrées dans le circuit. Cette évaluation est basée d'une part sur l'utilisation de plates-formes laser pour étudier les types de fautes induits dans un prototype de circuit sécurisé ; et d'autre part, sur l'utilisation d'une méthode basée sur des simulations pendant la phase de conception pour comparer l'influence sur les canaux cachés de protections contre les fautes. Cette méthodologie a été utilisée dans un premier temps sur le cas simple d'un registre protégé par redondance d'information, puis sur des primitives cryptographiques telles qu'une S-Box AES et des co-processeurs AES et RSA. Ces deux études ont montré que l'ajout de capacités de détection ou de correction améliore la robustesse du circuit face aux différentes attaques
46

Mouelhi, Tejeddine. "Testing and modeling seurity mechanisms in web applications". Télécom Bretagne, 2010. http://www.theses.fr/2010TELB0151.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les travaux effectués dans de cadre de cette thèse s'intéressent à la problématique du test de sécurité des applications, en considérant la validation des mécanismes de sécurité interne à un système d'une part, puis la sécurité des interfaces web d'autre part. Pour la partie interne, nous avons comparé, dans un premier temps, l'utilisation du test fonctionnel et des tests de sécurité pour valider les mécanismes implémentant une politique de contrôle d'accès. Dans ce cadre, l'analyse de mutation a été adaptée pour qualifier et évaluer les tests. Nous avons ensuite proposé trois méthodologies pour tester les mécanismes de contrôle d'accès ; utilisation du pair-wise pour générer les tests de sécurité, sélection et transformation des tests fonctionnels en tests de sécurité et enfin détection de mécanismes de sécurité cachés qui nuisent à la flexibilité et l'évolutivivité du système. Concernant le test des interfaces web, visant non seulement à tester le code validant les entrées de l'utilisateur mais aussi protéger les applications web, nous avons proposé une nouvelle approche qui tire profit du test par contournement et qui permet de protéger les applications web contre ce type d'attaques. Cette approche a été concrétisée dans un outil permettant à la fois l'audit et la sécurisation des applications web. L'ensemble de ces travaux a conduit à réfléchir à de nouvelles méthodologies de développement garantissant une meilleure qualité et une meilleure testabilité des mécanismes de contrôle d'accès. L'ingénierie des modèles (IDM) a été exploitée pour automatiser la spécification et le déploiement semi-automatisé des politiques de contrôle d'accès, et offrir par analyse de mutation un moyen de certification générique des tests de sécurité. Enfin, la composition de modèles permet d'automatiser l'intégration des mécanismes de sécurité, et surtout la reconfiguration automatique du système en cas d'évolution de la politique de sécurité
This thesis focuses on the issue of security testing of web-applications, considering the internal part of a system (access control policies) and then its interfaces (bypass testing and shielding). The proposed approaches led to address the issue of modeling the security policies as well as the testing artifacts, using Model-Driven Engineering as the underlying technology to propose elements for a model-driven security process. Concerning the internal part of a system, we first study the differences between classical functional tests and test targeting the security mechanisms explicitly (so called security tests). In this context, we adapted mutation analysis to assess and qualify security tests. Then, we proposed three complementary approaches dealing with access control testing; the first one is based on pair-wise technique and allows access control tests to be generated automatically, while the second approach allows functional tests to be selected and transformed into security tests. Finally, the last approach focuses on detecting hidden access control mechanisms, which harm the flexibility of the access control mechanisms and their ability to evolve. To complete all these approaches which focus on the internal part of the application, we tackled the issue of testing the interface and especially the bypass-testing. We leveraged the ideas of bypass-testing and used automated analysis of the web application to provide a new approach for testing and shielding web applications against bypass-attacks, which occur when malicious users bypass client-side input validation. The work on access control testing led us to focus on proposing new model-driven approaches for developing and integrating access control mechanisms in a way that guarantees better quality and testability. Two research directions were explored for this purpose. The first one is based on a metamodel and provides a complete MDE process for automatically specifying, and integrating (semi-automatically) access control policies. This approach takes into account testing at the early stage of modeling and provides a generic certification process based on mutation. Finally, the second approach is based on model composition and allows an automated integration of the access control policy, and more importantly the automated reconfiguration of the system when the access control policy needs to evolve
47

Kheir, Nizar. "Response policies and counter-measure : management of service dependencies and intrusion and reaction impacts". Télécom Bretagne, 2010. http://www.theses.fr/2010TELB0162.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nowadays, intrusion response is challenged by both attack sophistication and the complexity of target systems. In fact, Internet currently provides an exceptional facility to share resources and exploits between novice and skilled attackers. As a matter of fact, simply detecting or locally responding against attacks has proven to be insufficient. On the other hand, in order to keep pace with the growing need for more interactive and dynamic services, information systems are getting increasingly dependent upon modular and interdependent service architectures. In consequence, intrusions and responses often have drastic effects as their impacts spread through service dependencies. We argue in this thesis that service dependencies have multiple security implications. In the context of intrusion response, service dependencies can be used to find the proper enforcement points which are capable to support a specific response strategy. They can be also used in order to compute the impact of such responses in order to select the least costly response. In a first attempt to realize the thesis objectives, we explore graph-based service dependency models. We implement intrusion and response impacts as security flows that propagate within a directed graph. We introduce countermeasures as transformations to the dependency graph, and which have direct implications on the impact flows triggered by an intrusion. In a second step, we replace the analytic graph-based approach with a simulation-based approach using colored Petri nets. We develop for this purpose a new service dependency model that outperforms the initial graph-based models. It represents access permissions that apply to service dependencies. Attacker permissions are also implemented in this model by interfacing with attack graphs. We develop a simulation platform that tracks the propagation of intrusion impacts, response impacts, and the combined impacts for intrusion and response. We define a new response index, the return on response investment (RORI), that we evaluate for each response candidate with the aim to select the one that provides a maximal positive RORI index.
48

Saleh, Hayder. "Une architecture novatrice de sécurité à base de carte à puce Internet". Versailles-St Quentin en Yvelines, 2002. http://www.theses.fr/2002VERSA009.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le protocole Smart TP, introduit dans ce mémoire, propose une nouvelle architecture de communication d'une carte à puce Internet permettant à la carte d'agir comme un vrai noeud d'Internet. Ainsi, cette carte pourra participer aux protocoles d'Internet les plus répandus de manière plus active et indépendamment du terminal hôte. La sécurité sur Internet est une des préoccupations majeures de notre société, mettant en action différents aspects, notamment économiques et technologiques. Le déploiement de la carte à puce en tant que dispositif hautement protégé au service des protocoles de sécutité sur Internet constitue le coeur du sujet de cette thèse. Les défis technologiques révélés par ce déploiement ont été étudiés et évalués à travers cette recherche. Une implémentation du protocole proposé a été réalisée pour loger un serveur WEB conforme aux normes Internet dans une carte à puce Java. Ceci a permis d'étudier les problèmes de performance et de faisabilité, ainsi que de découvrir les possibilités d'amélioration de ce protocole (SmartTP). Une démonstration à grande échelle a été ensuite conduite pour explorer les débouchés industriels de cette technologie. Une analyse approfondie a été faite sur l'implication d'une carte à puce dans le protocole SSL. Ce dernier, est pris comme un exemple pour extrapoler les points forts et les points faibles de la carte dans un environnement Internet. Les problèmes issus de l'exemple SSL et les recommandations apportées sont largement valables pour les autres protocoles et constituent les fruits de cette recherche.
49

Abbes, Tarek. "Classification du trafic et optimisation des règles de filtrage pour la détection d'intrusions". Nancy 1, 2004. http://www.theses.fr/2004NAN10192.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous nous intéressons dans cette thèse à des problèmes sensibles rencontrés par la détection d'intrusions à savoir le haut débit, les techniques d'évasion et les fausses alertes. Afin de soutenir le haut débit, nous procédons à une classification du trafic réseau ce qui permet de diviser la charge d'analyse sur plusieurs systèmes de détection d'intrusions et de sélectionner pour chaque classe du trafic la meilleure méthode de détection. Par ailleurs nous réduisons le temps de traitement de chaque paquet en organisant convenablement les règles de détection d'attaques stockées sur les systèmes de détection d'intrusions. Au cours de cette analyse nous proposons un filtrage à la volée de plusieurs signatures d'attaques. Ainsi, nous évitons le réassemblage du trafic qui était auparavant nécessaire pour résister aux techniques d'évasion. Par ailleurs nous assurons une analyse protocolaire avec des arbres de décisions ce qui accélère la détection des attaques et évite les inconvénients du filtrage brut de motifs telles que la génération abondante des faux positifs
In this dissertation we are interested by some bottlenecks that the intrusion detection faces, namely the high load traffic, the evasion techniques and the false alerts generation. In order to ensure the supervision of overloaded networks, we classify the traffic using Intrusion Detection Systems (IDS) characteristics and network security policies. Therefore each IDS supervises less IP traffic and uses less detection rules (with respect to traffics it analyses). In addition we reduce the packets time processing by a wise attack detection rules application. During this analysis we rely on a fly pattern matching strategy of several attack signatures. Thus we avoid the traffic reassembly previously used to deceive evasion techniques. Besides, we employ the protocol analysis with decision tree in order to accelerate the intrusion detection and reduce the number of false positives noticed when using a raw pattern matching method
50

Martinelli, Jean. "Protection d'algorithmes de chiffrement par blocs contre les attaques par canaux auxiliaires d'ordre supérieur". Versailles-St Quentin en Yvelines, 2011. http://www.theses.fr/2011VERS0043.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Traditionnellement, un algorithme cryptographique est évalué à l’aune de sa résistance aux attaques dîtes « logiques ». Lorsque cet algorithme est implanté au sein d’un dispositif matériel, les fuites physiques observables pendant son fonctionnement peuvent également être utilisées par un attaquant pour monter des attaques dîtes « par canaux cachés ». Au sein de cette classe d’attaque, l’analyse différentielle de consommation ou DPA (Differential Power Analysis) est la technique la plus largement étudiée. A l’ordre 1, les attaques DPA sont désormais bien maîtrisées, et des contre-mesures prouvées sûres et relativement efficaces permettent de s’en prémunir. Certains résultats existent également à l’ordre 2 mais pas à l’ordre 3. L’objectif de la thèse est de proposer un cadre pour la DPA d’ordre k lorsque k>1. Pour ce faire, nous avons développé plusieurs méthodes de masquages en alternative aux méthodes classiques. Celles-ci sont susceptible d’offrir un meilleur ratio complexité-sécurité dans certains scénarios. Ces méthodes mettent en œuvre différentes opérations mathématiques comme le produit dans un corps fini ou le produit matriciel, ainsi que des outils cryptographiques tels le partage du secret et le calcul multi-parties. Nous avons évalué la sécurité de ces schémas de masquage suivant une méthodologie mêlant analyse théorique et résultats pratiques. Enfin nous proposons une étude de l’impact de la taille des mots manipulés par un algorithme cryptographique sur sa résistance aux attaques par canaux cachés en fonction du schéma de masquage implémenté
Traditionally, a cryptographic algorithm is estimated through its resistance to "logical" attacks. When this algorithm is implanted within a material device, physical leakage can be observed during the computation and can be analyzed by an attacker in order to mount "side channel" attacks. The most studied side channel attack is the differential power analysis (DPA). First order DPA is now well known and can be prevented by securely proven countermeasures. In 2008, some results are known for second order, but none for third order. The goal of this thesis is to propose a frame for k-th order DPA where k>1. We developed several masking schemes as alternatives to the classical ones in order to propose a better complexity-security ratio. These schemes make use of various mathematical operations such as field multiplication or matrix product and cryptographic tools as secret sharing and multi-party computation. We estimated the security of the proposed schemes following a methodology using both theoretical analysis and practical results. At last we proposed an evaluation of the action of the word size of a cryptographic algorithm upon its resistance against side channel attacks, with respect to the masking scheme implemented

Vai alla bibliografia