Tesi sul tema "Systèmes informatiques – Mesures de sûreté – Automatisation"

Segui questo link per vedere altri tipi di pubblicazioni sul tema: Systèmes informatiques – Mesures de sûreté – Automatisation.

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-50 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Systèmes informatiques – Mesures de sûreté – Automatisation".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Mobarek, Iyad. "Conception d'un système national des équipements médicaux automatiques pour améliorer la performance et réduire les coûts d'investissements et d'exploitations des dispositifs médicaux". Compiègne, 2006. http://www.theses.fr/2006COMP1623.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse décrit les différentes phases de développement, de mise en application et d'évaluation d'un système des équipements médicaux (CES) pour la Jordanie. Ceci inclut le développement et l'automatisation de la gestion et du traitement de toutes les informations techniques liées aux dispositifs médicaux dans 29 hôpitaux, 685 centres de santé, 332 cliniques dentaires, 348 maternités et 23 banques de sang. A chaque équipement médical a été assigné un code d'identité qui peut être repéré par un système de balayage de code barres. Dans la même optique, des codes d'identification ont été attribués à tous les autres éléments impliqués: tels les hôpitaux, le personnel, les pièces de rechange, les ateliers, etc. Le CES entièrement automatisé représente un système puissant; implémenté sur l'ensemble des plateformes du réseau couvrant différents sites de la direction de la technologie biomédicale (DBE) du ministère de la santé partout dans le pays, il constitue le premier CES complet à mettre en application au niveau national un système automatisé qui peut lire et produire des rapports en anglais ou en arabe. Comparé aux standards internationaux, le CES développé a augmenté la capacité d'utilisation des équipements médicaux concernant leur disponibilité (en temps de bon fonctionnement) jusqu'aux meilleurs niveaux internationaux disponibles à des coûts extrêmement bas. Le système complet s'est avéré être un outil utile pour contrôler, commander et extraire tous les éléments des dispositifs médicaux dans le CES considéré. Le système a été évalué et considéré comme fiable, efficace et unique comparés aux systèmes internationalement disponibles et il représente un modèle réussi pour d'autres pays
This thesis describes the different phases of developing, implementing and evaluating a unique Clinical Engineering System (CES) based on Jordan. This includes establishing and then automating ail technical issues and information related to medical equipment in 29 hospitals, 685 health centers, 332 dental clinics, 348 pediatric and mother care clinics and 23 blood banks. Every medical equipment was assigned an identity code that can be recognized through a bar code scanning system and similarly ail other involved parameters like hospitals, personnel, spare parts, workshops. . . Etc. Are also coded comprehensively. The fully automated CES presents a powerful system; implemented over network covering different locations of the Directorate of Biomedical Engineering (DBE) at Ministry Of Heath ail over the country, presenting the first Comprehensive CES to be implemented on the national level and the automated system can read and report in both Arabic and English languages. Compared to international figures the developed clinical engineering system has enhanced the performance of medical equipment including its availability (uptime) up to the best available international levels at extremely low cost. The complete system proved to be invaluable tool to manage, control and report all different parameters concerning medical equipment in the considered clinical engineering system. The System was evaluated and found to be reliable, effective and unique compared to internationally available systems and it presents a. Successful model for other countries
2

Mantovani, Alessandro. "An Analysis of Human-in-the-loop Approaches for Reverse Engineering Automation". Electronic Thesis or Diss., Sorbonne université, 2022. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2022SORUS052.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
En matière de sécurité des systèmes et des logiciels, l'un des premiers critères avant d'appliquer une méthodologie d'analyse est de distinguer selon la disponibilité ou non du code source. Lorsque le logiciel que nous voulons investiguer est présent sous forme binaire, la seule possibilité que nous avons est d'en extraire des informations en observant son code machine, en effectuant ce qui est communément appelé Binary Analysis (BA). Les artisans de ce secteur sont chargés de mêler leur expérience personnelle à un arsenal d'outils et de méthodologies pour comprendre certains aspects intrinsèques et cachés du binaire cible, par exemple pour découvrir de nouvelles vulnérabilités ou détecter des comportements malveillants. Bien que cette configuration humaine dans la boucle soit bien consolidée au fil des ans, l'explosion actuelle des menaces et des vecteurs d'attaque tels que les logiciels malveillants, les exploits armés, etc. met implicitement à l'épreuve ce modèle de BA, exigeant en même temps une grande précision de l'analyse ainsi qu'une évolutivité appropriée des binaires pour contrer les acteurs adverses. C'est pourquoi, malgré les nombreux progrès réalisés dans le domaine de la BA au cours des dernières années, nous sommes toujours obligés de chercher de nouvelles solutions. Dans cette thèse, nous faisons un pas de plus sur ce problème et nous essayons de montrer ce qui manque aux paradigmes actuels pour augmenter le niveau d'automatisation. Pour ce faire, nous avons isolé trois cas d'utilisation classiques de l'analyse binaire et nous avons démontré comment l'analyse en pipeline bénéficie de l'intervention humaine. En d'autres termes, nous avons considéré trois systèmes "human-in-the-loop" et nous avons décrit le rôle de l'homme dans le pipeline en nous concentrant sur les types de feedback que l'analyste "échange" avec sa chaîne d'outils. Ces trois exemples nous ont fourni une vue complète de l'écart entre les solutions actuelles d'analyse binaire et les solutions idéalement plus automatisées, suggérant que la principale caractéristique à la base du retour d'information humain correspond à la compétence humaine à comprendre des portions de code binaire. Cette tentative de systématisation du rôle de l'homme dans les approches modernes de l'analyse binaire tente d'élever la barre vers des systèmes plus automatisés en tirant parti de la composante humaine qui, jusqu'à présent, est toujours inévitable dans la majorité des scénarios d'analyse binaire. Bien que notre analyse montre que les machines ne peuvent pas remplacer les humains au stade actuel, nous ne pouvons pas exclure que les approches futures seront en mesure de combler cette lacune et de faire évoluer les outils et les méthodologies vers un niveau supérieur. Par conséquent, nous espérons avec ce travail, inspirer les recherches futures dans le domaine pour atteindre des techniques d'analyse binaire toujours plus sophistiquées et automatisées
In system and software security, one of the first criteria before applying an analysis methodology is to distinguish according to the availability or not of the source code. When the software we want to investigate is present in binary form, the only possibility that we have is to extract some information from it by observing its machine code, performing what is commonly referred to as Binary Analysis (BA). The artisans in this sector are in charge of mixing their personal experience with an arsenal of tools and methodologies to comprehend some intrinsic and hidden aspects of the target binary, for instance, to discover new vulnerabilities or to detect malicious behaviors. Although this human-in-the-loop configuration is well consolidated over the years, the current explosion of threats and attack vectors such as malware, weaponized exploits, etc. implicitly stresses this binary analysis model, demanding at the same time for high accuracy of the analysis as well as proper scalability over the binaries to counteract the adversarial actors. Therefore, despite the many advances in the BA field over the past years, we are still obliged to seek novel solutions. In this thesis, we take a step more on this problem, and we try to show what current paradigms lack to increase the automation level. To accomplish this, we isolated three classical binary analysis use cases, and we demonstrated how the pipeline analysis benefits from the human intervention. In other words, we considered three human-in-the-loop systems, and we described the human role inside the pipeline with a focus on the types of feedback that the analyst ``exchanges'' with her toolchain. These three examples provided a full view of the gap between current binary analysis solutions and ideally more automated ones, suggesting that the main feature at the base of the human feedback corresponds to the human skill at comprehending portions of binary code. This attempt to systematize the human role in modern binary analysis approaches tries to raise the bar towards more automated systems by leveraging the human component that, so far, is still unavoidable in the majority of the scenarios. Although our analysis shows that machines cannot replace humans at the current stage, we cannot exclude that future approaches will be able to fill this gap as well as evolve tools and methodologies to the next level. Therefore, we hope with this work to inspire future research in the field to reach always more sophisticated and automated binary analysis techniques
3

Oulaaffart, Mohamed. "Automating Security Enhancement for Cloud Services". Electronic Thesis or Diss., Université de Lorraine, 2023. http://www.theses.fr/2023LORR0232.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les avancées des techniques de virtualisation et la maturité des langages d'orchestration ont contribué à la conception et au déploiement de services cloud composites. Ces services cloud peuvent être sujets à des changements dans le temps, en raison de la migration de leurs ressources. Cela peut introduire de nouvelles vulnérabilités, qui compromettent un service cloud dans son ensemble. Dans ce contexte, cette thèse propose d'améliorer et d'automatiser la sécurité des services cloud composites selon trois axes principaux. Le premier axe consiste en un framework de sécurité automatique basé sur SMT pour prendre en charge les migrations dans les services cloud composites, comme ceux orchestrés avec le langage TOSCA (Topology and Orchestration Specification for Cloud Applications). Il s'appuie sur des techniques de vérification pour évaluer automatiquement les changements de configuration qui affectent les composants des services cloud pendant leurs migrations, déterminer les vulnérabilités potentielles et sélectionner des contre-mesures adéquates. Le deuxième axe étudie la conception d'un tiers de confiance inter-cloud, appelé C3S-TTP (Composite Cloud Configuration Security-Trusted Third Party). Celui-ci est capable de réaliser une évaluation précise et exhaustive des vulnérabilités, tout en limitant les informations partagées entre le fournisseur cloud et le client cloud. Le troisième axe est centré sur l'investigation d'une stratégie défensive par cible mouvante qui combine des algorithmes d'intelligence artificielle avec des techniques de vérification. Le but est de compromettre les activités de reconnaissance effectuées par les attaquants à travers une large exploration des états, tout en minimisant l'apparition de nouvelles vulnérabilités qui peuvent avoir un impact important sur la surface d'attaques des services cloud concernés
The advances in virtualization techniques and the maturity of orchestration languages have contributed to the design and deployment of cloud composite services. These cloud services may be subject to changes over time, due to the migration of their resources. This may introduce new vulnerabilities, that compromise the whole services. In that context, this thesis proposes to enhance and automate the security of cloud composite services, according to three main axes. The first axis consists in an automated SMT-based security framework for supporting migrations in cloud composite services, such as those orchestrated with the TOSCA (Topology and Orchestration Specification for Cloud Applications) language. It relies on verification techniques for automatically assessing the configuration changes that affect the components of cloud services during their migrations and determining adequate countermeasures. The second axis investigates the design of an inter-cloud trusted third party, called C3S-TTP (Composite Cloud Configuration Security-Trusted Third Party). This one is capable to perform a precise and exhaustive vulnerability assessment, without requiring the cloud provider and the cloud tenant to share critical configuration information between each other. The third axis is centered on the investigation of a moving target defense strategy which combines artificial intelligence algorithms together with verification techniques. The purpose is to deceive reconnaissance activities performed by attackers through a large exploration of states, while minimizing the occurrence of new vulnerabilities that may impact on the attack surface of cloud composite services
4

Mendy, Norbert Lucien. "Les attaques et la sécurité des systèmes informatiques". Paris 8, 2006. http://www.theses.fr/2006PA082735.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le piratage informatique est apparu avec les premiers micro-ordinateurs vers 1980 et depuis n'a cessé de s'amplifier. Au début, cette pratique était essentiellement individuelle et ludique. Elle est désormais principalement constituée par les activités des personnes qui, individuellement ou en groupe, avec des motivations très diverses, piratent les ordinateurs des autres. Aujourd'hui, l'explosion des moyens de communications électroniques fait que la sécurité des données concerne sans cesse de nouvelles populations. Cette thèse examine dans un premier temps, d’un point de vue technique et sociologique, les méthodes et procédures d’attaques et de défense en matière de piratage informatique. Dans un second temps, elle expose une théorisation de ces mécanismes d’attaques et de défense, avant de proposer une nouvelle conception de la sécurité qui n’est plus seulement centrée sur des moyens techniques mais également sur la prise en compte de la dimension sociale des attaques et de défense
Hacking activities appeared around 1980 with first personal computers and since did not stop developing. At the beginning, this practice was primarily individual and playful. Now it is mainly made up by the activities of groups, with very various motivations. Today, due to the development of electronic means of communication, data security concerns a wider public. This thesis examines initially, from a technical and sociological point of view, attacks and defense mechanisms, and proposes a new concept of the security which is not only any centered on technical solutions but also takes in consideration the social dimension of the problem
5

Koutsos, Adrien. "Preuves symboliques de propriétés d’indistinguabilité calculatoire". Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLN029/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Notre société utilise de nombreux systèmes de communications. Parce que ces systèmes sont omniprésents et sont utilisés pour échanger des informations sensibles, ils doivent être protégés. Cela est fait à l'aide de protocoles cryptographiques. Il est crucial que ces protocoles assurent bien les propriétés de sécurité qu'ils affirment avoir, car les échecs peuvent avoir des conséquences importantes. Malheureusement, concevoir des protocoles cryptographiques est notoirement difficile, comme le montre la régularité avec laquelle de nouvelles attaques sont découvertes. Nous pensons que la vérification formelle est le meilleur moyen d'avoir de bonnes garanties dans la sécurité d'un protocole: il s'agit de prouver mathématiquement qu'un protocole satisfait une certaine propriété de sécurité.Notre objectif est de développer les techniques permettant de vérifier formellement des propriétés d'équivalence sur des protocoles cryptographiques, en utilisant une méthode qui fournit de fortes garanties de sécurités, tout en étant adaptée à des procédures de preuve automatique. Dans cette thèse, nous défendons l'idée que le modèle Bana-Comon pour les propriétés d'équivalences satisfait ces objectifs. Nous soutenons cette affirmation à l'aide de trois contributions.Tout d'abord, nous étayons le modèle Bana-Comon en concevant des axiomes pour les fonctions usuelles des protocoles de sécurités, et pour plusieurs hypothèses cryptographiques. Dans un second temps, nous illustrons l'utilité de ces axiomes et du modèle en réalisant des études de cas de protocoles concrets: nous étudions deux protocoles RFID, KCL et LAK, ainsi que le protocole d'authentification 5G-AKA, qui est utilisé dans les réseaux de téléphonie mobile. Pour chacun de ces protocoles, nous montrons des attaques existentes ou nouvelles, proposons des versions corrigées de ces protocoles, et prouvons que celles-ci sont sécurisées. Finalement, nous étudions le problème de l'automatisation de la recherche de preuves dans le modèle Bana-Comon. Pour cela, nous prouvons la décidabilité d'un ensemble de règles d'inférences qui est une axiomatisation correcte, bien que incomplète, de l'indistingabilité calculatoire, lorsque l'on utilise un schéma de chiffrement IND-CCA2. Du point de vue d'un cryptographe, cela peut être interprété comme la décidabilité d'un ensemble de transformations de jeux
Our society extensively relies on communications systems. Because such systems are used to exchange sensitive information and are pervasive, they need to be secured. Cryptographic protocols are what allow us to have secure communications. It is crucial that such protocols do not fail in providing the security properties they claim, as failures have dire consequences. Unfortunately, designing cryptographic protocols is notoriously hard, and major protocols are regularly and successfully attacked. We argue that formal verification is the best way to get a strong confidence in a protocol security. Basically, the goal is to mathematically prove that a protocol satisfies some security property.Our objective is to develop techniques to formally verify equivalence properties of cryptographic protocols, using a method that provides strong security guarantees while being amenable to automated deduction techniques. In this thesis, we argue that the Bana-Comon model for equivalence properties meets these goals. We support our claim through three different contributions.First, we design axioms for the usual functions used in security protocols, and for several cryptographic hypothesis. Second, we illustrate the usefulness of these axioms and of the model by completing case studies of concrete protocols: we study two RFID protocols, KCL et LAK, as well as the 5G-AKA authentication protocol used in mobile communication systems. For each of these protocols, we show existing or new attacks against current versions, propose fixes, and prove that the fixed versions are secure. Finally, we study the problem of proof automation in the Bana-Comon model, by showing the decidability of a set of inference rules which is a sound, though incomplete, axiomatization of computational indistinguishability when using an IND-CCA2 encryption scheme. From a cryptographer's point of view, this can be seen as the decidability of a fixed set of cryptographic game transformations
6

Cerf, Sophie. "control theory for computing systems : application to big-data cloud services & location privacy protection". Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAT024.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse présente une application de la théorie du contrôle pour les systèmes informatiques. Un algorithme de contrôle peut gérer des systèmes plus grands et plus complexes, même lorsqu'ils sont particulièrement sensibles aux variations de leur environnement. Cependant, l'application du contrôle aux systèmes informatiques soulève plusieurs défis, par exemple dû au fait qu'aucune physique ne les régisse. D'une part, le cadre mathématique fourni par la théorie du contrôle peut être utilisé pour améliorer l'automatisation, la robustesse et la fiabilité des systèmes informatiques. D'autre part, les défis spécifiques de ces cas d'étude permettent d'élargir la théorie du contrôle elle-même. L'approche adoptée dans ce travail consiste à utiliser deux systèmes informatiques d'application: la protection de vie privée liée à la mobilité et les performances des services clouds. Ces deux cas d'utilisation sont complémentaires par la nature de leurs technologies, par leur échelle et par leurs utilisateurs finaux.La popularité des appareils mobiles a favorisé la diffusion et la collecte des données de localisation, que ce soit pour que l'utilisateur bénéficie d'un service personnalisé (e.g. une planification d'itinéraire) ou pour que le prestataire de services tire des informations utiles des bases de données de mobilité (e.g. la popularité de lieux). En effet, de nombreuses informations peuvent être extraites de données de localisation, y compris des données personnelles très sensibles. Pour remédier à cette atteinte à la vie privée, des mécanismes de protection spécifiques aux données de mobilité (LPPM) ont été élaborés. Ce sont des algorithmes qui modifient les données de localisation de l'utilisateur, dans le but de cacher des informations sensibles. Cependant, ces outils ne sont pas facilement configurables par des non experts et sont des processus statiques qui ne s'adaptent pas à la mobilité de l'utilisateur. Dans cette thèse, nous développons deux outils, l'un pour les bases de données déjà collectées et l'autre pour l'utilisation en ligne, qui garantissent aux utilisateurs des niveaux de protection de la vie privée et de préservation de la qualité des services en configurant les LPPMs. Nous présentons la première formulation du problème en termes de théorie du contrôle (système et contrôleur, signaux d’entrée et de sortie), et un contrôleur PI pour servir de démonstration d’applicabilité. Dans les deux cas, la conception, la mise en œuvre et la validation ont été effectuées par le biais d'expériences utilisant des données d'utilisateurs réels recueillies sur le terrain.L'essor récent des bigdata a conduit au développement de programmes capables de les analyser, tel que MapReduce. Les progrès des pratiques informatiques ont également permis d'établir le modèle du cloud (où il est possible de louer des ressources de bas niveau pour permettre le développement d'applications de niveau supérieur sans se préoccuper d'investissement ou de maintenance) comme une solution incontournable pour tous types d'utilisateurs. Garantir les performances des tâches MapReduce exécutées sur les clouds est donc une préoccupation majeure pour les grandes entreprises informatiques et leurs clients. Dans ce travail, nous développons des techniques avancées de contrôle du temps d'exécution des tâches et de la disponibilité de la plate-forme en ajustant la taille du cluster de ressources et en réalisant un contrôle d'admission, fonctionnant quelle que soit la charge des clients. Afin de traiter les non linéarités de MapReduce, un contrôleur adaptatif a été conçu. Pour réduire l'utilisation du cluster (qui entraîne des coûts financiers et énergétiques considérables), nous présentons une nouvelle formulation du mécanisme de déclenchement du contrôle événementiel, combiné à un contrôleur prédictif optimal. L'évaluation est effectuée sur un benchmark s'exécutant en temps réel sur un cluster, et en utilisant des charges de travail industrielles
This thesis presents an application of Control Theory for Computing Systems. It aims at investigating techniques to build and control efficient, dependable and privacy-preserving computing systems. Ad-hoc service configuration require a high level of expertise which could benefit from automation in many ways. A control algorithm can handle bigger and more complex systems, even when they are extremely sensitive to variations in their environment. However, applying control to computing systems raises several challenges, e.g. no physics governs the applications. On one hand, the mathematical framework provided by control theory can be used to improve automation and robustness of computing systems. Moreover, the control theory provides by definition mathematical guarantees that its objectives will be fulfilled. On the other hand, the specific challenges of such use cases enable to expand the control theory itself. The approach taken in this work is to use two application computing systems: location privacy and cloud control. Those two use-cases are complementary in the nature of their technologies and softwares, their scale and in their end-users.The widespread of mobile devices has fostered the broadcasting and collection of users’ location data. It could be for the user to benefit from a personalized service (e.g. weather forecast or route planning) or for the service provider or any other third party to derive useful information from the mobility databases (e.g. road usage frequency or popularity of places). Indeed, many information can be retrieved from location data, including highly sensitive personal data. To overcome this privacy breach, Location Privacy Protection Mechanisms (LPPMs) have been developed. They are algorithm that modify the user’s mobility data, hopefully to hide some sensitive information. However, those tools are not easily configurable by non experts and are static processes that do not adapt to the user’s mobility. We develop two tools, one for already collected databases and one for online usage, that, by tuning the LPPMs, guarantee to the users objective-driven levels of privacy protection and of service utility preservation. First, we present an automated tool able to choose and configure LPPMs to protect already collected databases while ensuring a trade-off between privacy protection and database processing quality. Second, we present the first formulation of the location privacy challenge in control theory terms (plant and control, disturbance and performance signals), and a feedback controller to serve as a proof of concept. In both cases, design, implementation and validation has been done through experiments using data of real users collected on the field.The surge in data generation of the last decades, the so-called bigdata, has lead to the development of frameworks able to analyze them, such as the well known MapReduce. Advances in computing practices has also settled the cloud paradigms (where low-level resources can be rented to allow the development of higher level application without dealing with consideration such as investment in hardware or maintenance) as premium solution for all kind of users. Ensuring the performances of MapReduce jobs running on clouds is thus a major concern for the big IT companies and their clients. In this work, we develop advanced monitoring techniques of the jobs execution time and the platform availability by tuning the resource cluster size and realizing admission control, in spite of the unpredictable client workload. In order to deal with the non linearities of the MapReduce system, a robust adaptive feedback controller has been designed. To reduce the cluster utilization (leading to massive financial and energetic costs), we present a new event-based triggering mechanism formulation combined with an optimal predictive controller. Evaluation is done on a MapReduce benchmark suite running on a large-scale cluster, and using real jobs workloads
7

Balduzzi, Marco. "Mesures automatisées de nouvelles menaces sur Internet". Paris, Télécom ParisTech, 2011. http://www.theses.fr/2011ENST0042.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Pendant les vingt dernières années, Internet s'est transformé d'un réseau simple de taille limitée à un système complexe de grandes dimensions. Alors qu'Internet était initialement utilisé pOUf offrir du contenu statique,organisé autour de simples sites web, aujourd'hui il fournit en même temps contenu et services complexes (comme chat, e-mail ou le web) ainsi que l'externalisation de calculs et d'applications (cloud computing). Les attaquants ne sont pas indifférents à l'évolution d'Internet Souvent motivées par un florissant marché noir, les attaquants sont constamment à la recherche de vulnérabilités, d'erreurs de configuration et de nouvelles techniques. Ceci afin d'accéder à des systèmes protégées, de voler des informations privées, ou propager du contenu malveillant. A ce jour, peu de recherches ont été réalisées pour mesurer la prévalence et l'importance de ces menaces émergentes sur Internet. Or, les techniques traditionnelles de détection ne peuvent pas être facilement adaptés aux installations de grandes dimensions, et des nouvelles méthodologies sont nécessaires pour analyser et découvrir failles et vulnérabilités dans ces systèmes complexes. CeUe thèse avance l'état de l'art dans le test et la mesure à grande échelle des menaces sur Internet. Nous analysons trois nouvelles classes de problèmes de sécurité sur ces infrastructures qui ont connu une rapide augmentation de popularité: le clickjacking, la pollution de paramètres http et les risque liés au cloud computing. De plus, nous introduisons la première tentative d'estimer à grande échelle la prévalence et la pertinence de ces problèmes
Ln the last twenty years, the Internet has grown from a simple, small network to a complex, large-scale system. While the Internet was originally used to offer static content that was organized around simple websites, today, it provides both content and services (e. G. Chat, e-mail, web) as weil as the outsourcing of computation and applications (e. G. Cloud computing). Attackers are not indifferent to the evolution of the Internet. Often driven by a flourishing underground economy, attackers are constantly looking for vulnerabilities, misconfigurations and novel techniques to access protected and authorized systems, to steal private information, or to deliver malicious content. To date, not much research has been conducted to measure the importance and extent of these emerging Internet threats. Conventional detection techniques cannot easily scale to large scale installations, and novel methodologies are required to analyze and discover bugs and vulnerabilities in these complex systems. Ln this thesis, we advance the state-of-art in large scale testing and measurement of Internet threats. We research lnto three novel classes of security problems that affect Internet systems that experienced a fast surge in popularity (i. E. , ClickJacking, HTIP Parameter Pollution, and commercial cloud computing services that allow the outsourcing of server infrastructures). We introduce the tirst, large scale attempt to estimate the prevalence and relevance of these problems on the Internet
8

Kanoun, Wael. "Intelligent risk-aware system for activating and deactivating policy-based response". Télécom Bretagne, 2011. http://www.theses.fr/2011TELB0165.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
The growth of information and critical systems in size and complexity, combined with the steady increase in attacks’ frequency and sophistication, renders current response systems obsolete. The system can be targeted by different but simultaneous attacks, which require the activation of different responses. Furthermore, the appropriate response action for a given attack can have side effects: (i) intrinsic cost for the system or (ii) allowing or facilitating the execution of other attacks. Thus, intelligent response systems are certainly needed in order to enhance the response procedure in automated systems, or to assist the administrators in the process of taking the appropriate response decision. While the majority of existing response models is cost-oriented, we adopt a more general perspective: risk-awareness. Conformably to the definition of risk, we consider jointly the impact and the success likelihood of ongoing attacks, during the response selection procedure. First, we propose a response workflow with two distinctive levels: tactical response and strategic response. Tactical response is composed of simple countermeasures, which have a limited scope in the system. They are generally associated with an ongoing attack’s occurrence. On the other hand, strategic response is specified using a formal policy language (Organization-based Access Control - OrBAC), and deployed in the system to counter a major threat. Second, we focus on tactical response and propose a risk-aware framework. When an ongoing attack is detected, we assess dynamically the overall risk of the attack, by combining mainly its potential impact with its success likelihood. Then, candidate countermeasures are prioritized with respect to their effectiveness in reducing the overall risk. Afterward, we focus on the success likelihood factor, by proposing a dynamic model to assess this metric, which considers the progress’ state of the ongoing attack and the system’s state. Third, we proceed by presenting a risk-aware activation and deactivation framework for strategic response. A strategic response (i. E. Policy-based) is activated and maintained in the system, as long as the dynamic risk of an ongoing attack exceeds the cost of the response. Contrary to other response systems, we consider the deactivation of the response, which is performed when the attack’s risk drops, or when the cost of the response is too high. In this thesis, a VoIP service was selected to demonstrate our proposal. The implementation of the risk-aware tactical response module is mainly based on the CRIM prototype, while we used the MotOrBAC prototype to specify, activate and deactivate strategic response. We believe that a risk-aware approach can offer to the administrator or to the automated response system, a more comprehensive view on the ongoing attacks, and goes beyond by prioritizing candidate responses with respect to their effectiveness in reducing the overall risks
La croissance de l'échelle des systèmes d'information critiques, combinée à l'augmentation continue de la fréquence et de la sophistication des attaques, rend les systèmes de réponses classiques inadéquats. Le système peut être la cible de plusieurs attaques simultanées, qui nécessitent l'activation de réponses différentes et contradictoires. En outre, une réponse peut avoir des effets collatéraux, comme (i) induire un coût intrinsèque sur le système, (ii) permettre et faciliter l'exécution d'autres attaques. Ainsi, les systèmes de réponse doivent être conçus d'une manière intelligente, pour optimiser l'activation des réponses appropriées, soit pour les automatiser, soit pour fournir une assistance à la décision aux administrateurs. Alors que la majorité des modèles de réponses existants considère seulement le coût des attaques et des réponses, nous adoptons une perspective plus générale basée sur le risque. Conformément à la définition du risque, nous considérons conjointement l'impact et la vraisemblance de succès des attaques en cours dans le processus de sélection de réponse. D'abord, nous proposons un workflow qui permet de réagir sur deux plans distincts, sur le plan tactique, et sur le plan stratégique. La réponse tactique est composée des contremesures élémentaires à portées limitées dans le système. Elles sont généralement liées à l'occurrence d'attaque en cours. En revanche, la réponse stratégique est spécifiée avec un langage formel qui permet d'exprimer des politiques de sécurité. Elles sont déployées globalement dans le système pour des menaces majeures. Ensuite, nous proposons un modèle pour la réponse tactique, basé sur une évaluation de risques dynamique. Quand une attaque en cours est détectée, nous évaluons le risque global en combinant l'impact potentiel avec la vraisemblance de succès de l'attaque. Les contremesures seront ordonnées par rapport à leur efficacité à réduire le risque global. Nous mettons l'accent sur le facteur de vraisemblance de succès, et nous proposons un modèle dynamique pour évaluer ce paramètre, en tenant compte du progrès de l'attaque en cours et l'état du système. Enfin, nous présentons un framework basé sur les risques pour l'activation et la désactivation de la réponse stratégique. Cette réponse est activée et déployée quand le risque de l'attaque en cours dépasse le coût cumulé de la réponse, et elle est maintenue tant que le risque reste présent. Contrairement aux systèmes existants, nous considérons la désactivation d'une réponse qui est effectuée lorsque le risque de l'attaque décroît, ou dés lors que le coût de la réponse devient important. Dans cette thèse, un service VoIP a été choisi pour valider nos propositions, tout en respectant les contraintes opérationnelles et de sécurité
9

Znaidi, Wassim. "Quelques propositions de solutions pour la sécurité des réseaux de capteurs sans fil". Lyon, INSA, 2010. http://theses.insa-lyon.fr/publication/2010ISAL0083/these.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse a pour objectif d'étudier des solutions susceptibles d'assurer la sécurité dans les réseaux de capteurs sans fil. Après avoir présenté l'état de l'art du domaine, cette thèse s'articule autour de trois grandes parties. La première partie propose des solutions algorithmiques pour la sécurité des réseaux de capteurs. Deux mécanismes dédiés permettant de détecter deux attaques particulières de ces réseaux sont proposés. Il s'agit d'une première solution permettant de détecter l'attaque. La deuxième solution permet de détecter l'attaque de réplication de nœuds en se basant sur une approche hiérarchique. La deuxième partie se concentre sur des solutions fondées sur l'utilisation de la cryptographie symétrique. Ainsi, un premier protocole de gestion clés et de contrôle d'accès est proposé. Son but est de partager une clé commune entre chaque paire de nœuds présents dans le réseau. Dans un deuxième temps, nous nous sommes intéressés à la sécurisation de l'agrégation des données. Plus précisément, nous proposons deux mécanismes fondés sur sur les fonctions de hachage universelles permettant d'agréger des preuves d'intégrité des données transmises afin de permettre au puits de vérifier l'intégrité des données agrégées. Dans une troisième partie, alors que la diversité des solutions de sécurité permet de définir des politiques de sécurité capable d'assurer des propriétés bien définies, nous présentons une démarche de modélisation formelle permettant de simuler et d'évaluer l'impact des politiques de sécurité sur la consommation énergétique d'un réseau. Le but est ici d'évaluer l'impact en terme d'énergie du passage d'une politique à une autre, ce qui nous permettra ensuite de mieux gérer par exemple la durée de vie d'un réseau de capteurs
The self-organized growth of three-dimensional (3D) quantum dots has attracted a lot of interest for their potential applications in ptoelectronic and in nanophotonic devices. In this work, we study by optical spectroscopy lnAs/lnP and lnAs/GaAs quantum dots grown by molecular beam epitaxy (MBE) using the Stanski-Krastanov (SK) growth mode. The quantum dots are then embedded in an electric-field tunable device called « nanopixel ». Ln the case of the lnAs/lnP quantum dots, we focused on the impact of growth conditions like the cap thickness of the double cap process on the emission energy, the influence of the first cap, temperature effect and the exciton-biexciton system. In the case of lnAs/GaAs system, we studied the impact of the capping layer, the excited level sates, the excitonbi-exciton system, and the impact of temperature. We successfully fabricated nanopixels including a quantum dots layer inside the intrinsic region of a Schottky diode. First results showing the effect of an electric field on a single quantum dot emission are finally described
10

Garcia-Alfaro, Joaquin. "Platform of intrusion management : design and implementation". Télécom Bretagne, 2006. http://www.theses.fr/2006TELB0025.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Since computer infrastructures are currently getting more vulnerable than ever, traditional security mechanisms are still necessary but not sufficient. We need to design effective response techniques to circumvent intrusions when they are detected. We present in this dissertation the design of a platform which is intended to act as a central point to analyze and verify network security policies, and to control and configure – without anomalies or errors – both prevention and detection security components. We also present in our work a response mechanism based on a library that implements different types of countermeasures. The objective of such a mechanism is to be a support tool in order to help the administrator to choose, in this library, the appropriate counter-measure when a given intrusion occurs. We finally present an infrastructure for the communication between the components of our platform, as well as a mechanism for the protection of such components. All these approaches and proposals have been implemented and evaluated. We present the obtained results within the respectives sections of this dissertation
Aujourd’hui les systèmes informatiques sont plus vulnérables aux activités malveillantes qu’auparavant. C’est pour cela que l’utilisation des mécanismes de sécurité traditionnaux est encore nécessaire mais pas suffisante. Nous devons élaborer des méthodes efficaces de détection et de réponse aux attaques afin d’arrêter les événements détectés. Nous présentons dans cette thèse la conception d’une architecture générale qui agira en tant que point central pour analyser et vérifier des politiques de sécurité réseaux, et pour contrôler et configurer – sans anomalies ou erreurs de configuration – des composants de sécurité préventifs et de détection. Nous présentons également un mécanisme de réponse basé sur une bibliothèque de différents types de contremesures. L’objectif de ce mécanisme est d’aider l’administrateur à choisir dans cette bibliothèque la contremesure la mieux adaptée quand une intrusion est détectée. Nous finissons par la présentation d’une infrastructure pour la communication des composants de notre plateforme, et d’un mécanisme pour la protection des composants de celle-ci. Toutes les propositions et approches introduites dans cette thèse ont été implémentées et évaluées. Nous présentons les résultats obtenus dans les sections respectives de cette dissertation
11

Falcone, Yliès Carlo. "Etude et mise en oeuvre de techniques de validation à l'exécution". Université Joseph Fourier (Grenoble), 2009. http://www.theses.fr/2009GRE10239.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'étude de cette thèse porte sur trois méthodes de validation dynamiques : les méthodes de vérification, d'enforcement (mise en application), et de test de propriétés lors de l'exécution des systèmes. Nous nous intéresserons à ces approches en l'absence de spécification comportementale du système à valider. Pour notre étude, nous nous plaçons dans la classification Safety-Progress des propriétés. Ce cadre offre plusieurs avantages pour la spécification de propriétés sur les systèmes. Nous avons adapté les résultats de cette classification, initialement développés pour les séquences infinies, pour prendre en compte de manière uniforme les séquences finies. Ces dernières peuvent être vues comme une représentation abstraite de l'exécution d'un système. Se basant sur ce cadre général, nous nous sommes intéressés à l'applicabilité des méthodes de validation dynamiques. Nous avons caractérisé les classes de propriétés vérifiables, enforçables, et testables. Nous avons ensuite proposé trois approches génériques de vérification, d'enforcement, et de test de propriétés opérant à l'exécution des systèmes. Nous avons montré comment il était possible d'obtenir, à partir d'une propriété exprimée dans le cadre de la classification Safety-Progress, des mécanismes de vérification, d'enforcement, ou de test dédiés à la propriété considérée. Enfin, nous proposons également les outils j-VETO et j-POST mettant en œuvre l'ensemble des résultats proposés sur les programmes Java
This thesis deals with three dynamic validation techniques: runtime verification (monitoring), runtime enforcement, and testing from property. We consider these approaches in the absence of complete behavioral specification of the system under scrutiny. Our study is done in the context of the Safety-Progress classification of properties. This framework offers several advantages for specifying properties on systems. We adapt the results on this classification, initially dedicated to infinite sequences, to take into account finite sequences. Those sequences may be considered as abstract representations of a system execution. Relying on this general framework, we study the applicability of dynamic validation methods. We characterize the classes of monitorable, enforceable, and testable properties. Then, we proposed three generic approaches for runtime verification, enforcement, and testing. We show how it is possible to obtain, from a property expressed in the {\SP} framework, some verification, enforcement, and testing mechanisms for the property under consideration. Finally, we propose the tools j-VETO and j-POST implementing all the aforementioned results on Java programs
12

Blond, Julien. "Modélisation et implantation d'une politique de sécurité d'un OS multi-niveaux via une traduction de FoCaLyze vers C". Paris 6, 2010. http://www.theses.fr/2010PA066370.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans un monde informatique ou les comportements non spécifiés (boggues) sont nombreux, le souci de parvenir à réaliser des programmes plus sûrs est de plus en plus présent. Cette volonté, appuyée par les normes actuelles comme les Critères Communs dans la sécurité, conduit naturellement à l’utilisation de méthode d’ingénierie comme le test et les méthodes formelles qui sont reconnues comme des méthodes éprouvées pour diminuer les erreurs logicielles. C’est dans ce cadre que le département de la sécurité des systèmes d’information de la société Bertin Technologies développe un système d’exploitation. La sécurité mise en oeuvre dans ce système est certifiée par une évaluation de niveau normatif EAL-5 vis-à-vis des Critères Communs. Une telle évaluation nécessite l’utilisation de méthodes formelles pour tout ce qui concerne les politiques de sécurité. Dans ce travail, nous présentons une expérience facilitant le développement de logiciels certifiables dans un cadre industriel en utilisant l’atelier FoCaLize. Cette expérience s’appuie sur les mécanismes de certification proposés par l’atelier mais aussi sur une compilation du source FoCaLize vers du C. Cette traduction est essentielle dans le cadre d’une utilisation industrielle où les langages basés sur C sont majoritairement présents.
13

Contes, Arnaud. "Une architecture de sécurité hiérarchique, adaptable et dynamique pour la Grille". Nice, 2005. http://www.theses.fr/2005NICE4025.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les intergiciels actuels intègrent un grand nombre de technologies relatives aux concepts de sécurité. Cependant, ils laissent aux développeurs la tâche de choisir la technologie la plus adaptée ainsi que la gestion des processus sous-jacents. Cet exercice se révèle d’autant plus difficile lorsque l’application évolue dans un environnement dynamique tel que celui des grilles de calcul. Afin de faciliter le déploiement d’applications distribuées et sécurisées, cette thèse présente un modèle de sécurité décentralisé permettant aux divers acteurs (administrateurs, fournisseurs de ressources, utilisateur) d’exprimer leurs politiques de sécurité. Son utilisation se veut totalement transparente au code métier des applications. La configuration de la politique de sécurité d’une application est exprimée dans es fichiers externes en dehors du code source de cette dernière. Il est ainsi possible d’adapter la sécurité de l’application en fonction de son déploiement. Notre mécanisme de sécurité est conçu pour s’adapter dynamiquement aux situations survenant dans le cycle de vie d’une application distribuée, notamment l’acquisition de nouvelles ressources et la création de nouveaux objets. L’implantation du modèle au sein d’une bibliothèque pour le calcule distribué a permis de démontrer la faisabilité de l’approche et ses avantages. En effet, son implantation transparente a permis son intégration immédiate avec les autres modules de la bibliothèque (communications de groupe, mobilité, composants, pair-à-pair). Les tests de performance réalisés afin d’évaluer son surcoût ont confirmé la validité de l’approche
Whereas security is a key notion in the world of distributed applications, its numerous concepts are a difficult step to overcome when constructing such applications. Current middlewares provide all major security-related technologies. However developers still have to select the more accurate one and handle all its underlying processes which is particularly difficult with dynamic, grid-enabled applications. To facilitate the use of security concepts in such applications, tis thesis presents a decentralised security model which takes care of security requirements expressed by all actors (resource provides, administrators, users) involved in a computation. The model is implemented outside the application source code. Its configuration is read from external policy files allowing the adaptation of the application’s security according to its deployments. It has been conceived to handle specific behaviors which could happen during a distributed application life-cycle (use of newly discovered resources, remote object creation)
14

Thomas, Yohann. "Policy-based response to intrusions through context activation". Télécom Bretagne, 2007. http://www.theses.fr/2007TELB0057.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
We present in this thesis a novel approach for automated threat response. The emergence of SIM (Security Information Management) platforms, as well as recent advances in the field of intrusion detection, raises the question of response to the threat reported by such tools. Till now, response is mainly left to the initiative of the security officer. Due to complexity of the analysis, such manual response suffers from a lack of reactivity and possibly relevancy. We propose to replace the security officer by a component in charge of assessing threats considering alerts reported by security monitoring tools, and responsible for deciding which countermeasures are suitable. The core of our proposal relies on the use of a contextual security policy, which is instantiated depending on current context. Beyond traditional operational requirements, the policy includes reaction and minimal requirements. The reaction policy deals with threat contexts, which are activated considering alerts, so that new policy instances (permissions or prohibitions) may be deployed according to threat. The minimal policy allows to guarantee requirements which must always be ensured, even in case of threat. The corresponding architecture of a threat response system is provided, and the use of Or-BAC to model reaction and minimal requirements is discussed, to allow fine-grained and suitable countermeasures. Our approach allows to establish the missing connection between security policies and security monitoring (IDS). This results in a continuous assessment of the best compromise between multiple adjustment variables, including security, but also other requirements such as performance, convenience and business constraints.
Nous présentons dans cette thèse une nouvelle approche de réponse face aux menaces auxquelles les systèmes informatiques sont soumis. Cette approche est basée sur l'intégration de la notion de contre-mesure au sein même de la politique de sécurité. En particulier, la notion de contexte permet d'évaluer l'état courant du système, et d'exprimer la politique en fonction de cet état. Pour ce faire, le modèle de contrôle d'accès basé sur l'organisation (Or-BAC) est utilisé, distinguant la définition générique de la politique de son implémentation effective en fonction du contexte. Le contexte intègre aussi bien des paramètres spatiaux et temporels que des paramètres plus proprement liés au domaine de la sécurité opérationnelle, comme les alertes remontées par les systèmes de détection d'intrusions (IDS). Ces alertes permettent la caractérisation de la menace à laquelle est soumis le système d'information à un instant donné. Des contextes de menace sont instanciés par notre système de réponse, permettant de déclencher des mises a jour de la politique et son déploiement subséquent. Ainsi, le système est capable d'adapter dynamiquement ses paramètres de fonctionnement en considérant notamment la menace. Nous proposons une approche innovante établissant le lien entre la politique de sécurité et l'un des principaux moyens qui permet d'encontrôler le respect, à savoir les systèmes de détection d'intrusions. Ce lien n'existait pas jusqu'alors, c'est-à-dire que les violations de la politique de sécurité détectées par les IDS n'avaient que peu de conséquences sur les exigences de la politique de sécurité effectivement implementées par les points d'application. Pourtant, force est de constater que l'implementation de la politique ne doit pas être statique. En particulier, nous montrons qu'il est possible de gérer dynamiquement l'accès aux services et aux ressources en fonction de la menace. En outre, ce travail fournit un début de réponse a la problématique de la réactivité et de la pertinence de la réponse face aux menaces. La réponse aux attaques informatiques est le plus souvent gérée manuellement par l'opérateur de sécurité. Ce même opérateur de sécurité manque malheureusement bien souvent de réactivité et de discernement pour répondre de manière adéquate à la menace, notamment parce qu'il est bien souvent noyé sous le flot des alertes ; le travail d'analyse est fastidieux et difficile au vu du nombre de paramètres a considérer. D'un autre côté, les attaques se multiplient, les attaquants mettent de moins en moins de temps a pénétrer les systèmes et à produire des dégâts qui peuvent rapidement se chiffrer en millions d'euros pour les entreprises. Automatiser la réponse est donc une nécessité
15

Disson, Eric. "Sécurité des accès dans les systèmes d'information coopératifs". Lyon 3, 2001. http://www.theses.fr/2001LYO33032.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail de recherche s'inscrit dans le domaine de la sécurité des accès dans les systèmes d'information coopérant. La modélisation proposée doit prendre en compte l'interopération de systèmes d'information ouverts et évolutifs et, de plus, garantir le respect des différentes politiques de sécurité locales. La coexistance de sources d'information hétérogènes dans le cadre d'un système d'information pose des problèmes d'homogénéisation au niveau des politiques locales de sécurité. On peut distinguer deux types d'hétérogénéité des politiques d'accès locales et hétérogénéité sémantique entre les instances d'objets / sujets de schémas d'accès locaux. Pour résoudre cette double difficulté, nous proposons un processus d'intégration d'unsystème local à la fédération se déroulant en trois étapes. Dans un premier temps, les administrateurs locaux définissent un schéma d'exportation de données. Un modèle de rôle original appelé "modèle de rôle étendu" permet alors la représentation unifiée des schémas d'accès locaux tout en conservant les propriétés du contrôle de flux des trois principales politiques d'accès (discrétionniare, modèle de rôles et modèles multi-niveaux). Lors de la troisième phase du processus, les schémas d'accès décrits sont enrichis pour établir les autorisations d'accès inter-schémas. L'objectif principal de la politique de contrôle des flux du niveau global est de respecter les profils utilisateurs locaux : un utilisateur local ne peut lire ou modifier des informations fédérées que si elles sont équivalentes aux informations locales sur lesquelles il a de telles autorisations. Dans ce but, nous définissons une session globale sécurisée permettant de respecter une politique d'importation et d'exportation des données entre la fédération et ses divers membres. L'ensemble de ces proposisions s'appuie et complète le modèle de coopération de l'équipe MODEME. Une solution pour implanter le modèle objet de coopération sécurisée est aussi présentée.
16

Pham, Van-Hau. "De l'identification d'événements d'attaques dans des traces recueillies sur des pots de miel". Paris, Télécom ParisTech, 2009. http://www.theses.fr/2009ENST0017.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La sécurité de I'lnternet représente un souci majeur de nos jours. De nombreuses initiatives sont menées qui cherchent à offrir une meilleure compréhension des menaces. Récemment, un nouveau domaine de recherches a vu le jour qui vise à étudier le mode opératoire des attaquants et à identifier les caractéristiques des groupes responsables des attaques observées. Le travail réalisé dans cette thèse concourt à cet objectif. Nous montrons que, à partir de traces réseau obtenues à partir d'un réseau mondial de pots de miel sur une période de deux ans, il est possible d'extraire de la connaissance significative et utile sur les attaquants. Pour atteindre ce but, la thèse offre plusieurs contributions importantes. Tout d'abord, nous montrons que les traces d'attaques peuvent être groupées en trois classes distinctes, correspondant à des phénoménes d'attaque différents. Nous avons défini, implémenté et validé des algorithmes qui permettent de classifier un trés grand nombre de traces selon ces trois catégories. Deuxièmement, nous montrons que, pour deux de ces classes, il est possible d'identifier des micro et macro événements d'attaques présents durant un nombre limité de jours. Ces événements sont des éléments importants pour identifier des activités spécifiques qui, autrement, auraient été perdues dans le bruit diffus des autres attaques. Ici encore, un environnement été défini, réalisé et validé à I'aide de deux ans de trace. Des centaines d'événements ont été ainsi été trouvés dans nos traces. Enfin, nous montrons que, en regroupant ces événements, il es possible de mettre en lumière le mode opératoire des organisations responsables des attaques. La validation expérimentale de notre approche nous a menés à l'identification de dizaines de ce que nous appelons des armées de zombies. Leurs caractéristiques principales sont présentées dans la thèse et elles révèlent des informations importantes sur la dynamique associée aux attaques observables sur internet
Lnternet security is a major issue nowadays. Several research initiatives have been carried out to understand the Internet security threats. Recently, a domain has emerged called attack attribution that aims at studying the modus operandi of the attacks and at identifying the characteristics of the groups responsible for the observed attacks. The work presented in this thesis participates to the efforts in this area. We show in this work that, starting from network traces collected over two years on a distributed system of low interaction honeypots, one can extract meaningful and useful knowledge about the attackers. To reach this goal, the thesis makes several important contributions. First of all, we show that attack traces can be automatically grouped into three distinct classes, corresponding to different attack phenomena. We have defined, implemented and validated algorithms to automatically group large amount of traces per category. Secondly, we show that, for two of these classes, so called micro and macro attack events can be identified that span a limited amount of time. These attack events represent a key element to help identifying specific activities that would, otherwise, be lost in the so called attack background radiation noise. Here too, a new framework has been defined, implemented and validated over 2 years of traces. Hundreds of significant attack events have been found in our traces. Last but not least, we showed that, by grouping attack events together, it was possible to highlight the modus operandi of the organizations responsible for the attacks. The experimental validation of our approach led to the identification of dozens of so called zombie armies. Their main characteristics are presented in the thesis and they reveal new insights on the dynamics of the attacks carried ou over the Internet
17

Briffaut, Jérémy. "Formation et garantie de propriétés de sécurité système : application à la détection d'intrusions". Orléans, 2007. http://www.theses.fr/2007ORLE2053.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans cette thèse, nous nous intéressons à la garantie des propriétés d'intégrité et de confidentialité d'un système d'information. Nous proposons tout d'abord un langage de description des activités système servant de base à la définition d'un ensemble de propriétés de sécurité. Ce langage repose sur une notion de dépendance causale entre appels système et sur des opérateurs de corrélation. Grâce à ce langage, nous pouvons définir toutes les propriétés de sécurité système classiquement rencontrées dans la littérature, étendre ces propriétés et en proposer de nouvelles. Afin de garantir le respect de ces propriétés, une implantation de ce langage est présentée. Nous prouvons que cette implantation capture toutes les dépendances perceptibles par un système. Cette méthode permet ainsi d'énumérer l'ensemble des violations possibles des propriétés modélisables par notre langage. Notre solution exploite la définition d'une politique de contrôle d'accès afin de calculer différents graphes. Ces graphes contiennent les terminaux du langage et permettent de garantir le respect des propriétés exprimables. Nous utilisons alors cette méthode pour fournir un système de détection d'intrusion qui détecte les violations effectives des propriétés. L'outil peut réutiliser les politiques de contrôle d'accès disponibles pour différents systèmes cibles DAC (Windows, Linux) ou MAC tels que SELinux et grsecurity. Cet outil a été expérimenté sur un pot de miel durant plusieurs mois et permet de détecter les violations des propriétés souhaitées.
18

Abdelnur, Humberto Jorge. "Gestion de vulnérabilités voix sur IP". Thesis, Nancy 1, 2009. http://www.theses.fr/2009NAN10005/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les solutions voix sur IP (VoIP) sont actuellement en plein essor et gagnent tous le jours de nouveaux marché en raison de leur faible coût et d'une palette de services riche. Comme la voix sur IP transite par l'Internet ou utilise ses protocoles, elle devient la cible de multiples attaques qui peuvent mettre son usage en péril. Parmis les menaces les plus dangereuses on trouve les bugs et les failles dans les implantations logicielles des équipements qui participent à la livraison de ces services. Cette thése comprend trois contributions à l'amélioration de la sécurité des logiciels. La première est une architecture d'audit de sécurité pour les services VoIP intégrant découverte, gestion des données et attaques à des fins de test. La seconde contribution consiste en la livraison d'une approche autonome de discrimination de signatures de messages permettant l'automatisation de la fonction de fingerprinting passif utilisée pour identifier de façon unique et non ambigüe la source d'un message. La troisième contribution porte sur la détection dynamique de vulnérabilités dans des états avancés d'une interaction protocolaire avec un équipement cible. L'expérience acquise dans la recherche de vulnérabilités dans le monde de la VoIP avec nos algorithmes est également partagée dans cette thèse
VoIP networks are in a major deployment phase and are becoming widely accepted due to their extended functionality and cost efficiency. Meanwhile, as VoIP traffic is transported over the Internet, it is the target of a range of attacks that can jeopardize its proper functionality. Assuring its security becomes crucial. Among the most dangerous threats to VoIP, failures and bugs in the software implementation will continue rank high on the list of vulnerabilities. This thesis provides three contributions towards improving software security. The first is a VoIP specific security assessment framework integrated with discovery actions, data management and security attacks allowing to perform VoIP specific assessment tests. The second contribution consists in an automated approach able to discriminate message signatures and build flexible and efficient passive fingerprinting systems able to identify the source entity of messages in the network. The third contribution addresses the issue of detecting vulnerabilities using a stateful fuzzer. It provides an automated attack approach capable to track the state context of a target device and we share essential practical experience gathered over a two years period in searching for vulnerabilities in the VoIP space
19

Benali, Fatiha. "Modélisation et classification automatique des informations de sécurité". Lyon, INSA, 2009. http://theses.insa-lyon.fr/publication/2009ISAL0007/these.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La sécurité d’un système d’information est devenue un enjeu stratégique important. Actuellement, les organisations (organismes ou entreprises) évoluent et disposent de multiples nœuds exécutant de multiples systèmes. Ces organisations déploient de multiples équipements de sécurité et offrent différents services à leurs utilisateurs. Les services, les ressources ainsi que les équipements déployés peuvent être des cibles pour les intrus. L'interopérabilité entre les produits déployés pour la surveillance du SI est absolument nécessaire. Nous proposons dans notre travail une architecture pour un système de détection d’intrusion basée sur l'interopérabilité entre les différents produits (de sécurité et de management) et les services déployés dans un organisme. Cette architecture va fournir une vision globale et répond aux besoins actuels de l'administrateur de sécurité. La détection d'intrusion dans ce contexte consiste à analyser les informations (alertes et événements) remontées par tous ces dispositifs mis en place afin de *surveiller un système d'information* et de prévenir toute action non légalement autorisée. Les processus d'analyse des informations de sécurité rencontrent des problèmes sérieux à cause de l’hétérogénéité des mécanismes impliqués dans la surveillance du SI et à cause du manque de standard pour la représentation de ces informations. Les travaux de thèse s’inscrivent dans le cadre de la modélisation des informations de sécurité afin de faire face au problème d’hétérogénéité des produits de surveillance, ce qui permet par la suite aux processus de gestion des informations de sécurité (comme la détection d’intrusion ou la recherche de causes d’un incident de sécurité) d’être opérationnelles et efficaces. La première partie de la thèse propose une solution pour la modélisation de la sémantique des informations de sécurité au travers d’une ontologie. Le but de l’ontologie réalisée est de décrire d'une manière uniforme la sémantique de toutes les activités qui peuvent être effectuées par des utilisateurs du SI, en faisant abstraction des produits impliqués dans la surveillance d’un SI, et en focalisant que sur les concepts porteurs de connaissance pour les mécanismes de traitement de ces informations. La mise en œuvre de l’ontologie consiste à faire une classification des alertes et événements remontés par les produits de surveillance dans les catégories qui ont été décrites par l’ontologie. La deuxième partie de la thèse s'attache à l'automatisation de la classification des messages de sécurité. Comme nous possédons un corpus de messages préalablement classifiés, nous nous intéressons donc aux techniques de catégorisation automatique de texte (CT). Ces techniques s'appuient sur des méthodes d'apprentissage. Le processus de classification proposé se compose en deux étapes. La première étape permet la préparation de données et leur représentation dans un format exploitable par les algorithmes de classification. La deuxième étape s'attache à appliquer les algorithmes des machines d'apprentissage sur les informations de sécurité prétraitées. L’application des solutions proposées dans la thèse se fait sur une base d’alertes et d’événements fournie par l’entreprise Exaprotect (un éditeur de logiciel de sécurité)
The security of the Information System(IS) has become an important strategic issue. Currently, organizations or companies are evolving and have multiple nodes running multiple systems. These organizations are deploying multiple security devices and offer different services to their users. Services, resources and equipment deployed may be the targets for intruders. Interoperability between products to monitoring the IS is absolutely necessary. We present in our work an architecture for intrusion detection system based on interoperability between different products (security and management) and services deployed in an organization. This architecture will provide a comprehensive and meets the current needs of the security administrator. Intrusion detection in this context is to analyze the information (alerts and events) generated from all these devices to prevent any action not legally permitted. The process of analyzing information security faced serious problems because of the heterogeneity of the mechanisms involved in the monitoring of the IS and because of the lack of standard to presents of such information. The thesis is part of the modeling of security information to address the problem of the heterogeneity of the products, allowing the management process of information security (such as intrusion detection or the search for causes of a security incident) to be operational and efficient. The first part of the thesis proposes a solution for modeling the semantics of information security through an ontology. The purpose of the ontology is to describe in a uniform manner the semantics for all activities that may be made by users of IS, regardless of the products involved in the supervision of an IS, and focusing on the concepts of knowledge for mechanisms for processing such information. The implementation of the ontology is to make a classification of events and alerts generated by the monitoring products, in categories that were described by the ontology. The second part of the thesis focuses on automating the classification of security messages. As we have a corpus of previously classified messages, therefore we are interested in the techniques for automatic categorization of text (CT). These techniques are based on machine learning methods. The proposed classification process consists of two stages. The first step allows the data preparation and representation in a format usable by the classification algorithms. The second step aims to implement the algorithms machine learning on information security preprocessed. The application of the solutions proposed in the thesis is on a basis of alerts and events provided by the company Exaprotect (a publisher of software security)
20

Sadde, Gérald. "Sécurité logicielle des systèmes informatiques : aspects pénaux et civils". Montpellier 1, 2003. http://www.theses.fr/2003MON10019.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
De l'instant de l'attaque logicielle contre le système, jusqu'aux conséquences macro-économiques induites, nous suivrons la propagation du dommage et ses implications juridiques en matière d'obligations et de responsabilité. Cela nous donnera tout d'abord l'occasion d'aborder l'aspect répressif de la sécurité au travers de la sanction pénale de l'acte. Mais tout autant nous nous intéresserons aux relations contractuelles qui vont naître de la prévention du dommage, au travers des mesures prises par la victime, le maître du système, pour protéger ses intérêts. Nous envisagerons les recours qui s'offrent non seulement à ce dernier mais aussi aux utilisateurs du système attaqué, qui subiront parfois un préjudice du fait d'une atteinte, à leurs biens, à la qualité d'un service, ou à leur vie privée. Enfin la sécurité informatique est à nos yeux un impératif d'ordre public et ce sont les dommages potentiels à l'économie dans son ensemble qui concluront donc cette étude.
21

Bascou, Jean-Jacques. "Contribution à la sécurité des systèmes : une méthodologie d'authentification adaptative". Toulouse 3, 1996. http://www.theses.fr/1996TOU30253.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les mecanismes de protection les plus repandus actuellement sur les systemes d'information proposent certaines formes de barrages ne pouvant etre franchis que par des utilisateurs autorises (mots de passe) dans le cas ou ces filtres sont franchis, la plupart des systemes deviennent completement accessibles et a la merci de l'intrus. L'idee directrice de notre travail est d'apporter un complement aux mecanismes d'authentification traditionnels. Ce complement n'a aucunement la pretention d'etre infaillible, mais il permet de generer un facteur de risque dont l'effet peut etre particulierement dissuasif. Notre travail a porte sur l'etude d'une methode de conception d'un outil permettant de confirmer periodiquement l'authenticite d'un sujet agissant sur un systeme d'information donne. Ce complement d'authentification s'exerce apres le passage des mecanismes de securite traditionnels. Cette authentification doit s'effectuer de maniere transparente pour le sujet et peut s'apparenter a une verification comportementale. Le comportement du sujet controle doit correspondre dans une certaine mesure au comportement attendu. Une methode de decomposition arborescente d'un probleme de securite complexe en sous problemes a ete definie. Cette methode permet de resoudre une requete d'authentification en resolvant un certain nombre de sous requetes dont l'equivalence avec la premiere est quantifiee par une approche probabiliste. Les feuilles de l'arborescence representent des requetes fondamentales dont la complexite de resolution peut etre variable. Pour la resolution de requetes fondamentales complexes, nous proposons une strategie de choix de parametres mesurables dont la correlation entre eux est une consequence de l'authenticite du sujet etudie. Des resultats d'experiences sont exposes ensuite. Une premiere experience evoque la conception d'un systeme d'authentification dont le but est de limiter les fraudes bancaires dues a une utilisation illicite des cartes de paiement. Une deuxieme experience concerne l'etude de cas d'un utilisateur de systeme unix dont l'authenticite peut etre confirmee par l'analyse de la vitesse de frappe de son mot de passe par un perceptron, ainsi que par les commandes qu'il utilise
22

Jacob, Grégoire. "Malware behavioral models : bridging abstract and operational virology". Rennes 1, 2009. http://www.theses.fr/2009REN1S204.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
This thesis is devoted to the modeling of malicious behaviors inside malevolent codes, commonly called malware. The thesis work follows two directions, one operational, one theoretical. The objective is to eventually combine these two approaches in order to elaborate detection methods covering most of existing malware, while offering formal security guarantees against appearing ones. The operational approach introduces an abstract behavioral language, independent from implementation. The language itself relies on the attribute-grammar formalism, capable of expressing the behavior semantics. Within the language, several behavior descriptions are specified in order to build a multi-layered detection method based on parsing. Its deployment has shown satisfying results in terms of coverage. On the basis of the same language, some techniques of behavioral mutation have been formalized using compilation techniques. These mutations have proved themselves interesting tools for the evaluation of antiviral products. The theoretical approach introduces a formal viral model, no longer based on functional paradigms, but on process algebras. This new model enables the description of self-replication as well as other more complex behaviors based on interactions. It supports the redemonstration of fundamental results such as the detection undecidability or the prevention by isolation. Moreover, the model supports the formalization of several existing techniques of behavioral detection, thus allowing the formal evaluation of their resilience
Cette thèse s'intéresse à la modélisation des comportements malicieux au sein des codes malveillants, communément appelés malwares. Les travaux de thèse s'articulent selon deux directions, l'une opérationnelle, l'autre théorique. L'objectif à terme est de combiner ces deux approches afin d'élaborer des méthodes de détection comportementales couvrant la majorité des malwares existants, tout en offrant des garanties formelles de sécurité contre ceux susceptibles d'apparaître. L'approche opérationnelle introduit un langage comportemental abstrait, décorrélé de l'implémentation. Le langage en lui-même repose sur le formalisme des grammaires attribuées permettant d'exprimer la sémantique des comportements. A l'intérieur du langage, plusieurs descriptions de comportements malicieux sont spécifiées afin de construire une méthode de détection multicouche basée sur le parsing. Sur la base de ce même langage, des techniques de mutation comportementale sont également formalisées à l'aide de techniques de compilation. Ces mutations se révèlent un outil intéressant pour l'évaluation de produits antivirus. L'approche théorique introduit un nouveau modèle viral formel, non plus basé sur les paradigmes fonctionnels, mais sur les algèbres de processus. Ce nouveau modèle permet la description de l'auto-réplication ainsi que d'autres comportements plus complexes, basés sur les interactions. Il supporte la redémonstration de résultats fondamentaux tels que l'indécidabilité de la détection et la prévention par isolation. En outre, le modèle supporte la formalisation de plusieurs techniques existantes de détection comportementale, permettant ainsi d'évaluer formellement leur résistance
23

Rabah, Mourad. "Évaluation de la sûreté de fonctionnement de systèmes multiprocesseurs à usage multiple". Toulouse, INPT, 2000. http://www.theses.fr/2000INPT021H.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La généralisation des systèmes multiprocesseurs non spécialisés, ayant plusieurs niveaux d'accomplissement du service et destinés à des applications variées, a donné naissance à ce que nous appelons des systèmes multiprocesseurs à usage multiple. Ce mémoire est consacré à la modélisation de tels systèmes et l'évaluation de leurs mesures de sûreté de fonctionnement et de performabilité. Nous proposons une méthode générale permettant d'évaluer ces mesures, de façon générique, pour toute une gamme de systèmes à usage multiple. Cette méthode est basée sur une idée originale : séparer explicitement les aspects inhérents à l'architecture du système et les aspects relatifs au service tel qu'il est perçu par les applications des utilisateurs. Le modèle global construit avec cette méthode est ainsi composé de deux parties : a) un modèle architectural décrivant le comportement de l'architecture support, incluant ses composants matériels et logiciels et leurs interactions et b) un modèle du service exprimant les besoins en service des applications utilisant cette architecture. La méthode est structurée en quatre étapes et la construction des deux modèles est régie par un ensemble de règles et de recommandations. Cette méthode est appliquée à la modélisation d'un système multiprocesseur à usage multiple réel mettant en oeuvre une mémoire partagée distribuée. Cette architecture sert de référence pour la conception d'architectures plus évoluées. Nous montrons comment réutiliser le modèle et les résultats obtenus pour l'architecture de référence afin d'évaluer les mesures de ces architectures évoluées. Nous présentons enfin l'ensemble des résultats et montrons comment ils peuvent servir à la fois au constructeur et aux utilisateurs de tels systèmes.
24

Trabelsi, Slim. "Services spontanés sécurisés pour l'informatique diffuse". Phd thesis, Télécom ParisTech, 2008. http://pastel.archives-ouvertes.fr/pastel-00004140.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le paradigme de l'informatique diffuse suppose implicitement un modèle d'interaction dynamique qui s'appuie en premier lieu sur la découverte d'applications ambiantes et d'appareils environnants. Quoique la découverte soit au cœur de tels systèmes, en particulier ceux qui s'organisent selon une architecture orientée services, le besoin de sécuriser ce composant critique et la complexité de cette tâche ont été largement sous-estimés, voire négligés jusqu'à aujourd'hui. Cette thèse s'attaque à la conception de protocoles sécurisés et d'architectures fiables pour résoudre les problèmes des techniques actuelles de découverte de service. Après avoir présenté les besoins de sécurité de ce type de protocole, nous proposons trois solutions sécurisées pour la découverte de services correspondant à des degrés divers d'organisation et d'échelle de l'infrastructure sur laquelle le mécanisme est déployé. Nous montrons tout d'abord comment le chiffrement est suffisant pour protéger des architectures décentralisées de type LAN ou WLAN en restreignant l'accès aux messages de découverte diffusés d'après une politique à base d'attributs. Nous proposons ensuite l'utilisation de politiques de découvertes comme concept essentiel à la sécurisation de la découverte de services dans les architectures centralisées qui s'appuient sur un registre comme tiers de confiance. Nous introduisons enfin une architecture pour le déploiement d'un mécanisme de découverte de services sécurisé à plus grande échelle s'appuyant sur un système d'indexation pair à pair accessible via une couche de routage anonyme. Dans une deuxième partie de la thèse, nous analysons l'efficacité des mécanismes de découverte de service sécurisée proposés par une étude de performance. Un modèle Markovien est construit afin de calculer différents paramètres de performances liées à la robustesse, la disponibilité, l'efficacité ou le coût en termes de ressources consommées lors de l'exécution d'un processus de découverte en charge normale aussi bien que soumis à une attaque de déni de service. Nous discutons finalement dans une dernière partie des problèmes de sécurité et de confiance liés à l'introduction de sensibilité contextuelle dans les mécanismes de découverte de service.
25

Fadlallah, Ahmad. "Des solutions pour la traçabilité des attaques Internet". Paris, ENST, 2008. http://www.theses.fr/2008ENST0012.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les attaques de déni de service (DoS) constituent un véritable danger menaçant la disponibilité et la stabilité du réseau Internet. Leur danger ascendant et continu fut le principal moteur de motivation pour notre recherche, qui démarre par une analyse approfondie de ces attaques allant de l’analyse des origines du problème jusqu’à l'étude des tendances des attaques DoS. La deuxième étape dans notre recherche était d'étudier les solutions de défense existantes contre le DoS. Notre étude fournit une analyse des solutions les plus connues, leurs avantages et limitations. En particulier, nous nous sommes intéressés par l’étude des solutions de traçabilité des attaques, vu leur rôle considérable dans le cadre de la défense contre le DoS. L'analyse des différentes catégories de solution de traçabilité nous a conduits à établir un nombre d'exigences pour une solution efficace et déployable. Notre première solution part de l'existant et propose d'utiliser deux techniques de marquage et log de paquets, afin de résoudre mutuellement les problèmes de chaque technique. Notre deuxième solution tente de résoudre le problème de l’overhead de stockage de la première solution. Elle est basée sur la signalisation hors-bande, qui permet de tracer un flux IP en générant des messages de signalisation. Nous proposons ensuite une amélioration de cette solution en mixant la signalisation hors-bande avec le marquage de paquets. Cette méthode réduit d'une manière significative l'overhead en bande passante de la solution précédente tout en respectant les autres exigences de performance, sécurité et déploiement
The Denial of Service (DoS) attacks are a real threat for the availability and stability of the Internet. Their continuous growth was the main motivation of our research, which starts with a thorough analysis of these attacks. The second step in our research was to study the existing DoS defense solutions. Our study provides an analysis of the most well known defense schemes, their advantages and limitations. In particular, we were interested in studying attack traceback solutions, given their important role in the framework of DoS defense. The analysis of different categories of traceback schemes led us to establish a number of requirements for an effective and deployable traceback solution. Our first solution proposes to mix two existing traceback techniques: packet marking and packet logging in order to mutually solve their problems. Our second solution tries to solve the storage overhead problem of the first solution. It is based on out-of-band signaling, which allows tracing IP flows through generating signaling messages. We enhance this solution by mixing the out of band signaling with packet marking. This method significantly reduces the bandwidth overhead of the previous solution while respecting the rest of performance, security and deployment requirements
26

Saadi, Rachid. "The Chameleon : un système de sécurité pour utilisateurs nomades en environnements pervasifs et collaboratifs". Lyon, INSA, 2009. http://theses.insa-lyon.fr/publication/2009ISAL0040/these.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’avènement de l’informatique pervasive permet la mise en place d’environnements intelligents et communicants offrant à l’utilisateur la possibilité de faire interagir ses équipements avec son environnement de manière aisée et transparente. La mobilité de l’utilisateur et la multiplication des dispositifs légers et autonomes accentuent et rendent plus complexes les problèmes de sécurité. En effet, la mise en place d’environnements pervasifs permet à l’utilisateur nomade de solliciter ou de communiquer avec d’autres utilisateurs, des ressources ou des services au sein d’environnements ou de domaines qui lui sont inconnus et réciproquement. Les mécanismes et les solutions existants sont inadéquats pour pallier les nouveaux challenges issus principalement des problèmes d’authentification, de contrôle d’accès et de protection de la vie privée. Dans un système aussi fortement distribué et imprédictible, l’existence d’une autorité centralisatrice n’est en effet pas possible. Il est donc nécessaire de rendre la décision d’accès plus autonome et donc répartie. Dans cette thèse, nous défendons l’idée que l’implémentation d’un système de sécurité basé sur la confiance constitue une solution particulièrement adaptée aux environnements pervasifs. Notre travail à conduit à l’élaboration d’une architecture générique de sécurité prenant en charge l’utilisateur depuis l’identification jusqu’à l’attribution de droits d’accès dans des milieux inconnus. Nommée «Chameleon», celle-ci prend en charge les problèmes issus de l’authentification et du contrôle d’accès dans les environnements mobiles et ubiquitaires. La mise en place de notre approche a nécessité l’implémentation d’un nouveau format de certification « X316 » adaptable au contexte de l’utilisateur, ainsi que la définition d’un modèle de confiance inter-organisations (T2D) dont le but est d’étendre le champ d’accès des utilisateurs mobiles aux ressources environnantes
While the trust is easy to set up between the known participants of a communication, the evaluation of trust becomes a challenge when confronted with unknown environment. It is more likely to happen that the collaboration in the mobile environment will occur between totally unknown parties. An approach to handle this situation has long been to establish some third parties that certify the identities, roles and/or rights of both participants in a collaboration. In a completely decentralized environment, this option is not sufficient. To decide upon accesses one prefer to rely only on what is presented to him by the other party and by the trust it can establish, directly by knowing the other party or indirectly, and vice-versa. Hence a mobile user must for example present a set of certificates known in advance and the visited site may use these certificates to determine the trust he can have in this user and thus potentially allow an adapted access. In this schema the mobile user must know in advance where she wants to go and what she should present as identifications. This is difficult to achieve in a global environment. Moreover, the user likes to be able to have an evaluation of the site she is visiting to allow limited access to her resources. And finally, an user does not want to bother about the management of her security at fine grain while preserving her privacy. Ideally, the process should be automatized. Our work was lead to define the Chameleon architecture. Thus the nomadic users can behave as chameleons by taking the "colors" of their environments enriching their nomadic accesses. It relies on a new T2D trust model which is characterized by support for the disposition of trust. Each nomadic user is identified by a new morph certification model called X316. The X316 allows to carry out the trust evaluation together with the roles of the participants while allowing to hide some of its elements, preserving the privacy of its users
27

Razafindraibe, Hanitriniaina Mamitiana Alin. "Analyse et amélioration de la logique double rail pour la conception de circuits sécurisés". Montpellier 2, 2006. http://www.theses.fr/2006MON20117.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans le domaine de la conception de circuits sécurisés (cartes à puce) et plus particulièrement des circuits robustes aux attaques différentielles en puissance (DPA), la logique double rail apparaît comme une alternative intéressante à la logique statique CMOS. En effet, le codage associé à ce style de logique offre la possibilité d'équilibrer la consommation rendant ainsi impossible les attaques DPA. Partant de ce constat, dans cette thèse, nous nous sommes focalisés sur l’analyse des atouts et faiblesses de la logique double rail et surtout à son amélioration. Dans un premier temps, nous avons montré qu'un circuit double rail est nettement plus résistant aux attaques DPA que son homologue simple rail. Dans un deuxième temps, après une étude approfondie de l'impact de la synthèse physique sur la robustesse de la logique double rail, nous avons abouti à la conclusion qu'en présence de déséquilibres des capacités de charge, des temps de transition et des temps d'arrivée, les circuits double rail peuvent perdre leur avantage et devenir vulnérables aux attaques DPA. Cette étude a permis de définir quelques métriques de robustesse aux attaques DPA à partir desquelles nous avons clairement établi qu'une cellule double rail n'est robuste que si les signaux la contrôlant arrivent tous dans un intervalle de temps particulièrement réduit. Afin d’éliminer cette faiblesse résiduelle de la logique double rail, nous avons finalement proposé une amélioration simple mais efficace de la logique double rail. La logique résultante a été appelée STTL (Secured Triple Track Logic). La mise en œuvre de cette logique a permis de montrer que la logique STTL permet d’obtenir des circuits dont les temps de calcul et la consommation sont indépendants des données
28

Maingot, Vincent. "Conception sécurisée contre les attaques par fautes et par canaux cachés". Grenoble INPG, 2009. https://tel.archives-ouvertes.fr/tel-00399450.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'évolution des besoins en sécurité des applications grand public a entraîné la multiplication du nombre de systèmes sur puces doués de capacités de chiffrement. En parallèle, l'évolution des techniques de cryptanalyse permet d'attaquer les implantations des méthodes de chiffrement utilisées dans ces applications. Cette thèse porte sur le développement d'une méthodologie permettant l'évaluation de la robustesse apportée par des protections intégrées dans le circuit. Cette évaluation est basée d'une part sur l'utilisation de plates-formes laser pour étudier les types de fautes induits dans un prototype de circuit sécurisé ; et d'autre part, sur l'utilisation d'une méthode basée sur des simulations pendant la phase de conception pour comparer l'influence sur les canaux cachés de protections contre les fautes. Cette méthodologie a été utilisée dans un premier temps sur le cas simple d'un registre protégé par redondance d'information, puis sur des primitives cryptographiques telles qu'une S-Box AES et des co-processeurs AES et RSA. Ces deux études ont montré que l'ajout de capacités de détection ou de correction améliore la robustesse du circuit face aux différentes attaques
L'évolution des besoins en sécurité des applications grand public a entraîné la multiplication du nombre de systèmes sur puces doués de capacités de chiffrement. En parallèle, l'évolution des techniques de cryptanalyse permet d'attaquer les implantations des méthodes de chiffrement utilisées dans ces applications. Cette thèse porte sur le développement d'une méthodologie permettant l'évaluation de la robustesse apportée par des protections intégrées dans le circuit. Cette évaluation est basée d'une part sur l'utilisation de plates-formes laser pour étudier les types de fautes induits dans un prototype de circuit sécurisé ; et d'autre part, sur l'utilisation d'une méthode basée sur des simulations pendant la phase de conception pour comparer l'influence sur les canaux cachés de protections contre les fautes. Cette méthodologie a été utilisée dans un premier temps sur le cas simple d'un registre protégé par redondance d'information, puis sur des primitives cryptographiques telles qu'une S-Box AES et des co-processeurs AES et RSA. Ces deux études ont montré que l'ajout de capacités de détection ou de correction améliore la robustesse du circuit face aux différentes attaques
29

Mouelhi, Tejeddine. "Testing and modeling seurity mechanisms in web applications". Télécom Bretagne, 2010. http://www.theses.fr/2010TELB0151.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les travaux effectués dans de cadre de cette thèse s'intéressent à la problématique du test de sécurité des applications, en considérant la validation des mécanismes de sécurité interne à un système d'une part, puis la sécurité des interfaces web d'autre part. Pour la partie interne, nous avons comparé, dans un premier temps, l'utilisation du test fonctionnel et des tests de sécurité pour valider les mécanismes implémentant une politique de contrôle d'accès. Dans ce cadre, l'analyse de mutation a été adaptée pour qualifier et évaluer les tests. Nous avons ensuite proposé trois méthodologies pour tester les mécanismes de contrôle d'accès ; utilisation du pair-wise pour générer les tests de sécurité, sélection et transformation des tests fonctionnels en tests de sécurité et enfin détection de mécanismes de sécurité cachés qui nuisent à la flexibilité et l'évolutivivité du système. Concernant le test des interfaces web, visant non seulement à tester le code validant les entrées de l'utilisateur mais aussi protéger les applications web, nous avons proposé une nouvelle approche qui tire profit du test par contournement et qui permet de protéger les applications web contre ce type d'attaques. Cette approche a été concrétisée dans un outil permettant à la fois l'audit et la sécurisation des applications web. L'ensemble de ces travaux a conduit à réfléchir à de nouvelles méthodologies de développement garantissant une meilleure qualité et une meilleure testabilité des mécanismes de contrôle d'accès. L'ingénierie des modèles (IDM) a été exploitée pour automatiser la spécification et le déploiement semi-automatisé des politiques de contrôle d'accès, et offrir par analyse de mutation un moyen de certification générique des tests de sécurité. Enfin, la composition de modèles permet d'automatiser l'intégration des mécanismes de sécurité, et surtout la reconfiguration automatique du système en cas d'évolution de la politique de sécurité
This thesis focuses on the issue of security testing of web-applications, considering the internal part of a system (access control policies) and then its interfaces (bypass testing and shielding). The proposed approaches led to address the issue of modeling the security policies as well as the testing artifacts, using Model-Driven Engineering as the underlying technology to propose elements for a model-driven security process. Concerning the internal part of a system, we first study the differences between classical functional tests and test targeting the security mechanisms explicitly (so called security tests). In this context, we adapted mutation analysis to assess and qualify security tests. Then, we proposed three complementary approaches dealing with access control testing; the first one is based on pair-wise technique and allows access control tests to be generated automatically, while the second approach allows functional tests to be selected and transformed into security tests. Finally, the last approach focuses on detecting hidden access control mechanisms, which harm the flexibility of the access control mechanisms and their ability to evolve. To complete all these approaches which focus on the internal part of the application, we tackled the issue of testing the interface and especially the bypass-testing. We leveraged the ideas of bypass-testing and used automated analysis of the web application to provide a new approach for testing and shielding web applications against bypass-attacks, which occur when malicious users bypass client-side input validation. The work on access control testing led us to focus on proposing new model-driven approaches for developing and integrating access control mechanisms in a way that guarantees better quality and testability. Two research directions were explored for this purpose. The first one is based on a metamodel and provides a complete MDE process for automatically specifying, and integrating (semi-automatically) access control policies. This approach takes into account testing at the early stage of modeling and provides a generic certification process based on mutation. Finally, the second approach is based on model composition and allows an automated integration of the access control policy, and more importantly the automated reconfiguration of the system when the access control policy needs to evolve
30

Kheir, Nizar. "Response policies and counter-measure : management of service dependencies and intrusion and reaction impacts". Télécom Bretagne, 2010. http://www.theses.fr/2010TELB0162.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nowadays, intrusion response is challenged by both attack sophistication and the complexity of target systems. In fact, Internet currently provides an exceptional facility to share resources and exploits between novice and skilled attackers. As a matter of fact, simply detecting or locally responding against attacks has proven to be insufficient. On the other hand, in order to keep pace with the growing need for more interactive and dynamic services, information systems are getting increasingly dependent upon modular and interdependent service architectures. In consequence, intrusions and responses often have drastic effects as their impacts spread through service dependencies. We argue in this thesis that service dependencies have multiple security implications. In the context of intrusion response, service dependencies can be used to find the proper enforcement points which are capable to support a specific response strategy. They can be also used in order to compute the impact of such responses in order to select the least costly response. In a first attempt to realize the thesis objectives, we explore graph-based service dependency models. We implement intrusion and response impacts as security flows that propagate within a directed graph. We introduce countermeasures as transformations to the dependency graph, and which have direct implications on the impact flows triggered by an intrusion. In a second step, we replace the analytic graph-based approach with a simulation-based approach using colored Petri nets. We develop for this purpose a new service dependency model that outperforms the initial graph-based models. It represents access permissions that apply to service dependencies. Attacker permissions are also implemented in this model by interfacing with attack graphs. We develop a simulation platform that tracks the propagation of intrusion impacts, response impacts, and the combined impacts for intrusion and response. We define a new response index, the return on response investment (RORI), that we evaluate for each response candidate with the aim to select the one that provides a maximal positive RORI index.
31

Saleh, Hayder. "Une architecture novatrice de sécurité à base de carte à puce Internet". Versailles-St Quentin en Yvelines, 2002. http://www.theses.fr/2002VERSA009.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le protocole Smart TP, introduit dans ce mémoire, propose une nouvelle architecture de communication d'une carte à puce Internet permettant à la carte d'agir comme un vrai noeud d'Internet. Ainsi, cette carte pourra participer aux protocoles d'Internet les plus répandus de manière plus active et indépendamment du terminal hôte. La sécurité sur Internet est une des préoccupations majeures de notre société, mettant en action différents aspects, notamment économiques et technologiques. Le déploiement de la carte à puce en tant que dispositif hautement protégé au service des protocoles de sécutité sur Internet constitue le coeur du sujet de cette thèse. Les défis technologiques révélés par ce déploiement ont été étudiés et évalués à travers cette recherche. Une implémentation du protocole proposé a été réalisée pour loger un serveur WEB conforme aux normes Internet dans une carte à puce Java. Ceci a permis d'étudier les problèmes de performance et de faisabilité, ainsi que de découvrir les possibilités d'amélioration de ce protocole (SmartTP). Une démonstration à grande échelle a été ensuite conduite pour explorer les débouchés industriels de cette technologie. Une analyse approfondie a été faite sur l'implication d'une carte à puce dans le protocole SSL. Ce dernier, est pris comme un exemple pour extrapoler les points forts et les points faibles de la carte dans un environnement Internet. Les problèmes issus de l'exemple SSL et les recommandations apportées sont largement valables pour les autres protocoles et constituent les fruits de cette recherche.
32

Martinelli, Jean. "Protection d'algorithmes de chiffrement par blocs contre les attaques par canaux auxiliaires d'ordre supérieur". Versailles-St Quentin en Yvelines, 2011. http://www.theses.fr/2011VERS0043.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Traditionnellement, un algorithme cryptographique est évalué à l’aune de sa résistance aux attaques dîtes « logiques ». Lorsque cet algorithme est implanté au sein d’un dispositif matériel, les fuites physiques observables pendant son fonctionnement peuvent également être utilisées par un attaquant pour monter des attaques dîtes « par canaux cachés ». Au sein de cette classe d’attaque, l’analyse différentielle de consommation ou DPA (Differential Power Analysis) est la technique la plus largement étudiée. A l’ordre 1, les attaques DPA sont désormais bien maîtrisées, et des contre-mesures prouvées sûres et relativement efficaces permettent de s’en prémunir. Certains résultats existent également à l’ordre 2 mais pas à l’ordre 3. L’objectif de la thèse est de proposer un cadre pour la DPA d’ordre k lorsque k>1. Pour ce faire, nous avons développé plusieurs méthodes de masquages en alternative aux méthodes classiques. Celles-ci sont susceptible d’offrir un meilleur ratio complexité-sécurité dans certains scénarios. Ces méthodes mettent en œuvre différentes opérations mathématiques comme le produit dans un corps fini ou le produit matriciel, ainsi que des outils cryptographiques tels le partage du secret et le calcul multi-parties. Nous avons évalué la sécurité de ces schémas de masquage suivant une méthodologie mêlant analyse théorique et résultats pratiques. Enfin nous proposons une étude de l’impact de la taille des mots manipulés par un algorithme cryptographique sur sa résistance aux attaques par canaux cachés en fonction du schéma de masquage implémenté
Traditionally, a cryptographic algorithm is estimated through its resistance to "logical" attacks. When this algorithm is implanted within a material device, physical leakage can be observed during the computation and can be analyzed by an attacker in order to mount "side channel" attacks. The most studied side channel attack is the differential power analysis (DPA). First order DPA is now well known and can be prevented by securely proven countermeasures. In 2008, some results are known for second order, but none for third order. The goal of this thesis is to propose a frame for k-th order DPA where k>1. We developed several masking schemes as alternatives to the classical ones in order to propose a better complexity-security ratio. These schemes make use of various mathematical operations such as field multiplication or matrix product and cryptographic tools as secret sharing and multi-party computation. We estimated the security of the proposed schemes following a methodology using both theoretical analysis and practical results. At last we proposed an evaluation of the action of the word size of a cryptographic algorithm upon its resistance against side channel attacks, with respect to the masking scheme implemented
33

Abbes, Tarek. "Classification du trafic et optimisation des règles de filtrage pour la détection d'intrusions". Nancy 1, 2004. http://www.theses.fr/2004NAN10192.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous nous intéressons dans cette thèse à des problèmes sensibles rencontrés par la détection d'intrusions à savoir le haut débit, les techniques d'évasion et les fausses alertes. Afin de soutenir le haut débit, nous procédons à une classification du trafic réseau ce qui permet de diviser la charge d'analyse sur plusieurs systèmes de détection d'intrusions et de sélectionner pour chaque classe du trafic la meilleure méthode de détection. Par ailleurs nous réduisons le temps de traitement de chaque paquet en organisant convenablement les règles de détection d'attaques stockées sur les systèmes de détection d'intrusions. Au cours de cette analyse nous proposons un filtrage à la volée de plusieurs signatures d'attaques. Ainsi, nous évitons le réassemblage du trafic qui était auparavant nécessaire pour résister aux techniques d'évasion. Par ailleurs nous assurons une analyse protocolaire avec des arbres de décisions ce qui accélère la détection des attaques et évite les inconvénients du filtrage brut de motifs telles que la génération abondante des faux positifs
In this dissertation we are interested by some bottlenecks that the intrusion detection faces, namely the high load traffic, the evasion techniques and the false alerts generation. In order to ensure the supervision of overloaded networks, we classify the traffic using Intrusion Detection Systems (IDS) characteristics and network security policies. Therefore each IDS supervises less IP traffic and uses less detection rules (with respect to traffics it analyses). In addition we reduce the packets time processing by a wise attack detection rules application. During this analysis we rely on a fly pattern matching strategy of several attack signatures. Thus we avoid the traffic reassembly previously used to deceive evasion techniques. Besides, we employ the protocol analysis with decision tree in order to accelerate the intrusion detection and reduce the number of false positives noticed when using a raw pattern matching method
34

Habib, Lionel. "Formalisations et comparaisons de politiques et de systèmes de sécurité". Paris 6, 2011. http://www.theses.fr/2011PA066146.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans cette thèse, nous étudions le domaine de la sécurité de l'information en s'appuyant sur les méthodes formelles. Nous définissons un cadre sémantique générique qui permet de formaliser et de comparer des politiques et des systèmes de sécurité. Nous décrivons deux approches de formalisation des politiques de sécurité, l'une à base de propriétés, et l'autre à base de règles. De plus, nous montrons de quelle manière nous exprimons des politiques de sécurité administratives selon ces deux approches. Nous présentons la notion de systèmes de sécurité qui consiste à mettre en oeuvre une politique de sécurité par un système de transition. Un système de sécurité peut être obtenu en appliquant une politique de sécurité à un système de transition indépendant, ou en créant un système de transition directement à partir d'une politique de sécurité. Nous introduisons trois préordres qui permettent de comparer des politiques et des systèmes de sécurité. Le préordre sur les politiques de sécurité caractérise une notion de traduction d'information de sécurité, tandis que les deux préordres sur les systèmes de sécurité reposent sur des traductions de labels. Nous appliquons les définitions introduites dans notre cadre en formalisant et en comparant des politiques de contrôle de permissions, d'accès et de flots d'information, des politiques de sécurité administratives, et des systèmes de sécurité. D'autre part, nous mettons en perspective notre travail avec des travaux connexes. Enfin, nous exposons deux applications pratiques réalisées avec l'atelier Focalize, le test d'une politique de contrôle d'accès multi-niveaux, et le développement d'une bibliothèque de politiques de sécurité.
35

Su, Lifeng. "Confidentialité et intégrité du bus mémoire". Paris, Télécom ParisTech, 2010. http://www.theses.fr/2010ENST0008.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La sécurité de l'exécution du programme est souvent demandée pour les applications critiques. Malheureusement elle est vulnérable à beaucoup de techniques d'attaques telles que les exploitations logicielles et les attaques du matériel. Certaines des expériences existantes ont déjà démontré que la sécurite de la communication entre le processeur et la mémoire externe peut être compromise par les attaques par sondage sur carte. Généralement les attaques par sondage sont divisées en deux sous-classes : le sondage passif et le sondage actif. Dans le premier cas, un attaquant peut capturer des données critiques pendant le processus de communication entre le processeur et la mémoire. Le sondage actif peut être utilisé pour altérer les données de la mémoire afin de compromettre l'exécution du programme dans le processeur. Le premier cas se réfère a la confidentialité des données de la mémoire et le second a l'intégrite des données de la mémoire. Cette thèse vise à explorer les options diverses pour protéger la confidentialité et l'intégrite du bus mémoire contre ces attaques par sondage sur carte. L’idée fondamentale de la protection converge sur l'implémentation d'un moteur cryptographique matériel interne au circuit afin de garantir l'intégrite et la confidentialité des données venant de la mémoire. Comme notre marche visé est celui des systémes embarqués faibles-à-moyens, nous nous efforcons de proposer un schéma de protection réaliste, acceptable par le marché, avec des coûts faibles. Toutes ces contraintes fortes influencent largement nos choix spécifiques pour la protection
The security of program execution is often required for certain critical applications. Unfortunately she is vulnerable to many attacking techniques such as software exploits and hardware attacks. Some existing experiences denote that the security of communication between processor and memory can be compromised by board-level probing attacks. Generally probing attacks are divided into two sub-classes : passive probing and active probing. In the first case, an attacker can capture critical data during the process of processor-memory communication. The active probing attacks can be used to alter memory data in order to compromise the program execution in the processor. The first case is related to the confidentiality of memory data and the latter to the integrity of memory data. This dissertation aims to explore diverse options to protect the confidentiality and integrity of memory bus against board-level probing attacks. The fundamental idea focuses on the implementation of an on-chip hardware cryptographique engine to guarantee the integrity and confidentiality of memory data. As our target market is low-to-medium embedded systems, we intend to propose one protection scheme which is realistic, acceptable-to-market and with low costs. All such strong constraints leverage bigly our specific protection choice
36

Duc, Guillaume. "Support matériel, logiciel et cryptographique pour une éxécution sécurisée de processus". Télécom Bretagne, 2007. http://www.theses.fr/2007TELB0041.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La majorité des solutions apportées aux problèmes de sécurité informatique (algorithmes, protocoles, systèmes d'exploitation sécurisés, applications) s'exécute sur des architectures matérielles non sécurisées et pouvant donc être vulnérables à des attaques physiques (espionnage du bus, modification de la mémoire, etc. ) ou logicielles (système d'exploitation corrompu). Des architectures sécurisées, permettant de garantir la confidentialité et la bonne exécution de programmes contre de telles attaques, sont proposées depuis quelques années. Après avoir présenté quelques bases cryptographiques ainsi qu'un comparatif des principales architectures sécurisées proposées dans la littérature, nous présenterons l'architecture sécurisée CryptoPage. Cette architecture garantit la confidentialité du code et des données des applications ainsi que leur bonne exécution contre des attaques matérielles et logicielles. Elle inclut également un mécanisme permettant de réduire les fuites d'informations via le bus d'adresse, tout en conservant des performances raisonnables. Nous étudierons également comment déléguer certaines opérations de sécurité de l'architecture CryptoPage à un système d'exploitation qui n'est pas digne de confiance, afin de permettre plus de flexibilité, sans pour autant compromettre la sécurité de l'ensemble. Enfin, d'autres mécanismes importants pour le bon fonctionnement de l'architecture CryptoPage sont traités : identification des processus chiffrés, attestation des résultats, gestion des signaux logiciels, gestion des processus légers, gestion des communications inter-processus
The majority of the solutions to the issue of computer security (algorithms, protocols, secure operating systems, applications) are running on insecure hardware architectures that may be vulnerable to physical (bus spying, modification of the memory content, etc. ) or logical (malicious operating system) attacks. Several secure architectures, which are able to protect the confidentiality and the correct execution of programs against such attacks, have been proposed for several years. After the presentation of some cryptographic bases and a review of the main secure architectures proposed in the litterature, we will present the secure architecture CryptoPage. This architecture guarantees the confidentiality of the code and the data of applications and the correct execution against hardware or software attacks. In addition, it also includes a mechanism to reduce the information leakage on the address bus, while keeping reasonable performances. We will also study how to delegate some security operations of the architecture to an untrusted operating system in order to get more flexibility but without compromising the security of thearchitecture. Finally, some other important mechanism are studied: encrypted processid entification, attestations of the results, management of software signals, management of the threads, inter-process communication
37

Vache, Géraldine. "Evaluation quantitative de la sécurité informatique : approche par les vulnérabilités". Toulouse, INSA, 2009. http://eprint.insa-toulouse.fr/archive/00000356/.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse présente une nouvelle approche pour l’évaluation quantitative de la sécurité des systèmes informatiques. L’objectif de ces travaux est de définir et d’évaluer plusieurs mesures quantitatives. Ces mesures sont des mesures probabilistes visant à quantifier les influences de l’environnement sur un système informatique en présence de vulnérabilités. Dans un premier temps, nous avons identifié les trois facteurs ayant une influence importante sur l’état du système : 1) le cycle de vie de la vulnérabilité, 2) le comportement de la population des attaquants et 3) le comportement de l’administrateur du système. Nous avons étudié ces trois facteurs et leurs interdépendances et distingué ainsi deux scénarios principaux, basés sur la nature de la découverte de la vulnérabilité, malveillante ou non. Cette étape nous a permis d'identifier les états possibles du système en considérant le processus d’exploitation de la vulnérabilité et de définir quatre mesures relatives à l'état du système qui peut être vulnérable, exposé, compromis, corrigé ou sûr. Afin d'évaluer ces mesures, nous avons modélisé ce processus de compromission. Par la suite, nous avons caractérisé de manière quantitative les événements du cycle de vie de la vulnérabilité à partir de données réelles issues d'une base de données de vulnérabilités pour paramétrer nos modèles de manière réaliste. La simulation de ces modèles a permis d’obtenir les valeurs des mesures définies. Enfin, nous avons étudié la manière d’étendre le modèle à plusieurs vulnérabilités. Ainsi, cette approche a permis l’évaluation de mesures quantifiant les influences de différents facteurs sur la sécurité du système
This thesis presents a new approach for quantitative security evaluation for computer systems. The main objective of this work is to define and evaluate several quantitative measures. These measures are probabilistic and aim at quantifying the environment influence on the computer system security considering vulnerabilities. Initially, we identified the three factors that have a high influence on system state: 1) the vulnerability life cycle, 2) the attacker behaviour and 3) the administrator behaviour. We studied these three factors and their interdependencies and distinguished two main scenarios based on nature of vulnerability discovery, i. E. Malicious or non malicious. This step allowed us to identify the different states of the system considering the vulnerability exploitation process and to define four measures relating to the states of the system: vulnerable, exposed, compromised, patched and secure. To evaluate these measures, we modelled the process of system compromising by vulnerability exploitation. Afterwards, we characterized the vulnerability life cycle events quantitatively, using real data from a vulnerability database, in order to assign realistic values to the parameters of the models. The simulation of these models enabled to obtain the values of the four measures we had defined. Finally, we studied how to extend the modelling to consider several vulnerabilities. So, this approach allows the evaluation of measures quantifying the influences of several factors on the system security
38

Joly, Cathie-Rosalie. "Le paiement sur les réseaux : comment créer la confiance dans le paiement en ligne ?" Montpellier 1, 2004. http://www.theses.fr/2004MON10018.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La démocratisation du réseau Internet a favorisé la naissance du commerce électronique entre professionnels et particuliers, mais c'est la confiance notamment dans les moyens de paiement électronique qui lui permettra de se développer. C'est pourquoi à côté de la carte bancaire, d'autres systèmes particuliers de paiement en ligne ont été mis en place pour permettre les micro-paiements. Pour parvenir à une sécurité optimale, les professionnels utilisent essentiellement des moyens de protection numérique dont la signature électronique et la certification. Mais à côté de ces moyens classiques, de nouvelles techniques de sécurisation basées sur la biométrie ont vu le jour et avec elles leur lot de questions relatives notamment à la protection de la vie privée et des données personnelles. Cette évolution rapide des techniques transactionnelles a nécessité que le législateur intervienne pour adapter certaines règles consacrant ainsi la preuve et la signature électroniques. Le législateur a également dû créer un cadre juridique spécifique allégé pour permettre le développement des moyens de paiements de monnaie électronique. Mais la confiance passe toujours par la protection, ce qui explique que les dispositions protectrices du consommateur et de ses données bancaires aient été renforcées. La nécessité pour le cybermarchand d'obtenir la confiance du consommateur l'a poussé à se mobiliser dans ce sens et a également donné naissance à de nouveaux professionnels de la confiance (prestataires de services de certification, labels) Enfin, la question de l'identification des consommateurs du point de vue de leur capacité juridique demeure toujours source d'incertitude pour le cybermarchand auquel l'incapacité de l'internaute peut être opposée pour obtenir l'annulation de la transaction. Aujourd'hui le paiement en ligne a atteint un niveau de sécurité optimal et après la révolution d'un pan entier de notre droit il est normal que des ajustements soient nécessaires.
39

Faurax, Olivier. "Méthodologie d'évaluation par simulation de la sécurité des circuits face aux attaques par faute". Aix-Marseille 2, 2008. http://theses.univ-amu.fr.lama.univ-amu.fr/2008AIX22106.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les circuits microélectroniques sécuritaires sont de plus en plus présents dans notre quotidien (carte à puce, carte SIM) et ils renferment des informations sensibles qu’il faut protéger (numéro de compte, clé de chiffrement, données personnelles). Récemment, des attaques sur les algorithmes de cryptographie basées sur l’utilisation de fautes ont fait leur apparition. L’ajout d’une faute lors d’un calcul du circuit permet d’obtenir un résultat faux. À partir d’un certain nombre de résultats corrects et de résultats faux correspondants, il est possible d’obtenir des informations secrètes et dans certains cas des clés cryptographiques complètes. Cependant, les perturbations physiques utilisées en pratique (impulsion laser, radiations, changement rapide de la tension d’alimentation) correspondent rarement aux types de fautes nécessaires pour réaliser ces attaques théoriques. Dans ce travail, nous proposons une méthodologie pour tester les circuits face aux attaques par faute en utilisant de la simulation. L’utilisation de la simulation permet de tester le circuit avant la réalisation physique mais nécessite beaucoup de temps. C’est pour cela que notre méthodologie aide l’utilisateur à choisir les fautes les plus importantes pour réduire significativement le temps de simulation. L’outil et la méthodologie associée ont été testés sur un circuit cryptographique (AES) en utilisant un modèle de faute utilisant des délais. Nous avons notamment montré que l’utilisation de délais pour réaliser des fautes permet de générer des fautes correspondantes à des attaques connues
Microelectronic security devices are more and more present in our lives (smartcards, SIM cards) and they contains sensitive informations that must be protected (account number, cryptographic key, personal data). Recently, attacks on cryptographic algorithms appeared, based on the use of faults. Adding a fault during a device computation enables one to obtain a faulty result. Using a certain amount of correct results and the corresponding faulty ones, it is possible to extract secret data and, in some cases, complete cryptographic keys. However, physical perturbations used in practice (laser, radiations, power glitch) rarely match with faults needed to successfully perform theoretical attacks. In this work, we propose a methodology to test circuits under fault attacks, using simulation. The use of simulation enables to test the circuit before its physical realization, but needs a lot of time. That is why our methodology helps the user to choose the most important faults in order to significantly reduce the simulation time. The tool and the corresponding methodology have been tested on a cryptographic circuit (AES) using a delay fault model. We showed that use of delays to make faults can generate faults suitable for performing known attacks
40

Limane, Tahar. "Conception et réalisation d'un outil de surveillance, temps réel, d'espaces de débattements de robots". Lyon, INSA, 1991. http://www.theses.fr/1991ISAL0093.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les travaux présentés dans ce mémoire concernent la conception et La réalisation d'un outil de surveillance en temps réel, de débattements de robots industriels dans le but d'améliorer La sécurité des opérateurs et des machines. Ce mémoire présente d'abord une analyse globale des conditions de risques en Robotique et la mise en évidence des différents facteurs de dépendance Liés à la spécification d'un système de protection. Les différents moyens et dispositifs de protection ainsi que les paramètres caractérisant l'arrêt d'un robot sont ensuite présentés. Les contraintes liées à la réalisation d'un nouveau système de sécurité, élaborant des contrôles d'appartenance à des espaces de surveillance en intégrant la dynamique du robot surveillé sont étudiées. Sont exposées ensuite, les spécifications fonctionnelles et structurelles ainsi que les modèles conceptuels du système de protection à réaliser. Des approches méthodologiques issues du domaine du Génie Logiciel sont utilisées, permettant ainsi de valider l'ensemble du cycle de vie du produit développe et d'en garantir le niveau de qualité et de fiabilité recherché. Ces travaux sont concrétisés par la réalisation de l'outil SAFE (Surveillance d'Ateliers Flexibles et de leur Environnement). Enfin, des perspectives d'intégration de fonctionnalités complémentaires sont proposées, concernant notamment La gestion de la commande et des espaces de surveillance autour des sites robotisés sécurisés
The study presented in this report addresses the problems of designing and implementing a real-time control system of robots movements. The top-Level objective of the study is to enhance the safety of both the human operators and the machines. We begin with a global analysis of risk conditions in Robotics and general relationship statements between the different factors which have to be taken into account when specifying protection systems. We survey the different methods as well as the different equipments used in protection systems against robots possibly undue clearances. Constraints specification of a mean safety system able to control dynamically the robot's containment within the limits allowed or forbidden spaces are studied. Afterwards, we present the functional and structural specifications a well as the conceptual models of the protection systems to be implemented. Methodological approaches of software engineering type are proposed in view of validating the overall system life-cycle, its quality and its reliability. This study results the elaboration of the software tool SAFE (Surveillance d'Ateliers Flexibles et de Leur environnement) which is described in the report. Further developments of SAFE are suggested concerning, particularly, two inter-related functionalities of safety control : - first, the robot command program itself, - second, the dynamic re-specification of safety space when any change arises in the robot's task
41

Guichard, Patrice. "Menace sur l'ordinateur : piratage - techniques et solutions". Paris 8, 2001. http://www.theses.fr/2001PA083771.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Parmi les mythes de cette fin de siècle, il semble bien que celui du hacker informatique soit en passe de devenir l'un des plus résistants de notre monde moderne. Dans une société environnée de haute technologie et de communication invisible et sans frontières, il est finalement rassurant de disposer d'une image convenue, celle d'un adolescent génial dont les "bidouilles" informatiques font courir un délicieux frisson d'angoisse, relayé par une presse à sensations toute acquise. Virus, intrusion, sabotage, vol : qui n'a pas à l'esprit au moins un exemple dans lequel l'ordinateur a été utilisé à des fins criminelles ou subi personnellement de telles attaques sur son ordinateur ? Qualifié d'épiphénomène ou de catastrophe selon certains spécialistes, d'autres plus réalistes s'efforcent d'analyser, de quantifier l'ampleur du phénomène et de proposer des mesures pour le contenir, à défaut de pouvoir l'éliminer. La complexité des systèmes, les coût des équipements et des logiciels, ainsi que l'élargissement des domaines d'application font que l'informatique est devenue un élément stratégique pour les entreprises, toute destruction ou altération de leurs données pouvant compromettre leur compétitivité et leur image, et occasionner des pertes souvent élevées. Bien que de plus en plus d'entreprises prennent conscience des risques et investissent en moyens pour en limiter les conséquences, ce phénomène demeure mal connu et peu maîtrisé par les entreprises. Son analyse passe nécessairement par une approche pluridisciplinaire (économique, sociale et technique). Face à ces risques, les techniques de prévention et de protection évoluent rapidement mais les entreprises ou les organisations demeurent vulnérables dans de nombreux domaines et c'est ce à quoi cette thèse s'attache en divulguant ces techniques de hackers aux administrateurs afin qu'ils puissent les tester sur leur propre réseau, techniques qu'aucun outil ne pourra réaliser à leur place
At the end of the 20th century, the computer hacker myth is one of the most widespread and resilient myths of our modern world. In a high technology society with limitless invisible communication devices, the computer whizkid stereotype popularized by mass media is somewhat reassuring. Viruses, illegal intrusions, sabotage, theft: who don't know examples of criminal computer activities, being themselves victims or not? Secondary phenomenon or worldwide catastrophe, analyzing and quantifying it remains necessary to offer solutions at least to hold it back, if not to eradicate it. The complexity of systems, the heavy costs of hardware and softwares and the extension of application fields have caused computer science to become a key element in the strategies of companies, since any destruction or alteration of their data can compromise their competitiveness or their image, and cause often significant financial loss. Though more and more companies become aware of the risks and widely invest into means to protect themselves, the phenomenon of computer hacking is still poorly known and mastered by companies. It should be analyzed through a multidisciplinary (economic, social and technical) approach. Prevention and protection techniques are quickly evolving but companies remain vulnerable in many fields. Revealing computer-hacking techniques is what this thesis is intended to do, so that administrators can test them on their own networks, something that no tool can do in lieu of them
42

Bhasin, Shivam. "Contre-mesures au niveau logique pour sécuriser les architectures de crypto-processeurs dans les FPGA". Paris, Télécom ParisTech, 2011. https://pastel.hal.science/pastel-00683079.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les réseaux de portes programmables modernes (FPGA) sont en mesure de mettre enoeuvre un système complexe sur puce (SoC) tout en fournissant des performances élevées. Un SoC Complexe contient généralement des noyaux cryptographiques embarqués permettant de chiffrer/déchiffrer des données afin d'en garantir la sécurité. Ces noyaux cryptographiques sont mathématiquement sûres mais leur mises en oeuvre matérielle peut être compromise par l'utilisation d'attaques par canaux cachés (SCA) ou d'attaques en faute (FA). Tout d'abord, une contremesure ciblant les transferts de registres, que nous appelons "Unrolling" est proposée. Cette contre-mesure exécute plusieurs tours d'un algorithme cryptographique par cycle d'horloge ce qui permet une diffusion plus profonde de données. Les résultats montrent une excellente résistance contre les SCA. Ceci est suivi par une contre-mesure basée sur un "Dual-Rail Precharge Logic" (DPL). La ``Wave Dynamic Differential Logic'' (WDDL) est une contre-mesure DPL bien adaptée pour les FPGAs. L'analyse de la DPL contre les attaques en fautes révéle qu'elle est résistante contre la majorité des fautes. Par conséquent, si des failles comme l'effet de propagation précoce (early propagation effect (EPE)) et le déséquilibre technologique sont fixés, DPL peut évoluer en tant que contre-mesure commune aux SCA et FA. En continuant sur cette ligne de recherche, nous proposons deux nouvelles contremesures: DPL sans EPE et ``Balanced-cell based DPL'' (BCDL). Enfin des outils d'évaluation avancés comme les modèles stochastique, l'information mutuelle et les attaques combinées sont discutées ce qui est très utiles l'analyse des contremesures
Modern field programmable gate arrays (FPGA) are capable of implementing complex system on chip (SoC) and providing high performance. Therefore, FPGAs are finding wide application. A complex SoC generally contains embedded cryptographic cores to encrypt/decrypt data to ensure security. These cryptographic cores are computationally secure but their physical implementations can be compromised using side channel attacks (SCA) or fault attacks (FA). This thesis focuses on countermeasures for securing cryptographic cores on FPGAs. First, a register-transfer level countermeasure called ``Unrolling'' is proposed. This hiding countermeasure executes multiple rounds of a cryptographic algorithm per clock which allows deeper diffusion of data. Results show excellent resistance against SCA. This is followed by dual-rail precharge logic (DPL) based countermeasures, which form a major part of this work. Wave dynamic differential logic (WDDL), a commonly used DPL countermeasure well suited for FPGAs is studied. Analysis of WDDL (DPL in general) against FA revealed that it is resistant against a majority of faults. Therefore, if flaws in DPL namely early propagation effect (EPE) and technological imbalance are fixed, DPL can evolve as a common countermeasure against SCA and FA. Continuing on this line of research we propose two new countermeasures: DPL without EPE and Balanced-Cell based DPL (BCDL). Finally advanced evaluation tools like stochastic model, mutual information and combined attacks are discussed which are useful when analyzing countermeasures
43

Portolan, Michele. "Conception d'un système embarqué sûr et sécurisé". Grenoble INPG, 2006. http://www.theses.fr/2006INPG0192.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse s'attache à définir une méthodologie globale permettant d'augmenter le niveau de sûreté et de sécurité face à des fautes logiques transitoires (naturelles ou intentionnelles) survenant dans un système intégré matériel/logiciel, de type carte à puce. Les résultats peuvent être appliqués à tout circuit construit autour d'un cœur de microprocesseur synthétisable et d'un ensemble de périphériques spécialisés. Les méthodes de protection portent simultanément, sur le matériel, le logiciel d'application et les couches d'interface (en particulier, le système d'exploitation). Les modifications sur des descriptions de haut niveau on été privilégiées pour leurs avantages en terme de généralité, configurabilité, portabilité et pérennité. L'approche vise un bon compromis entre niveau de robustesse atteint et coûts induits, aussi bien au niveau matériel qu'au niveau performances. Elle est appliquée et validée sur un système significatif, représentatif d'un système embarqué monoprocesseur
This PhD researches a global methodology enabling to improve the dependability and security level against transient logic faults (natural or provoked) appearing inside a hardware/software integrated system, like for instance a smart cardo Results can be applied to all systems built around a synthesisable microprocessor core and a set of specialised peripherals. The protection methods operate simultaneously and in complementary manner on hardware, application software and interface layers (most noticeably, the operating system). High level modifications have been favoured for their advantages in terms of generality, configurability, portability and perpetuity. The proposed approach aims at achieving a good trade-off between robustness and overheads, from both hardware and performance point of views. It is applied on a significant system example, representative of an embedded monoprocessor system
44

Hussain, Mureed. "Sécurisation des communications et des réseaux informatiques dans des environnements tri-partites". Paris 5, 2005. http://www.theses.fr/2005PA05S038.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’homme sait faire preuve de confiance vis-à-vis des autres hommes. Les équipements informatiques doivent aujourd’hui reproduire le même schéma et prendre des décisions intelligentes. . , beaucoup plus rapidement que l’homme lui-même. A ce niveau de technologies d’information, tout ce qui compte est la vitesse à laquelle une information est rassemblée et analysée pour que la bonne décision soit prise et implémentée. Peu importe le domaine, la sécunté de l’information est primordiale. Gérer la sécurité suppose d’admettre certaines « espérances » voire « cro’ances » ce qui donne naissance inéxitablement à des risques. Pour prévenir ces risques, une gestion de la notion de confiance et des règles de sécurité sont mises en place. Le mode le plus naturel, dans les environnements de réseaux informatiques, pour gérer la sécurité, est la mise en place d’une passerelle spécialisée, éventuellement externalisée à un partenaire de confiance. Les raisons en sont multiples les équipements du réseau n’ont pas toujours la capacité requise pour traiter les opérations de chiffrement qui sont réputées gourmandes en CPU ; la gestion de la sécurité nécessite une expertise qui n’est pas toujours disponible dans l’entreprise elle-même ; enfin. Limplémentation de nouveaux services de sécurité est grandement facilitée dans une passerelle, alors qu’elle serait complexe, voire impossible à mettre en oeuvre dans chaque équipement du réseau. Nous sommes donc confrontés à des environnements tripartites client, serveur et tierce partie gérant la sécurité. Les deux solutions actuelles destinées à gérer la sécurité dans les réseaux informatiques sont celles de l’IETF avec le protocole de sécurité IPSec pour la couche réseau et le mécanisme TLS au niveau de la couche transport. Dans cette thèse, nous avons proposé de modifier les deux standards afin de répondre aux besoins de gestion de confiance et de déploiement de services de sécurité implémentés dans une passerelle gérée par une tierce partie. Nous avons montré comment partager, en toute sécurité, un secret entre trois entités, voire plus, alors que toutes les solutions précédentes s’attachaient à le faire entre deux seulement. Ce partage est à la base de la fourniture de tous les services de sécurité. Les deux standards modifiés ont été formellement validés en utilisant des analyseurs de protocoles afin de mesurer la robustesse de nos propositions aucune faille de sécurité n’a été introduite par nos modifications. L’une des applications importantes de notre thèse se situe dans les réseaux mobiles ad hoc pour la gestion des clés
Humans evince trust and so do the devices today responsible to take intelligent decisions far more rapidly than the humans do. In this age of information technology all what counts is how quickly information is collected, processed and a right decision is taken and implemented. Irrespective of the domain of the human society information is related to, its security is primordial. When security needs mix up with expectations and somewhat with beliefs. They give birth to risks. To avoid risks, trust management and security policies are designed. Security policies are then expressed ith respect to a particular situation and a specific need. For example in a situation we rna need oniy pnvacy, that is hiding information from unauthorised person may not need non-repudiation. So, the services required to provide information security are heavily dependant on the situation. In a world of 21st century distances don’t really matter but contacts do. After the revolutionary discovery of public-key encryption system in 1976, corresponding people may share a secret exen when they have neyer met before and physically they are on the other end of the globe. This ail has become possible due to the interrnediate intelligent devices capable ofmaking the decisions on the available pertinent information with no significant time delays. How these devices can be made to be trusted and provide a required security service when need be, is the subject of this thesis. Two most prominent solutions of net work and communication security are IETF IP security (IPSec) protocol at OSI network layer and at Transport Level Securitv (TLS) at OSI transport layer. We have modified both standards at appropriate places to accommodate our needs of trust management and provision of security services for generic third party security gateways (TPSG). We think these security gateways are important because first, the network devices may not have enough power and memory resources to perform cryptographic computations and second, the enterprises may lack the required expertise to implement a security solution. Furthermore, the requirement of integrating a ne’ security service may be far harder in existing security infrastructure than to implement it on an extemal device. Both proposed solutions have been formally ‘ alidated using automatic protocol analysers Hermes and AVISPA to avoid any attack vulnerability. An interesting application of this work may be in key management in ad hoc networks
45

Khatib, Mounis. "Key management and secure routing in mobile ad-hoc networks for trusted-based service provision in pervasive environment". Evry, Télécom & Management SudParis, 2008. http://www.theses.fr/2008TELE0017.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les réseaux mobiles ad hoc sont considérés comme l’étape la plus proche du paradigme de l’informatique pervasive ou tous les périphériques se découvrent mutuellement et d’une façon dynamique, établissent des communications réseaux entre eux et se partagent les ressources/l’information afin de fournir un service transparent aux utilisateurs. Cependant le problème majeur des réseaux mobiles ad hoc (MANET) est lié à la sécurité des services proposés. En effet, le manque de fiabilité du support de transmission (air) la mobilité des clients, et le manque de ressources en termes d'infrastructure, sont des problèmes à surmonter pour garantir des communications sécurisées. Si la solution basée sur la gestion des clés permet de résoudre de telles problématiques dans les réseaux filaires, son application dans un environnement sans fil (MANET) ne garantit pas la sécurité du protocole de routage utilisé. D’où la nécessité de proposer un mécanisme de gestion de clé efficace qui prend en considération les caractéristiques des réseaux ad hoc sans fil. Deux approches peuvent être envisagées pour la conception d'un mécanisme de gestion de clé: une approche asymétriques (basé sur l'utilisation des clés publiques) et une approche symétrique. Le déploiement de la première solution nécessite une grande capacité de traitement et de mémoire pour sa mise en place, ce qui la rend très couteuse pour un environnement de réseaux ad hoc ou les ressources sont limitées. Il serait donc plus adéquat de s'orienter vers un système de chiffrement symétrique et essayer de surmonter les problèmes liés aux attaques potentielles ciblant les étapes de négociation et de distribution des clés dans de telles approches. Notre contribution dans cette thèse consiste en un premier lieu à la conception d'un nouveau protocole de gestion de clé (OPEP) pour les réseaux mobiles ad hoc. OPEP permet, entre autre, l'établissement d'une relation sécurisée entre deux nœuds, l'authentification des clés échangées et les opérations d'attachement et de départ des nœuds. Dans un second lieu, une implémentation de notre proposition est réalisée en se basant sur le protocole de routage réactif (AODV) sans la nécessité d'utiliser une entité centrale "online": Ainsi, nous avons réussi à proposer un nouveau mécanisme de gestion de clés et de sécuriser un protocole de routage existant en même temps. Le deuxième volet de notre travail se focalise sur la sécurisation du protocole de routage "PARTY" proposé pour les réseaux ad hoc comportant des milliers de nœuds. En effet, la scalabilité des réseaux ad hoc est devenu un problème crucial à résoudre et le protocole PARTY permet de fournir un protocole de routage efficace pour un environnement avec un grand nombre de nœuds hétérogènes. Afin de garantir une solution complète et sécurisée, nous analysons les vulnérabilités en termes de sécurité montrées par ce protocole et nous proposons un nouveau mécanisme préventif et correctif qui interagit avec un modèle de confiance pour renforcer la coopération des nœuds au cours du processus de routage. En dernier lieu, une validation de nos protocoles est achevée en se basant sur une plateforme de fournisseur de service dans un environnement intelligent. Notre objectif étant d'authentifier les utilisateurs, sécuriser le mécanisme de mise en disposition des services en se basant sur notre modèle de confiance et de gérer les services entre les différents utilisateurs
Mobile Ad hoc networks are the closest step to the vision of pervasive computing where all devices dynamically discover each other, organize communication networks between themselves and share resources/information to provide seamless service to the end-user. The major problem of providing security services in Mobile Ad-hoc Networks (MANET) is how to manage the key material. Due to unreliable wireless media, the host mobility and the lack of infrastructure, providing secure communications become a big challenge. In addition, the absence of an efficient key management system in this type of network makes it also hard to build a secured routing protocol. As the traditional key management schemes are not suitable to such environments, there is a high requirement to design an efficient key management system compatible with the characteristics of Ad hoc networks. Mobile Ad-hoc Networks cannot afford to deploy public key cryptosystems due to their high computational overheads and storage constraints, while the symmetric approach has computation efficiency but suffers from potential attacks on key agreement or key distribution. Key management is a central aspect for security in mobile ad hoc networks. Consequently, it is necessary to explore an approach that is based on symmetric key cryptography and overcomes their restrictions. In this thesis, our first contribution aimed to design a new protocol called OPEP that enables two nodes in an ad-hoc network to establish a pair wise key, key verification, authenticated key exchange, and group join and exclusion operations. We implement our protocol using a well-known reactive routing protocol without requiring the use of an online centralized entity; in this manner we succeed to propose a new key management scheme and to secure an existing routing protocol at the same time. It is well known that the current ad hoc routing protocols do not scale to work efficiently in networks of more than a few hundred nodes. For scalability purpose we have chosen a new routing protocol, called PARTY, which is intended to be applied in environments with a large number of heterogeneous nodes. Our second contribution in this thesis was focused on vulnerability analysis of PARTY protocol and proposing a new preventive and corrective mechanism which interact with a new trust model to enforce the cooperation of nodes during the routing process. Finally, we validate our protocols in a service provider platform inside a smart environment to authenticate users, to secure the service provision mechanism in this environment based on our trust model, and to manage services among different users
46

Cornejo, Bautista Joaquim Alfonso Alejandro. "Etude de la sécurisation du canal de transmission optique par la technique de brouillage de phase". Télécom Bretagne, 2009. http://www.theses.fr/2008TELB0095.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les réseaux optiques sont couramment utilisés pour satisfaire les besoins en transmission de données. Cette évolution permet d'offrir aux utilisateurs de nouveaux services, tel que la vidéo à la demande, la vidéo-conférence, la télévision à haute définition etc. Le problème de la confidentialité des donnés transférées par fibre optique à haut débit peut se poser, dans certains cas, pour l'acheminement d'information à caractère sensible ou à but commercial, parce que le canal optique peut être espionné sans que l'émetteur et/ou récepteur ne s'en aperçoivent. Les méthodes classiques de cryptographie ne sont pas toujours applicables en raison du grand volume de données à coder. Il faut trouver un moyen physique pour sécuriser le transfert de données à haut débit en affectant le moins possible l'équipement de ligne. Ce travail de thèse a porté sur la conception et la modélisation d'un système optique de brouillage de phase pour sécuriser la transmission de données à haut débit dans des liaisons point à point WDM (Wavelength Division Multiplexing) sans affecter les équipements de ligne et la gestion des canaux. Pour ce faire, on a utilisé un système en espace libre de façonnage. On a particulièrement pris en compte la conception d'un système de brouillage ayant un impact réduit sur l'architecture des systèmes de transmission, notamment avec une grande tolérance par rapport à l'ensemble des effets de propagation dans une fibre. D'autre part, pour garantir la confidentialité des données, il est nécessaire de renouveler la clé de brouillage, parce qu'il est possible que l'intrus la récupère, par exemple, en utilisant la technique de l'échantillonnage linéaire optique. C'est-à-dire, qu'il faut partager la clé entre l'émetteur et le récepteur. C'est pourquoi, nous avons concentré, dans une deuxième partie, notre effort sur la modélisation numérique d'une méthode QKD (Quantum Key Distribution) qui pourrait être utilisée pour véhiculer la clé, sur une ligne de transmission commerciale. Ce modèle nous a permis par là même d'étudier l'impact (l'intrusion) sur la méthode QKD dans une liaison point à point WDM classique, sous l'influence des effets de propagation standard dans une fibre et pour une certaine distance.
47

Antakly, Dimitri. "Apprentissage et vérification statistique pour la sécurité". Thesis, Nantes, 2020. http://www.theses.fr/2020NANT4015.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les principaux objectifs poursuivis au cours de cette thèse sont en premier lieu de pouvoir combiner les avantages de l’apprentissage graphique probabiliste de modèles et de la vérification formelle afin de pouvoir construire une nouvelle stratégie pour les évaluations de sécurité. D’autre part, il s’agit d’évaluer la sécurité d’un système réel donné. Par conséquent, nous proposons une approche où un "Recursive Timescale Graphical Event Model (RTGEM)" appris d’après un flux d’évènements est considéré comme représentatif du système sous-jacent. Ce modèle est ensuite utilisé pour vérifier une propriété de sécurité. Si la propriété n’est pas vérifiée, nous proposons une méthodologie de recherche afin de trouver un autre modèle qui la vérifiera. Nous analysons et justifions les différentes techniques utilisées dans notre approche et nous adaptons une mesure de distance entre Graphical Event Models. La mesure de distance entre le modèle appris et le proximal secure model trouvé nous donne un aperçu d’à quel point notre système réel est loin de vérifier la propriété donnée. Dans un soucis d’exhaustivité, nous proposons des séries d’expériences sur des données de synthèse nous permettant de fournir des preuves expérimentales que nous pouvons atteindre les objectifs visés
The main objective of this thesis is to combine the advantages of probabilistic graphical model learning and formal verification in order to build a novel strategy for security assessments. The second objective is to assess the security of a given system by verifying whether it satisfies given properties and, if not, how far is it from satisfying them. We are interested in performing formal verification of this system based on event sequences collected from its execution. Consequently, we propose a model-based approach where a Recursive Timescale Graphical Event Model (RTGEM), learned from the event streams, is considered to be representative of the underlying system. This model is then used to check a security property. If the property is not verified, we propose a search methodology to find another close model that satisfies it. We discuss and justify the different techniques we use in our approach and we adapt a distance measure between Graphical Event Models. The distance measure between the learned "fittest" model and the found proximal secure model gives an insight on how far our real system is from verifying the given property. For the sake of completeness, we propose series of experiments on synthetic data allowing to provide experimental evidence that we can attain the desired goals
48

Chevallier-Mames, Benoit. "Cryptographie à clé publique : constructions et preuves de sécurité". Paris 7, 2006. http://www.theses.fr/2006PA077008.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le concept de cryptographie à clé publique, initiée par Whitfield Diffie et Martin Hellman, a donné naissance à une nouvelle ère de la cryptologie. Après la description de schémas sûrs de façon heuristique, la formalisation de modèles et de notions de sécurité a permis la naissance de la cryptographie à sécurité prouvée. Après un rappel des concepts mêmes de la cryptographie et des preuves par réduction, nous proposons de nouveaux schémas de signature et de chiffrement, tout en décrivant certains avantages sur les schémas existants. Ainsi, nous proposons deux nouveaux schémas de signature sûrs dans le modèle de l'oracle aléatoire, et exposons un nouveau schéma de signature sûr dans le modèle standard. Tous nos schémas possèdent une preuve fine et autorisent l'usages de coupons. Ensuite, nous décrivons un nouveau schéma de chiffrement, basé sur un nouveau problème algorithmique. Nous jetons également un nouveau regard sur la notion de padding universel, et montrons comment obtenir, pour un schéma de chiffrement basé sur l'identité, une preuve fine dans le modèle de l'oracle aléatoire. Dans une partie finale de cette thèse, nous abordons le thème de la sécurité des mises en oeuvre des algorithmes cryptographiques. Nous proposons ainsi des contre-mesures contre les attaques par canaux cachés, qu'elles soient simples (SPA) ou différentielles (DPA)
The public key cryptography concept, proposed by Whitfield Diffie et Martin Hellman, changed the cryptology world. After the description of first heuristically secure schemes, thé formalization of models and security notions has allowed the emergency of provable security. After some reminds about cryptography and security reduction, we propose new signature and encryption schemes, with some advantages over the existing Systems. Indeed, we propose two new signature schemes with a security proof in the random oracle model, and expose a new signature scheme which features a provable security in the standard model. All of these schemes feature both tight security and the possible use of coupons. Next, we describe a new encryption scheme, based on a new cryptographical problem. We also give another look to the universel paddings, and show how to obtain tight security for identity-based encryption schemes. In the last part of this thesis, we deal with the physical security of cryptographical software. We propose notably new efficient countermeasures against simple side-channel attacks (SPA) and differentiel side-channel attacks (DPA)
49

Boisseau, Alexandre. "Abstractions pour la vérification de propriétés de sécurité de protocoles cryptographiques". Cachan, Ecole normale supérieure, 2003. https://theses.hal.science/tel-01199555.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Depuis le développement de l'utilisation des réseaux informatiques et de l'informatisation des communications, il est apparu pour le public un besoin de sécuriser les communications électroniques. Les considérations cryptographiques constituent un élément de réponse au problème de la sécurité des communications et les protocoles cryptographiques décrivent comment intégrer la cryptographie à l'intérieur de communications réelles. Cependant, même dans le cas où les algorithmes de chiffrement sont supposés robustes, les protocoles peuvent présenter des failles de conception exploitables (failles logiques), entrainant un besoin de vérification formelle. Dans cette thèse, nous utilisons des techniques d'abstraction afin de prouver formellement divers types de propriétés. Les propriétés de secret et d'authentification, les propriétés de type équité et des propriétés de type anonymat
Since the development of computer networks and electronic communications, it becomes important for the public to use secure electronic communications. Cryptographic considerations are part of the answer to the problem and cryptographic protocols describe how to integrate cryptography in actual communications. However, even if the encryption algorithms are robust, there can still remain some attacks due to logical flaw in protocols and formal verification can be used to avoid such flaws. In this thesis, we use abstraction techniques to formally prove various types of properties : secrecy and authentication properties, fairness properties and anonymity
50

Carré, Jean-Loup. "Static analysis of embedded multithreaded programs". Cachan, Ecole normale supérieure, 2010. https://theses.hal.science/tel-01199739.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse présente un algorithme d'analyse statique pour des programmes parallèles. Il généralise des techniques d'interprétation abstraite utilisée dans le cas de programmes sans parallélisme et permet de détecter des erreurs d'exécution, exempli gratia, les déréférencements de pointeur invalide, les débordements de tableaux, les débordements d'entiers. Nous avons implémenté cet algorithme. Il analyse un code industriel de taille conséquente (100 000 lignes de code) en quelques heures. Notre technique est modulaire, elle peut utiliser n'importe quel domaine abstrait créé pour le cas de programmes non-parallèles. En outre, sans change le calcul du point fixe, certains de nos domaines abstraits. Permettent la détection de data-races ou de deadlocks. Cette technique ne présuppose pas la consistance séquentielle (i. E. Ne présuppose pas que l'exécution d'un programme parallèle est l'entrelacement de l'exécution de sous-programmes) puisque, en pratique (les processeurs INTEL et SPARC, JAVA,. . . ) l'exécution des programmes n'est pas séquentiellement consistante. Exempli gratia notre technique fonctionne avec les modèles TSO (Total Store Ordering) et PSO (Partial Store Ordering)
This Phd thesis presents a static analysis algorithm for programs with threads. It generalizes abstract interpretation techniques used in the single-threaded case and allows to detect runtimes errors, e. G, invalid pointer dereferences, array overflows, integer overflows. We have implemented this algorithm. It analyzes a large industrial multithreaded code (100K LOC) in few hours. Our technique is modular, it uses any abtract domain designed for the single-threaded-case. Furthermore, without any change in the fixpoint computation, sorne abstract domains allow to detect data-races or deadlocks. This technique does not assume sequential consistency, since, in practice (INTEL and SPARC processors, JAVA,. . . ), program execution is not sequentially consistent. E. G, it works in TSO (Total Store ordering) or PSO (Partial Store Ordering) memory models

Vai alla bibliografia