To see the other types of publications on this topic, follow the link: Sécurité des applications.

Dissertations / Theses on the topic 'Sécurité des applications'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Sécurité des applications.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Cherif, Amina. "Sécurité des RFIDs actifs et applications." Thesis, Limoges, 2021. http://www.theses.fr/2021LIMO0015.

Full text
Abstract:
Au cours des 30 dernières années, les dispositifs RFID actifs sont passés de simples dispositifs d’identification (tags) à des noeuds autonomes qui, en prime, collectent (à partir de l’environnement ou d’autres sources) et échangent des données. En conséquence, le spectre de leurs applications s’est largement étendu, passant de la simple identification à la surveillance et à la localisation en temps réel. Ces dernières années, grâce à leurs avantages, l’utilisation de noeuds RFID actifs pour la collecte de données mobiles a suscité une attention particulière. En effet, dans la plupart des scénarios, ces noeuds sont déployés dans des environnements adverses. Les données doivent donc être stockées et transmises de manière sécurisée pour empêcher toute attaque par des adversaires actifs : même si les noeuds sont capturés, la confidentialité des données doit être assurée. Toutefois, en raison des ressources limitées des noeuds en termes d’énergie, de stockage et/ou de calcul, la solution de sécurité utilisée doit être légère. Cette thèse est divisée en deux parties. Dans la première, nous étudierons en détail l’évolution des noeuds RFID actifs et leur sécurité. Nous présenterons ensuite, dans la seconde partie, un nouveau protocole sans serveur permettant à des MDC (collecteurs de données mobiles), par exemple des drones, de collecter en toute sécurité des données provenant de noeuds RFID actifs mobiles et statiques afin de les transmettre ultérieurement à un tiers autorisé. L’ensemble de la solution proposée garantit la confidentialité des données à chaque étape (de la phase de mesure, avant la collecte des données par le MDC, une fois les données collectées par le MDC et lors de la livraison finale), tout en satisfaisant les exigences de faible consommation des ressources (calcul, mémoire, etc.) des entités impliquées. Pour évaluer l’adéquation du protocole aux exigences de performance, nous l’implémenterons sur les dispositifs de sécurité les plus limités en ressources c’est-à-dire à base de processeur de cartes à puce pour prouver qu’il est efficace même dans les pires conditions. De plus, pour prouver que le protocole satisfait aux exigences de sécurité, nous l’analyserons à l’aide de jeux de sécurité et également d’outils de vérification formelle : AVISPA et ProVerif
Over the 30 last years, active RFID devices have evolved from nodes dedicated to identification to autonomous nodes that, in addition, sense (from environment or other sources) and exchange data. Consequently, the range of their applications has rapidly grown from identification only to monitoring and real time localisation. In recent years, thanks to their advantages, the use of active RFID nodes for mobile data collection has attracted significant attention. However, in most scenarios, these nodes are unattended in an adverse environments, so data must be securely stored and transmitted to prevent attack by active adversaries: even if the nodes are captured, data confidentiality must be ensured. Furthermore, due to the scarce resources available to nodes in terms of energy, storage and/or computation, the used security solution has to be lightweight. This thesis is divided in two parts. In the first, we will study in details the evolution of active RFID nodes and their security. We will then, present, in the second part, a new serverless protocol to enable MDCs (Mobile Data Collectors), such as drones, to collect data from mobile and static Active RFID nodes and then deliver them later to an authorized third party. The whole solution ensures data confidentiality at each step (from the sensing phase, before data collection by the MDC, once data have been collected by MDC, and during final delivery) while fulfilling the lightweight requirements for the resource-limited entities involved. To assess the suitability of the protocol against the performance requirements, we will implement it on the most resource-constrained secure devices to prove its efficiency even in the worst conditions. In addition, to prove the protocol fulfills the security requirements, we will analyze it using security games and we will also formally verify it using the AVISPA and ProVerif tools
APA, Harvard, Vancouver, ISO, and other styles
2

Luo, Zhengqin. "Sémantique et sécurité des applications Web." Nice, 2011. http://www.theses.fr/2011NICE4058.

Full text
Abstract:
Dans ce travail, nous étudions la sémantique formelle et des problèmes de sécurité des applications Web. La thèse est divisée en trois parties. La première partie propose une sémantique opérationnelle à petits pas pour un langage de programmation multiniveaux HOP, qui peut être utilisé pour raisonner globalement sur les applications Web. La sémantique couvre un cœur du langage HOP, y compris les générations dynamiques de code client, et les interactions entre les serveurs et les clients. La deuxième partie étudie une nouvelle technique pour empêcher automatiquement des attaques par injection de code, basé, sur la compilation multiniveaux. Nous ajoutons une nouvelle phase dans le compilateur pour comparer la structure de la syntaxe de la sortie. La validité de notre technique est prouvée correcte avec la sémantique opérationnelle de HOP. La dernière partie de la thèse propose Mashic, un compilateur source-à-source de Javascript pour isoler mashup par iframe sandbox et PostMessage dans le HTML5. Le compilateur est prouvé correct avec une sémantique formelle de JavaScript
In this work we study the formal semantics and security problems of Web applications. The thesis is divided into three parts. The first part proposes a small-step operational semantics for a multitier programing language HOP, which can be used to globally reasoning about Web applications. The semantics covers a core of the HOP language, including dynamic generations of client code, and interactions between servers and clients. The second part studies a new technique to automatically prevent code injection attacks, based on multitier compilation. We add a new phase in the compiler to compare the intended and the actual syntax structure of the output. The validity of our technique is proved correct in the operational semantics of HOP. The last part of the thesis studies Mashic, a source-to-source compiler of JavaScript to isolate untrusted script by ifram sandbox and postmessage in HTML5. The compiler is proved correct in a formal semantics of JavaScript
APA, Harvard, Vancouver, ISO, and other styles
3

Vayssière, Julien. "Une architecture de sécurité pour les applications réflexives : application à Java." Nice, 2002. http://www.theses.fr/2002NICE5772.

Full text
Abstract:
En l'espace de vingt ans, les techniques de programmation réflexive sont passées du statut de curiosité de laboratoire à celui d'outil indispensable dans la panoplie du programmeur. Ces techniques sont notamment utilisées dans le but d'adapter de manière transparente le comportement des logiciels à des situations qui n'étaient pas prévues par leurs spécifications d'origine. Dans le même temps, les applications sont devenues plus complexes et les cycles de développement plus courts, ce qui a amené l'émergence d'approches à composants. La généralisation des réseaux de communication a permis d'incorporer dynamiquement lors de l'exécution d'une application des nouveaux composants chargés depuis une machine distante. Les problèmes de sécurité posés par l'apparition de code mobile sont immenses, c'est pourquoi le langage de programmation Java, par exemple, contient une architecture de sécurité destiné à protéger les ressources locales du code chargé à distance. Cette thèse porte sur les problèmes de sécurité posés par l'utilisation de protocoles à métaobjets (MOP) dans le cadre d'application à composants développées dans la langage Java. Les contributions de ce travail se répartissent selon deux axes. Nous avons tout d'abord étudié les problèmes de sécurité soulevés par l'utilisation des différents types de MOP pour Java, et comment l'architecture de sécurité existante permet, ou non, d'y répondre. Nous en avons conclu que le modèle de sécurité de Java doit être étendu afin de pouvoir appliquer des contrôles d'accès aux opérations effectuées par le code de méta niveau sur le code du niveau de base. Nous avons ensuite con\c{c}u et implémenté un MOP à objets d'interception pour Java avec le double objectif d'être non-intrusif et de sécuriser les interactions entre les métaobjets et les objets de base. Après avoir montré comment la présence du méta niveau peut être transparente pour le niveau de base du point de vue de la sécurité, nous avons défini un ensemble de permissions destinées à contrôler les opérations que les métaobjets peuvent faire sur, à la fois, les objets du niveau de base et les éléments de l'exécution du programme de base réifiés. Nous avons enfin implémenté un certain nombre de comportement de niveau méta afin de valider notre MOP et son architecture de sécurité. Ces résultats prouvent que la granularité des permissions choisies est correcte, et que le surcoût introduit par le mécanisme de sécurité intégré au MOP est tout à fait acceptable. Nous terminons en expliquant comment notre architecture de sécurité pourrait être appliquée à d'autre types de MOP pour Java.
APA, Harvard, Vancouver, ISO, and other styles
4

Hadhiri, Amine. "Sécurité des applications androïde : menaces et contre-mesures." Mémoire, École de technologie supérieure, 2012. http://espace.etsmtl.ca/1008/1/HADHIRI_Amine.pdf.

Full text
Abstract:
De nos jours, les téléphones intelligents sont omniprésents dans notre vie quotidienne. Le nombre d’utilisateurs de ces appareils ne cesse de croitre à travers le monde. En effet, les tâches que les téléphones intelligents sont capables d’offrir sont quasiment comparables à celles offertes par les ordinateurs conventionnelles. Cependant, il serait aberrant de tenir la comparaison lorsqu’il s’agit de la sécurité. En effet, les utilisateurs des téléphones intelligents peuvent consulter leurs courriels, leurs comptes bancaires et accéder à leurs comptes des réseaux sociaux. Cependant, la plupart de gens ne semblent pas réaliser qu’ils peuvent être victime des cyberattaques mettant en péril les trois aspects de sécurité de leurs données : la confidentialité, la disponibilité et l’intégrité. Plusieurs systèmes d’exploitation sont disponibles pour les téléphones intelligents. Selon les récentes statistiques, Android – lancé par Google en 2007 - serait le système le plus répandu sur le marché des téléphones intelligents et ne cesse de gagner en popularité. Cette popularité est croissante non seulement parmi les utilisateurs, mais aussi parmi les développeurs des applications mobiles profitant de l’ouverture de Android qui est un système source libre (Open source). Malheureusement, la sécurité dans Android ne suit pas la même courbe de croissance de ce système d’exploitation mobile. La popularité d’Android a fait en sorte qu’il devienne une cible de choix pour les cyberattaques. Par conséquent, le nombre des applications Android malveillantes s’est multiplié au cours des dernières années. Contrairement à ce que la majorité des utilisateurs des téléphones intelligents pensent, les impacts de ces attaques n’ont rien de moins comparé aux impacts causés par les logiciels malveillants ciblant les ordinateurs conventionnels. Dans le cadre de cette recherche, nous nous sommes intéressés en un premier temps à caractériser les types des applications malveillantes ciblant le système Android en présentant une nouvelle classification de ceux-ci en fonction des vecteurs d’attaque qu’ils exploitent. Cette classification nous permet de mieux comprendre le mode de fonctionnement des applications malveillantes ciblant Android. Ensuite, nous proposons de nouvelles méthodes de développement d’applications pour Android que nous pensions capables de limiter les risques des applications malveillantes visant à exploiter malicieusement les applications légitimes installées sur le téléphone Android. Les méthodes proposées sont inspirées de plusieurs solutions de sécurité pour Android présentes dans la littérature, avec l’avantage de ne pas apporter de modifications au système Android.
APA, Harvard, Vancouver, ISO, and other styles
5

Somé, Dolière Francis. "Sécurité et vie privée dans les applications web." Thesis, Université Côte d'Azur (ComUE), 2018. http://www.theses.fr/2018AZUR4085/document.

Full text
Abstract:
Dans cette thèse, nous nous sommes intéressés aux problématiques de sécurité et de confidentialité liées à l'utilisation d'applications web et à l'installation d'extensions de navigateurs. Parmi les attaques dont sont victimes les applications web, il y a celles très connues de type XSS (ou Cross-Site Scripting). Les extensions sont des logiciels tiers que les utilisateurs peuvent installer afin de booster les fonctionnalités des navigateurs et améliorer leur expérience utilisateur. Content Security Policy (CSP) est une politique de sécurité qui a été proposée pour contrer les attaques de type XSS. La Same Origin Policy (SOP) est une politique de sécurité fondamentale des navigateurs, régissant les interactions entre applications web. Par exemple, elle ne permet pas qu'une application accède aux données d'une autre application. Cependant, le mécanisme de Cross-Origin Resource Sharing (CORS) peut être implémenté par des applications désirant échanger des données entre elles. Tout d'abord, nous avons étudié l'intégration de CSP avec la Same Origin Policy (SOP) et démontré que SOP peut rendre CSP inefficace, surtout quand une application web ne protège pas toutes ses pages avec CSP, et qu'une page avec CSP imbrique ou est imbriquée dans une autre page sans ou avec un CSP différent et inefficace. Nous avons aussi élucidé la sémantique de CSP, en particulier les différences entre ses 3 versions, et leurs implémentations dans les navigateurs. Nous avons ainsi introduit le concept de CSP sans dépendances qui assure à une application la même protection contre les attaques, quelque soit le navigateur dans lequel elle s'exécute. Finalement, nous avons proposé et démontré comment étendre CSP dans son état actuel, afin de pallier à nombre de ses limitations qui ont été révélées dans d'autres études. Les contenus tiers dans les applications web permettent aux propriétaires de ces contenus de pister les utilisateurs quand ils naviguent sur le web. Pour éviter cela, nous avons introduit une nouvelle architecture web qui une fois déployée, supprime le pistage des utilisateurs. Dans un dernier temps, nous nous sommes intéressés aux extensions de navigateurs. Nous avons d'abord démontré que les extensions qu'un utilisateur installe et/ou les applications web auxquelles il se connecte, peuvent le distinguer d'autres utilisateurs. Nous avons aussi étudié les interactions entre extensions et applications web. Ainsi avons-nous trouvé plusieurs extensions dont les privilèges peuvent être exploités par des sites web afin d'accéder à des données sensibles de l'utilisateur. Par exemple, certaines extensions permettent à des applications web d'accéder aux contenus d'autres applications, bien que cela soit normalement interdit par la Same Origin Policy. Finalement, nous avons aussi trouvé qu'un grand nombre d'extensions a la possibilité de désactiver la Same Origin Policy dans le navigateur, en manipulant les entêtes CORS. Cela permet à un attaquant d'accéder aux données de l'utilisateur dans n'importe qu'elle autre application, comme par exemple ses mails, son profile sur les réseaux sociaux, et bien plus. Pour lutter contre ces problèmes, nous préconisons aux navigateurs un système de permissions plus fin et une analyse d'extensions plus poussée, afin d'alerter les utilisateurs des dangers réels liés aux extensions
In this thesis, we studied security and privacy threats in web applications and browser extensions. There are many attacks targeting the web of which XSS (Cross-Site Scripting) is one of the most notorious. Third party tracking is the ability of an attacker to benefit from its presence in many web applications in order to track the user has she browses the web, and build her browsing profile. Extensions are third party software that users install to extend their browser functionality and improve their browsing experience. Malicious or poorly programmed extensions can be exploited by attackers in web applications, in order to benefit from extensions privileged capabilities and access sensitive user information. Content Security Policy (CSP) is a security mechanism for mitigating the impact of content injection attacks in general and in particular XSS. The Same Origin Policy (SOP) is a security mechanism implemented by browsers to isolate web applications of different origins from one another. In a first work on CSP, we analyzed the interplay of CSP with SOP and demonstrated that the latter allows the former to be bypassed. Then we scrutinized the three CSP versions and found that a CSP is differently interpreted depending on the browser, the version of CSP it implements, and how compliant the implementation is with respect to the specification. To help developers deploy effective policies that encompass all these differences in CSP versions and browsers implementations, we proposed the deployment of dependency-free policies that effectively protect against attacks in all browsers. Finally, previous studies have identified many limitations of CSP. We reviewed the different solutions proposed in the wild, and showed that they do not fully mitigate the identified shortcomings of CSP. Therefore, we proposed to extend the CSP specification, and showed the feasibility of our proposals with an example of implementation. Regarding third party tracking, we introduced and implemented a tracking preserving architecture, that can be deployed by web developers willing to include third party content in their applications while preventing tracking. Intuitively, third party requests are automatically routed to a trusted middle party server which removes tracking information from the requests. Finally considering browser extensions, we first showed that the extensions that users install and the websites they are logged into, can serve to uniquely identify and track them. We then studied the communications between browser extensions and web applications and demonstrate that malicious or poorly programmed extensions can be exploited by web applications to benefit from extensions privileged capabilities. Also, we demonstrated that extensions can disable the Same Origin Policy by tampering with CORS headers. All this enables web applications to read sensitive user information. To mitigate these threats, we proposed countermeasures and a more fine-grained permissions system and review process for browser extensions. We believe that this can help browser vendors identify malicious extensions and warn users about the threats posed by extensions they install
APA, Harvard, Vancouver, ISO, and other styles
6

Mouelhi, Tejeddine. "Modélisation et test de mécanismes de sécurité dans des applications internet." Phd thesis, Institut National des Télécommunications, 2010. http://tel.archives-ouvertes.fr/tel-00544431.

Full text
Abstract:
Les travaux effectués dans de cadre de cette thèse s'intéressent à la problématique du test de sécurité des applications, en considérant la validation des mécanismes de sécurité interne à un système d'une part, puis la sécurité des interfaces web d'autre part. Pour la partie interne, nous avons comparé, dans un premier temps, l'utilisation du test fonctionnel et des tests de sécurité pour valider les mécanismes implémentant une politique de contrôle d'accès. Dans ce cadre, l'analyse de mutation a été adaptée pour qualifier et évaluer les tests. Nous avons ensuite proposé trois méthodologies pour tester les mécanismes de contrôle d'accès: - utilisation du pair-wise pour générer les tests de sécurité, - sélection et transformation des tests fonctionnels en tests de sécurité - détection de mécanismes de sécurité cachés qui nuisent à la flexibilité et l'évolutivivité du système. Concernant le test des interfaces web, visant non seulement à tester le code validant les entrées de l'utilisateur mais aussi protéger les applications web, nous avons proposé une nouvelle approche qui tire profit du test par contournement (bypass-testing) et qui permet de protéger les applications web contre ce type d'attaques. Cette approche a été concrétisée dans un outil permettant à la fois l'audit et la sécurisation des applications web. L'ensemble de ces travaux a conduit à réfléchir à de nouvelles méthodologies de développement garantissant une meilleure qualité et une meilleure testabilité des mécanismes de contrôle d'accès. L'ingénierie des modèles (IDM) a été exploitée pour automatiser la spécification et le déploiement semi-automatisé des politiques de contrôle d'accès, et offrir par analyse de mutation un moyen de certification générique des tests de sécurité. Enfin, la composition de modèles permet d'automatiser l'intégration des mécanismes de sécurité, et surtout la reconfiguration automatique du système en cas d'évolution de la politique de sécurité.
APA, Harvard, Vancouver, ISO, and other styles
7

Makiou, Abdelhamid. "Sécurité des applications Web : Analyse, modélisation et détection des attaques par apprentissage automatique." Thesis, Paris, ENST, 2016. http://www.theses.fr/2016ENST0084/document.

Full text
Abstract:
Les applications Web sont l’épine dorsale des systèmes d’information modernes. L’exposition sur Internet de ces applications engendre continuellement de nouvelles formes de menaces qui peuvent mettre en péril la sécurité de l’ensemble du système d’information. Pour parer à ces menaces, il existe des solutions robustes et riches en fonctionnalités. Ces solutions se basent sur des modèles de détection des attaques bien éprouvés, avec pour chaque modèle, des avantages et des limites. Nos travaux consistent à intégrer des fonctionnalités de plusieurs modèles dans une seule solution afin d’augmenter la capacité de détection. Pour atteindre cet objectif, nous définissons dans une première contribution, une classification des menaces adaptée au contexte des applications Web. Cette classification sert aussi à résoudre certains problèmes d’ordonnancement des opérations d’analyse lors de la phase de détection des attaques. Dans une seconde contribution, nous proposons une architecture de filtrage des attaques basée sur deux modèles d’analyse. Le premier est un module d’analyse comportementale, et le second utilise l’approche d’inspection par signature. Le principal défi à soulever avec cette architecture est d’adapter le modèle d’analyse comportementale au contexte des applications Web. Nous apportons des réponses à ce défi par l’utilisation d’une approche de modélisation des comportements malicieux. Ainsi, il est possible de construire pour chaque classe d’attaque son propre modèle de comportement anormal. Pour construire ces modèles, nous utilisons des classifieurs basés sur l’apprentissage automatique supervisé. Ces classifieurs utilisent des jeux de données d’apprentissage pour apprendre les comportements déviants de chaque classe d’attaques. Ainsi, un deuxième verrou en termes de disponibilité des données d’apprentissage a été levé. En effet, dans une dernière contribution, nous avons défini et conçu une plateforme de génération automatique des données d’entrainement. Les données générées par cette plateforme sont normalisées et catégorisées pour chaque classe d’attaques. Le modèle de génération des données d’apprentissage que nous avons développé est capable d’apprendre "de ses erreurs" d’une manière continue afin de produire des ensembles de données d’apprentissage de meilleure qualité
Web applications are the backbone of modern information systems. The Internet exposure of these applications continually generates new forms of threats that can jeopardize the security of the entire information system. To counter these threats, there are robust and feature-rich solutions. These solutions are based on well-proven attack detection models, with advantages and limitations for each model. Our work consists in integrating functionalities of several models into a single solution in order to increase the detection capacity. To achieve this objective, we define in a first contribution, a classification of the threats adapted to the context of the Web applications. This classification also serves to solve some problems of scheduling analysis operations during the detection phase of the attacks. In a second contribution, we propose an architecture of Web application firewall based on two analysis models. The first is a behavioral analysis module, and the second uses the signature inspection approach. The main challenge to be addressed with this architecture is to adapt the behavioral analysis model to the context of Web applications. We are responding to this challenge by using a modeling approach of malicious behavior. Thus, it is possible to construct for each attack class its own model of abnormal behavior. To construct these models, we use classifiers based on supervised machine learning. These classifiers use learning datasets to learn the deviant behaviors of each class of attacks. Thus, a second lock in terms of the availability of the learning data has been lifted. Indeed, in a final contribution, we defined and designed a platform for automatic generation of training datasets. The data generated by this platform is standardized and categorized for each class of attacks. The learning data generation model we have developed is able to learn "from its own errors" continuously in order to produce higher quality machine learning datasets
APA, Harvard, Vancouver, ISO, and other styles
8

Serme, Gabriel. "Modularisation de la sécurité informatique dans les systèmes distribués." Electronic Thesis or Diss., Paris, ENST, 2013. http://www.theses.fr/2013ENST0063.

Full text
Abstract:
Intégrer les problématiques de sécurité au cycle de développement logiciel représente encore un défi à l’heure actuelle, notamment dans les logiciels distribués. La sécurité informatique requiert des connaissances et un savoir-faire particulier, ce qui implique une collaboration étroite entre les experts en sécurité et les autres acteurs impliqués. La programmation à objets ou à base de composants est communément employée pour permettre de telles collaborations et améliorer la mise à l’échelle et la maintenance de briques logicielles. Malheureusement, ces styles de programmation s’appliquent mal à la sécurité, qui est un problème transverse brisant la modularité des objets ou des composants. Nous présentons dans cette thèse plusieurs techniques de modularisation pour résoudre ce problème. Nous proposons tout d’abord l’utilisation de la programmation par aspect pour appliquer de manière automatique et systématique des techniques de programmation sécurisée et ainsi réduire le nombre de vulnérabilités d’une application. Notre approche se focalise sur l’introduction de vérifications de sécurité dans le code pour se protéger d’attaques comme les manipulations de données en entrée. Nous nous intéressons ensuite à l’automatisation de la mise en application de politiques de sécurité par des techniques de programmation. Nous avons par exemple automatisé l’application de règles de contrôle d’accès fines et distribuées dans des web services par l’instrumentation des mécanismes d’orchestration de la plate-forme. Nous avons aussi proposé des mécanismes permettant l’introduction d’un filtrage des données à caractère privée par le tissage d’aspects assisté par un expert en sécurité
Addressing security in the software development lifecycle still is an open issue today, especially in distributed software. Addressing security concerns requires a specific know-how, which means that security experts must collaborate with application programmers to develop secure software. Object-oriented and component-based development is commonly used to support collaborative development and to improve scalability and maintenance in software engineering. Unfortunately, those programming styles do not lend well to support collaborative development activities in this context, as security is a cross-cutting problem that breaks object or component modules. We investigated in this thesis several modularization techniques that address these issues. We first introduce the use of aspect-oriented programming in order to support secure programming in a more automated fashion and to minimize the number of vulnerabilities in applications introduced at the development phase. Our approach especially focuses on the injection of security checks to protect from vulnerabilities like input manipulation. We then discuss how to automate the enforcement of security policies programmatically and modularly. We first focus on access control policies in web services, whose enforcement is achieved through the instrumentation of the orchestration mechanism. We then address the enforcement of privacy protection policies through the expert-assisted weaving of privacy filters into software. We finally propose a new type of aspect-oriented pointcut capturing the information flow in distributed software to unify the implementation of our different security modularization techniques
APA, Harvard, Vancouver, ISO, and other styles
9

Fila, Barbara. "Automates pour l'analyse de documents XML compressés, applications à la sécurité d'accès." Phd thesis, Université d'Orléans, 2008. http://tel.archives-ouvertes.fr/tel-00491193.

Full text
Abstract:
Le problème de l'extraction d'information dans des documents semi-structurés, du type XML, constitue un des plus importants domaines de la recherche actuelle en informatique. Il a généré un grand nombre de travaux tant d'un point de vue pratique, que d'un point de vue théorique. Dans ce travail de thèse, notre étude porte sur deux objectifs : 1. évaluation des requêtes sur un document assujetti à une politique de contrôle d'accès, 2. évaluation des requêtes sur un document pouvant être partiellement ou totalement compressé. Notre étude porte essentiellement sur l'évaluation des requêtes unaires, càd. sélectionnant un ensemble des noeuds du document qui satisfont les propriétés spéciées par la requête. Pour exprimer les requêtes, nous utilisons le XPath le principal langage de sélection dans les documents XML. Grâce à ses axes navigationels, et ses ltres qualicatifs, XPath permet la navigation dans des documents XML, et la sélection des noeuds répondant à la requête. Les expressions XPath sont à la base de plusieurs formalismes de requêtes comme XQuery, XSLT, ils permettent également de dénir les clés d'accès dans XML Schema et XLink, et de référencer les éléments d'un document externe dans XPointer.
APA, Harvard, Vancouver, ISO, and other styles
10

Fila-Kordy, Barbara. "Automates pour l'analyse de documents XML compressés, applications à la sécurité d'accès." Orléans, 2008. http://www.theses.fr/2008ORLE2029.

Full text
Abstract:
Le problème d'extraction d'information dans les documents XML est un domaine de recherche important en informatique. Nous proposons deux approches pour l'évaluation de requêtes sur les documents XML, compressés ou non, et/ou assujettis à des politiques du contrôle d'accès. La première est basée sur la logique de Horn: les politiques du contrôle d'accès de même que les requêtes sont modélisées comme des clauses de Horn contraintes, et l'évaluation de requêtes s'appuie sur une technique de résolution adaptée. La deuxième approche que nous présentons vise les documents XML pouvant être présentés sous une forme compressée comme des dags. Cette approche est basée sur sept automates de mots, correspondant aux sept axes de base de XPath. Ils courent de façon top-down sur les dags, et permettent d'évaluer les requêtes sur les documents compressés sans devoir les décompresser. Cette technique d'évaluation d'une requête Q, sur un document compressé t, peut être adaptée de façon à fournir la même réponse que l'évaluation de Q sur l'arbre équivalent à t. La complexité de nos deux approches est linéaire par rapport au nombre d'arêtes du document, et la taille de la requête. Outre ces deux approches, nous avons également présenté une approche basée sur les techniques de réécriture qui permet de résoudre le problème d'inclusion de patterns, sur un fragment purement descendant de XPath ; nous déduisons ainsi une condition nécessaire et suffisante pour ce problème (pour les patterns de ce fragment). Cette vue réécriturale peut être adaptée de façon à fournir une technique d'évaluation pour les requêtes modélisées par ces patterns, sur les documents XML arborescents ou compressés comme des dags.
APA, Harvard, Vancouver, ISO, and other styles
11

Ciobâcǎ, Ştefan. "Verification and composition of security protocols with applications to electronic voting." Thesis, Cachan, Ecole normale supérieure, 2011. http://www.theses.fr/2011DENS0059/document.

Full text
Abstract:
Cette these concerne la verification formelle et la composition de protocoles de securite, motivees en particulier par l'analyse des protocoles de vote electronique. Les chapitres 3 a 5 ont comme sujet la verification de protocoles de securite et le Chapitre 6 vise la composition.Nous montrons dans le Chapitre 3 comment reduire certains problemes d'une algebre quotient des termes a l'algebre libre des termes en utilisant des ensembles fortement complets de variants. Nous montrons que, si l'algebre quotient est donnee par un systeme de reecriture de termes convergent et optimalement reducteur (optimally reducing), alors des ensembles fortement complets de variants existent et sont finis et calculables.Dans le Chapitre 4, nous montrons que l'equivalence statique pour (des classes) de theories equationnelles, dont les theories sous-terme convergentes, la theorie de l'engagement a trappe (trapdoor commitment) et la theorie de signature en aveugle (blind signatures), est decidable en temps polynomial. Nous avons implemente de maniere efficace cette procedure.Dans le Chapitre 5, nous etendons la procedure de decision precedente a l'equivalence de traces. Nous utilisons des ensembles fortement complets de variants du Chapitre 3 pour reduire le probleme a l'algebre libre. Nous modelisons chaque trace du protocole comme une theorie de Horn et nous utilisons un raffinement de la resolution pour resoudre cette theorie. Meme si nous n'avons pas reussi a prouver que la procedure de resolution termine toujours, nous l'avons implementee et utilisee pour donner la premiere preuve automatique de l'anonymat dans le protocole de vote electronique FOO.Dans le Chapitre 6, nous etudions la composition de protocoles. Nous montrons que la composition de deux protocoles qui utilisent des primitives cryptographiques disjointes est sure s'ils ne revelent et ne reutilisent pas les secrets partages. Nous montrons qu'une forme d'etiquettage de protocoles est suffisante pour assurer la disjonction pour un ensemble fixe de primitives cryptographiques
This thesis is about the formal verification and composition of security protocols, motivated by applications to electronic voting protocols. Chapters 3 to 5 concern the verification of security protocols while Chapter 6 concerns composition.We show in Chapter 3 how to reduce certain problems from a quotient term algebra to the free term algebra via the use of strongly complete sets of variants. We show that, when the quotient algebra is given by a convergent optimally reducing rewrite system, finite strongly complete sets of variants exist and are effectively computable.In Chapter 4, we show that static equivalence for (classes of) equational theories including subterm convergent equational theories, trapdoor commitment and blind signatures is decidable in polynomial time. We also provide an efficient implementation.In Chapter 5 we extend the previous decision procedure to handle trace equivalence. We use finite strongly complete sets of variants introduced in Chapter 3 to get rid of the equational theory and we model each protocol trace as a Horn theory which we solve using a refinement of resolution. Although we have not been able to prove that this procedure always terminates, we have implemented it and used it to provide the first automated proof of vote privacy of the FOO electronic voting protocol.In Chapter 6, we study composition of protocols. We show that two protocols that use arbitrary disjoint cryptographic primitives compose securely if they do not reveal or reuse any shared secret. We also show that a form of tagging is sufficient to provide disjointness in the case of a fixed set of cryptographic primitives
APA, Harvard, Vancouver, ISO, and other styles
12

Makiou, Abdelhamid. "Sécurité des applications Web : Analyse, modélisation et détection des attaques par apprentissage automatique." Electronic Thesis or Diss., Paris, ENST, 2016. http://www.theses.fr/2016ENST0084.

Full text
Abstract:
Les applications Web sont l’épine dorsale des systèmes d’information modernes. L’exposition sur Internet de ces applications engendre continuellement de nouvelles formes de menaces qui peuvent mettre en péril la sécurité de l’ensemble du système d’information. Pour parer à ces menaces, il existe des solutions robustes et riches en fonctionnalités. Ces solutions se basent sur des modèles de détection des attaques bien éprouvés, avec pour chaque modèle, des avantages et des limites. Nos travaux consistent à intégrer des fonctionnalités de plusieurs modèles dans une seule solution afin d’augmenter la capacité de détection. Pour atteindre cet objectif, nous définissons dans une première contribution, une classification des menaces adaptée au contexte des applications Web. Cette classification sert aussi à résoudre certains problèmes d’ordonnancement des opérations d’analyse lors de la phase de détection des attaques. Dans une seconde contribution, nous proposons une architecture de filtrage des attaques basée sur deux modèles d’analyse. Le premier est un module d’analyse comportementale, et le second utilise l’approche d’inspection par signature. Le principal défi à soulever avec cette architecture est d’adapter le modèle d’analyse comportementale au contexte des applications Web. Nous apportons des réponses à ce défi par l’utilisation d’une approche de modélisation des comportements malicieux. Ainsi, il est possible de construire pour chaque classe d’attaque son propre modèle de comportement anormal. Pour construire ces modèles, nous utilisons des classifieurs basés sur l’apprentissage automatique supervisé. Ces classifieurs utilisent des jeux de données d’apprentissage pour apprendre les comportements déviants de chaque classe d’attaques. Ainsi, un deuxième verrou en termes de disponibilité des données d’apprentissage a été levé. En effet, dans une dernière contribution, nous avons défini et conçu une plateforme de génération automatique des données d’entrainement. Les données générées par cette plateforme sont normalisées et catégorisées pour chaque classe d’attaques. Le modèle de génération des données d’apprentissage que nous avons développé est capable d’apprendre "de ses erreurs" d’une manière continue afin de produire des ensembles de données d’apprentissage de meilleure qualité
Web applications are the backbone of modern information systems. The Internet exposure of these applications continually generates new forms of threats that can jeopardize the security of the entire information system. To counter these threats, there are robust and feature-rich solutions. These solutions are based on well-proven attack detection models, with advantages and limitations for each model. Our work consists in integrating functionalities of several models into a single solution in order to increase the detection capacity. To achieve this objective, we define in a first contribution, a classification of the threats adapted to the context of the Web applications. This classification also serves to solve some problems of scheduling analysis operations during the detection phase of the attacks. In a second contribution, we propose an architecture of Web application firewall based on two analysis models. The first is a behavioral analysis module, and the second uses the signature inspection approach. The main challenge to be addressed with this architecture is to adapt the behavioral analysis model to the context of Web applications. We are responding to this challenge by using a modeling approach of malicious behavior. Thus, it is possible to construct for each attack class its own model of abnormal behavior. To construct these models, we use classifiers based on supervised machine learning. These classifiers use learning datasets to learn the deviant behaviors of each class of attacks. Thus, a second lock in terms of the availability of the learning data has been lifted. Indeed, in a final contribution, we defined and designed a platform for automatic generation of training datasets. The data generated by this platform is standardized and categorized for each class of attacks. The learning data generation model we have developed is able to learn "from its own errors" continuously in order to produce higher quality machine learning datasets
APA, Harvard, Vancouver, ISO, and other styles
13

Tizraoui, Adel. "Un nouveau modèle de sécurité pour les applications Internet Application à la téléphonie sur IP SIM IP." Paris 6, 2003. http://www.theses.fr/2003PA066321.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Rasoamiaramanana, Sandra. "Conception de schémas de chiffrement boîte blanche pour la sécurité des applications mobiles." Electronic Thesis or Diss., Université de Lorraine, 2020. http://www.theses.fr/2020LORR0060.

Full text
Abstract:
Aujourd'hui les équipements mobiles font partie intégrante de nos vies avec le développement des applications. En plus des téléphones intelligents, d'autres équipements comme les objets connectés peuvent avoir à manipuler des données qui doivent rester secrètes. Par exemple, l'authentification d'un objet connecté dans un réseau nécessite l'existence d'un "secret" détenu par l'objet. Dans le cas des applications mobiles, l'apparition des applications de paiement permettant un paiement sans contact à partir du téléphone ou encore les applications bancaires pose de sérieux enjeux de sécurité. Le besoin de sécurisation des applications est ainsi primordial à la fois pour un utilisateur désireux d'accéder à un service sans risquer ses biens mais aussi pour les fournisseurs de services qui y ont un intérêt financier. Ainsi, la cryptographie est utilisée pour protéger ces diverses applications mobiles. Dans ce contexte, on souhaite répondre à ce besoin avec une approche à la fois logicielle et matérielle pour sécuriser la cryptographie sur des plateformes ouvertes et exposées. Le but de cette thèse est de vérifier la sécurité des implémentations logicielles d’algorithmes cryptographiques dans le modèle boîte blanche et de proposer des techniques permettant de renforcer cette sécurité dans un environnement mobile. Le modèle boîte blanche s’oppose au modèle boîte noire traditionnel et décrit un contexte dans lequel un attaquant contrôle l'environnement d’exécution et a accès aux implémentations logicielles. Une fois qu'une clé secrète est révélée, la sécurité du schéma de chiffrement n’est plus valable. Dans ce contexte, la dernière ligne de défense est l’implémentation elle-même : la clé secrète est cachée dans le code de manière à ce qu’elle ne puisse être ni identifiée, ni extraite. De nombreuses études ont été menées sur la cryptographie en boîte blanche et ont abouti à des propositions d’implémentations d’algorithmes standardisés tels que le DES (Data Encryption Standard) ou l’AES (Advanced Encryption Standard). Ces algorithmes intéressent particulièrement du fait de leur large déploiement. Malheureusement ces propositions ont révélé des vulnérabilités et ne garantissent pas la confidentialité de la clé secrète. Dans cette thèse, nous nous intéressons premièrement aux raisons pour lesquelles toutes les propositions d’implémentations ne permettent pas de "cacher" suffisamment la clé secrète. Nous ferons une étude détaillée des techniques utilisées ainsi que des attaques possibles. Deuxièmement, nous proposons des techniques nouvelles permettant de contrecarrer ces attaques et étudions le coût de ces techniques en termes de taille et de performance de code. Une autre approche en cryptographie en boîte blanche est de concevoir des algorithmes dont on peut prouver la résistance à l’extraction de clé. Cette nouvelle approche implique de proposer des notions de sécurité adaptées au modèle boîte blanche. En particulier, le problème principal est de garantir que l’implémentation ne puisse être copiée et exécutée dans un autre environnement. Cette attaque appelée "code lifting" (copie de code) est équivalent à extraire la clé secrète. Une solution proposée dans la littérature est d’augmenter la taille du code afin d’augmenter la complexité en espace de l’attaque. Nous proposons une solution à ce problème en définissant un schéma de chiffrement que l’on peut implémenter en boîte blanche et qui utilise un dispositif physique appelé Physically Unclonable Function (PUF). Une PUF désigne un dispositif physique présentant des caractéristiques uniques et inclonables permettant de l’identifier. Ainsi, une PUF peut être vue comme l’empreinte (au sens biométrique) d’un appareil. Ce dispositif sera utilisé dans notre schéma comme moyen d’identifier l’environnement d’exécution d’un algorithme cryptographique et permettra de générer une clé spécifique à un appareil donné
Today mobile devices are an integral part of our lives with the development of applications. In addition to smart phones, which are increasingly powerful, other devices such as connected objects may have to handle data that must remain secret. For example, the authentication of a connected object in a network requires the existence of a ``secret" held by the object. In the case of mobile applications, the emergence of payment applications allowing contactless payment from the telephone or banking applications poses serious security challenges. The need to secure applications is therefore essential both for users wishing to access a service without risking their goods and for service providers who have a financial interest in it. Thus, cryptography is used to protect these various mobile applications. In this context, we wish to meet this need with both a software and hardware approach to secure cryptography on open and exposed platforms. The aim of this thesis is to verify the security of software implementations of cryptographic algorithms in the white-box model and to propose techniques to reinforce this security in a mobile environment. The white-box model or white-box attacks context is opposed to the traditional black-box model and refers to a context in which an attacker controls an execution environment and has access to software implementations of cryptographic algorithms. Once a secret key is revealed, the security of the encryption scheme is no longer valid. In this context, the last line of defense is the implementation itself: the secret key is hidden in the code so that it cannot be distinguished or extracted. Many studies have been conducted on White-Box Cryptography and have led to proposals for white-box implementations of standardized algorithms such as the DES (Data Encryption Standard) or the AES (Advanced Encryption Standard). These algorithms are of particular interest due to their wide deployment. Unfortunately these proposals have revealed vulnerabilities and do not guarantee the confidentiality of the secret key. In this thesis, we are first interested in the reasons why not all proposed implementations allow to ``hide'' the secret key sufficiently. We will make a detailed study of the techniques used as well as the possible attacks. Secondly, we propose new techniques to counter these attacks and study the cost of these techniques in terms of code size and performance. Another approach in White-Box Cryptography is to design algorithms that can be proved to be resistant to key extraction. This new approach involves proposing security notions adapted to the white-box model. In particular, the main problem is to ensure that the implementation of the cryptographic algorithm cannot be copied and executed in another environment. This attack called "code lifting" (code copying) is equivalent to extracting the secret key. One solution proposed in the literature is to increase the size of the code in order to increase the space complexity of the attack. We propose a solution to this problem by defining an encryption scheme that can be implemented in a white-box and that uses a physical device called Physically Unclonable Function (PUF). A PUF refers to a physical device with unique and unclonable characteristics that can be used to identify it. Thus, a PUF can be seen as the fingerprint (in the biometric sense) of a device. The PUF will be used in our scheme as a means of identifying the execution environment of a cryptographic algorithm and will generate a key specific to a given device
APA, Harvard, Vancouver, ISO, and other styles
15

Duflos, Sandrine Viviane Julie. "Sosma : une architecture pour la gestion de la sécurité des applications multimédias réparties." Paris 6, 2005. http://www.theses.fr/2005PA066587.

Full text
APA, Harvard, Vancouver, ISO, and other styles
16

Querrec, Ronan. "Les Systèmes Multi-Agents pour les Environnements Virtuels de Formation : Application à la sécurité civile." Brest, 2003. http://www.theses.fr/2002BRES2037.

Full text
Abstract:
Nos travaux concernent les environnements virtuels de formation pour l'apprentissage en situation opérationnelle. Nus soutenons la thèse que ces environnements sont des sytsèmes multi-agents hétérogènes et ouverts. Nous proposons le modèle MASCARET pour structurer les interactions entre les agents et pour fournir aux agents les capacités réactives, cognitives et sociales leur permettant de simuler l'environnement physique et social composant l'univers virtuel de formation. L'environnement physique simule de manière réaliste les phénomènes que les apprenants et les formateurs doivent prendre en compte. L'environnement social est simulé par des agents réalisant un travail collaboratif et adaptatif; ils effectuent, en équipe, des procédures qu'ils doivent adapter à l'environnement. Les utilisateurs participent à l'environnement de formation via leur avatar. Pour valider notre modèle, nous avons développé l'application SécuRéVi destinée à la formation des officiers sapeurs-pompiers
This study concerns virtual environments for training in operationnal conditions. The principal developed idea is that these environments are heterogeneous and open multiagent systems. The MASCARET model is proposed to organize the interactions between the agents and to give them reactives, cognitives ans socials abilities to simulate the physical and social environment. The physical environment represent, in a realistic way, the phenomena that the learners and the teachers have to take into account. The social environment is simulated by agents executing collaborative and adaptative tasks. They realize, in team, the procedures that they have to adapt to the environment. The users participate to the training environment throught their avatar. To validate our model, the SecuRevi application for fire-fighters training is developed
APA, Harvard, Vancouver, ISO, and other styles
17

Serme, Gabriel. "Modularisation de la sécurité informatique dans les systèmes distribués." Thesis, Paris, ENST, 2013. http://www.theses.fr/2013ENST0063/document.

Full text
Abstract:
Intégrer les problématiques de sécurité au cycle de développement logiciel représente encore un défi à l’heure actuelle, notamment dans les logiciels distribués. La sécurité informatique requiert des connaissances et un savoir-faire particulier, ce qui implique une collaboration étroite entre les experts en sécurité et les autres acteurs impliqués. La programmation à objets ou à base de composants est communément employée pour permettre de telles collaborations et améliorer la mise à l’échelle et la maintenance de briques logicielles. Malheureusement, ces styles de programmation s’appliquent mal à la sécurité, qui est un problème transverse brisant la modularité des objets ou des composants. Nous présentons dans cette thèse plusieurs techniques de modularisation pour résoudre ce problème. Nous proposons tout d’abord l’utilisation de la programmation par aspect pour appliquer de manière automatique et systématique des techniques de programmation sécurisée et ainsi réduire le nombre de vulnérabilités d’une application. Notre approche se focalise sur l’introduction de vérifications de sécurité dans le code pour se protéger d’attaques comme les manipulations de données en entrée. Nous nous intéressons ensuite à l’automatisation de la mise en application de politiques de sécurité par des techniques de programmation. Nous avons par exemple automatisé l’application de règles de contrôle d’accès fines et distribuées dans des web services par l’instrumentation des mécanismes d’orchestration de la plate-forme. Nous avons aussi proposé des mécanismes permettant l’introduction d’un filtrage des données à caractère privée par le tissage d’aspects assisté par un expert en sécurité
Addressing security in the software development lifecycle still is an open issue today, especially in distributed software. Addressing security concerns requires a specific know-how, which means that security experts must collaborate with application programmers to develop secure software. Object-oriented and component-based development is commonly used to support collaborative development and to improve scalability and maintenance in software engineering. Unfortunately, those programming styles do not lend well to support collaborative development activities in this context, as security is a cross-cutting problem that breaks object or component modules. We investigated in this thesis several modularization techniques that address these issues. We first introduce the use of aspect-oriented programming in order to support secure programming in a more automated fashion and to minimize the number of vulnerabilities in applications introduced at the development phase. Our approach especially focuses on the injection of security checks to protect from vulnerabilities like input manipulation. We then discuss how to automate the enforcement of security policies programmatically and modularly. We first focus on access control policies in web services, whose enforcement is achieved through the instrumentation of the orchestration mechanism. We then address the enforcement of privacy protection policies through the expert-assisted weaving of privacy filters into software. We finally propose a new type of aspect-oriented pointcut capturing the information flow in distributed software to unify the implementation of our different security modularization techniques
APA, Harvard, Vancouver, ISO, and other styles
18

Chantelauve, Guillaume. "Evaluation des risques et réglementation de la sécurité : Cas du secteur maritime - Tendances et applications." Phd thesis, INSA de Lyon, 2006. http://tel.archives-ouvertes.fr/tel-00780595.

Full text
Abstract:
La réglementation de la sécurité est un des déterminants principaux de la sécurité du transport maritime. Depuis la fin du 20ème siècle, de nouvelles approches normatives fondées sur les risques viennent compléter la configuration traditionnelle - déterministe et prescriptive - de la réglementation de la sécurité. Nos travaux de recherche traitent de l'intérêt des techniques d'évaluation du risque pour la réglementation de la sécurité. Le travail méthodologique de production et d'organisation des concepts théoriques et des apports de terrain relatifs aux configurations réglementaires " non traditionnelles " permet de formaliser l'utilisation des techniques d'évaluation du risque et de proposer des aspects influençant le choix des techniques. Deux méthodes d'évaluation du risque sont améliorées - relatives à (i) l'évaluation formelle de la sécurité à utiliser dans le cadre du processus d'élaboration de règles, et aux (ii) conceptions alternatives pour la sécurité incendie à utiliser dans le cadre de conceptions de navire ne répondant pas aux exigences réglementaires classiques - et mises en oeuvre, respectivement, pour la sécurité des vraquiers et pour un espace public de navires à passagers. A travers ce travail, nous avons pu mettre en évidence l'utilisation potentielle de l'évaluation du risque pour la réglementation de la sécurité, et dégager les grandes lignes structurant ces approches.
APA, Harvard, Vancouver, ISO, and other styles
19

La, Vinh Hoa. "Security monitoring for network protocols and applications." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLL006/document.

Full text
Abstract:
La sécurité informatique, aussi connue comme la cyber-sécurité, est toujours un sujet d'actualité dans la recherche en sciences informatiques. Comme les cyber-attaques grandissent de plus en plus en volume et en sophistication, la protection des systèmes ou réseaux d'information devient une tâche difficile. Les chercheurs dans la communauté de recherche prêtent une attention constante à la sécurité, en particulier ils s'orientent vers deux directions principales: (i) - la conception des infrastructures sécurisées avec des protocoles de communication sécurisés et (ii) - surveillance / supervision des systèmes ou des réseaux afin de trouver et de remédier des vulnérabilités. La dernière vérifie que tout ce qui a été conçu dans la première fonctionne correctement et en toute sécurité, ainsi détectant les violations de sécurité. Ceci étant le sujet principal de cette thèse.Cette dissertation présente un cadre de surveillance de la sécurité en tenant en compte des différents types de jeu de données d'audit y compris le trafic de réseaux et les messages échangés dans les applications. Nous proposons également des approches innovantes fondées sur l'apprentissage statistique, la théorie de l'information et de l'apprentissage automatique pour prétraiter et analyser l'entrée de données. Notre cadre est validé dans une large gamme des études de cas, y compris la surveillance des réseaux traditionnels TCP / IP (v4) (LAN, WAN, la surveillance de l'Internet), la supervision des réseaux de objets connectés utilisant la technologie 6LoWPAN (IPv6), et également, l’analyse des logs d'autres applications. Enfin, nous fournissons une étude sur la tolérance d’intrusion par conception et proposons une approche basée sur l’émulation pour détecter et tolérer l’intrusion simultanément.Dans chaque étude de cas, nous décrivons comment nous collectons les jeux de données d'audit, extrayons les attributs pertinents, traitons les données reçues et décodons leur signification de sécurité. Pour attendre ces objectifs, l'outil MMT est utilisé comme le cœur de notre approche. Nous évaluons également la performance de la solution et sa possibilité de marcher dans les systèmes “à plus grande échelle” avec des jeux de données plus volumineux
Computer security, also known as cyber-security or IT security, is always an emerging topic in computer science research. Because cyber attacks are growing in both volume and sophistication, protecting information systems or networks becomes a difficult task. Therefore, researchers in research community give an ongoing attention in security including two main directions: (i)-designing secured infrastructures with secured communication protocols and (ii)-monitoring/supervising the systems or networks in order to find and re-mediate vulnerabilities. The former assists the later by forming some additional monitoring-supporting modules. Whilst, the later verifies whether everything designed in the former is correctly and securely functioning as well as detecting security violations. This is the main topic of this thesis.This dissertation presents a security monitoring framework that takes into consideration different types of audit dataset including network traffic and application logs. We propose also some novel approaches based on supervised machine learning to pre-process and analyze the data input. Our framework is validated in a wide range of case studies including traditional TCP/IPv4 network monitoring (LAN, WAN, Internet monitoring), IoT/WSN using 6LoWPAN technology (IPv6), and other applications' logs. Last but not least, we provide a study regarding intrusion tolerance by design and propose an emulation-based approach to simultaneously detect and tolerate intrusion.In each case study, we describe how we collect the audit dataset, extract the relevant attributes, handle received data and decode their security meaning. For these goals, the tool Montimage Monitoring Tool (MMT) is used as the core of our approach. We assess also the solution's performance and its possibility to work in "larger scale" systems with more voluminous dataset
APA, Harvard, Vancouver, ISO, and other styles
20

Scholte, Theodoor. "Amélioration de la sécurité par la conception des logiciels web." Electronic Thesis or Diss., Paris, ENST, 2012. http://www.theses.fr/2012ENST0024.

Full text
Abstract:
L'internet est devenu un environnement omniprésent dans le monde du travail et du loisir. La popularité sans cesse croissante des applications web ainsi que des services associés entraînent l'exécution de nombreuses transactions critiques, qui soulèvent des questions de sécurité. Du fait de cette croissance, des efforts ont été entrepris durant cette dernière décennie pour rendre les applications web plus sûres. Malgré ces efforts, de récents rapports provenant de l'institut SANS estiment que plus de 60 % des attaques commises sur l'Internet ciblent les applications web en se concentrant sur les vulnérabilités inhérentes aux problèmes de validation, comme le Cross-Site Scripting ou les injections SQL. Dans cette thèse, nous avons conduit deux études de recherche empirique, analysant un grand nombre d'application web vulnérables. Nous avons assemblé une base de données contenant plus de 10.000 rapports de vulnérabilités depuis l'an 2000. Ensuite, nous avons analysé ces données pour déterminer si les développeurs ont pris conscience des problématiques de sécurité web de nos jours, comparé à la période où ces applications émergeaient. Puis nous avons analysé l'étroit lien entre le langage de programmation utilisé pour développer l'application web et le nombre de vulnérabilité reporté. Avec ces résultats empiriques comme base, nous présentons notre solution IPAAS qui aide les développeurs novice en termes de sécurité à écrire des applications sécurisées par défaut. Nous montrons par ailleurs que cette technique améliore de manière probante la sécurité des applications web
The web has become a backbone of our industry and daily life. The growing popularity of web applications and services and the increasing number of critical transactions being performed, has raised security concerns. For this reason, much effort has been spent over the past decade to make web applications more secure. Despite these efforts, recent data from SANS institute estimates that up to 60% of Internet attacks target web applications and critical vulnerabilities such as cross-site scripting and SQL injection are still very common. In this thesis, we conduct two empirical studies on a large number of web applications vulnerabilities with the aim of gaining deeper insights in how input validation flaws have evolved in the past decade and how these common vulnerabilities can be prevented. Our results suggest that the complexity of the attacks have not changed significantly and that many web problems are still simple in nature. Our studies also show that most SQL injection and a significant number of cross-site scripting vulnerabilities can be prevented using straight-forward validation mechanisms based on common data types. With these empirical results as foundation, we present IPAAS which helps developers that are unaware of security issues to write more secure web applications than they otherwise would do. It includes a novel technique for preventing the exploitation of cross-site scripting and SQL injection vulnerabilities based on automated data type detection of input parameters. We show that this technique results in significant and tangible security improvements for real web applications
APA, Harvard, Vancouver, ISO, and other styles
21

Senegas, Stéphanie. "Applications de la similitude aux interactions ondes de choc-surface plane : sécurité des personnes." Orléans, 2000. http://www.theses.fr/2000ORLE2059.

Full text
Abstract:
A partir des trois démarches complémentaires que sont les études expérimentales à échelle réduite et à échelle un et les études de simulation numérique, la propagation de l'onde de souffle émanant d'un tube cylindrique équipé ou non d'un artifice de bouche est analysée. Les caractéristiques de l'onde sont présentées sur des diagrammes de marche et d'amortissement. L'application de lois de similitude entre les trois démarches permet d'effectuer des comparaisons cohérentes indépendamment de la nature de la source d'explosion, de l'altitude et du diamètre du générateur et de la présence d'un artifice de bouche. Les deux types de diagrammes sont alors transférés sur des diagrammes universels. Une quantification de la poussée est réalisée ainsi qu'une première approche de corrélation avec la pression en fond de tube. Les effets de l'artifice de bouche sont alors estimés. Une méthode inverse basée sur la connaissance de la pression réfléchie sur une surface plane est proposée afin de prédire les caractéristiques de l'onde de choc le long de l'axe du générateur et ainsi de définir, dans un but sécuritaire, les niveaux de surpressions subis dans un environnement proche.
APA, Harvard, Vancouver, ISO, and other styles
22

Lepers, Bernard. "Coopération dynamique et sécurité homme-machine : applications en téléopération et chirurgie assistée par ordinateur." Lille 1, 1990. http://www.theses.fr/1990LIL10048.

Full text
Abstract:
Depuis le début des années 70, la téléoperation assistée par ordinateur (t. A. O. ) n'a cessé d'étendre ses domaines d'application. Cette thèse se veut une contribution méthodologique et pratique à l'élaboration des systèmes semi-automatiques de ce type, ou l'homme décide constamment de la transition continue manuel-automatique, tout en cherchant à assurer les conditions optimales de survivabilité en cas d'incident. Après avoir rappelé dans le chapitre I, la façon dont est envisagée actuellement la sûreté de fonctionnement en robotique industrielle, la détermination puis la spécification des problèmes de sécurité en t. A. O. Est étudiée. De manière à fixer un cadre d'analyse adéquat, une modélisation du système hommes/machines sous la forme d'un réseau d'un type particulier est ensuite proposée au chapitre II; l'articulation avec les modèles classiques, en particulier multiniveaux, y est soulignée ainsi que le lien avec différentes classifications des problèmes de sécurité hommes/machines utilisées actuellement. Le chapitre III présente une première méthode d'analyse de la tâche permettant de concevoir l'allocation statique des tâches hommes/machines. Celle-ci est ensuite étendue à une allocation dynamique multicritère des modes de commande, basée sur une méthodologie à base de relations de surclassement. Elle est ensuite comparée aux méthodes utilisées usuellement. Notre approche, baptisée cooperation dynamique, a nécessité une extension de la notion classique d'optimisation. Le chapitre IV expose la généralisation des résultats classiques que nous avons établie à ce propos, ainsi que les conséquences sur la définition des protocoles de communication entre opérateurs et système automatisé. Ceux-ci forment l'ébauche d'un langage de télé-opération permettant d'intégrer les différents moyens d'interaction à la disposition des opérateurs. Le chapitre V explicite, dans le contexte de la microchirurgie assistée par ordinateur, la mise en œuvre des approches méthodologiques précédentes. Une conception orientée objet des modes de commande est proposée, ainsi qu’une simulation sur un exemple impliquant deux opérateurs coopérant sur un réseau à l’exécution d’une même tâche de micromanipulation
APA, Harvard, Vancouver, ISO, and other styles
23

Averlant, Guillaume. "Contrôle d'accès dynamique et architecture de sécurité pour la protection des applications sous Android." Thesis, Toulouse, INSA, 2019. http://www.theses.fr/2019ISAT0026.

Full text
Abstract:
Dans cette thèse, nous nous intéressons spécifiquement à l'environnement Android. Nous avons en effet relevé un manque dans les capacités d'expression du modèle de permission d'Android vis-à-vis d'un certain nombre de menaces émergentes. Pour répondre à ces dernières, nous proposons une politique de sécurité venant compléter le système de permissions actuel d'Android. Celle-ci a pour but de restreindre dynamiquement, i.e. en fonction du contexte courant d'exécution du smartphone, les droits d'exécution et la capacité d'accès aux ressources du smartphone, pour chaque application installée. Outre les bénéfices en termes de sécurité, l'utilisation d'une telle politique permet à un utilisateur d'avoir un contrôle plus fin sur l'accès des applications aux données qui relèvent de la vie privée. Cette politique de sécurité constitue la première contribution de cette thèse. Elle est adjointe à la conception d'une architecture de sécurité implémentant les mécanismes de contrôle d'accès nécessaires à sa mise en oeuvre. Cette deuxième contribution se repose sur une architecture multiniveau,i.e. comprenant plusieurs composants de différents niveaux de privilèges. Plus précisément, ceux-ci ont été implantés à la fois dans le framework Android, dans le noyau Linux, et dans un hyperviseur. La dernière contribution de cette thèse consiste en la réalisation d'un prototype de cette architecture sur une carte de développement, associée à la présentation de tests permettant de montrer l'efficacité et la pertinence de l'approche
In this thesis, we specifically focus on the Android environment. Indeed, we noticed a lack in the capabilities of the Android permission model against a number of emerging threats. To address these threats, we propose a security policy that complements the current Android permission system. This policy aims at restricting dynamically, i.e. based on the current smartphone execution context, the execution rights and the ability to access smartphone resources for each installed application. Besides the security benefits, the use of such a policy allows a user to have a tighter control over the access ofapplications to privacy-related data. This security policy is the first contribution of this thesis. Furthermore, we designed a security architecture that implements the access control mechanisms required to carry out such a policy. This second contribution is based on a so-called "multi-level" architecture, i.e. made up of several components of different privilege levels. Specifically, these have been implemented both in the Android framework, in the Linux kernel, and in a hypervisor. The last contribution of this thesis involves the realization of a prototype of this architecture on a development board, associated with the presentation of tests that showcase the effectiveness and relevance of the approach
APA, Harvard, Vancouver, ISO, and other styles
24

Laguillaumie, Fabien. "Signatures à vérification contrôlée basées sur des applications bilinéaires : conception et analyse de sécurité." Caen, 2005. http://www.theses.fr/2005CAEN2008.

Full text
Abstract:
Pour répondre à la demande croissante et variée de sécurisation des systèmes de communication, la cryptologie doit apporter des solutions adaptées, flexibles et efficaces. Parmi les besoins engendrés par ce phénomène, celui de l'authentification est fondamental. Dans cette thèse, nous analysons des primitives cryptographiques liées à l'authentification de l'origine des données. Ce sont des variantes de la signature numérique classique qui ont comme particularités de ne pouvoir être vérifiées que sous contrôle d'une entité spéciale, et de posséder des propriétés d'anonymat. Dans un premier temps, nous nous intéressons au concept de signatures indéniables que nous enrichissons en ajoutant une conversion temporelle des signatures. Nous menons une analyse précise de la sécurité de nouveaux schémas dans le modèle de l'oracle aléatoire, puis nous donnons un schéma de signatures indéniables dont la sécurité peut être prouvée dans le modèle standard. Par la suite, nous étudions une variante de ces signatures indéniables, appelées signatures dirigées, et proposons un nouveau schéma dont la sécurité est étudiée dans le modèle de l'oracle aléatoire. Finalement nous développons le concept de signatures à vérificateur désigné en étendant sa définition pour autoriser la présence de plusieurs vérificateurs, et proposons plusieurs schémas. Nous focalisons également notre étude sur une propriété d'anonymat du signataire. Les signatures présentées dans cette thèse sont basées sur les couplages de type Weil et Tate, récemment introduits en cryptographie. Ils apportent un degré de liberté supplémentaire pour concevoir des cryptosystèmes, et induisent les variantes du problème Diffie-Hellman sur lesquelles repose la sécurité de nos schémas. Nous introduisons en particulier l'astuce "xyz'' et le problème "xyz-DDH'' grâce à de simples observations qui nous permettent d'obtenir des compromis entre authenticité et anonymat.
APA, Harvard, Vancouver, ISO, and other styles
25

Pellegrino, Giancarlo. "Détection d'anomalies logiques dans les logiciels d'entreprise multi-partis à travers des tests de sécurité." Electronic Thesis or Diss., Paris, ENST, 2013. http://www.theses.fr/2013ENST0064.

Full text
Abstract:
Les logiciels multi-partis sont des applications distribuées sur le web qui mettent en oeuvre des fonctions collaboratives. Ces applications sont les principales cibles des attaquants qui exploitent des vulnérabilités logicielles dans le cadre d'activités malveillantes. Récemment, un type moins connu de vulnérabilité, les anomalies logiques, a attiré l'attention des chercheurs. Sur la base d'informations tirées de la documentation des applications, il est possible d'appliquer deux techniques de test: la vérification du modèle, autrement appelé ``model checking'', et les tests de sécurité de type ``boîte noire''. Le champs d'application du model checking ne prend pas en suffisamment en compte les implémentations actuelles, tandis que les tests de type boîte noire ne sont pas assez sophistiqués pour découvrir les vulnérabilités logique. Dans cette thèse, nous présentons deux techniques d'analyse modernes visant à résoudre les inconvénients de l'état de l'art. Pour commencer, nous présentons la vérification de deux protocoles de sécurité utilisant la technique du model checking. Ensuite, nous nous concentrons sur l'extension du model checking pour soutenir les tests automatisés d'implémentations. La seconde technique consiste en une analyse boîte noire qui combine l'inférence du modèle, l'extraction du processus et du flot de donnée, ainsi qu'une génération de tests basés sur les modèles d'attaque d'une application. En conclusion, nous discutons de l'application de techniques développées au cours de cette thèse sur des applications issues d'un contexte industrielle
Multi-party business applications are distributed computer programs implementing collaborative business functions. These applications are one of the main target of attackers who exploit vulnerabilities in order to perform malicious activities. The most prevalent classes of vulnerabilities are the consequence of insufficient validation of the user-provided input. However, the less-known class of logic vulnerabilities recently attracted the attention of researcher. According to the availability of software documentation, two testing techniques can be used: design verification via model checking, and black-box security testing. However, the former offers no support to test real implementations and the latter lacks the sophistication to detect logic flaws. In this thesis, we present two novel security testing techniques to detect logic flaws in multi-party business applicatons that tackle the shortcomings of the existing techniques. First, we present the verification via model checking of two security protocols. We then address the challenge of extending the results of the model checker to automatically test protocol implementations. Second, we present a novel black-box security testing technique that combines model inference, extraction of workflow and data flow patterns, and an attack pattern-based test case generation algorithm. Finally, we discuss the application of the technique developed in this thesis in an industrial setting. We used these techniques to discover previously-unknown design errors in SAML SSO and OpenID protocols, and ten logic vulnerabilities in eCommerce applications allowing an attacker to pay less or shop for free
APA, Harvard, Vancouver, ISO, and other styles
26

Bursuc, Sergiu. "Contraintes de déductibilité dans une algèbre quotient : réduction de modèles et applications à la sécurité." Cachan, Ecole normale supérieure, 2009. http://www.theses.fr/2009DENS0055.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à la vérification des protocoles de sécurité. Ce sont des programmes dont le but est d'établir une communication sûre entre plusieurs agents. Quasiment toutes les applications modernes ont besoin des protocoles de sécurité pour assurer leur bon fonctionnement, ce qui rend d'autant plus importante la question de leur correction et demande une réponse basée sur des arguments rigoureux. Les méthodes formelles, où les messages et les opérations sont abstraits par une algèbre de termes, se sont avérées cruciales dans cette démarche. Cependant, pour avoir une modélisation fidèle de la réalité, l'algèbrene peut être libre, mais doit incorporer des propriétés des algorithmes utilisées pour construire les messages. Dans ce contexte, motivés à la fois par des besoins pratiques et des intérêts théoriques, nous étudions les techniques générales pour la vérification des propriétés de sécurité de protocoles modulo une théorie équationnelle, à travers la résolution de contraintes de déductibilité
To enable formal and automated analysis of security protocols, one has to abstract implementations of cryptographic primitives by terms in a given algebra. However, the algebra can not be free, as cryptographic primitives have algebraic properties that are either relevant to their specification or else they can be simply observed in implementations at hand. These properties are sometimes essential for the execution of the protocol, but they also open the possibility for an attack, as they give to an intruder the means to deduce new information from the messages that he intercepts over the network. In consequence, there was much work over the last few years towards enriching the Dolev-Yao model, originally based on a free algebra, with algebraic properties, modelled by equational theories. In this thesis, driven by both practical and theoretical interests, we propose general decision procedures for the insecurity of protocols, that can be applied to several classes of equational theories
APA, Harvard, Vancouver, ISO, and other styles
27

Bréjon, Jean-Baptiste. "Quantification de la sécurité des applications en présence d'attaques physiques et détection de chemins d'attaques." Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS275.

Full text
Abstract:
Les systèmes embarqués traitent et manipulent de plus en plus de données sensibles. La sécurité de ces systèmes est une préoccupation de premier ordre pour ceux qui les conçoivent. Les attaques en fautes visent à perturber l'exécution des programmes à travers la manipulation de grandeurs physiques dans l'environnement du système. Des contre-mesures logicielles sont déployées pour faire face à cette menace. Différentes analyses sont actuellement utilisées pour évaluer l'efficacité des contre-mesures une fois déployées mais elles sont peu ou pas automatisées, coûteuses et limitées quant à la couverture des comportements possibles et aux types de fautes analysables. Nous proposons une méthode d'analyse de robustesse de code binaire combinant des méthodes formelles et de l'exécution symbolique. L'analyse au niveau du code binaire permet non seulement de se placer après la compilation, qui peut altérer les contre-mesures, mais aussi de prendre en compte des éléments du code binaire invisibles à plus haut niveau. Les méthodes formelles, capables d'exhaustivité, permettent à l'analyse de considérer toutes les configurations des paramètres d'entrée. L'analyse est toutefois réalisée vis-à-vis d'un contexte symbolique, extrait par exécution symbolique, ce qui la circonscrit à des paramètres d'entrée réalistes et limite ainsi les faux positifs. Nous avons implémenté cette méthode dans un outil, nommé \texttt{RobustB}, automatisé depuis le code source. Nous proposons trois métriques permettant de synthétiser les résultats de l'analyse et d'aider le concepteur de contre-mesures à évaluer la sensibilité globale du code ainsi qu'au niveau de chaque instruction
Embedded systems are processing and handling more and more sensitive data. The security of these systems is now a prime concern for those who designs them. Fault attacks are indented to disrupt the execution of programs through the manipulation of physical quantities in the system environment and enable an attacker to bypass security mechanisms or achieve privilege escalation. Software counter-measures are deployed to address this threat. Various analyses are now being used to assess the efficiency of the counter-measures once deployed but they are little or not automated, costly and limited in terms of code coverage of the possible behaviour and of faults types that can be analysed. We propose a method to analyse the robustness of binary code combining formal methods and symbolic execution. Performing the analysis at the binary positions the analysis after compilation which can affect the counter-measures and allows it to take into account information which is only visible at the binary level and which can be exploited to perform an attack. Formal methods are capable of exhaustiveness and thus allow the analysis to consider all possible configurations of inputs. The proposed analysis is nevertheless carried out with respect to a symbolic context, extracted by symbolic execution, which confines it to a realistic set of inputs and thus limits false positives. We have implemented this method in a tool called \texttt{RobustB}. It is automated from the source code. We propose three metrics synthesising the analysis results and helping the designer of counter-measures to assess the sensitivity of the code as a whole and at the granularity of an instruction
APA, Harvard, Vancouver, ISO, and other styles
28

Martinez, Denis. "Détection de comportements à risque dans les applications en utilisant l'analyse statique." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT266.

Full text
Abstract:
Le monde des appareils mobiles permet aux utilisateurs d’installer des applications sur des terminaux personnels, mais pose des lacunes en termes de sécurité, car les utilisateurs n’ont ps les moyens de juger la dangerosité d’une application, et le risque de nuisibilité ne peut pas être limité après l’installation. Nous étudions l’analyse statique en tant qu’outil de détection de risques et de malware. Notre méthode se caractérise par un pilotage par règles, opérant sur des programmes partiels : l’un des objectifs est de proposer un langage spécifique au domaine pouvant exprimer un domaine abstrait et associer des comportements aux fonctions des librairies du système. L’expressivité est un atout important qui est obtenu au travers de l’abstraction. La technologie mobile évolue rapidement et de nouvelles manières de développer les appli- cations apparaissent fréquemment. Une analyse statique des applications doit absolument réagir rapidement à l’arrivée des nouvelles technologies, de sorte à ne pas se retrouver obsolète. Nous montrons de quelle manière il est possible de réaliser des analyses statiques que l’on peut réutiliser entre plusieurs plateformes de smartphones
The mobile device world allows users to install applications on theirpersonal devices, but typically falls short in terms of security, because theusers lack any ability to judge if an application will be dangerous, and thereis no way to limit the harmfulness of a program after it is installed.We explore static analysis as a tool for risk assessment and detection of malware behavior. Our method characterizes as a rule-driven, partial program approach: one of our goals is to provide a convenient, expressive domain-specific language to express an abstract domain and associate behavior to the library functions of the system.Expressivity is an important asset to have and it is obtained by the means of abstraction. The mobile technologies evolve fast and new ways to develop programs frequently appear.A real-world static analysis solution absolutely needs to react fast to the arrival of new technologies, in order not to fall into obsolescence. Weshow how it is possible to develop static analyses, and then to reuse them across mutiple smartphone platforms
APA, Harvard, Vancouver, ISO, and other styles
29

Hrizi, Fatma. "Mécanismes de contrôle pour les applications coopératives de sécurité routière dans les systèmes de transport intelligents." Phd thesis, Télécom ParisTech, 2012. http://pastel.archives-ouvertes.fr/pastel-00998531.

Full text
Abstract:
Dans ces dernières années, les Systèmes de Transport Intelligents (STI) ont été considérés comme l'un des domaines de recherche les plus émergents en raison de leur rôle prometteur dans l'amélioration de la gestion du trafic et de la sécurité routière. Les applications coopératives de sécurité, étant les plus cruciales, ont gagné beaucoup d'intérêt. L'efficacité de ces applications dépend largement de l'échange efficace de deux principaux types d'informations. L'information de localisation périodique correspondant à l'information de localisation du voisinage et l'information événementielle qui est transmise en multi-sauts et générée lors de la détection d'une situation d'urgence. En raison de la caractéristique à grande échelle des STI, cette information fait l'objet du problème de congestion dans le réseau. L'objectif de cette thèse est d'assurer un contrôle fiable et robuste des informations de sécurité permettant de réduire la congestion du canal tout en tenant en compte des exigences des applications de sécurité. Nous examinons la diffusion de l'information événementielle en proposant une approche a multi-sauts qui a montré une amélioration de la réception de l'information. Cependant, cette approche reste très sensible à la charge de canal résultant de transmissions de l'information de localisation périodiques. D'autre part, la transmission efficace de l'information événementielle repose essentiellement sur la détection précise des événements de sécurité et en conséquence sur la précision de l'information de localisation. Ainsi, nous proposons un mécanisme de contrôle de l'information de localisation afin de fournir une meilleure précision et limiter la charge du canal. Les approches proposées dans cette thèse ont profondément étudié le compromis entre le respect des exigences des applications de sécurité et la gestion efficace de la congestion dans le réseau véhiculaire.
APA, Harvard, Vancouver, ISO, and other styles
30

Hrizi, Fatma. "Mécanismes de contrôle pour les applications coopératives de sécurité routière dans les systèmes de transport intelligents." Electronic Thesis or Diss., Paris, ENST, 2012. http://www.theses.fr/2012ENST0081.

Full text
Abstract:
Dans ces dernières années, les Systèmes de Transport Intelligents (STI) ont été considérés comme l'un des domaines de recherche les plus émergents en raison de leur rôle prometteur dans l'amélioration de la gestion du trafic et de la sécurité routière. Les applications coopératives de sécurité, étant les plus cruciales, ont gagné beaucoup d'intérêt. L'efficacité de ces applications dépend largement de l'échange efficace de deux principaux types d'informations. L'information de localisation périodique correspondant à l'information de localisation du voisinage et l'information événementielle qui est transmise en multi-sauts et générée lors de la détection d'une situation d'urgence. En raison de la caractéristique à grande échelle des STI, cette information fait l'objet du problème de congestion dans le réseau. L'objectif de cette thèse est d'assurer un contrôle fiable et robuste des informations de sécurité permettant de réduire la congestion du canal tout en tenant en compte des exigences des applications de sécurité. Nous examinons la diffusion de l'information événementielle en proposant une approche a multi-sauts qui a montré une amélioration de la réception de l'information. Cependant, cette approche reste très sensible à la charge de canal résultant de transmissions de l'information de localisation périodiques. D'autre part, la transmission efficace de l'information événementielle repose essentiellement sur la détection précise des événements de sécurité et en conséquence sur la précision de l'information de localisation. Ainsi, nous proposons un mécanisme de contrôle de l'information de localisation afin de fournir une meilleure précision et limiter la charge du canal. Les approches proposées dans cette thèse ont profondément étudié le compromis entre le respect des exigences des applications de sécurité et la gestion efficace de la congestion dans le réseau véhiculaire
In the last decades, Intelligent Transportation Systems (ITS) have been considered as one of the most emerging research area due to their promising role in promoting traffic efficiency and enhancing road safety. ITS cooperative safety applications, being the most vital and critical, have gained a lot of attention. The effectiveness of these applications depends widely on the efficient exchange of two main types of information. The periodic awareness corresponding to the one-hop location information of surrounding environment and the multi-hop event-driven information generated at the detection of a safety situation. Due to the large scale characteristic of ITS, this information is expected to be subject to severe congestion which might impact its reliable reception. The goal of this thesis is to focus on the reliable and robust control of safety-related information by reducing the channel congestion and at the same time taking into account the requirements of safety applications. We address first the event-driven safety information. We proposed a multi-hop policy showed to improve the dissemination of the event-driven information. However, it remains strongly sensitive to the channel load resulting from periodic awareness transmissions. On the other hand, the effective transmission of event-driven information depends primarily on the accurate detection of safety events and accordingly on the accuracy of awareness. Thus, we provide an efficient awareness control mechanism in order to provide better accuracy and limit the channel congestion. The approaches proposed in this thesis have deeply investigated the trade-off between ensuring the requirements of cooperative safety and the efficient management of congestion in vehicular network
APA, Harvard, Vancouver, ISO, and other styles
31

Druyer, Rémy. "Réseau sur puce sécurisé pour applications cryptographiques sur FPGA." Thesis, Montpellier, 2017. http://www.theses.fr/2017MONTS023/document.

Full text
Abstract:
Que ce soit au travers des smartphones, des consoles de jeux portables ou bientôt des supercalculateurs, les systèmes sur puce (System-on-chip (SoC)) ont vu leur utilisation largement se répandre durant ces deux dernières décennies. Ce phénomène s’explique notamment par leur faible consommation de puissance au regard des performances qu’ils sont capables de délivrer, et du large panel de fonctions qu’ils peuvent intégrer. Les SoC s’améliorant de jour en jour, ils requièrent de la part des systèmes d’interconnexions qui supportent leurs communications, des performances de plus en plus élevées. Pour répondre à cette problématique les réseaux sur puce (Network-on-Chip (NoC)) ont fait leur apparition.En plus des ASIC, les circuit reconfigurables FPGA sont un des choix possibles lors de la réalisation d’un SoC. Notre première contribution a donc été de réaliser et d’étudier les performances du portage du réseau sur puce générique Hermes initialement conçu pour ASIC, sur circuit reconfigurable. Cela nous a permis de confirmer que l’architecture du système d’interconnexions doit être adaptée à celle du circuit pour pouvoir atteindre les meilleures performances possibles. Par conséquent, notre deuxième contribution a été la conception de l’architecture de TrustNoC, un réseau sur puce optimisé pour FPGA à hautes performances en latence, en fréquence de fonctionnement, et en quantité de ressources logiques occupées.Un autre aspect primordial qui concerne les systèmes sur puce, et plus généralement de tous les systèmes numériques est la sécurité. Notre dernière principale contribution a été d’étudier les menaces qui s’exercent sur les SoC durant toutes les phases de leur vie, puis de développer à partir d’un modèle de menaces, des mécanismes matériels de sécurité permettant de lutter contre des détournements d’IP, et des attaques logicielles. Nous avons également veillé à limiter au maximum le surcoût qu’engendre les mécanismes de sécurité sur les performances sur réseau sur puce
Whether through smartphones, portable game consoles, or high performances computing, Systems-on-Chip (SoC) have seen their use widely spread over the last two decades. This can be explained by the low power consumption of these circuits with the regard of the performances they are able to deliver, and the numerous function they can integrate. Since SoC are improving every day, they require better performances from interconnects that support their communications. In order to address this issue Network-on-Chip have emerged.In addition to ASICs, FPGA circuits are one of the possible choices when conceiving a SoC. Our first contribution was therefore to perform and study the performance of Hermes NoC initially designed for ASIC, on reconfigurable circuit. This allowed us to confirm that the architecture of the interconnection system must be adapted to that of the circuit in order to achieve the best possible performances. Thus, our second contribution was to design TrustNoC, an optimized NoC for FPGA platform, with low latency, high operating frequency, and a moderate quantity of logical resources required for implementation.Security is also a primordial aspect of systems-on-chip, and more generally, of all digital systems. Our latest contribution was to study the threats that target SoCs during all their life cycle, then to develop and integrate hardware security mechanisms to TrustNoC in order to counter IP hijacking, and software attacks. During the design of security mechanisms, we tried to limit as much as possible the overhead on NoC performances
APA, Harvard, Vancouver, ISO, and other styles
32

Al-Kassar, Feras. "Testability Tarpits - Navigating the Challenges of Static Tools in Web Applications." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS675.

Full text
Abstract:
L'objectif de cette thèse était d'évaluer l'efficacité d'une combinaison de scanners de sécurité commerciaux et open source. Grâce à l'expérimentation, nous avons identifié divers modèles de code qui entravent la capacité des outils de pointe à analyser les projets. En détectant ces modèles au cours du cycle de développement des logiciels, notre approche peut offrir aux développeurs un retour d'information précieux sur la testabilité de leur code. En outre, elle leur permet d'évaluer plus précisément le risque résiduel que leur code puisse encore contenir des vulnérabilités, même si les analyseurs statiques ne font état d'aucune découverte. Notre approche suggère également des méthodes alternatives pour transformer le code et améliorer sa testabilité pour SAST
The goal of this thesis was to evaluate the effectiveness of a combination of commercial and open source security scanners. Through experimentation, we identified various code patterns that hinder the ability of state-of-the-art tools to analyze projects. By detecting these patterns during the software development lifecycle, our approach can offer valuable feedback to developers regarding the testability of their code. Additionally, it enables them to more accurately evaluate the residual risk that their code might still contain vulnerabilities, even if static analyzers report no findings. Our approach also suggests alternative methods to transform the code and enhance its testability for SAST
APA, Harvard, Vancouver, ISO, and other styles
33

Fenet, Serge. "Vers un paradigme de programmation pour les applications distribuées basé sur le comportement des insectes sociaux : application à la sécurité des réseaux." Lyon 1, 2001. http://www.theses.fr/2001LYO10261.

Full text
Abstract:
Les travaux présentés dans cette thèse se positionnent dans la perspective de la création de futures applications orientées réseau. Nous nous orientons vers un paradigme de programmation d'applications distribuées dans lequel les systèmes informatiques seraient conçus comme de vrais écosystèmes. Les applications distribuées seraient alors vues comme des populations d'agents mobiles vivant et évoluant sur le réseau et dont les fonctionnalités seraient des caractéristiques émergentes. Nous proposons dans cette thèse une architecture générique à base d'agents mobiles se basant sur les mécanismes de communication des insectes sociaux et pouvant se dédier à des tâches de contrôle des réseaux, de routage ou de protection. Elle est basée sur une approche émergente et s'adapte aux constants changements imposés par l'évolution des conditions de fonctionnement du réseau. Elle utilise plusieurs populations d'agents mobiles qui, comme les agents naturels tels que les insectes sociaux, sont individuellement peu sophistiqués et intègrent une part d'aléatoire. Toutefois, leur comportement collectif, issu de l'interaction d'un grand nombre d'individus les uns avec les autres et avec leur environnement, est complexe et tend de façon émergente vers un optimum sans faire appel à un contrôle central. Ils évoluent au sein d'un réseau de machines et interagissent avec un mécanisme supportant la prise en compte spatio-temporelle de critères multiples incarnés en des champs dynamiques. Leur déplacement au sein de ces champs leur permet de se rendre sur une position géographique qui satisfasse les critères modélisés. Une grande partie de nos travaux se concentre sur la détection d'intrusion au sein de réseaux locaux.
APA, Harvard, Vancouver, ISO, and other styles
34

Berradj, Adel. "Contrôle de la diffusion multi-saut pour la dissémination de messages d'alerte dans les réseaux véhiculaires." Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30166/document.

Full text
Abstract:
Les applications de sécurité routière sont la principale motivation des réseaux de véhicules, bien que d'autres applications de gestion du trafic routier et de divertissement soient envisagées. La communication par diffusion sur plusieurs sauts est une composante importante de ces applications telles que, la signalisation du danger sur la route où la diffusion sur plusieurs sauts est utilisée pour notifier un accident sur la route, une présence d'animal, un objet qui barre la route, un freinage brusque du véhicule en avant, etc. Comme l'information traitée dans ces applications est très critique et peut avoir un effet sur la vie humaine, la diffusion doit être rapide et fiable. Cependant, la diffusion de messages sur plusieurs sauts a de nombreux défis à relever tels que le problème de tempête de diffusion (à savoir, des retransmissions redondantes, une haute charge du canal, une grande contention sur le canal de communication et ainsi, un taux de perte de paquets élevé) dans le cas d'un réseau dense, et le problème de déconnexion quand le réseau est clairsemé. En plus, les applications de sécurité routière sont à temps critique et la satisfaction de leurs exigences est très difficile, car il y a un compromis entre la fiabilité de la dissémination et le délai de livraison. De nombreux travaux ont été menés ces dernières années et une large gamme de mécanismes ont été proposés. Néanmoins, la plupart d'entre eux souffrent toujours de problèmes de collisions quand le réseau est dense et une latence élevée quand la densité du réseau est faible. Le but de cette thèse est d'étudier les protocoles permettant une livraison fiable et rapide de messages d'alerte, de comprendre leurs limites et de proposer une solution pour la dissémination rapide et fiable de l'information de sécurité dans un réseau de véhicule
Road safety applications are the main motivation of vehicular networks, although other road traffic management and entertainment applications are considered. The multi-hop broadcasting communication is an important component of these applications, such as Road Hazard Signaling application where the multi-hop broadcasting is used to notify an accident on the road, a presence of animal, an object that blocks the road, sudden braking of the vehicle in front, etc. As the information handled in these applications is very critical and can affect the human life the dissemination must be fast and reliable. However, broadcasting messages over several hops comes with many challenges to overcome such as broadcast storm problem (i.e. redundant retransmissions, high load of the channel, high contention on the communication channel and thus, high packet loss rate) in the case of dense network, and the problem of disconnection when the network is sparse. In addition, road safety applications are time-critical and satisfaction of their demands is very difficult because there is a trade-off between the dissemination reliability and the delivery delay. Many studies have been conducted in recent years and a variety of mechanisms have been proposed. However, most of them still suffer from problems of collisions when the network is dense and a high latency when the density of the network is low. The aim of this thesis is to analyze protocols allowing a reliable and fast delivery of alert messages, understand their limitations and propose a solution for fast and reliable dissemination of safety information in vehicular networks
APA, Harvard, Vancouver, ISO, and other styles
35

Badrignans, Benoît. "Utilisation des FPGAs dans le contexte des applications sécurisées." Montpellier 2, 2009. http://www.theses.fr/2009MON20184.

Full text
Abstract:
Les motivations pour employer des FPGAs (Field-Programmable Gate Array) dans les applications sécurisées sont multiples : leur configuration matérielle peut être mise à jour tout au long de leur cycle de vie, ils peuvent être finement reconfigurés pour implémenter des fonctions cryptographiques efficaces, enfin les applications sécurisées génèrent généralement de faibles volumes de production rendant les FPGAs plus attractifs que les ASICs (Application Specific Integrated Circuits). Cependant les ASICs contiennent souvent des fonctionnalités matérielles dédiées qui ne sont pas présentes dans tous les FPGAs, par exemple la plus part d'entre eux ne disposent pas de mémoires non volatiles embarquées qui sont utiles dans la plus part des applications sécurisées, généralement pour stocker des clefs cryptographiques. De plus les développeurs sur FPGA qui ont des problématiques de sécurité doivent utiliser ces dispositifs avec précaution. Tout comme les ASICs les FPGAs sont sensibles à certaines attaques qu'elles soient logicielles, logiques ou matérielles. Dans le cas particulier des FPGAs, les attaques peuvent également cibler les données de configurations (bitstream) et de ce fait modifier les fonctions matérielles implémentées par le développeur. Le principal objectif de cette thèse est d'étudier les possibilités d'utiliser des FPGAs pour des applications sécurisées. Ce sujet étant vaste, elle se concentre particulièrement sur la protection des données de configuration. Premièrement, elle présente un état de l'art des mécanismes de sécurité disponible sur les FPGAs actuels et les attaques potentielles sur ces dispositifs. Ensuite elle met en évidence les menaces spécifiques à ces composant comme le rejeu de bitstream lors d'une mise à jour distante. Pour finir les concepts développés dans les premières parties sont mis en pratique sur un cas concret : une plateforme cryptographique reconfigurable basée sur des composants de type FPGA, qui offre au lecteur de mesurer la pertinence des solutions proposées. Ces travaux ont été menés en collaboration avec le Laboratoire d'Informatique, de Robotique et de Microélectronique de Montpellier (LIRMM) et la société Netheos
Motivations to employ FPGAs (Field-Programmable Gate Array) in secured applications are multiple : hardware configuration can be updated all along system life-cycle, FPGA can be finely configured to implement cryptographic functions efficiently, secured applications generally generate low sales volumes making FPGAs more attractive than ASICs (Application Specific Integrated Circuits). However secured ASICs often contains special features that are not available in all FPGAs, for instance most current FPGAs do not include non-volatile memories that are useful for secured applications, for instance to store cryptographic key. Moreover FPGA designers that have security concerns must use those devices carefully. Like secured applications implemented on ASICs, FPGA-based systems are subject to attacks. Those threats can be found at software, logical or physical level. In the particular case of FPGAs, attacks can also focus configuration process, and thereby modify functions implemented inside FPGA user logic. The main goal of this thesis is to study FPGAs devices in the general field of secured applications. Since the topic is vast, this works mainly focus on FPGAs bitstream management. First it offers a state of the art of FPGA security mechanisms and good practices, and also performances analysis achievable using hardware implementation of cryptographic algorithm in current FPGAs. Then it highlights security issues specific to FPGA, like bitstream replay attack, and proposes solutions to enhance bitstream management security, focusing on the security of remote update of FPGA bitstreams. Finally results of this work are applied to a real concrete case, a platform based on a FPGA device. This platform was developed during the thesis in collaboration with LIRMM laboratory and Netheos company. This last part offers a practical and an industrial point of view that allows readers to measure pertinence of proposed solutions
APA, Harvard, Vancouver, ISO, and other styles
36

Saleh, Mohammad. "Secure communications in wireless networks for biomedical EEG sensor networks applications." Thesis, Bourgogne Franche-Comté, 2018. http://www.theses.fr/2018UBFCA024/document.

Full text
Abstract:
Le cadre général de la thèse concerne les réseaux de capteurs et la sécurisation des communications sans fil pour la mise en œuvre de systèmes fiables de surveillance orienté santé. Plus précisément, ce travail de thèse présente un nouveau système de surveillance biomédical à base de réseau de capteurs sans fil, pour la mesure de l'activité électrique du cerveau. Un réseau de capteurs sans fil de type EEG (électroencéphalogramme) permet de surveiller les ondes cérébrales spontanées, y compris les ondes normales et anormales, des patients souffrant de différents types d'épilepsie. Un capteur sans fil enregistre les signaux du patient (via le cuir chevelu) et filtre ces signaux et leurs données en parallèle selon un traitement approprié des ondes cérébrales. Il est dès lors possible de prédire la gravité d'une attaque épileptique à venir. Une première approche est proposée pour analyser les anomalies des ondes cérébrales et déclencher des alertes le cas échéant. De tels systèmes peuvent permettre de sauver de nombreux patients en prédisant l’arrivée les crises avant qu'elles ne surviennent et éviter ainsi les accidents et les comportements à risque lors d'une crise d'épilepsie. De plus, l’approche peut être utiliser pour d'autres mesures de diagnostic médical. Une autre approche basé sur l’apprentissage pour la prédiction en utilisant les réseaux de neurones de type FFNN (Feed Forward Neural Network ) est également présentée. Par ailleurs, Les approches de prédiction, exploitent la norme IEEE802.11n pour la transmission des données avec un protocole de confidentialité pour la sécurisation des communications. La mise en œuvre de la sécurité peut réduire considérablement le temps de la prédiction et retarder les signaux d’alerte des crises. Les mesures effectuées permettent la calibration des algorithmes de prédiction pour tenir compte des délais introduits par la sécurisation des communications
The general framework of the thesis concerns sensor networks and the privacy protocols for wireless communications in the implementation of reliable healthcare systems. More precisely, it presents a novel biomedical wireless sensor Network monitoring system, as a predictor and advance sensitive portable electroencephalogram (EEG). The EEG wireless sensor network proposed to monitor spontaneous brain waves, including normal and abnormal waves, for the patients suffering from different types of epilepsy. The biomedical epilepsy wireless sensor Network monitoring system (WSN-EEG) read’s signals from a wireless sensor network on the patient scalp, and filter these signals to run parallel data processing for the brain waves. However, the predicting procedure for the severity of the forthcoming epileptic attack based on, a proposed mathematical model, which analyses the abnormality in the brain waves and alerts by giving signals for the patient. This method can save many patients by predicting the seizure before it occurs and helps them from different injuries and risky behavior arising during epilepsy attack. In addition, the proposed approaches can use the patient data for further medical diagnosis measures. Another approach is proposed as a learning-based approach for prediction using Feed Forward Neural Network (FFNN) for the alert system. The research used the IEEE802.11n as a communication method for the wireless sensor networks and measure the IEEE802.11n security performances as privacy protocol for data transmission of the proposed systems. The measurements indicated the calibration of the prediction algorithms to take account of the delays introduced by the security of the communications in the data transmission and seizure prediction which might significantly reduce prediction time and delay the alert signals
APA, Harvard, Vancouver, ISO, and other styles
37

Tseng, Yuchia. "Securing network applications in software defined networking." Electronic Thesis or Diss., Sorbonne Paris Cité, 2018. http://www.theses.fr/2018USPCB036.

Full text
Abstract:
Suite à l'introduction de divers services Internet, les réseaux informatiques ont été reconnus ‏comme ayant joué un rôle essentiel dans la vie moderne au cours du dernier demi-siècle. Le ‏développement rapide et la convergence des technologies informatiques et de communication ‏créent le besoin de connecter divers périphériques avec différents systèmes d'exploitation ‏et protocoles. Il en résulte de nombreux défis pour fournir une intégration transparente ‏d'une grande quantité de dispositifs physiques ou d'entités hétérogènes. Ainsi, les réseaux ‏définis par logiciel (Software Defined Networks, SDN) en tant que paradigme émergent ont ‏le potentiel de révolutionner la gestion des réseaux en centralisant le contrôle et la visibilité ‏globale sur l'ensemble du réseau. Cependant, les problèmes de sécurité demeurent une préoccupation ‏importante et empêchent l'adoption généralisée du SDN.‏‏ Pour identifier les menaces, nous avons effectué une analyse en 3 dimensions pour évaluer ‏la sécurité de SDN. Dans cette analyse, nous avons repris 9 principes de sécurité pour ‏le contrôleur SDN et vérifié la sécurité des contrôleurs SDN actuels avec ces principes. ‏Nous avons constaté que les contrôleurs SDN, ONOS et OpenContrail sont relativement plus ‏sécurisés que les autres selon notre méthodologie d'analyse. Nous avons également trouvé ‏le besoin urgent d'atténuer le problème d'injection d'applications malveillantes. Par conséquent, ‏nous avons proposé une couche d'amélioration de la sécurité (Security-enhancing layer, couche SE) ‏pour protéger l'interaction entre le plan de contrôle et le plan d’application. ‏‏Cette couche SE est indépendante du contrôleur et peut fonctionner avec OpenDaylight, ONOS, ‏Floodlight, Ryu et POX, avec une faible complexité de déploiement. Aucune modification de ‏leurs codes sources n'est requise dans leur mise en œuvre alors que la sécurité globale du ‏contrôleur SDN est améliorée. Le prototype I, Controller SEPA, protège le contrôleur ‏SDN avec l'authentification de l'application réseau, l'autorisation, l'isolation des ‏applications et le blindage de l'information avec un coût additionnel négligeable de moins ‏de 0,1% à 0,3%. Nous avons développé le prototype II de la couche SE, appelé Controller DAC, ‏qui rend dynamique le contrôle d'accès. Le controller DAC peut détecter l'utilisation ‏abusive de l'API en comptabilisant les opérations de l'application réseau avec un coût ‏additionnel inférieure à 0,5%.‏‏ Grâce à cette couche SE, la sécurité globale du contrôleur SDN est améliorée mais avec un ‏coût additionnel inférieure à 0,5%. De plus, nous avons tenté de fournir un framework de ‏déploiement d'application réseau sécurisé pour le contrôleur SDN avec un orchestrateur. ‏Tout d'abord, nous avons sécurisé le contrôleur SDN en utilisant la file d'attente de ‏messages pour remplacer les interfaces populaires actuelles, y compris les RESTful APIs ‏et les APIs internes, à l'aide d'une interface orientée événement décomposable. Avec cette ‏nouvelle interface northbound, l'orchestrateur peut déployer les applications réseau dans ‏le bac à sable(sanbox) avec contrôle des ressources et contrôle d'accès. Cette approche ‏peut efficacement protéger contre les menaces, qui incluent les attaques d'épuisement des ‏ressources (Resource exhaustion attacks) et le traitement des données sur le contrôleur SDN ‏actuel. Nous avons également implémenté une application réseau déployée par l'orchestrateur ‏pour détecter une attaque spécifique à OpenFlow, appelée attaque par contournement de priorité, ‏pour évaluer l'utilité de l'interface norttbound. À long terme, le temps de traitement d'un ‏message packet_in dans cette interface est inférieur à cinq millisecondes mais l'application ‏réseau peut être complètement découplée et isolée du contrôleur SDN.‏‏
The rapid development and convergence of computing technologies and communications ‏create the need to connect diverse devices with different operating systems and protocols.‏ This resulted in numerous challenges to provide seamless integration of a large amount of ‏heterogeneous physical devices or entities. Hence, Software-defined Networks (SDN), as an ‏emerging paradigm, has the potential to revolutionize the legacy network management and‏ accelerate the network innovation by centralizing the control and visibility over the network. ‏However, security issues remain a significant concern and impede SDN from being widely‏ adopted.‏‏To identity the threats that inherent to SDN, we conducted a deep analysis in 3 dimensions‏ to evaluate the security of the proposed architecture. In this analysis, we summarized 9‏security principles for the SDN controller and checked the security of the current well-known‏ SDN controllers with those principles. We found that the SDN controllers, namely ONOS ‏and OpenContrail, are relatively two more secure controllers according to our conducted ‏methodology. We also found the urgent need to integrate the mechanisms such as connection ‏verification, application-based access control, and data-to-control traffic control for securely ‏implementing a SDN controller. In this thesis, we focus on the app-to-control threats, which ‏could be partially mitigated by the application-based access control. As the malicious network ‏application can be injected to the SDN controller through external APIs, i.e., RESTful APIs, or ‏internal APIs, including OSGi bundles, Java APIs, Python APIs etc. In this thesis, we discuss ‏how to protect the SDN controller against the malicious operations caused by the network‏ application injection both through the external APIs and the internal APIs. ‏We proposed a security-enhancing layer (SE-layer) to protect the interaction between the‏ control plane and the application plane in an efficient way with the fine-grained access control, ‏especially hardening the SDN controller against the attacks from the external APIs. This‏ SE-layer is implemented in the RESTful-based northbound interfaces in the SDN controller‏ and hence it is controller-independent for working with most popular controllers, such as‏ OpenDaylight, ONOS, Floodlight, Ryu and POX, with low deployment complexity. No‏ modifications of the source codes are required in their implementations while the overall security ‏of the SDN controller is enhanced. Our developed prototype I, Controller SEPA, protects well‏ the SDN controller with network application authentication, authorization, application isolation,‏ and information shielding with negligible latency from less than 0.1% to 0.3% for protecting‏ SDN controller against the attacks via external APIs, i.e, RESTful APIs. We developed also‏ the SE-layer prototype II, called Controller DAC, which makes dynamic the access control.‏ Controller DAC can detect the API abuse from the external APIs by accounting the network‏ application operation with latency less than 0.5%. Thanks to this SE-layer, the overall security of the SDN controller is improved but with a latency of less than 0.5%. However, the SE-layer can isolate the network application to communicate the controller only through the RESTful APIs. However, the RESTful APIs is ‏insufficient in the use cases which needs the real-time service to deliver the OpenFlow messages. ‏Therefore, we proposed a security-enhancing architecture for securing the network application‏ deployment through the internal APIs in SDN, with a new SDN architecture dubbed SENAD. In‏ SENAD, we split the SDN controller in: (1) a data plane controller (DPC), and (2) an application ‏plane controller (APC) and adopt the message bus system as the northbound interface instead ‏of the RESTful APIs for providing the service to deliver the OpenFlow messages in real-time.‏ (...)
APA, Harvard, Vancouver, ISO, and other styles
38

Tanguy, Eric. "Développement d'un laser verre codopé erbium et ytterbium compact à sécurité oculaire pour des applications de télémétrie." Phd thesis, Université Paris Sud - Paris XI, 1996. http://tel.archives-ouvertes.fr/tel-00937945.

Full text
Abstract:
Leur grande efficacité et leur directivité font des lasers des sources optiques extrêmement dangereuses pour l' oeil humain. Cependant il existe une bande spectrale s'étendant de 1,5 à 1,55 µm où le seuil d'endommagement de l'oeil est plus élevé et où les risques encourus sont moins importants. Cette bande spectrale est dite à " sécurité oculaire ". Un laser solide pompé par diode laser émettant dans cette bande spectrale doit trouver de nombreuses applications dans les domaines de la détection d' obstacles et de la télémétrie. Ce travail a donc pour objectif d' étudier théoriquement et de valider expérimentalement un tel laser à sécurité oculaire pompé par diode laser de puissance fondé sur l'utilisation d'un verre codopé erbium et ytterbium. Ce laser fonctionne en régime continu et déclenché mécaniquement. En régime continu une puissance de 100 mW avec un faisceau gaussien parfait a été obtenue pour une puissance de pompe absorbée de 650 mW. En régime déclenché par insertion dans la cavité d'un disque tournant, nous avons obtenu une puissance crête de 120W sur une impulsion de 35 ns de largeur à mi-hauteur et en régime déclenché par insertion d'un diapason dans la cavité, nous avons obtenu une puissance crête de 50 W sur une impulsion de 60 ns de largeur à mi-hauteur. Les résultats intéressants obtenus en régime déclenché nous ont permis de réaliser un télémètre à sécurité oculaire.
APA, Harvard, Vancouver, ISO, and other styles
39

Scholte, Theodoor. "Amélioration de la sécurité par la conception des logiciels web." Thesis, Paris, ENST, 2012. http://www.theses.fr/2012ENST0024/document.

Full text
Abstract:
L'internet est devenu un environnement omniprésent dans le monde du travail et du loisir. La popularité sans cesse croissante des applications web ainsi que des services associés entraînent l'exécution de nombreuses transactions critiques, qui soulèvent des questions de sécurité. Du fait de cette croissance, des efforts ont été entrepris durant cette dernière décennie pour rendre les applications web plus sûres. Malgré ces efforts, de récents rapports provenant de l'institut SANS estiment que plus de 60 % des attaques commises sur l'Internet ciblent les applications web en se concentrant sur les vulnérabilités inhérentes aux problèmes de validation, comme le Cross-Site Scripting ou les injections SQL. Dans cette thèse, nous avons conduit deux études de recherche empirique, analysant un grand nombre d'application web vulnérables. Nous avons assemblé une base de données contenant plus de 10.000 rapports de vulnérabilités depuis l'an 2000. Ensuite, nous avons analysé ces données pour déterminer si les développeurs ont pris conscience des problématiques de sécurité web de nos jours, comparé à la période où ces applications émergeaient. Puis nous avons analysé l'étroit lien entre le langage de programmation utilisé pour développer l'application web et le nombre de vulnérabilité reporté. Avec ces résultats empiriques comme base, nous présentons notre solution IPAAS qui aide les développeurs novice en termes de sécurité à écrire des applications sécurisées par défaut. Nous montrons par ailleurs que cette technique améliore de manière probante la sécurité des applications web
The web has become a backbone of our industry and daily life. The growing popularity of web applications and services and the increasing number of critical transactions being performed, has raised security concerns. For this reason, much effort has been spent over the past decade to make web applications more secure. Despite these efforts, recent data from SANS institute estimates that up to 60% of Internet attacks target web applications and critical vulnerabilities such as cross-site scripting and SQL injection are still very common. In this thesis, we conduct two empirical studies on a large number of web applications vulnerabilities with the aim of gaining deeper insights in how input validation flaws have evolved in the past decade and how these common vulnerabilities can be prevented. Our results suggest that the complexity of the attacks have not changed significantly and that many web problems are still simple in nature. Our studies also show that most SQL injection and a significant number of cross-site scripting vulnerabilities can be prevented using straight-forward validation mechanisms based on common data types. With these empirical results as foundation, we present IPAAS which helps developers that are unaware of security issues to write more secure web applications than they otherwise would do. It includes a novel technique for preventing the exploitation of cross-site scripting and SQL injection vulnerabilities based on automated data type detection of input parameters. We show that this technique results in significant and tangible security improvements for real web applications
APA, Harvard, Vancouver, ISO, and other styles
40

Hiet, Guillaume. "Détection d'intrusions paramétrée par la politique de sécurité grâce au contrôle collaboratif des flux d'informations au sein du système d'exploitation et des applications : mise en œuvre sous Linux pour les programmes Java." Phd thesis, Université Rennes 1, 2008. http://tel.archives-ouvertes.fr/tel-00355089.

Full text
Abstract:
La sécurité informatique est un enjeu crucial. Elle consiste en premier lieu à définir une politique de sécurité puis à mettre en œuvre cette politique. Les approches préventives comme le contrôle d'accès sont essentielles mais insuffisantes. Il est donc nécessaire de recourir à la détection d'intrusions. En particulier, l'approche de détection d'intrusions paramétrée par la politique de sécurité nous paraît prometteuse. Une telle approche s'appuie uniquement sur un modèle de l'évolution de l'état du système et sur un modèle de la politique de sécurité. Nous nous intéressons dans cette thèse aux politiques de flux d'informations permettant d'assurer la confidentialité et l'intégrité des données. Nous souhaitons utiliser une approche de détection d'intrusions paramétrée par la politique de sécurité pour surveiller un système comprenant un OS et des logiciels COTS comprenant des applications web. Nous proposons un modèle de détection permettant de suivre les flux d'informations entre les conteneurs d'informations. Nous définissons une architecture générique de système de détection d'intrusions (IDS) permettant d'implémenter le modèle proposé. Cette architecture repose sur la collaboration entre plusieurs IDS effectuant le suivi des flux d'informations à différents niveaux de granularité. Nous présentons une implémentation de cette architecture reposant sur Blare, un IDS existant permettant de gérer les conteneurs d'informations de l'OS, et JBlare, une implémentation que nous avons réalisée pour suivre les flux d'informations au niveau des applications Java. Nous présentons également les résultats des expérimentations que nous avons menées en instrumentant des applications Java « réalistes ».
APA, Harvard, Vancouver, ISO, and other styles
41

Harb, Naim. "Dynamically and Partially Reconfigurable Embedded System Architecture for Automotive and Multimedia Applications." Valenciennes, 2011. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/1810c575-b28e-4817-a3be-f0527631eabd.

Full text
Abstract:
Les processeurs programmables sont largement utilisés dans la réalisation des systèmes embarqués en raison leurs caractéristiques micro-architecturales intéressantes. Cependant, les délais de plus en plus courts de mise sur le marché et les coûts de conception élevés exigent un investissement coûteux. Pour surmonter ces problèmes, les concepteurs de systèmes embarqués s’appuient de plus en plus sur les circuits reconfigurables (ou FPGA pour Field Programmable Gate Arrays) en tant que plateformes spécifiques de conception. Néanmoins, ces FPGAs sont généralement relativement lents et consomment une quantité importante d’énergie électrique. Cependant, les récentes avancées dans les architectures FPGA, telle que la reconfiguration partiellement dynamique (ou DPR pour Dynamic Partial Reconfiguration), aident à combler ce fossé. La DPR permet à une partie du système embarqué d’être reconfigurée en cours de l’exécution de l’application. Ce qui permet d’avoir une meilleure adéquation entre les besoins des applications exécutées et l’architecture du système. Le travail de cette thèse vise à exploiter les caractéristiques de la DPR des récents FPGAs pour supporter des applications de sécurité routière (ou DAS pour Driver Assistant System) et des applications multimédias où nous avons sélectionné l’encodeur H. 264 comme exemple illustratif. Pour l’application DAS, un filtre hardware et reconfigurable dynamiquement a été conçu. Cette architecture ne provoque aucune surcharge de reconfiguration. En se basant sur l’analyse des caractéristiques (nombre, distance, vitesse, etc. ) autour du véhicule la meilleure architecture du filtre est déterminée. Concernant l’application H. 264, nous avons proposé une nouvelle architecture de l’unité de mesure d’estimation du mouvement (ou ME pour Motion Estimation). L’architecture proposée peut répondre rapidement et automatiquement à des contraintes spécifiques d’énergie et de qualité d’image
Short time-to-market windows, high design and fabricationcosts, and fast changing standards of application-specificprocessors, make them a costly and risky investment for embedded system designers. To overcome these problems, embedded system designersare increasingly relying on Field Programmable Gate Arrays(FPGAs) as target design platforms. FPGAs are generally slower and consumemore power than application-specific integrated circuits(ASICs), and this can restrict their use to limited applicationdomains. However, recent advances in FPGA architectures,such as dynamic partial reconfiguration (DPR), are helpingbridge this gap. DPR reduces area and enables mutually exclusive subsystemsto share the same physical space on a chip. It also reducescomplexity, which usually results in faster circuits and lowerpower consumption. The work in this PhD targets first a Driver Assistant System (DAS) system based on a Multiple Target Tracking (MTT) algorithm as our automotive base system. We present a dynamically reconfigurable filtering hardwareblock for MTT applications in DAS. Our system shows thatthere will be no reconfiguration overhead because the systemwill still be functioning with the original configuration until thesystem reconfigures itself. The free reconfigurable regions canbe implemented as improvement blocks for other DAS systemfunctionalities. Two approaches were used to design the filtering block according to driving conditions. We then target another application on the basis of DPR, the H. 264 encoder as a multimedia system. Regarding the H. 264 multimedia system, we propose a reconfigurable H. 264 Motion Estimation (ME) unit whose architecture can be modified to meet specific energy and image quality constraints. By using DPR, we were able to support multiple configurations each with different levels of accuracy and energy consumption. Image accuracy levels were controlled via application demands, user demands or support demands
APA, Harvard, Vancouver, ISO, and other styles
42

Pellegrino, Giancarlo. "Détection d'anomalies logiques dans les logiciels d'entreprise multi-partis à travers des tests de sécurité." Thesis, Paris, ENST, 2013. http://www.theses.fr/2013ENST0064/document.

Full text
Abstract:
Les logiciels multi-partis sont des applications distribuées sur le web qui mettent en oeuvre des fonctions collaboratives. Ces applications sont les principales cibles des attaquants qui exploitent des vulnérabilités logicielles dans le cadre d'activités malveillantes. Récemment, un type moins connu de vulnérabilité, les anomalies logiques, a attiré l'attention des chercheurs. Sur la base d'informations tirées de la documentation des applications, il est possible d'appliquer deux techniques de test: la vérification du modèle, autrement appelé ``model checking'', et les tests de sécurité de type ``boîte noire''. Le champs d'application du model checking ne prend pas en suffisamment en compte les implémentations actuelles, tandis que les tests de type boîte noire ne sont pas assez sophistiqués pour découvrir les vulnérabilités logique. Dans cette thèse, nous présentons deux techniques d'analyse modernes visant à résoudre les inconvénients de l'état de l'art. Pour commencer, nous présentons la vérification de deux protocoles de sécurité utilisant la technique du model checking. Ensuite, nous nous concentrons sur l'extension du model checking pour soutenir les tests automatisés d'implémentations. La seconde technique consiste en une analyse boîte noire qui combine l'inférence du modèle, l'extraction du processus et du flot de donnée, ainsi qu'une génération de tests basés sur les modèles d'attaque d'une application. En conclusion, nous discutons de l'application de techniques développées au cours de cette thèse sur des applications issues d'un contexte industrielle
Multi-party business applications are distributed computer programs implementing collaborative business functions. These applications are one of the main target of attackers who exploit vulnerabilities in order to perform malicious activities. The most prevalent classes of vulnerabilities are the consequence of insufficient validation of the user-provided input. However, the less-known class of logic vulnerabilities recently attracted the attention of researcher. According to the availability of software documentation, two testing techniques can be used: design verification via model checking, and black-box security testing. However, the former offers no support to test real implementations and the latter lacks the sophistication to detect logic flaws. In this thesis, we present two novel security testing techniques to detect logic flaws in multi-party business applicatons that tackle the shortcomings of the existing techniques. First, we present the verification via model checking of two security protocols. We then address the challenge of extending the results of the model checker to automatically test protocol implementations. Second, we present a novel black-box security testing technique that combines model inference, extraction of workflow and data flow patterns, and an attack pattern-based test case generation algorithm. Finally, we discuss the application of the technique developed in this thesis in an industrial setting. We used these techniques to discover previously-unknown design errors in SAML SSO and OpenID protocols, and ten logic vulnerabilities in eCommerce applications allowing an attacker to pay less or shop for free
APA, Harvard, Vancouver, ISO, and other styles
43

Kopka, Bernard. "Étude et validation d'une redondance homogène d'ordre deux à décalage temporel pour des applications à haut niveau de sécurité." Nancy 1, 1988. http://www.theses.fr/1988NAN10041.

Full text
Abstract:
L'objectif de ce travail est de proposer à des constructeurs des commances de machines à logique programmée une architecture redondante ayant un bon niveau de sécurité et présentant un coût de développement et de réalisation du même ordre de grandeur que ceux réalisés actuellement en logique électromécanique
APA, Harvard, Vancouver, ISO, and other styles
44

Labe, Alice. "Etude des mécanismes lésionnels de la région abdomino-pelvienne : applications à la traumatologie virtuelle et à la sécurité routière." Aix-Marseille 2, 2008. http://theses.univ-amu.fr.lama.univ-amu.fr/2008AIX22031.pdf.

Full text
Abstract:
Les régions abdominale et pelvienne sont des ensembles mécaniques complexes constitués de structures biologiques très différentes (de par leur composition, leur fonction ou leur mobilité). Les traumatismes du pelvis ou de l’abdomen sont fréquents, ils sont le plus souvent liés à des accidents de la route. La présence de structures rigides, d’organes vitaux et d’une riche vascularisation sont autant de facteurs aggravants qui entraînent un taux de mortalité élevé avec pour bilan clinique le plus fréquent une complication hémorragique ou infectieuse. Il nous parait vital de comprendre comment se déclenchent et se propagent ces traumatismes. Pour cela, nous avons choisi une approche numérique en développant un modèle éléments finis. Ce modèle sera un outil à la fois visuel et mécanique qui nous permettra de reproduire les mécanismes lésionnels du pelvis et de l’abdomen en situation de choc. La précision du modèle doit se faire aussi bien au niveau géométrique que mécanique. Il doit respecter la complexité anatomique des différentes structures et intégrer, en particulier, un réseau veineux et artériel réaliste. Au niveau mécanique, des propriétés adaptées à chaque tissu doivent être définies ainsi que les interactions et les effets dynamiques qui interviennent. La géométrie du modèle se base sur une technique d’analyse semi automatique d’images scanner qui a permis la reconstruction 3D. Le modèle est constitué au total de plus de 2 millions d’éléments (triangulaires et tétraédriques). La longueur caractéristique des éléments est comprise entre 1 et 2mm, elle a été choisie en fonction des plus petites structures nécessaires à modéliser et des contraintes numériques imposées par le code de calcul. La définition des cartes matériaux repose sur les données mécaniques accessibles dans la littérature et sur des essais expérimentaux permettant de caractériser le comportement de différents tissus biologiques humains. La validation s’est également effectuée sur la base d’essais expérimentaux. Des simulations d’impact sur pelvis ont mis en évidence un comportement mécanique complexe. Elles ont permis d’évaluer les traumatismes en reproduisant en particulier des profils de fracture réalistes. D’autres simulations sur organes isolés ont permis de définir des seuils de tolérance. Enfin, des simulations sur modèle complet (en choc frontal ou latéral) ont permis de reproduire des situations d’accidents réelles. Dans un premier temps les résultats sont comparés aux relevés expérimentaux puis, dans un second temps d’autres analyses permettent d’obtenir des données non accessibles par l’expérimentation : une chronologie des blessures et une évaluation des lésions sur l’ensemble des organes pelviens et abdominaux
Pelvic and abdominal segments are high complex mechanical structures. Tissues which it contains are very different in terms of composition, mechanical function or mobility. Pelvic or abdominal traumatisms are a frequent pathology mainly due to motor vehicles accidents. The proximity of rigid structures, vital organs and a rich vascularization is considered as a worsening factor. Pelvic fractures and organ lacerations often cause severe haemorrhages leading to a high mortality rate. Therefore, it is vital to clearly understand how such traumatisms initiate and propagate in order to develop effective treatment methods. Finite element models are very attractive candidates for such tasks because of their apparent advantages against experimental methods. The model we have chosen to develop should be a graphical and a mechanical tool which could reproduce injury mechanisms of the pelvis and the abdomen in crash situations. Developing finite element models able to perform such tasks is not trivial. Firstly, one needs a model that accurately reflects the geometry and material properties of the human abdominal and pelvic segments. Particularly, the model should integrate a realistic venous and arterial system. Moreover, mechanical properties should be adapted as well as interactions and dynamic effects. The model geometry was obtained by using a semi-automatic CT-scan image segmentation technique. The model is made of more than 2 million elements, composed of triangular and tetrahedron elements. Element size was set between 1 and 2 mm as a compromise between accuracy (to describe macroscopic failure processes) and computation time (constraints imposed by the solver). Material cards are defined on mechanical data accessible from the literature and on experimental tests able to characterise human biological behaviour tissues. Then, the model should be rigorously validated with experimental measures. Impact simulations on the pelvis highlighted a high complex mechanical behaviour. Realistic failure profiles were obtained which allowed to evaluate pelvic traumatisms. Tolerance thresholds were defined on experimental tests realised on isolated organs. Finally, real crash situations were reproduced with frontal and lateral simulations on the whole model. Results are first compared with experimental data. Then, larger analyses offer data which would not have been accessible experimentally : an injury chronology and an injury evaluation on all abdominal and pelvic organs
APA, Harvard, Vancouver, ISO, and other styles
45

Possemato, Andrea. "A Multidimensional Analysis of The Android Security Ecosystem." Electronic Thesis or Diss., Sorbonne université, 2021. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2021SORUS455.pdf.

Full text
Abstract:
Avec plus de 2,5 milliards d'appareils actifs basés sur Android, le système d'exploitation mobile de Google est désormais l'un des plus utilisés au monde.Malgré tous les efforts déployés par Google pour améliorer la sécurité de l'ensemble de l'écosystème Android, il existe encore plusieurs problèmes non résolus. Dans cette thèse, nous analysons en détail certains des problèmes ouverts qui affectent différents composants et acteurs qui font partie de l'écosystème Android. Nous commençons par l'analyse de la sécurité des communications réseau des applications Android, montrant comment, même si Android fournit plusieurs techniques pour sécuriser les communications réseau, les développeurs sont parfois obligés d'utiliser des protocoles en clair. Notre étude se poursuit par l'analyse d'un autre problème qui met en danger la sécurité et la vie privée de l'utilisateur. Nous analysons les vulnérabilités exploitées par les applications malveillantes pour réaliser des attaques de phishing et comment il n'y a toujours pas de système en place pour permettre aux applications de se protéger contre ces attaques. Enfin, nous analysons ce que nous pensons être un tres bon example de la difficulté d'assurer la sécurité dans un domaine aussi vaste qu'Android, en analysant comment les personnalisations, même si elles sont avantageuses pour les vendeurs, peuvent conduire à des problèmes de sécurité qui diminuent la sécurité globale du système Android. Dans cette thèse, pour chacun des problèmes, nous analysons le problème en détail, nous mesurons son ampleur et nous proposons une solution alternative dans le but de résoudre le problème et de faire un pas vers un écosystème Android plus sûr
With more than 2.5 billion active devices based on Android, Google's mobile operating system is now one of the most widely used in the world.Despite all the efforts made by Google to constantly improve the security of the entire Android ecosystem, there are still several problems that remain unresolved. In this thesis, we analyse in detail some of the open problems that affect different components and players that are part of and contribute to the Android ecosystem. We start with the security analysis of the network communication of Android applications, showing how, even if Android provides several techniques to secure network communications, developers sometimes are still forced to use cleartext protocols. Our study continues with the analysis of another issue that puts the security and privacy of the user at risk. We analyze the vulnerabilities exploited by malicious applications to perform phishing attacks and how there is still no system in place to allow applications to protect themselves against these attacks. Last, we analyze what we think may be the perfect representation of how difficult it is to ensure security in a domain as extensive as Android analyzing how customizations, even though beneficial to vendors, can lead to security problems that are lowering down the overall security of the Android system. In this thesis, for each of the problems, we analyze the issue in detail, we measure how widespread it is, and we propose an alternative solution with the aim of solving the problem, making a step towards a more secure Android ecosystem
APA, Harvard, Vancouver, ISO, and other styles
46

Allal, Salim. "Optimisation des échanges dans le routage géocast pour les réseaux de Véhicules Ad Hoc VANETs." Thesis, Paris 13, 2014. http://www.theses.fr/2014PA132056/document.

Full text
Abstract:
Les travaux réalisés dans cette thèse traitent de l'optimisation des échanges dans les réseaux véhiculaires sans fil en mode sans infrastructure Ad Hoc (VANETs). Les VANETs sont une partie des systèmes de transports intelligents (STIs).Ces derniers essaient de répondre à la question de comment équiper les véhicules de systèmes de communications sans fil pour éviter les accidents, mieux gérer les embouteillages et avoir des.impacts économiques, énergétiques et environnementaux positifs. Les VANETs utilisent les équipements mis en place dans les véhicules par les STI pour assurer des communications sans fil autonomes (IEEE 802.11p, 3G, LTE, etc) entre les véhicules ou entre les véhicules et les infrastructures fixes. Avec de tels mécanismes de communication, un véhicule peut échanger des informations avec ses voisins proches à un saut ou loin à deux sauts et plus grâce à la technique de relayage des messages de la source à la destination à travers les véhicules intermédiaires. Afin d'assurer un cheminement optimal de ces messages, des protocoles de routage existent. Dans ce travail, nous proposons un nouveau concept de routage de type géocast pour lequel la littérature ne répond pas. Le routage géocast dans la littérature permettant d'acheminer un message d'un véhicule source unique vers tous les véhicules situés dans une zone de destination géographique bien définie, nous avons proposée de scinder cette zone de destination en plusieurs sous-zones géographiques. La solution que nous avons proposé est le protocole GeoSUZ qui permet d'optimiser les échanges dans le contexte de routage géocast multi-zones de destination
Vehicular ad hoc networks (VANETs) are a part of intelligent transportation systems (ITS). These letter attempt to answer the question of how to equip vehicles with wireless communication means to avoid accidents, better manage congestion and have positive impact on economics, energy and environment. Indeed, with wireless communication mechanisms such as IEEE 802.11p, a vehicle may exchange information with its near neighbors at one hop or at two furthur hops trhough relaying messages technique across intermediate vehicles. Some of these messages may cover vehicles wich are in a defined geographical area and spread throughout the network will consume bandwidth and penalize other vehicles. This is the case for information on the road trafic, for example. In the latter case, routing protocols said Geocast are used for the dissemination of these messages. The protocols are used to route a message from a unique source to multiple destination vehicles locked in the same geographic area. In this thesis, we considered the case where we have several geographic areas of interest and have proposed a new Geocast routing mechanism, called GeoSUZ, for conveying a message optimally between a source and multiple destination areas. An optimized broadcasting mechanism within an area is also combined with GeoSUZ algorithm to ensure end-to-end routing with minimal overhead
APA, Harvard, Vancouver, ISO, and other styles
47

Uttha, Worachet. "Etude des politiques de sécurité pour les applications distribuées : le problème des dépendances transitives : modélisation, vérification et mise en oeuvre." Thesis, Aix-Marseille, 2016. http://www.theses.fr/2016AIXM4044/document.

Full text
Abstract:
Le contrôle d’accès est un ingrédient fondamental de la sécurité des systèmes d’information. Depuis les années 70, les travaux dans ce domaine ont apporté des solutions aux problèmes de confidentialités des données personnelles avec applications à différents environnements. Parmi les modèles de contrôle d’accès, nous nous intéressons au modèle basé sur les organisations (OrBAC) et nous en proposons une extension adaptée aux contextes distribués tels que les services web. Cette extension est capable de gérer les demandes d’accès transitifs. Ce cas peut se produire quand un service doit appeler un autre service qui peut avoir besoin d’en invoquer à son tour un ou plusieurs autres pour satisfaire la demande initiale. Nous appelons D-OrBAC (Distributed Organisation Based Access Control), l'extension du modèle OrBAC avec une notion de procuration représentée par un graphe de délégation, qui nous permet de représenter les accords entre les différentes organisations impliquées dans la chaîne d’invocations de services, et de garder la trace des autorisations transitives. Nous proposons aussi une technique d’analyse basée sur Datalog permettant de simuler des scénarios d’exécution et de vérifier l’existence de situations non sécurisées. Nous utilisons ensuite des techniques de réécriture pour assurer que la politique de sécurité spécifiée via le modèle D-OrBAC respecte les propriétés importantes telles que terminaison et consistance. Enfin, nous implémentons pour un cas d’étude, le mécanisme d’évaluation des demandes d’accès selon la norme XACML afin de montrer que notre solution est capable de fournir à la fois la fonctionnalité désirée et la sécurité nécessaire pour le système
The access control is a fundamental ingredient of computer security. Since the 70s, the research in this area has provided many solutions to the privacy issue of personal data with applications to different environments (operating systems, databases, etc.). Among many access control models, we are interested in the model based on organisations (OrBAC) and we propose an extension adapted to distributed environments such as web services. This extended model is able, in particular, to handle access transitive requests. This situation can occur when a service has to call another service that may need to invoke in turn one or more services to meet the initial demand.We call D-OrBAC (Distributed Organisation Based Access Control), the extension of OrBAC model with a notion of delegation represented by a delegation graph. This graph allows us to represent agreements between the different organisations involved in the chain of service invocations, and to keep track of transitive authorisations. We also propose an analytical technique based on Datalog that allows us to simulate execution of scenarios and to check for the existence of unsafe situations.Thereafter, we use rewriting techniques to ensure that the security policy specified via our D-OrBAC model complies with important properties such as termination and consistency. Finally, we implement for a case study, the mechanism of access request evaluations according to the XACML on the WSO2 Identity Server platform to show that our solution is able to provide both the desired functionality and the security for the system
APA, Harvard, Vancouver, ISO, and other styles
48

Touzeau, Valentin. "Analyse statique de caches LRU : complexité, analyse optimale, et applications au calcul de pire temps d'exécution et à la sécurité." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM041.

Full text
Abstract:
Dans le cadre des systèmes critiques, la certification de programmes temps-réel nécessite de borner leur temps d'exécution.Les mémoires caches impactant fortement la latence des accès mémoires, les outils de calcul de pire temps d'exécution incluent des analyses de cache.Ces analyses visent à prédire statiquement si ces accès aboutissent à des cache-hits ou des cache-miss.Ce problème étant indécidable en général, les analyses de caches emploient des abstractions pouvant mener à des pertes de précision.Une hypothèse habituelle pour rendre le problème décidable consiste à supposer que toutes les exécutions du programme sont réalisables.Cette hypothèse est raisonnable car elle ne met pas en cause la validité de l'analyse: tous les véritables chemins d'exécutions du programme sont couverts par l'analyse.Néanmoins, la classification des accès mémoires reste difficile en pratique malgré cette hypothèse, et les analyses de cache efficaces utilisent des approximations supplémentaires.Cette thèse s'intéresse à la possibilité de réaliser des analyses de cache de précision optimale sous l'hypothèse que tous les chemins sont faisables.Les problèmes de classification d'accès mémoires en hits et miss y sont définis formellement et nous prouvons qu'ils sont NP-difficiles, voire PSPACE-difficiles, pour les politiques de remplacement usuelles (LRU, FIFO, NMRU et PLRU).Toutefois, si ces résultats théoriques justifient l'utilisation d'abstractions supplémentaires, ils n'excluent pas l'existence d'un algorithme efficace en pratique pour des instances courantes dans l'industrie.Les abstractions usuelles ne permettent pas, en général, de classifier tous les accès mémoires en Always-Hit et Always-Miss.Certains sont alors classifiés Unknown par l'analyse de cache, et peuvent aboutir à des cache-hits comme à des cache-miss selon le chemin d'exécution emprunté.Cependant, il est aussi possible qu'un accès soit classifié comme Unknown alors qu'il mène toujours à un hit (ou un miss), à cause d'une approximation trop grossière.Nous proposons donc une nouvelle analyse de cache d'instructions LRU, capable de classifier certains accès comme Definitely Unknown, une nouvelle catégorie représentant les accès pouvant mener à un hit ou à un miss.On est alors certain que la classification de ces accès est due au programme et à la configuration du cache, et pas à une approximation peu précise.Par ailleurs, cette analyse réduit le nombre d'accès candidats à une reclassification par des analyses plus précises mais plus coûteuses.Notre principale contribution est une analyse capable de produire une classification de précision optimale.Celle-ci repose sur une méthode appelée block focusing qui permet le passage à l'échelle en analysant les blocs de cache un par un.Nous profitons ainsi de l'analyse de l'analyse Definitely Unknown, qui réduit le nombre de candidats à une classification plus précise.Cette analyse précise produit alors une classification optimale pour un coût raisonnable (proche du coût des analyses usuelles May et Must).Nous étudions également l'impact de notre analyse exacte sur l'analyse de pipeline.En effet, lorsqu'une analyse de cache ne parvient pas à classifier un accès comme Always-Hit ou Always-Miss, les deux cas (hit et miss) sont envisagés par l'analyse de pipeline.En fournissant une classification plus précise des accès mémoires, nous réduisons donc la taille de l'espace d'états de pipeline exploré, et donc le temps de l'analyse.Par ailleurs, cette thèse étudie la possibilité d'utiliser l'analyse Definitely Unknown dans le domaine de la sécurité.Les mémoires caches peuvent être utilisées comme canaux cachés pour extraire des informations de l'exécution d'un programme.Nous proposons une variante de l'analyse Definitely Unknown visant à localiser la source de certaines fuites d'information
The certification of real-time safety critical programs requires bounding their execution time.Due to the high impact of cache memories on memory access latency, modern Worst-Case Execution Time estimation tools include a cache analysis.The aim of this analysis is to statically predict if memory accesses result in a cache hit or a cache miss.This problem is undecidable in general, thus usual cache analyses perform some abstractions that lead to precision loss.One common assumption made to remove the source of undecidability is that all execution paths in the program are feasible.Making this hypothesis is reasonable because the safety of the analysis is preserved when adding spurious paths to the program model.However, classifying memory accesses as cache hits or misses is still hard in practice under this assumption, and efficient cache analysis usually involve additional approximations, again leading to precision loss.This thesis investigates the possibility of performing an optimally precise cache analysis under the common assumption that all execution paths in the program are feasible.We formally define the problems of classifying accesses as hits and misses, and prove that they are NP-hard or PSPACE-hard for common replacement policies (LRU, FIFO, NRU and PLRU).However, if these theoretical complexity results legitimate the use of additional abstraction, they do not preclude the existence of algorithms efficient in practice on industrial workloads.Because of the abstractions performed for efficiency reasons, cache analyses can usually classify accesses as Unknown in addition to Always-Hit (Must analysis) or Always-Miss (May analysis).Accesses classified as Unknown can lead to both a hit or a miss, depending on the program execution path followed.However, it can also be that they belong to one of the Always-Hit or Always-Miss category and that the cache analysis failed to classify them correctly because of a coarse approximation.We thus designed a new analysis for LRU instruction that is able to soundly classify some accesses into a new category, called Definitely Unknown, that represents accesses that can lead to both a hit or a miss.For those accesses, one knows for sure that their classification does not result from a coarse approximation but is a consequence of the program structure and cache configuration.By doing so, we also reduce the set of accesses that are candidate for a refined classification using more powerful and more costly analyses.Our main contribution is an analysis that can perform an optimally precise analysis of LRU instruction caches.We use a method called block focusing that allows an analysis to scale by only analyzing one cache block at a time.We thus take advantage of the low number of candidates for refinement left by our Definitely Unknown analysis.This analysis produces an optimal classification of memory accesses at a reasonable cost (a few times the cost of the usual May and Must analyses).We evaluate the impact of our precise cache analysis on the pipeline analysis.Indeed, when the cache analysis is not able to classify an access as Always-Hit or Always-Miss, the pipeline analysis must consider both cases.By providing a more precise memory access classification, we thus reduce the state space explored by the pipeline analysis and hence the WCET analysis time.Aside from this application of precise cache analysis to WCET estimation, we investigate the possibility of using the Definitely Unknown analysis in the domain of security.Indeed, caches can be used as side-channel to extract some sensitive data from a program execution, and we propose a variation of our Definitely Unknown analysis to help a developer finding the source of some information leakage
APA, Harvard, Vancouver, ISO, and other styles
49

Graux, Pierre. "Challenges of native android applications : obfuscation and vulnerabilities." Thesis, Rennes 1, 2020. http://www.theses.fr/2020REN1S047.

Full text
Abstract:
Android est le système d'exploitation le plus utilisé et donc, assurer la sécurité des applications est essentiel. Sécuriser une application consiste à empêcher les attaquants potentiels de corrompre le comportement attendu de l'application. En particulier, l'attaquant peut s'appuyer sur des vulnérabilités laissées dans le code par le développeur, mais aussi voler la propriété intellectuelle d'une application existante. Pour ralentir le travail de l'attaquant qui essaie de reverser la logique applicative, le développeur est incité à chercher les vulnérabilités potentielles et à introduire des contremesures dans le code. Parmi les contremesures possibles, l'obfuscation de code est une technique qui cache l'intention réelle du développeur en faisant en sorte de rendre le code non disponible à l'adversaire qui utilise des outils de reverser. Avec l'augmentation des applications soit malveillantes, soit manipulant des informations sensibles, obfusquer le code et chercher ses vulnérabilités devient essentiel. Cette thèse présente l'impact du code natif sur, à la fois le reversing et la recherche de vulnérabilités, appliqué à des applications Android. Premièrement, en listant les interférences possibles entre l'assembleur et le bytecode, nous mettons en évidence des nouvelles techniques d'obfuscation et vulnérabilités logicielles. Ensuite, nous proposons de nouvelles techniques d'analyse combinant des blocs d'analyse statiques et dynamiques, tels que la propagation de teintes ou la surveillance du système, afin d'observer le comportement du code qui a été obfusqué ou de révéler de nouvelles vulnérabilités. Ces deux objectifs nous ont menés à développer deux nouveaux outils. Le premier cible une vulnérabilité spécifique due à l'interaction du natif et des données Java. Le second extrait le comportement d'une application au niveau objet, que l'application contienne du code natif d'obfuscation ou non. Enfin, nous avons implémenté ces nouvelles méthodes et les avons évaluées expérimentalement. En particulier, nous avons trouvé automatiquement une vulnérabilité dans la librairie SSL d'Android et nous avons analysé plusieurs firmware Android pour détecter l'usage d'une classe spécifique d'obfuscation
Android is the most used operating system and thus, ensuring security for its applications is an essential task. Securing an application consists in preventing potential attackers to divert the normal behavior of the targeted application. In particular, the attacker may take advantage of vulnerabilities left by the developer in the code and also tries to steal intellectual property of existing applications. To slow down the work of attackers who try to reverse the logic of a released application, developers are incited to track potential vulnerabilities and to introduce countermeasures in the code. Among the possible countermeasures, the obfuscation of the code is a technique that hides the real intent of the developer by making the code unavailable to an adversary using a reverse engineering tool. With the growing amount of malware and applications carrying sensitive information, obfuscating the code and searching vulnerabilities becomes essential. This thesis presents the impact of native code on both reverse-engineering and vulnerability finding applied to Android applications. First, by listing the possible interferences between assembly and bytecode, we highlight new obfuscation techniques and software vulnerabilities. Then, we propose new analysis techniques combining static and dynamic analysis blocks, such as taint tracking or system monitoring, to observe the code behaviors that have been obfuscated or to reveal new vulnerabilities. These two objectives have led us to develop two new tools. The first one spots a specific vulnerability that comes from inconsistently mixing native and Java data. The second one extracts the object level behavior of an application, regardless of whether this application contains native code, embedded for obfuscation purposes. Finally, we implemented these new methods and conducted experimental evaluations. In particular, we automatically found a vulnerability in the Android SSL library and we analyzed several Android firmware to detect usage of a specific class of obfuscation
APA, Harvard, Vancouver, ISO, and other styles
50

Coulon, Bruno. "Les normes sécuritaires en milieu carcéral français : les théories et les applications : l'adaptation des normes au système carcéral et l'adaptabilité réciproque de ce système." Aix-Marseille 3, 2000. http://www.theses.fr/2000AIX32018.

Full text
Abstract:
Le systeme carceral francais montre un grand dynamisme. De nombreuses reformes transforment en profondeur son fonctionnement. A l'analyse de ce systeme, on s'apercoit du fait que ce dernier reagit plus qu'un autre a son environnement. En d'autres termes, l'environnement fait entrer dans le systeme des elements (informations, normes,. . . ) qui declenchent, incitent, stimulent, perturbent les fonctionnements internes, l'organisation du systeme prison ou au pire, creent des limites et des contraintes. L'ensemble subit des modifications plus ou moins profondes dans le temps, tout en conservant une certaine permanence. Dans le cadre de la recherche entreprise l'element d'intrusion choisi est "la norme". En observant le systeme carceral, on s'apercoit que l'entree d'une nouvelle norme (sur les fouilles ou la sante) et son application, au sein de la prison, entrainent une reaction de ce systeme. Dans un premier temps, la prison va tenter d'adapter la norme. Plus la norme sera contraignante, plus elle sera attaquee dans sa mise en oeuvre. Cependant, dans son effort d'adaptation et de soumission de la norme au systeme, la prison du fait des modifications induites ne reste pas neutre. Un phenomene d'adaptabilite reciproque du systeme se cree. Le systeme en adaptant, s'adapte et se modifie.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography