Siga este enlace para ver otros tipos de publicaciones sobre el tema: Sécurité Web.

Tesis sobre el tema "Sécurité Web"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 50 mejores tesis para su investigación sobre el tema "Sécurité Web".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Luo, Zhengqin. "Sémantique et sécurité des applications Web". Nice, 2011. http://www.theses.fr/2011NICE4058.

Texto completo
Resumen
Dans ce travail, nous étudions la sémantique formelle et des problèmes de sécurité des applications Web. La thèse est divisée en trois parties. La première partie propose une sémantique opérationnelle à petits pas pour un langage de programmation multiniveaux HOP, qui peut être utilisé pour raisonner globalement sur les applications Web. La sémantique couvre un cœur du langage HOP, y compris les générations dynamiques de code client, et les interactions entre les serveurs et les clients. La deuxième partie étudie une nouvelle technique pour empêcher automatiquement des attaques par injection de code, basé, sur la compilation multiniveaux. Nous ajoutons une nouvelle phase dans le compilateur pour comparer la structure de la syntaxe de la sortie. La validité de notre technique est prouvée correcte avec la sémantique opérationnelle de HOP. La dernière partie de la thèse propose Mashic, un compilateur source-à-source de Javascript pour isoler mashup par iframe sandbox et PostMessage dans le HTML5. Le compilateur est prouvé correct avec une sémantique formelle de JavaScript
In this work we study the formal semantics and security problems of Web applications. The thesis is divided into three parts. The first part proposes a small-step operational semantics for a multitier programing language HOP, which can be used to globally reasoning about Web applications. The semantics covers a core of the HOP language, including dynamic generations of client code, and interactions between servers and clients. The second part studies a new technique to automatically prevent code injection attacks, based on multitier compilation. We add a new phase in the compiler to compare the intended and the actual syntax structure of the output. The validity of our technique is proved correct in the operational semantics of HOP. The last part of the thesis studies Mashic, a source-to-source compiler of JavaScript to isolate untrusted script by ifram sandbox and postmessage in HTML5. The compiler is proved correct in a formal semantics of JavaScript
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Zahoor, Ehtesham. "Gouvernance de service : aspects sécurité et données". Phd thesis, Université Nancy II, 2011. http://tel.archives-ouvertes.fr/tel-00643552.

Texto completo
Resumen
Les travaux autour de la conception, de la vérification et de la surveillance de compositions de services Web forment un domaine de recherche très actif actuellement. Cependant, peu de ces travaux s'intéressent à la prise en compte globale des problématiques de composition, vérification et surveillance grâce à un formalisme unifié. Dans la thèse, nous proposons l'approche DISC qui est une approche déclarative unifiée utilisant un formalisme à base d'événements, et qui permet grâce à un formalisme unique de concevoir, de vérifier et de surveiller des compositions de services, réduisant ainsi les transformations nécessaires pour passer d'un formalisme à un autre. De plus, le formalisme utilisé permet de prendre en compte des aspects non fonctionnels tels que les données, les aspects temporels, ou certains aspects liés à la sécurité. L'approche permet en outre d'instancier et de vérifier des compositions de services, et d'exécuter et surveiller ces compositions lors de l'exécution. Enfin, les effets de violations lors de l'exécution de la composition peuvent être calculés, et un ensemble d'actions de recouvrement sont proposées, permettant aux compositions d'être en partie autonomes vis-à-vis des problèmes pouvant survenir à l'exécution.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Somé, Dolière Francis. "Sécurité et vie privée dans les applications web". Thesis, Université Côte d'Azur (ComUE), 2018. http://www.theses.fr/2018AZUR4085/document.

Texto completo
Resumen
Dans cette thèse, nous nous sommes intéressés aux problématiques de sécurité et de confidentialité liées à l'utilisation d'applications web et à l'installation d'extensions de navigateurs. Parmi les attaques dont sont victimes les applications web, il y a celles très connues de type XSS (ou Cross-Site Scripting). Les extensions sont des logiciels tiers que les utilisateurs peuvent installer afin de booster les fonctionnalités des navigateurs et améliorer leur expérience utilisateur. Content Security Policy (CSP) est une politique de sécurité qui a été proposée pour contrer les attaques de type XSS. La Same Origin Policy (SOP) est une politique de sécurité fondamentale des navigateurs, régissant les interactions entre applications web. Par exemple, elle ne permet pas qu'une application accède aux données d'une autre application. Cependant, le mécanisme de Cross-Origin Resource Sharing (CORS) peut être implémenté par des applications désirant échanger des données entre elles. Tout d'abord, nous avons étudié l'intégration de CSP avec la Same Origin Policy (SOP) et démontré que SOP peut rendre CSP inefficace, surtout quand une application web ne protège pas toutes ses pages avec CSP, et qu'une page avec CSP imbrique ou est imbriquée dans une autre page sans ou avec un CSP différent et inefficace. Nous avons aussi élucidé la sémantique de CSP, en particulier les différences entre ses 3 versions, et leurs implémentations dans les navigateurs. Nous avons ainsi introduit le concept de CSP sans dépendances qui assure à une application la même protection contre les attaques, quelque soit le navigateur dans lequel elle s'exécute. Finalement, nous avons proposé et démontré comment étendre CSP dans son état actuel, afin de pallier à nombre de ses limitations qui ont été révélées dans d'autres études. Les contenus tiers dans les applications web permettent aux propriétaires de ces contenus de pister les utilisateurs quand ils naviguent sur le web. Pour éviter cela, nous avons introduit une nouvelle architecture web qui une fois déployée, supprime le pistage des utilisateurs. Dans un dernier temps, nous nous sommes intéressés aux extensions de navigateurs. Nous avons d'abord démontré que les extensions qu'un utilisateur installe et/ou les applications web auxquelles il se connecte, peuvent le distinguer d'autres utilisateurs. Nous avons aussi étudié les interactions entre extensions et applications web. Ainsi avons-nous trouvé plusieurs extensions dont les privilèges peuvent être exploités par des sites web afin d'accéder à des données sensibles de l'utilisateur. Par exemple, certaines extensions permettent à des applications web d'accéder aux contenus d'autres applications, bien que cela soit normalement interdit par la Same Origin Policy. Finalement, nous avons aussi trouvé qu'un grand nombre d'extensions a la possibilité de désactiver la Same Origin Policy dans le navigateur, en manipulant les entêtes CORS. Cela permet à un attaquant d'accéder aux données de l'utilisateur dans n'importe qu'elle autre application, comme par exemple ses mails, son profile sur les réseaux sociaux, et bien plus. Pour lutter contre ces problèmes, nous préconisons aux navigateurs un système de permissions plus fin et une analyse d'extensions plus poussée, afin d'alerter les utilisateurs des dangers réels liés aux extensions
In this thesis, we studied security and privacy threats in web applications and browser extensions. There are many attacks targeting the web of which XSS (Cross-Site Scripting) is one of the most notorious. Third party tracking is the ability of an attacker to benefit from its presence in many web applications in order to track the user has she browses the web, and build her browsing profile. Extensions are third party software that users install to extend their browser functionality and improve their browsing experience. Malicious or poorly programmed extensions can be exploited by attackers in web applications, in order to benefit from extensions privileged capabilities and access sensitive user information. Content Security Policy (CSP) is a security mechanism for mitigating the impact of content injection attacks in general and in particular XSS. The Same Origin Policy (SOP) is a security mechanism implemented by browsers to isolate web applications of different origins from one another. In a first work on CSP, we analyzed the interplay of CSP with SOP and demonstrated that the latter allows the former to be bypassed. Then we scrutinized the three CSP versions and found that a CSP is differently interpreted depending on the browser, the version of CSP it implements, and how compliant the implementation is with respect to the specification. To help developers deploy effective policies that encompass all these differences in CSP versions and browsers implementations, we proposed the deployment of dependency-free policies that effectively protect against attacks in all browsers. Finally, previous studies have identified many limitations of CSP. We reviewed the different solutions proposed in the wild, and showed that they do not fully mitigate the identified shortcomings of CSP. Therefore, we proposed to extend the CSP specification, and showed the feasibility of our proposals with an example of implementation. Regarding third party tracking, we introduced and implemented a tracking preserving architecture, that can be deployed by web developers willing to include third party content in their applications while preventing tracking. Intuitively, third party requests are automatically routed to a trusted middle party server which removes tracking information from the requests. Finally considering browser extensions, we first showed that the extensions that users install and the websites they are logged into, can serve to uniquely identify and track them. We then studied the communications between browser extensions and web applications and demonstrate that malicious or poorly programmed extensions can be exploited by web applications to benefit from extensions privileged capabilities. Also, we demonstrated that extensions can disable the Same Origin Policy by tampering with CORS headers. All this enables web applications to read sensitive user information. To mitigate these threats, we proposed countermeasures and a more fine-grained permissions system and review process for browser extensions. We believe that this can help browser vendors identify malicious extensions and warn users about the threats posed by extensions they install
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Kamel, Nassima. "Sécurité des cartes à puce à serveur Web embarqué". Limoges, 2012. https://aurore.unilim.fr/theses/nxfile/default/9dc553cd-e9df-4530-a716-d3191d68dfa0/blobholder:0/2012LIMO4039.pdf.

Texto completo
Resumen
Les cartes à puces sont des dispositifs sécurisés, de plus en plus utilisés dans le monde. Leur succès est principalement dû à leur aspect tamper-resistant qui permet de stocker des informations sensibles (clés de chiffrement) de manière sécurisée. Vu les nombreux sensibles domaines d’utilisation des cartes à puce (bancaire, médical, téléphonie), plusieurs recherches se sont intéressés à la sécurité et aux attaques possibles sur ces dispositifs. La nouvelle génération de cartes à puce définit un serveur Web embarqué. Il existe principalement deux types de spécifications pour ces nouveaux dispositifs, la première a été établie par l’organisation OMA qui propose un simple serveur HTTP nommé Smart Card Web Serveur (SCWS) indépendant de la plateforme d’exécution. La seconde est une nouvelle version de Java Card proposée par Sun Microsystems (actuellement Oracle), nommée Java Card 3, édition connectée ; elle inclue le support de l’API Java servlet 2. 4, et une amélioration significativement de l’API Java Card (thread, String, etc. ) et des fonctionnalités de sécurité supportées. L’intégration du serveur Web dans la carte à puce apporte un ensemble d’avantages et définit un nouvel usage de la carte à puce. En effet, en plus de l’aspect authentification robuste que la carte peut désormais fournir sur le réseau, l’utilisation des standards du Web permet d’avoir une expérience utilisateur continue et enrichit l’aspect et la convivialité des interfaces fournies via un navigateur Web. Face à ces avantages, les risques d’attaques augmentent. En plus des attaques classiques connues sur les cartes à puce (physiques et logiques), certaines attaques Web connues sur des applications Web standards peuvent se reproduire sur les cartes à puce. Parmi ces attaques, la Cross Site Scripting (appelée aussi XSS) est l’une des plus répandues ; elle est simple à réaliser mais ses conséquences peuvent être très graves. Cette attaque exploite des applications vulnérables qui ne filtrent pas les données non fiables (entrée par un utilisateur) avant de les utiliser. Elle consiste à injecter un code malicieux dans une entrée fournie par l’application, qui est ensuite retourné dans une ressource de l’application et exécuté dans le navigateur Web de la victime. D’autre part, les spécifications des cartes à serveur Web embarqué définissent des protocoles (HTTP, BIP, TCP/IP) qui doivent nécessairement être implémentés pour assurer la communication de la carte avec le navigateur Web et sur le réseau. Des failles d’implémentation de ces protocoles peuvent engendrer des vulnérabilités facilitant les attaques sur les cartes à puce. Dans cette thèse nous nous intéressons à la sécurité des cartes à puce à serveur Web embarqué à deux niveaux. Le premier concerne la sécurité des applications Web contre des attaques XSS. Nous proposons dans ce cadre un outil d’analyse statique des applications Web Java Card 3, qui a pour objectif de vérifier qu’une application est sécurisée contre ces attaques, incluant un filtrage des données non fiables. Notre outil peut être considéré comme un outil de certification de la robustesse des applications Web avant leur chargement dans la carte. Nous avons également implémenté une API de filtrage que le développeur peut importer dans son application. Le second niveau de sécurité exploré, concerne l’implémentation du protocole HTTP; nous suggérons un outil de fuzzing pour tester la conformité et la robustesse du protocole HTTP implémenté dans une carte. Cet outil apporte un ensemble d’optimisations qui réduit le temps du fuzzing et génère des données de test de manière intelligente
Smart cards are widely used secure devices in today’s world, which can store data in a secured manner and ensure data security during transactions. The success of smart card is mainly due to their tamper-resistant nature which allows them to store sensitive data’s like cryptographic keys. Since they are using in multiple secure domains, like banking, health insurance, etc. More and more researches are taken place in this domain for security and attacks. The last generation of smart card, defines an embedded web server. There are two types of specifications for these devices, the first one is defined by OMA organisation that propose a simple HTTP web server named Smart Card Web Server (SCWS), the second is proposed by Sun Microsystems (currently Oracle), consists of a Java card 3 connected edition platform, that includes a Java servlet 2. 4 API with improved Java Card API and security features. In addition to network benefits from the robustness of smart card, the use of web standards provide a continuous user experience, equivalent to that seen while surfing on the internet and it enhances the look and feel of GUI interfaces. The GUI interfaces are accessible from a browser which is located on the terminal on which the card is connected. However, in addition to the classical attacks (physical and logical), the integration of web server on smart card, exposes the smart card to some existing classical web application attacks. The most important one is the cross site scripting attack, also named XSS. It consists of injecting malicious data to the given web application inputs and if the resource returned to the browser includes the malicious code, it will be interpreted and executed, causing an attack. A web application is vulnerable to XSS if it uses an untrusted data without filtering malicious characters before. On the other hand, to ensure the communication between web applications and browser or other network entities, it is necessary to integrate some protocols to the smart card, for example HTTP, BIP or TCP/IP. The vulnerabilities in the implementation of these protocols can facilitate some attacks. Our contribution on this thesis is divided in two parts, in the first part, we are interested on the security of web applications against XSS attack. We suggest a static analysis tool, based on tainting approach, that allow to verify if a web application is secured or not, including filtering data in all insertion points where XSS is possible. We also implement, an API filter, compatible with Java Card 3 platform, that developers can import during the development of their applications. The second part consists of verifying the conformance and the robustness of the implemented HTTP protocol. For that we propose an intelligent fuzzing tool that includes a set of optimisations that allows to reduce the time of fuzzing
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Scholte, Theodoor. "Amélioration de la sécurité par la conception des logiciels web". Thesis, Paris, ENST, 2012. http://www.theses.fr/2012ENST0024/document.

Texto completo
Resumen
L'internet est devenu un environnement omniprésent dans le monde du travail et du loisir. La popularité sans cesse croissante des applications web ainsi que des services associés entraînent l'exécution de nombreuses transactions critiques, qui soulèvent des questions de sécurité. Du fait de cette croissance, des efforts ont été entrepris durant cette dernière décennie pour rendre les applications web plus sûres. Malgré ces efforts, de récents rapports provenant de l'institut SANS estiment que plus de 60 % des attaques commises sur l'Internet ciblent les applications web en se concentrant sur les vulnérabilités inhérentes aux problèmes de validation, comme le Cross-Site Scripting ou les injections SQL. Dans cette thèse, nous avons conduit deux études de recherche empirique, analysant un grand nombre d'application web vulnérables. Nous avons assemblé une base de données contenant plus de 10.000 rapports de vulnérabilités depuis l'an 2000. Ensuite, nous avons analysé ces données pour déterminer si les développeurs ont pris conscience des problématiques de sécurité web de nos jours, comparé à la période où ces applications émergeaient. Puis nous avons analysé l'étroit lien entre le langage de programmation utilisé pour développer l'application web et le nombre de vulnérabilité reporté. Avec ces résultats empiriques comme base, nous présentons notre solution IPAAS qui aide les développeurs novice en termes de sécurité à écrire des applications sécurisées par défaut. Nous montrons par ailleurs que cette technique améliore de manière probante la sécurité des applications web
The web has become a backbone of our industry and daily life. The growing popularity of web applications and services and the increasing number of critical transactions being performed, has raised security concerns. For this reason, much effort has been spent over the past decade to make web applications more secure. Despite these efforts, recent data from SANS institute estimates that up to 60% of Internet attacks target web applications and critical vulnerabilities such as cross-site scripting and SQL injection are still very common. In this thesis, we conduct two empirical studies on a large number of web applications vulnerabilities with the aim of gaining deeper insights in how input validation flaws have evolved in the past decade and how these common vulnerabilities can be prevented. Our results suggest that the complexity of the attacks have not changed significantly and that many web problems are still simple in nature. Our studies also show that most SQL injection and a significant number of cross-site scripting vulnerabilities can be prevented using straight-forward validation mechanisms based on common data types. With these empirical results as foundation, we present IPAAS which helps developers that are unaware of security issues to write more secure web applications than they otherwise would do. It includes a novel technique for preventing the exploitation of cross-site scripting and SQL injection vulnerabilities based on automated data type detection of input parameters. We show that this technique results in significant and tangible security improvements for real web applications
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Scholte, Theodoor. "Amélioration de la sécurité par la conception des logiciels web". Electronic Thesis or Diss., Paris, ENST, 2012. http://www.theses.fr/2012ENST0024.

Texto completo
Resumen
L'internet est devenu un environnement omniprésent dans le monde du travail et du loisir. La popularité sans cesse croissante des applications web ainsi que des services associés entraînent l'exécution de nombreuses transactions critiques, qui soulèvent des questions de sécurité. Du fait de cette croissance, des efforts ont été entrepris durant cette dernière décennie pour rendre les applications web plus sûres. Malgré ces efforts, de récents rapports provenant de l'institut SANS estiment que plus de 60 % des attaques commises sur l'Internet ciblent les applications web en se concentrant sur les vulnérabilités inhérentes aux problèmes de validation, comme le Cross-Site Scripting ou les injections SQL. Dans cette thèse, nous avons conduit deux études de recherche empirique, analysant un grand nombre d'application web vulnérables. Nous avons assemblé une base de données contenant plus de 10.000 rapports de vulnérabilités depuis l'an 2000. Ensuite, nous avons analysé ces données pour déterminer si les développeurs ont pris conscience des problématiques de sécurité web de nos jours, comparé à la période où ces applications émergeaient. Puis nous avons analysé l'étroit lien entre le langage de programmation utilisé pour développer l'application web et le nombre de vulnérabilité reporté. Avec ces résultats empiriques comme base, nous présentons notre solution IPAAS qui aide les développeurs novice en termes de sécurité à écrire des applications sécurisées par défaut. Nous montrons par ailleurs que cette technique améliore de manière probante la sécurité des applications web
The web has become a backbone of our industry and daily life. The growing popularity of web applications and services and the increasing number of critical transactions being performed, has raised security concerns. For this reason, much effort has been spent over the past decade to make web applications more secure. Despite these efforts, recent data from SANS institute estimates that up to 60% of Internet attacks target web applications and critical vulnerabilities such as cross-site scripting and SQL injection are still very common. In this thesis, we conduct two empirical studies on a large number of web applications vulnerabilities with the aim of gaining deeper insights in how input validation flaws have evolved in the past decade and how these common vulnerabilities can be prevented. Our results suggest that the complexity of the attacks have not changed significantly and that many web problems are still simple in nature. Our studies also show that most SQL injection and a significant number of cross-site scripting vulnerabilities can be prevented using straight-forward validation mechanisms based on common data types. With these empirical results as foundation, we present IPAAS which helps developers that are unaware of security issues to write more secure web applications than they otherwise would do. It includes a novel technique for preventing the exploitation of cross-site scripting and SQL injection vulnerabilities based on automated data type detection of input parameters. We show that this technique results in significant and tangible security improvements for real web applications
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Mohamed, El-Marouf Ahmed. "Mesure de distance entre politiques de sécurité dans un service Web". Master's thesis, Université Laval, 2015. http://hdl.handle.net/20.500.11794/25929.

Texto completo
Resumen
La contribution principale de ce document est de suggérer une nouvelle méthode pour mesurer le degré de similarité entre politiques de sécurité écrites en XACML. Ceci est réalisé en deux étapes : premièrement, la politique de sécurité XACML est formalisée en SPL, deuxièmement les résultats obtenus vont servir pour mesurer la distance entre politiques. Le choix de la distance à utiliser dépend des types de prédicats (catégoriques ou numériques). De ce fait, un tableau synthétique a été prévu pour repartir les différentes métriques qui sont calculées dans ce document selon leurs prédicats. Un prototype a été codé en PHP et implémenté pour valider notre contribution. Des recommandations ont été émises en conclusion pour enrichir l’approche proposée.
The main contribution of this paper is to suggest a new method to measure the similarity between security policies written in XACML. This is done in two steps: first the safety policy is formalized in SPL, secondly the results will be used to measure the distance between policies. The choice of the distance to use depends on the types of predicates (categorical or numeric). Thus, a synthetic table is provided to link the different metrics that are calculated in accordance with their predicate. A prototype has been coded in PHP and implemented to validate our contribution. Recommendations were issued in conclusion to enrich the proposed approach.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Mekki, Mohamed-Anis. "Synthèse et compilation de services web sécurisés". Thesis, Nancy 1, 2011. http://www.theses.fr/2011NAN10123/document.

Texto completo
Resumen
La composition automatique de services web est une tâche difficile. De nombreux travaux ont considérés des modèles simplifiés d'automates qui font abstraction de la structure des messages échangés par les services. Pour le domaine des services sécurisés nous proposons une nouvelle approche pour automatiser la composition des services basée sur leurs politiques de sécurité. Étant donnés, une communauté de services et un service objectif, nous réduisons le problème de la synthèse de l'objectif à partir des services dans la communauté à un problème de sécurité, où un intrus que nous appelons médiateur doit intercepter et rediriger les messages depuis et vers la communauté de services et un service client jusqu'à atteindre un état satisfaisant pour le dernier. Nous avons implémenté notre algorithme dans la plateforme de validation du projet AVANTSSAR et nous avons testé l'outil correspondant sur plusieurs études de cas. Ensuite, nous présentons un outil qui compile les traces obtenues décrivant l'exécution d'un médiateur vers le code exécutable correspondant. Pour cela nous calculons d'abord une spécification exécutable aussi prudente que possible de son rôle dans l'orchestration. Cette spécification est exprimé en ASLan, un langage formel conçu pour la modélisation des services Web liés à des politiques de sécurité. Ensuite, nous pouvons vérifier avec des outils automatiques que la spécification ASLan obtenue vérifie certaines propriétés requises de sécurité telles que le secret et l'authentification. Si aucune faille n'est détectée, nous compilons la spécification ASLan vers une servlet Java qui peut être utilisé par le médiateur pour contrôler l'orchestration
Automatic composition of web services is a challenging task. Many works have considered simplified automata models that abstract away from the structure of messages exchanged by the services. For the domain of secured services we propose a novel approach to automated composition of services based on their security policies. Given a community of services and a goal service, we reduce the problem of composing the goal from services in the community to a security problem where an intruder we call mediator should intercept and redirect messages from the service community and a client service till reaching a satisfying state. We have implemented the algorithm in AVANTSSAR Platform and applied the tool to several case studies. Then we present a tool that compiles the obtained trace describing the execution of a the mediator into its corresponding runnable code. For that we first compute an executable specification as prudent as possible of her role in the orchestration. This specification is expressed in ASLan language, a formal language designed for modeling Web Services tied with security policies. Then we can check with automatic tools that this ASLan specification verifies some required security properties such as secrecy and authentication. If no flaw is found, we compile the specification into a Java servlet that can be used by the mediatior to lead the orchestration
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Ouedraogo, Wendpanga Francis. "Gestionnaire contextualisé de sécurité pour des « Process 2.0 »". Thesis, Lyon, INSA, 2013. http://www.theses.fr/2013ISAL0132/document.

Texto completo
Resumen
Compte tenu de l’environnement économique globalisé et de plus en plus concurrentiel, les entreprises et en particulier les PME/PMI, pour rester compétitif,doivent développer de nouvelles stratégie de collaborations (intra et inter-entreprises) et se restructurer pour rendre leur organisation et le système d’information agile. Alors que jusqu'à présent le Web 2.0 permettait de collaborer sur les données elles-mêmes, nous proposons de passer à une logique de « process 2.0 » permettant de rechercher / composer sémantiquement des services existants pour collaborer directement en partageant des fonctionnalités et non plus seulement des données. Couplé au développement du Cloud Computing, facilitant l’hébergement, une telle stratégie permettrait de coupler plus fortement les niveaux SaaS et PaaS. Toutefois, ceci pose d’évidents problèmes de gestion des contraintes de sécurité. Le développement de stratégies de sécurité est usuellement basé sur une analyse systématique des risques afin de les réduire en adoptant des contre-mesures. Ces approches sont lourdes, complexes à mettre en œuvre et sont souvent rendues caduques car les risques sont évalués dans un monde « fermé », ce qui n’est pas le cas d’une approche par composition de services métier réutilisable où le contexte d’utilisation des différents services au niveau métier et plateforme est inconnu a priori. Dans ce type d’approche, le contexte au niveau métier évoque à la fois les fonctionnalités apportées par chaque service, l’organisation (Qui fait à quoi ?) et l’enchainement de ces services ainsi que les types de données (d’ordre stratégique ou pas,..) que manipulent ces services. Au niveau plateforme, le contexte dépend de l’environnement (privé, public,..) dans lequel les services vont s’exécuter. C’est donc sur la base de l’analyse du contexte que l’on peut définir les contraintes de sécurités propres à chaque service métier, pouvoir spécifier les politiques de sécurités adéquates et mettre en œuvre les moyens de sécurisation adaptés. En outre, il est aussi nécessaire de pouvoir propager les politiques de sécurités sur tout le processus afin d’assurer la cohérence et une sécurité globale lors de l’exécution du processus. Pour répondre à ces enjeux, nous proposons d’étudier la définition des politiques de sécurité à base de « patrons » apportant une réponse graduée en fonction de la confiance que l’on a sur l’environnement. Ainsi des patrons de sécurité qui répondent à des besoins de sécurité métiers et à des besoins de sécurité plateforme seront définis et permettront d’exprimer l’ensemble des politiques de sécurité. La sélection et de mise en œuvre de ces politiques de sécurités se feront à partir de patrons de contexte. Notre proposition simple à appréhender par des non spécialistes, permettra, par des transformations de modèles, d’intégrer ces politiques au niveau technologique afin de garantir un niveau de qualité de protection constant quel que soit l’environnement de déploiement
To fit the competitive and globalized economic environment, companies and especially SMEs / SMIs are more and more involved in collaborative strategies, requiring organizational adaptation to fit this openness constraints and increase agility (i.e. the ability to adapt and fit the structural changes). While the Web 2.0 allows sharing data (images, knowledge, CV, micro-blogging, etc...) and while SOA aims at increasing service re-using rate and service interoperability, no process sharing strategies are developed. To overcome this limit, we propose to share processes as well to set a "process 2.0" framework allowing sharing activities. This will support an agile collaborative process enactment by searching and composing services depending on the required business organization and the service semantics. Coupled with the cloud computing deployment opportunity, this strategy will lead to couple more strongly Business, SaaS and PaaS levels. However, this challenges security constraints management in a dynamic environment. The development of security policies is usually based on a systematic risks analysis, reducing them by adopting appropriate countermeasures. These approaches are complex and as a consequence difficult to implement by end users. Moreover risks are assessed in a "closed" and static environment so that these methods do not fit the dynamic business services composition approach, as services can be composed and run in different business contexts (including the functionalities provided by each service, the organization (Who does what?), the coordination between these services and also the kind of data (strategic or no...) that are used and exchanged) and runtime environment (public vs private platform…). By analyzing these contextual information, we can define specific security constraints to each business service, specify the convenient security policies and implement appropriate countermeasures. In addition, it is also necessary to be able to propagate the security policies throughout the process to ensure consistency and overall security during the process execution. To address these issues, we propose to study the definition of security policies coupling Model Driven Security and Pattern based engineering approach to generate and deploy convenient security policies and protection means depending on the (may be untrusted) runtime environment. To this end, we propose a set of security patterns which meet the business and platform related security needs to set the security policies. The selection and the implementation of these security policies will be achieved thank to context-based patterns. Simple to understand by non-specialists, these patterns will be used by the model transformation process to generate these policies in a Model@Runtime strategy so that security services will be selected and orchestrated at runtime to provide a constant quality of protection (independent of the deployment)
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Makiou, Abdelhamid. "Sécurité des applications Web : Analyse, modélisation et détection des attaques par apprentissage automatique". Thesis, Paris, ENST, 2016. http://www.theses.fr/2016ENST0084/document.

Texto completo
Resumen
Les applications Web sont l’épine dorsale des systèmes d’information modernes. L’exposition sur Internet de ces applications engendre continuellement de nouvelles formes de menaces qui peuvent mettre en péril la sécurité de l’ensemble du système d’information. Pour parer à ces menaces, il existe des solutions robustes et riches en fonctionnalités. Ces solutions se basent sur des modèles de détection des attaques bien éprouvés, avec pour chaque modèle, des avantages et des limites. Nos travaux consistent à intégrer des fonctionnalités de plusieurs modèles dans une seule solution afin d’augmenter la capacité de détection. Pour atteindre cet objectif, nous définissons dans une première contribution, une classification des menaces adaptée au contexte des applications Web. Cette classification sert aussi à résoudre certains problèmes d’ordonnancement des opérations d’analyse lors de la phase de détection des attaques. Dans une seconde contribution, nous proposons une architecture de filtrage des attaques basée sur deux modèles d’analyse. Le premier est un module d’analyse comportementale, et le second utilise l’approche d’inspection par signature. Le principal défi à soulever avec cette architecture est d’adapter le modèle d’analyse comportementale au contexte des applications Web. Nous apportons des réponses à ce défi par l’utilisation d’une approche de modélisation des comportements malicieux. Ainsi, il est possible de construire pour chaque classe d’attaque son propre modèle de comportement anormal. Pour construire ces modèles, nous utilisons des classifieurs basés sur l’apprentissage automatique supervisé. Ces classifieurs utilisent des jeux de données d’apprentissage pour apprendre les comportements déviants de chaque classe d’attaques. Ainsi, un deuxième verrou en termes de disponibilité des données d’apprentissage a été levé. En effet, dans une dernière contribution, nous avons défini et conçu une plateforme de génération automatique des données d’entrainement. Les données générées par cette plateforme sont normalisées et catégorisées pour chaque classe d’attaques. Le modèle de génération des données d’apprentissage que nous avons développé est capable d’apprendre "de ses erreurs" d’une manière continue afin de produire des ensembles de données d’apprentissage de meilleure qualité
Web applications are the backbone of modern information systems. The Internet exposure of these applications continually generates new forms of threats that can jeopardize the security of the entire information system. To counter these threats, there are robust and feature-rich solutions. These solutions are based on well-proven attack detection models, with advantages and limitations for each model. Our work consists in integrating functionalities of several models into a single solution in order to increase the detection capacity. To achieve this objective, we define in a first contribution, a classification of the threats adapted to the context of the Web applications. This classification also serves to solve some problems of scheduling analysis operations during the detection phase of the attacks. In a second contribution, we propose an architecture of Web application firewall based on two analysis models. The first is a behavioral analysis module, and the second uses the signature inspection approach. The main challenge to be addressed with this architecture is to adapt the behavioral analysis model to the context of Web applications. We are responding to this challenge by using a modeling approach of malicious behavior. Thus, it is possible to construct for each attack class its own model of abnormal behavior. To construct these models, we use classifiers based on supervised machine learning. These classifiers use learning datasets to learn the deviant behaviors of each class of attacks. Thus, a second lock in terms of the availability of the learning data has been lifted. Indeed, in a final contribution, we defined and designed a platform for automatic generation of training datasets. The data generated by this platform is standardized and categorized for each class of attacks. The learning data generation model we have developed is able to learn "from its own errors" continuously in order to produce higher quality machine learning datasets
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Makiou, Abdelhamid. "Sécurité des applications Web : Analyse, modélisation et détection des attaques par apprentissage automatique". Electronic Thesis or Diss., Paris, ENST, 2016. http://www.theses.fr/2016ENST0084.

Texto completo
Resumen
Les applications Web sont l’épine dorsale des systèmes d’information modernes. L’exposition sur Internet de ces applications engendre continuellement de nouvelles formes de menaces qui peuvent mettre en péril la sécurité de l’ensemble du système d’information. Pour parer à ces menaces, il existe des solutions robustes et riches en fonctionnalités. Ces solutions se basent sur des modèles de détection des attaques bien éprouvés, avec pour chaque modèle, des avantages et des limites. Nos travaux consistent à intégrer des fonctionnalités de plusieurs modèles dans une seule solution afin d’augmenter la capacité de détection. Pour atteindre cet objectif, nous définissons dans une première contribution, une classification des menaces adaptée au contexte des applications Web. Cette classification sert aussi à résoudre certains problèmes d’ordonnancement des opérations d’analyse lors de la phase de détection des attaques. Dans une seconde contribution, nous proposons une architecture de filtrage des attaques basée sur deux modèles d’analyse. Le premier est un module d’analyse comportementale, et le second utilise l’approche d’inspection par signature. Le principal défi à soulever avec cette architecture est d’adapter le modèle d’analyse comportementale au contexte des applications Web. Nous apportons des réponses à ce défi par l’utilisation d’une approche de modélisation des comportements malicieux. Ainsi, il est possible de construire pour chaque classe d’attaque son propre modèle de comportement anormal. Pour construire ces modèles, nous utilisons des classifieurs basés sur l’apprentissage automatique supervisé. Ces classifieurs utilisent des jeux de données d’apprentissage pour apprendre les comportements déviants de chaque classe d’attaques. Ainsi, un deuxième verrou en termes de disponibilité des données d’apprentissage a été levé. En effet, dans une dernière contribution, nous avons défini et conçu une plateforme de génération automatique des données d’entrainement. Les données générées par cette plateforme sont normalisées et catégorisées pour chaque classe d’attaques. Le modèle de génération des données d’apprentissage que nous avons développé est capable d’apprendre "de ses erreurs" d’une manière continue afin de produire des ensembles de données d’apprentissage de meilleure qualité
Web applications are the backbone of modern information systems. The Internet exposure of these applications continually generates new forms of threats that can jeopardize the security of the entire information system. To counter these threats, there are robust and feature-rich solutions. These solutions are based on well-proven attack detection models, with advantages and limitations for each model. Our work consists in integrating functionalities of several models into a single solution in order to increase the detection capacity. To achieve this objective, we define in a first contribution, a classification of the threats adapted to the context of the Web applications. This classification also serves to solve some problems of scheduling analysis operations during the detection phase of the attacks. In a second contribution, we propose an architecture of Web application firewall based on two analysis models. The first is a behavioral analysis module, and the second uses the signature inspection approach. The main challenge to be addressed with this architecture is to adapt the behavioral analysis model to the context of Web applications. We are responding to this challenge by using a modeling approach of malicious behavior. Thus, it is possible to construct for each attack class its own model of abnormal behavior. To construct these models, we use classifiers based on supervised machine learning. These classifiers use learning datasets to learn the deviant behaviors of each class of attacks. Thus, a second lock in terms of the availability of the learning data has been lifted. Indeed, in a final contribution, we defined and designed a platform for automatic generation of training datasets. The data generated by this platform is standardized and categorized for each class of attacks. The learning data generation model we have developed is able to learn "from its own errors" continuously in order to produce higher quality machine learning datasets
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Al-Kassar, Feras. "Testability Tarpits - Navigating the Challenges of Static Tools in Web Applications". Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS675.

Texto completo
Resumen
L'objectif de cette thèse était d'évaluer l'efficacité d'une combinaison de scanners de sécurité commerciaux et open source. Grâce à l'expérimentation, nous avons identifié divers modèles de code qui entravent la capacité des outils de pointe à analyser les projets. En détectant ces modèles au cours du cycle de développement des logiciels, notre approche peut offrir aux développeurs un retour d'information précieux sur la testabilité de leur code. En outre, elle leur permet d'évaluer plus précisément le risque résiduel que leur code puisse encore contenir des vulnérabilités, même si les analyseurs statiques ne font état d'aucune découverte. Notre approche suggère également des méthodes alternatives pour transformer le code et améliorer sa testabilité pour SAST
The goal of this thesis was to evaluate the effectiveness of a combination of commercial and open source security scanners. Through experimentation, we identified various code patterns that hinder the ability of state-of-the-art tools to analyze projects. By detecting these patterns during the software development lifecycle, our approach can offer valuable feedback to developers regarding the testability of their code. Additionally, it enables them to more accurately evaluate the residual risk that their code might still contain vulnerabilities, even if static analyzers report no findings. Our approach also suggests alternative methods to transform the code and enhance its testability for SAST
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Boumlik, Laila. "Renforcement formel et automatique de politiques de sécurité dans la composition des services Web". Doctoral thesis, Université Laval, 2021. http://hdl.handle.net/20.500.11794/69595.

Texto completo
Resumen
L'orchestration des services Web décrite par le Web Service-Business Process Execution Language (WS-BPEL), fait désormais partie intégrante du Web moderne, comme le cloud computing, le Big Data, l'Internet des objets (IoT) et les réseaux sociaux. En effet, elle est au centre de nombreux systèmes d'information liés à une variété de domaines tels que le commerce électronique, les institutions financières et les systèmes de santé, etc. où des données sensibles sont partagées, ce qui pose d'importants problèmes de sécurité. WS- BPEL appelé aussi BPEL, est le langage standard pour construire des services Web complexes d'une manière pratique. Cependant, BPEL n'est pas rigoureusement défini comme un langage formel entrainant ainsi des problèmes d'ambiguïté et de confusion lors de sa compréhension. Par ailleurs, sans fondement formel, il ne serait pas possible de fournir des preuves garantissant le bon fonctionnement de services. Cette thèse adresse la formalisation de BPEL et présente une approche formelle basée sur la réécriture de programmes permettant d'appliquer des politiques de sécurité au niveau de ce langage. Plus précisément, étant donné une composition de services Web spécifiée en BPEL et une politique de sécurité décrite dans une logique temporelle comme LTL, notre approche vise à générer une nouvelle version de service Web qui respecte cette politique de sécurité. La nouvelle version du service se comporte exactement comme l'originale excepté quand la politique est sur le point d'être violée. Dans ce cas le processus pourrait accomplir d'autres actions ou tout simplement être arrêté. La formalisation de BPEL a été aussi traduite dans l'environnement K-Framework, ce qui ouvre la porte à l'utilisation de ses nombreux outils formels incluant un évaluateur de modèles pour l'analyse de services Web.
The Web services orchestration approach described by the Web Service-Business Process Execution Language (WS-BPEL), is now an integral part of the modern Web, such as cloud computing, Big Data, the Internet of Things (IoT) and social networks. Indeed, it is at the center of many information systems related to a variety of domains such as e-commerce, financial institutions and healthcare systems, etc. where sensitive data is shared, which creates significant security issues. WS-BPEL, also called BPEL, is the standard language for building complex Web services in a practical way. However, BPEL is not rigorously defined as a formal language thus leading to problems of ambiguity and confusion when understanding it. Moreover, without a formal basis, it would not be possible to provide any proof guaranteeing the proper functioning of services. This thesis addresses the formalization of BPEL and presents a formal approach based on the rewriting of programs allowing the enforcement of security policies on this language. More precisely, given a composition of Web services specified in BPEL and a security policy described in a temporal logic like LTL, our approach aims to generate a new version of the Web service which respects the given security policy. The new version of the service behaves exactly like the original one except when the policy is about to be violated. In this case the process could take other actions or simply be stopped. The formalization of BPEL has also been translated into the K-Framework environment, which opens the door to the use of its many formal tools including a model checker for the analysis of Web services.
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Mendes, Suzan. "Sécurité des Communications Ouvertes : Vers une Infrastructure Globale pour les Services d'Authentification". Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 1995. http://tel.archives-ouvertes.fr/tel-00821147.

Texto completo
Resumen
"Les réseaux : la dernière utopie pirate de l'ère de l'information", publiaient les journalistes de Mondo 2000, le magazine cyber1 du moment [Wiz94]. Une technologie dominante a marqué chacun des trois derniers siècles. Le dix-huitième siècle a été l'ère des grands systèmes mécaniques propres à la Révolution industrielle. Le dix-neuvième siècle a été l'âge de la machine à vapeur. Durant le vingtième siècle, la technologie clé a concerné la collecte, le traitement et la distribution de l'information. Nous avons vu, entre autres, la mise en place d'un réseau téléphonique planétaire, l'invention de la radio et de la télévision, la naissance et la croissance sans précédant de l'industrie informatique et le lancement de satellites de communication [Tan89]. Au cours des dernières années de ce siècle, ces domaines convergent et les différences entre ' collecte, traitement, transport et stockage de l'information s'estompent rapidement. La fusion des ordinateurs et des télécommunications a eu une profonde influence sur la structuration des systèmes. Le modèle ancien de l'ordinateur unique desservant tous les besoins de traitement d'une organisation s'est trouvé rapidement supplanté par celui de l'exécution du travail par des ordinateurs séparés mais interconnectés. De tels systèmes sont appelés réseaux d'ordinateurs.
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Rabhi, Issam. "Testabilité des services Web". Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2012. http://tel.archives-ouvertes.fr/tel-00738936.

Texto completo
Resumen
Cette thèse s'est attaquée sous diverses formes au test automatique des services Web : une première partie est consacrée au test fonctionnel à travers le test de robustesse. La seconde partie étend les travaux précédents pour le test de propriétés non fonctionnelles, telles que les propriétés de testabilité et de sécurité. Nous avons abordé ces problématiques à la fois d'un point de vue théorique et pratique. Nous avons pour cela proposé une nouvelle méthode de test automatique de robustesse des services Web non composés, à savoir les services Web persistants (stateful) et ceux non persistants. Cette méthode consiste à évaluer la robustesse d'un service Web par rapport aux opérations déclarées dans sa description WSDL, en examinant les réponses reçues lorsque ces opérations sont invoquées avec des aléas et en prenant en compte l'environnement SOAP. Les services Web persistants sont modélisés grâce aux systèmes symboliques. Notre méthode de test de robustesse dédiée aux services Web persistants consiste à compléter la spécification du service Web afin de décrire l'ensemble des comportements corrects et incorrects. Puis, en utilisant cette spécification complétée, les services Web sont testés en y intégrant des aléas. Un verdict est ensuite rendu. Nous avons aussi réalisé une étude sur la testabilité des services Web composés avec le langage BPEL. Nous avons décrit précisément les problèmes liés à l'observabilité qui réduisent la faisabilité du test de services Web. Par conséquent, nous avons évalué des facteurs de la testabilité et proposé des solutions afin d'améliorer cette dernière. Pour cela, nous avons proposé une approche permettant, en premier lieu, de transformer la spécification ABPEL en STS. Cette transformation consiste à convertir successivement et de façon récursive chaque activité structurée en un graphe de sous-activités. Ensuite, nous avons proposé des algorithmes d'améliorations permettant de réduire ces problèmes de testabilité. Finalement, nous avons présenté une méthode de test de sécurité des services Web persistants. Cette dernière consiste à évaluer quelques propriétés de sécurité, tel que l'authentification, l'autorisation et la disponibilité, grâce à un ensemble de règles. Ces règles ont été crée, avec le langage formel Nomad. Cette méthodologie de test consiste d'abord à transformer ces règles en objectifs de test en se basant sur la description WSDL, ensuite à compléter, en parallèle, la spécification du service Web persistant et enfin à effectuer le produit synchronisé afin de générer les cas de test.
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Serme, Gabriel. "Modularisation de la sécurité informatique dans les systèmes distribués". Electronic Thesis or Diss., Paris, ENST, 2013. http://www.theses.fr/2013ENST0063.

Texto completo
Resumen
Intégrer les problématiques de sécurité au cycle de développement logiciel représente encore un défi à l’heure actuelle, notamment dans les logiciels distribués. La sécurité informatique requiert des connaissances et un savoir-faire particulier, ce qui implique une collaboration étroite entre les experts en sécurité et les autres acteurs impliqués. La programmation à objets ou à base de composants est communément employée pour permettre de telles collaborations et améliorer la mise à l’échelle et la maintenance de briques logicielles. Malheureusement, ces styles de programmation s’appliquent mal à la sécurité, qui est un problème transverse brisant la modularité des objets ou des composants. Nous présentons dans cette thèse plusieurs techniques de modularisation pour résoudre ce problème. Nous proposons tout d’abord l’utilisation de la programmation par aspect pour appliquer de manière automatique et systématique des techniques de programmation sécurisée et ainsi réduire le nombre de vulnérabilités d’une application. Notre approche se focalise sur l’introduction de vérifications de sécurité dans le code pour se protéger d’attaques comme les manipulations de données en entrée. Nous nous intéressons ensuite à l’automatisation de la mise en application de politiques de sécurité par des techniques de programmation. Nous avons par exemple automatisé l’application de règles de contrôle d’accès fines et distribuées dans des web services par l’instrumentation des mécanismes d’orchestration de la plate-forme. Nous avons aussi proposé des mécanismes permettant l’introduction d’un filtrage des données à caractère privée par le tissage d’aspects assisté par un expert en sécurité
Addressing security in the software development lifecycle still is an open issue today, especially in distributed software. Addressing security concerns requires a specific know-how, which means that security experts must collaborate with application programmers to develop secure software. Object-oriented and component-based development is commonly used to support collaborative development and to improve scalability and maintenance in software engineering. Unfortunately, those programming styles do not lend well to support collaborative development activities in this context, as security is a cross-cutting problem that breaks object or component modules. We investigated in this thesis several modularization techniques that address these issues. We first introduce the use of aspect-oriented programming in order to support secure programming in a more automated fashion and to minimize the number of vulnerabilities in applications introduced at the development phase. Our approach especially focuses on the injection of security checks to protect from vulnerabilities like input manipulation. We then discuss how to automate the enforcement of security policies programmatically and modularly. We first focus on access control policies in web services, whose enforcement is achieved through the instrumentation of the orchestration mechanism. We then address the enforcement of privacy protection policies through the expert-assisted weaving of privacy filters into software. We finally propose a new type of aspect-oriented pointcut capturing the information flow in distributed software to unify the implementation of our different security modularization techniques
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Chalouf, Mohamed Aymen. "Offre de service dans les réseaux de nouvelle génération : négociation sécurisée d’un niveau de service de bout en bout couvrant la qualité de service et la sécurité". Thesis, Bordeaux 1, 2009. http://www.theses.fr/2009BOR13905/document.

Texto completo
Resumen
Fondés sur la technologie IP, les réseaux de nouvelle génération (NGN) doivent surmonter les principaux défauts inhérents à cette technologie, à savoir l’absence de la qualité de service (QoS), la sécurité et la gestion de mobilité. Afin de garantir une offre de service dans un réseau NGN, un protocole de négociation de niveau de service peut être utilisé. Cependant, la majorité des protocoles de négociation existants permettent l’établissement d’un niveau de service qui ne couvre que la QoS. Quant à la sécurité et la mobilité, elles ont été souvent exclues de ces négociations, et donc gérées d’une manière indépendante. Cependant, la sécurisation d’un service peut causer la dégradation de la QoS, et la mobilité de l’utilisateur peut modifier ses besoins. D’où, l’intérêt de gérer simultanément la QoS et la sécurité tout en prenant en considération la mobilité des utilisateurs. Dans ce contexte, nous proposons de développer un protocole de signalisation qui permet à des clients fixes ou mobiles de négocier, d’une manière dynamique, automatique et sécurisée, un niveau de service couvrant à la fois la QoS et la sécurité. Notre contribution est composée de trois parties. Dans un premier temps, nous nous basons sur un protocole de négociation de QoS, utilisant les services web, afin de permettre la négociation conjointe de la sécurité et de la QoS tout en tenant compte de l’impact de la sécurité sur la QoS. Par la suite, cette négociation est rendue automatique en la basant sur un profil utilisateur qui permet d’adapter le niveau de service au contexte de l’utilisateur. Ainsi, l’offre de service est plus dynamique et peut s’adapter aux changements de réseau d’accès suite à la mobilité de l’utilisateur. Nous proposons, finalement, de sécuriser le flux de négociation afin de pallier aux différents types d’attaques qui peuvent viser les messages de négociation échangés
Based on the IP technology, the next generation network (NGN) must overcome the main drawbacks of this technology consisting in the lack of quality of service (QoS), security and mobility management. To ensure a service offer in an NGN, a protocol for negotiating service level can be used. However, most of the existing negotiation protocols allow the establishment of a service level which includes only QoS. As for security and mobility, they were often not covered by these negotiations, and therefore managed independently. However, securing a service can cause degradation of the QoS, and the mobility of a user can change the service needs in terms of QoS and security. Thus, we need to simultaneously manage QoS and security while taking into account user’s mobility. In this context, we propose to develop a signaling protocol that allows fixed and mobile users to negotiate a service level covering both QoS and security, in a dynamic, automatic and secure manner. Our contribution is achieved in three steps. Initially, we rely on a signaling protocol, which performs QoS negotiation using web services, to enable the negotiation of both security and QoS while taking into account the impact of security on QoS. Then, this negotiation is automated by basing it on a user profile. This allows adjusting the service level according to changes which can occur on the user context. Thus, the service offer is more dynamic and can be adapted to changes of access network resulting from the mobility of the user. Finally, we propose to secure the negotiation flows in order to prevent the different attacks that can target the exchanged messages during a negotiation process
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Canali, Davide. "Plusieurs axes d'analyse de sites web compromis et malicieux". Thesis, Paris, ENST, 2014. http://www.theses.fr/2014ENST0009/document.

Texto completo
Resumen
L'incroyable développement du World Wide Web a permis la création de nouveaux métiers, services, ainsi que de nouveaux moyens de partage de connaissance. Le web attire aussi des malfaiteurs, qui le considèrent comme un moyen pour gagner de l'argent en exploitant les services et la propriété d'autrui. Cette thèse propose une étude des sites web compromis et malicieux sous plusieurs axes d'analyse. Même si les attaques web peuvent être de nature très compliquées, on peut quasiment toujours identifier quatre acteurs principaux dans chaque cas. Ceux sont les attaquants, les sites vulnérables hébergés par des fournisseurs d'hébergement, les utilisateurs (souvent victimes des attaques), et les sociétés de sécurité qui parcourent Internet à la recherche de sites web compromis à être bloqués. Dans cette thèse, nous analysons premièrement les attaques web du point de vue des hébergeurs, en montrant que, même si des outils gratuits permettent de détecter des signes simples de compromission, la majorité des hébergeurs échouent dans cette épreuve. Nous passons en suite à l'analyse des attaquants et des leurs motivations, en étudiant les attaques web collectés par des centaines de sites web vulnérables. Ensuite, nous étudions le comportement de milliers de victimes d'attaques web, en analysant leurs habitudes pendant la navigation, pour estimer s'il est possible de créer des "profils de risque", de façon similaire à ce que les compagnies d'assurance font aujourd'hui. Enfin, nous adoptons le point de vue des sociétés de sécurité, en proposant une solution efficace pour la détection d'attaques web convoyées par sites web compromis
The incredible growth of the World Wide Web has allowed society to create new jobs, marketplaces, as well as new ways of sharing information and money. Unfortunately, however, the web also attracts miscreants who see it as a means of making money by abusing services and other people's property. In this dissertation, we perform a multidimensional analysis of attacks involving malicious or compromised websites, by observing that, while web attacks can be very complex in nature, they generally involve four main actors. These are the attackers, the vulnerable websites hosted on the premises of hosting providers, the web users who end up being victims of attacks, and the security companies who scan the Internet trying to block malicious or compromised websites. In particular, we first analyze web attacks from a hosting provider's point of view, showing that, while simple and free security measures should allow to detect simple signs of compromise on customers' websites, most hosting providers fail to do so. Second, we switch our point of view on the attackers, by studying their modus operandi and their goals in a distributed experiment involving the collection of attacks performed against hundreds of vulnerable web sites. Third, we observe the behavior of victims of web attacks, based on the analysis of their browsing habits. This allows us to understand if it would be feasible to build risk profiles for web users, similarly to what insurance companies do. Finally, we adopt the point of view of security companies and focus on finding an efficient solution to detecting web attacks that spread on compromised websites, and infect thousands of web users every day
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Serme, Gabriel. "Modularisation de la sécurité informatique dans les systèmes distribués". Thesis, Paris, ENST, 2013. http://www.theses.fr/2013ENST0063/document.

Texto completo
Resumen
Intégrer les problématiques de sécurité au cycle de développement logiciel représente encore un défi à l’heure actuelle, notamment dans les logiciels distribués. La sécurité informatique requiert des connaissances et un savoir-faire particulier, ce qui implique une collaboration étroite entre les experts en sécurité et les autres acteurs impliqués. La programmation à objets ou à base de composants est communément employée pour permettre de telles collaborations et améliorer la mise à l’échelle et la maintenance de briques logicielles. Malheureusement, ces styles de programmation s’appliquent mal à la sécurité, qui est un problème transverse brisant la modularité des objets ou des composants. Nous présentons dans cette thèse plusieurs techniques de modularisation pour résoudre ce problème. Nous proposons tout d’abord l’utilisation de la programmation par aspect pour appliquer de manière automatique et systématique des techniques de programmation sécurisée et ainsi réduire le nombre de vulnérabilités d’une application. Notre approche se focalise sur l’introduction de vérifications de sécurité dans le code pour se protéger d’attaques comme les manipulations de données en entrée. Nous nous intéressons ensuite à l’automatisation de la mise en application de politiques de sécurité par des techniques de programmation. Nous avons par exemple automatisé l’application de règles de contrôle d’accès fines et distribuées dans des web services par l’instrumentation des mécanismes d’orchestration de la plate-forme. Nous avons aussi proposé des mécanismes permettant l’introduction d’un filtrage des données à caractère privée par le tissage d’aspects assisté par un expert en sécurité
Addressing security in the software development lifecycle still is an open issue today, especially in distributed software. Addressing security concerns requires a specific know-how, which means that security experts must collaborate with application programmers to develop secure software. Object-oriented and component-based development is commonly used to support collaborative development and to improve scalability and maintenance in software engineering. Unfortunately, those programming styles do not lend well to support collaborative development activities in this context, as security is a cross-cutting problem that breaks object or component modules. We investigated in this thesis several modularization techniques that address these issues. We first introduce the use of aspect-oriented programming in order to support secure programming in a more automated fashion and to minimize the number of vulnerabilities in applications introduced at the development phase. Our approach especially focuses on the injection of security checks to protect from vulnerabilities like input manipulation. We then discuss how to automate the enforcement of security policies programmatically and modularly. We first focus on access control policies in web services, whose enforcement is achieved through the instrumentation of the orchestration mechanism. We then address the enforcement of privacy protection policies through the expert-assisted weaving of privacy filters into software. We finally propose a new type of aspect-oriented pointcut capturing the information flow in distributed software to unify the implementation of our different security modularization techniques
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Duchene, Fabien. "Detection of web vulnerabilities via model inference assisted evolutionary fuzzing". Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM022/document.

Texto completo
Resumen
Le test est une approche efficace pour détecter des bogues d'implémentation ayant un impact sur la sécurité, c.a.d. des vulnérabilités. Lorsque le code source n'est pas disponible, il est nécessaire d'utiliser des techniques de test en boîte noire. Nous nous intéressons au problème de détection automatique d'une classe de vulnérabilités (Cross Site Scripting alias XSS) dans les applications web dans un contexte de test en boîte noire. Nous proposons une approche pour inférer des modèles de telles applications et frelatons des séquences d'entrées générées à partir de ces modèles et d'une grammaire d'attaque. Nous inférons des automates de contrôle et de teinte, dont nous extrayons des sous-modèles afin de réduire l'espace de recherche de l'étape de frelatage. Nous utilisons des algorithmes génétiques pour guider la production d'entrées malicieuses envoyées à l'application. Nous produisons un verdict de test grâce à une double inférence de teinte sur l'arbre d'analyse grammaticale d'un navigateur et à l'utilisation de motifs de vulnérabilités comportant des annotations de teinte. Nos implémentations LigRE et KameleonFuzz obtiennent de meilleurs résultats que les scanneurs boîte noire open-source. Nous avons découvert des XSS ``0-day'' (c.a.d. des vulnérabilités jusque lors inconnues publiquement) dans des applications web utilisées par des millions d'utilisateurs
Testing is a viable approach for detecting implementation bugs which have a security impact, a.k.a. vulnerabilities. When the source code is not available, it is necessary to use black-box testing techniques. We address the problem of automatically detecting a certain class of vulnerabilities (Cross Site Scripting a.k.a. XSS) in web applications in a black-box test context. We propose an approach for inferring models of web applications and fuzzing from such models and an attack grammar. We infer control plus taint flow automata, from which we produce slices, which narrow the fuzzing search space. Genetic algorithms are then used to schedule the malicious inputs which are sent to the application. We incorporate a test verdict by performing a double taint inference on the browser parse tree and combining this with taint aware vulnerability patterns. Our implementations LigRE and KameleonFuzz outperform current open-source black-box scanners. We discovered 0-day XSS (i.e., previously unknown vulnerabilities) in web applications used by millions of users
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Fonda, Maxime. "Protection obligatoire des serveurs d'applications Web : application aux processus métiers". Phd thesis, Université d'Orléans, 2014. http://tel.archives-ouvertes.fr/tel-01069411.

Texto completo
Resumen
Dans cette thèse, nous nous intéressons au contrôle d'accès obligatoire dans les serveurs d'applications Web. Nous présentons une approche de protection obligatoire fondée sur un modèle abstrait d'applications Web. Les modèles d'applications Web existants, comme par exemple SOA peuvent être représentés par ce modèle abstrait d'application. Notre protection obligatoire s'appuie sur un langage de protection dédié permettant d'exprimer les besoins en terme de contrôle d'accès au sein d'un serveur d'application Web. Ce langage de protection utilise notre modèle d'application pour contrôler de manière efficace les accès des sujets aux objets de l'applications Web. Nous établissons également une méthode de calcul automatisé des politiques de sécurité qui facilite donc l'administration de la protection obligatoire proposée. Une implémentation sur des environnements Microsoft basés sur le serveur Web IIS et le canevas .Net est présentée. La solution est indépendante des applications Web protégées car elle repose sur l'utilisation d'un adaptateur applicatif pour s'interfacer avec n'importe quelle application. Celle-ci est fonctionnelle sur des environnements de workflow de la société QualNet ayant co-financée cette thèse. Les expérimentations menées montrent que notre protection obligatoire supporte des environnements à grande échelle et impose une élévation faible du temps de traitement, de l'ordre de 5%, qui diminue lorsque la taille des applications augmente.
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Vastel, Antoine. "Traçage versus sécurité : explorer les deux facettes des empreintes de navigateurs". Thesis, Lille 1, 2019. http://www.theses.fr/2019LIL1I097.

Texto completo
Resumen
De nos jours, une grande diversité d'appareils tels que des smartphones, des ordinateurs ou des télévisions connectées peuvent naviguer sur le web. Afin d'adapter leur expérience de navigation, les utilisateurs modifient également diverses options telles que l'affichage de la barre des favoris ou leurs langues préférées. Cette diversité d'appareils et de configurations sont à l'origine du suivi par empreintes de navigateurs. En effet, pour gérer cette diversité, les sites web peuvent accéder à des informations relatives à la configuration de l'appareil grâce aux interfaces du langage JavaScript, sans obtenir l'accord préalable de l'utilisateur. La combinaison de ces informations est appelée empreinte de navigateur, et est bien souvent unique, pouvant donc servir à des fins de suivi marketing.Néanmoins, le fait que les empreintes ne soient pas stockées sur la machine rend cette technique également intéressante pour des applications relatives à la sécurité sur le web.A travers cette thèse, je propose 3 contributions relatives aux domaines des empreintes de navigateurs :1. Je collecte 122,000 empreintes de 2,346 navigateurs et analysons leur stabilité pendant plus de 2 ans. Je montre qu'en dépit de changements fréquents dans leur empreinte, une part significative des navigateurs peut être suivie pendant de longues périodes;2. Je conçois une suite de tests afin d'évaluer la résistance des outils de protection contre le suivi par empreinte de navigateurs. Je l'applique à 7 outils de protection, et montre que tous peuvent être détectés, ce qui peut rendre leur utilisateurs plus facilement identifiables, et donc vulnérables au suivi;3. Enfin, j'explore l'utilisation des empreintes de navigateurs pour la détection de crawlers. Après avoir mesuré l'usage de cette technique sur le web, je présente les différents attributs et tests permettant la détection. Comme les empreintes de navigateurs sont collectées côté client, j'évalue également la résilience de cette forme de détection contre un adversaire développant des crawlers dont les empreintes ont été modifiées
Nowadays, a wide range of devices can browse the web, ranging from smartphones, desktop computers, to connected TVs. To increase their browsing experience, users also customize settings in their browser, such as displaying the bookmark bar or their preferred languages. Customization and the diversity of devices are at the root of browser fingerprinting. Indeed, to manage this diversity, websites can access attributes about the device using JavaScript APIs, without asking for user consent. The combination of such attributes is called a browser fingerprint and has been shown to be highly unique, making of fingerprinting a suitable tracking technique. Its stateless nature makes it also suitable for enhancing authentication or detecting bots. In this thesis, I report three contributions to the browser fingerprinting field:1. I collect 122K fingerprints from 2,346 browsers and study their stability over more than 2 years. I show that, despite frequent changes in the fingerprints, a significant fraction of browsers can be tracked over a long period of time;2. I design a test suite to evaluate fingerprinting countermeasures. I apply our test suite to 7 countermeasures, some of them claiming to generate consistent fingerprints, and show that all of them can be identified, which can make their users more identifiable;3. I explore the use of browser fingerprinting for crawler detection. I measure its use in the wild, as well as the main detection techniques. Since fingerprints are collected on the client-side, I also evaluate its resilience against an adversarial crawler developer that tries to modify its crawler fingerprints to bypass security checks
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Canali, Davide. "Plusieurs axes d'analyse de sites web compromis et malicieux". Electronic Thesis or Diss., Paris, ENST, 2014. http://www.theses.fr/2014ENST0009.

Texto completo
Resumen
L'incroyable développement du World Wide Web a permis la création de nouveaux métiers, services, ainsi que de nouveaux moyens de partage de connaissance. Le web attire aussi des malfaiteurs, qui le considèrent comme un moyen pour gagner de l'argent en exploitant les services et la propriété d'autrui. Cette thèse propose une étude des sites web compromis et malicieux sous plusieurs axes d'analyse. Même si les attaques web peuvent être de nature très compliquées, on peut quasiment toujours identifier quatre acteurs principaux dans chaque cas. Ceux sont les attaquants, les sites vulnérables hébergés par des fournisseurs d'hébergement, les utilisateurs (souvent victimes des attaques), et les sociétés de sécurité qui parcourent Internet à la recherche de sites web compromis à être bloqués. Dans cette thèse, nous analysons premièrement les attaques web du point de vue des hébergeurs, en montrant que, même si des outils gratuits permettent de détecter des signes simples de compromission, la majorité des hébergeurs échouent dans cette épreuve. Nous passons en suite à l'analyse des attaquants et des leurs motivations, en étudiant les attaques web collectés par des centaines de sites web vulnérables. Ensuite, nous étudions le comportement de milliers de victimes d'attaques web, en analysant leurs habitudes pendant la navigation, pour estimer s'il est possible de créer des "profils de risque", de façon similaire à ce que les compagnies d'assurance font aujourd'hui. Enfin, nous adoptons le point de vue des sociétés de sécurité, en proposant une solution efficace pour la détection d'attaques web convoyées par sites web compromis
The incredible growth of the World Wide Web has allowed society to create new jobs, marketplaces, as well as new ways of sharing information and money. Unfortunately, however, the web also attracts miscreants who see it as a means of making money by abusing services and other people's property. In this dissertation, we perform a multidimensional analysis of attacks involving malicious or compromised websites, by observing that, while web attacks can be very complex in nature, they generally involve four main actors. These are the attackers, the vulnerable websites hosted on the premises of hosting providers, the web users who end up being victims of attacks, and the security companies who scan the Internet trying to block malicious or compromised websites. In particular, we first analyze web attacks from a hosting provider's point of view, showing that, while simple and free security measures should allow to detect simple signs of compromise on customers' websites, most hosting providers fail to do so. Second, we switch our point of view on the attackers, by studying their modus operandi and their goals in a distributed experiment involving the collection of attacks performed against hundreds of vulnerable web sites. Third, we observe the behavior of victims of web attacks, based on the analysis of their browsing habits. This allows us to understand if it would be feasible to build risk profiles for web users, similarly to what insurance companies do. Finally, we adopt the point of view of security companies and focus on finding an efficient solution to detecting web attacks that spread on compromised websites, and infect thousands of web users every day
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Pellegrino, Giancarlo. "Détection d'anomalies logiques dans les logiciels d'entreprise multi-partis à travers des tests de sécurité". Electronic Thesis or Diss., Paris, ENST, 2013. http://www.theses.fr/2013ENST0064.

Texto completo
Resumen
Les logiciels multi-partis sont des applications distribuées sur le web qui mettent en oeuvre des fonctions collaboratives. Ces applications sont les principales cibles des attaquants qui exploitent des vulnérabilités logicielles dans le cadre d'activités malveillantes. Récemment, un type moins connu de vulnérabilité, les anomalies logiques, a attiré l'attention des chercheurs. Sur la base d'informations tirées de la documentation des applications, il est possible d'appliquer deux techniques de test: la vérification du modèle, autrement appelé ``model checking'', et les tests de sécurité de type ``boîte noire''. Le champs d'application du model checking ne prend pas en suffisamment en compte les implémentations actuelles, tandis que les tests de type boîte noire ne sont pas assez sophistiqués pour découvrir les vulnérabilités logique. Dans cette thèse, nous présentons deux techniques d'analyse modernes visant à résoudre les inconvénients de l'état de l'art. Pour commencer, nous présentons la vérification de deux protocoles de sécurité utilisant la technique du model checking. Ensuite, nous nous concentrons sur l'extension du model checking pour soutenir les tests automatisés d'implémentations. La seconde technique consiste en une analyse boîte noire qui combine l'inférence du modèle, l'extraction du processus et du flot de donnée, ainsi qu'une génération de tests basés sur les modèles d'attaque d'une application. En conclusion, nous discutons de l'application de techniques développées au cours de cette thèse sur des applications issues d'un contexte industrielle
Multi-party business applications are distributed computer programs implementing collaborative business functions. These applications are one of the main target of attackers who exploit vulnerabilities in order to perform malicious activities. The most prevalent classes of vulnerabilities are the consequence of insufficient validation of the user-provided input. However, the less-known class of logic vulnerabilities recently attracted the attention of researcher. According to the availability of software documentation, two testing techniques can be used: design verification via model checking, and black-box security testing. However, the former offers no support to test real implementations and the latter lacks the sophistication to detect logic flaws. In this thesis, we present two novel security testing techniques to detect logic flaws in multi-party business applicatons that tackle the shortcomings of the existing techniques. First, we present the verification via model checking of two security protocols. We then address the challenge of extending the results of the model checker to automatically test protocol implementations. Second, we present a novel black-box security testing technique that combines model inference, extraction of workflow and data flow patterns, and an attack pattern-based test case generation algorithm. Finally, we discuss the application of the technique developed in this thesis in an industrial setting. We used these techniques to discover previously-unknown design errors in SAML SSO and OpenID protocols, and ten logic vulnerabilities in eCommerce applications allowing an attacker to pay less or shop for free
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Hossen, Karim. "Inférence automatique de modèles d'applications Web et protocoles pour la détection de vulnérabilités". Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM077/document.

Texto completo
Resumen
Les approches de tests basées sur les modèles (MBT) ont su montrer leur efficacité pour le test logiciel, mais elles nécessitent de disposer au préalable d'un modèle formel du logiciel. Dans la plupart des cas, ce modèle n'est pas disponible pour des raisons de coût, de temps ou encore de droits. Dans le cadre du projet SPaCIoS qui vise à développer une plate-forme pour le test de la sécurité basé sur les modèles, l'objectif est de fournir un outil d'inférence automatique de modèle pour les applications Web ainsi que des méthodes de détection de vulnérabilités à partir de ce modèle. Nous avons conçu pour cela un algorithme d'inférence adapté aux applications Web et à leurs caractéristiques. Cette méthode prend en compte les données et leurs impacts sur le flot de contrôle. À l'aide d'algorithmes de fouille de données, le modèle est complété par des gardes ainsi que des fonctions de sortie. Nous avons aussi travaillé sur l'automatisation de la procédure d'inférence. Dans les approches d'inférence active, il est généralement nécessaire de connaître l'interface complète du système à inférer pour pouvoir communiquer avec l'application. Cette étape a été rendue automatique par l'utilisation d'un collecteur qui parcourt l'application pour en extraire les informations nécessaires et optimisées pour l'inférence. Ce collecteur est aussi utilisable par des méthodes d'inférence tierces. Dans la version complète de l'algorithme, nous avons fusionné l'algorithme d'inférence et celui d'extraction d'interfaces pour obtenir une méthode automatique. Nous présentons ensuite l'outil libre SIMPA qui implémente ces différents algorithmes ainsi que divers résultats obtenus sur les cas d'études du projet SPaCIoS ainsi que des protocoles
In the last decade, model-based testing (MBT) approaches have shown their efficiency in the software testing domain but a formal model of the system under test (SUT) is required and, most of the time, not available for several reasons like cost, time or rights. The goal of the SPaCIoS project is to develop a security testing tool using MBT approach. The goal of this work, funded by the SPaCIoS project, is to develop and implement a model inference method for Web applications and protocols. From the inferred model, vulnerability detection can be done following SPaCIoS model-checking method or by methods we have developed. We developed an inference algorithm adapted to Web applications and their properties. This method takes into account application data and their influence on the control flow. Using data mining algorithms, the inferred model is refined with optimized guards and output functions. We also worked on the automation of the inference. In active learning approaches, it is required to know the complete interface of the system in order to communicate with it. As this step can be time-consuming, this step has been made automatic using crawler and interface extraction method optimized for inference. This crawler is also available as standalone for third-party inference tools. In the complete inference algorithm, we have merged the inference algorithm and the interface extraction to build an automatic procedure. We present the free software SIMPA, containing the algorithms, and we show some of the results obtained on SPaCIoS case studies and protocols
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Fonda, Maxime. "Protection obligatoire des serveurs d’applications Web : application aux processus métiers". Thesis, Orléans, 2014. http://www.theses.fr/2014ORLE2011/document.

Texto completo
Resumen
Dans cette thèse, nous nous intéressons au contrôle d’accès obligatoire dans les serveurs d’applications Web. Nous présentons une approche de protection obligatoire fondée sur un modèle abstrait d’applications Web. Les modèles d’applications Web existants, comme par exemple SOA peuvent être représentés par ce modèle abstrait d’application. Notre protection obligatoire s’appuie sur un langage de protection dédié permettant d’exprimer les besoins en terme de contrôle d’accès au sein d’un serveur d’application Web. Ce langage de protection utilise notre modèle d’application pour contrôler de manière efficace les accès des sujets aux objets de l’applications Web. Nous établissons également une méthode de calcul automatisé des politiques de sécurité qui facilite donc l’administration de la protection obligatoire proposée. Une implémentation sur des environnements Microsoft basés sur le serveur Web IIS et le canevas .Net est présentée. La solution est indépendante des applications Web protégées car elle repose sur l’utilisation d’un adaptateur applicatif pour s’interfacer avec n’importe quelle application. Celle-ci est fonctionnelle sur des environnements de workflow de la société QualNet ayant co-financée cette thèse. Les expérimentations menées montrent que notre protection obligatoire supporte des environnements à grande échelle et impose une élévation faible du temps de traitement, de l’ordre de 5%, qui diminue lorsque la taille des applications augmente
This thesis focuses on mandatory access control in Web applications server. We present a novel approach of mandatory protection based on an abstract Web application model. Existing models of Web applications such as SOA fit with our abstract model. Our mandatory protection uses a dedicated language that allows to express the security requirements of a Web application. This dedicated protection language uses our Web application model to control efficiently the accesses of the subjects to the objects of a Web application. We establish a method to automatically compute the requested security policies facilitating thus the administration of the mandatory protection. An implementation on Microsoft-based environments uses the IIS Web server and the .Net Framework. The solution is independent from the Web applications to protect since it uses an application adaptor to interface our mandatory protection with the applications. This implementation is fully running on the workflow environments from the QualNet society, that cofunded this Ph.D thesis. Experiments show that our mandatory protection supports large scale environments since the overhead is near to 5 % and decreases when the size of the application increases
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Chamoun, Maroun. "Intégration de l'Internet 3G au sein d'une plate-forme active". Phd thesis, Télécom ParisTech, 2006. http://pastel.archives-ouvertes.fr/pastel-00001749.

Texto completo
Resumen
Les réseaux à base de politiques (PBN) définissent un paradigme des plus prometteurs pour la gestion et le contrôle des ressources réseaux. COPS tend à être le protocole de facto pour l'utilisation de ce type d'applications. La question se pose de savoir comment déployer ce type de services pour permettre les échanges entre les différentes entités protocolaires du réseau (PEP et PDP). C'est à ce niveau que nous proposons de faire intervenir la notion de réseaux actifs, vu que ce paradigme permet d'intégrer du code exécutable aux paquets transférés et/ou nœuds en vue de distribuer et de configurer dynamiquement les services du réseau. D'autre part, une grande effervescence existe actuellement autour du déploiement des Web services sur Internet à l'aide du protocole SOAP. Toujours dans le cadre de l'Internet mais selon une perspective différente, la représentation sémantique des données, et grâce à la définition d'ontologies, permet aux logiciels d'interpréter intelligemment les données qu'elles gèrent et de ne plus jouer le rôle de simple équipement de stockage passif. La synergie entre les 4 paradigmes: PBN, Réseaux actifs, Web services, et représentation sémantique des données, présente une solution intégrée et portable des plus intéressantes pour la représentation des nœuds de l'architecture active, la conception, l'implémentation et le déploiement de services, et plus spécifiquement un service de gestion dynamique contrôlable et intelligent, dont les données (politiques et règles) sont représentés par une même ontologie.
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Varin, Annie. "Risques technologiques et sécurité sur Internet : production d'un outil pour favoriser la prévention et fournir des pistes de solution". Mémoire, Université de Sherbrooke, 2011. http://savoirs.usherbrooke.ca/handle/11143/2674.

Texto completo
Resumen
Ce mémoire production vise, en premier lieu, à fournir des pistes d'explication sur la popularité et l'unicité du média Internet, pourtant jeune si on le compare aux autres grands médias traditionnels (journaux, télévision, radio). Ses caractéristiques intéressantes ont toutefois tendance à «éclipser» le risque omniprésent qui sévit sur le réseau. Les menaces sont non seulement plus nombreuses, mais aussi plus sournoises, dangereuses et potentiellement lourdes de conséquences. Plusieurs ressources sont offertes aux utilisateurs pour les aider à se protéger sur Internet et, s'il est trop tard, pour formuler un diagnostic et obtenir une piste de solution. Quelques-unes de ces ressources, accessibles en ligne, ont été examinées pour juger de leur adéquation au besoin en protection des internautes moyens. Force était de constater qu'elles étaient souvent pertinentes, mais qu'elles présentaient également souvent des lacunes d'utilité et d'utilisabilité; or celles-ci peuvent facilement rebuter les internautes à la recherche d'information et d'aide. Devant ce constat, il convenait, en second lieu, d'établir un cadre méthodologique pour guider l'élaboration d'un outil ergonomique pouvant être utilisé par les internautes moyens pour combler leur besoin en protection. La plateforme du site Web a été privilégiée, puisqu'elle facilite les mises à jour des contenus et des liens, un aspect essentiel pour assurer la pertinence de l'outil dans un univers virtuel en constante mutation. Ce site Web peut être consulté à l'adresse http://pages.usherbrooke.ca/securite_internet101/. Un retour sur la production de cet outil a permis, en troisième lieu, de faire ressortir les différents obstacles rencontrés en cours de conception (lesquels ont été documentés) de même que les solutions apportées pour les surmonter.
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Majorczyk, Frédéric. "Détection d'intrusions comportementale par diversification de COTS : application au cas des serveurs web". Phd thesis, Université Rennes 1, 2008. http://tel.archives-ouvertes.fr/tel-00355366.

Texto completo
Resumen
L'informatique et en particulier l'Internet jouent un rôle grandissant dans notre société. Un grand nombre d'applications critiques d'un point de vue de leur sécurité sont déployées dans divers domaines comme le domaine militaire, la santé, le commerce électronique, etc. La sécurité des systèmes informatiques devient alors une problématique essentielle tant pour les individus que pour les entreprises ou les états. Il est donc important de définir une politique de sécurité pour ces systèmes et de veiller à son respect. Néanmoins les mécanismes de sécurité préventifs mis en place ne sont pas incontournables. Il est nécessaire de mettre en œuvre des outils permettant de détecter toute violation de la politique de sécurité, c'est-à-dire toute intrusion. Ces outils sont appelés des systèmes de détection d'intrusions ou IDS. Souvent en collaboration avec les IDS, il est possible de mettre en place des outils et techniques de tolérance aux intrusions. Ces outils et techniques ont pour objectif que les intrusions affectant un composant du système n'entrainent pas de violations de la politique de sécurité du système global.
Notre travail s'inscrit dans le domaine de la détection d'intrusions, de manière essentielle, et permet une certaine tolérance aux intrusions. Contrairement aux méthodes de détection classiques en détection comportementale pour lesquelles il est nécessaire de définir et construire un modèle de référence du comportement de l'entité surveillée, nous avons suivi une méthode issue de la sureté de fonctionnement fondée sur la programmation N-versions pour laquelle le modèle de référence est implicite et est constitué par les autres logiciels constituant l'architecture. Nous proposons l'utilisation de COTS en remplacement des versions spécifiquement développées car développer N-versions est couteux et est réservé à des systèmes critiques du point de vue de la sécurité-innocuité. D'autres travaux et projets ont proposé des architectures fondées sur ces idées. Nos contributions se situent à différents niveaux. Nous avons pris en compte dans notre modèle général de détection d'intrusions les spécificités liées à l'utilisation de COTS en lieu et place de versions spécifiquement développées et proposé deux solutions pour parer aux problèmes induits par ces spécificités. Nous avons proposé deux approches de détection d'intrusions fondées sur cette architecture : l'une suivant une approche de type boite noire et l'autre suivant une approche de type boite grise. Notre méthode de type boite grise peut, en outre, aider l'administrateur de sécurité à effectuer un premier diagnostic des alertes. Nous avons réalisé une implémentation de ces deux approches dans le cadre des serveurs web et avons évalué pratiquement la pertinence et de la fiabilité de ces deux IDS.
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

Pellegrino, Giancarlo. "Détection d'anomalies logiques dans les logiciels d'entreprise multi-partis à travers des tests de sécurité". Thesis, Paris, ENST, 2013. http://www.theses.fr/2013ENST0064/document.

Texto completo
Resumen
Les logiciels multi-partis sont des applications distribuées sur le web qui mettent en oeuvre des fonctions collaboratives. Ces applications sont les principales cibles des attaquants qui exploitent des vulnérabilités logicielles dans le cadre d'activités malveillantes. Récemment, un type moins connu de vulnérabilité, les anomalies logiques, a attiré l'attention des chercheurs. Sur la base d'informations tirées de la documentation des applications, il est possible d'appliquer deux techniques de test: la vérification du modèle, autrement appelé ``model checking'', et les tests de sécurité de type ``boîte noire''. Le champs d'application du model checking ne prend pas en suffisamment en compte les implémentations actuelles, tandis que les tests de type boîte noire ne sont pas assez sophistiqués pour découvrir les vulnérabilités logique. Dans cette thèse, nous présentons deux techniques d'analyse modernes visant à résoudre les inconvénients de l'état de l'art. Pour commencer, nous présentons la vérification de deux protocoles de sécurité utilisant la technique du model checking. Ensuite, nous nous concentrons sur l'extension du model checking pour soutenir les tests automatisés d'implémentations. La seconde technique consiste en une analyse boîte noire qui combine l'inférence du modèle, l'extraction du processus et du flot de donnée, ainsi qu'une génération de tests basés sur les modèles d'attaque d'une application. En conclusion, nous discutons de l'application de techniques développées au cours de cette thèse sur des applications issues d'un contexte industrielle
Multi-party business applications are distributed computer programs implementing collaborative business functions. These applications are one of the main target of attackers who exploit vulnerabilities in order to perform malicious activities. The most prevalent classes of vulnerabilities are the consequence of insufficient validation of the user-provided input. However, the less-known class of logic vulnerabilities recently attracted the attention of researcher. According to the availability of software documentation, two testing techniques can be used: design verification via model checking, and black-box security testing. However, the former offers no support to test real implementations and the latter lacks the sophistication to detect logic flaws. In this thesis, we present two novel security testing techniques to detect logic flaws in multi-party business applicatons that tackle the shortcomings of the existing techniques. First, we present the verification via model checking of two security protocols. We then address the challenge of extending the results of the model checker to automatically test protocol implementations. Second, we present a novel black-box security testing technique that combines model inference, extraction of workflow and data flow patterns, and an attack pattern-based test case generation algorithm. Finally, we discuss the application of the technique developed in this thesis in an industrial setting. We used these techniques to discover previously-unknown design errors in SAML SSO and OpenID protocols, and ten logic vulnerabilities in eCommerce applications allowing an attacker to pay less or shop for free
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

Brassard-Gourdeau, Éloi. "Toxicité et sentiment : comment l'étude des sentiments peut aider la détection de toxicité". Master's thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/37564.

Texto completo
Resumen
La détection automatique de contenu toxique en ligne est un sujet très important aujourd’hui. Les modérateurs ne peuvent filtrer manuellement tous les messages et les utilisateurs trouvent constamment de nouvelles façons de contourner les filtres automatiques. Dans ce mémoire, j’explore l’impact que peut avoir la détection de sentiment pour améliorer trois points importants de la détection automatique de toxicité : détecter le contenu toxique de façon plus exacte ; rendre les filtres plus difficiles à déjouer et prédire les conversations les plus à risque. Les deux premiers points sont étudiés dans un premier article, où l’intuition principale est qu’il est plus difficile pour un utilisateur malveillant de dissimuler le sentiment d’un message que certains mots-clés à risque. Pour tester cette hypothèse, un outil de détection de sentiment est construit, puis il est utilisé pour mesurer la corrélation entre sentiment et toxicité. Par la suite, les résultats de cet outil sont utilisés comme caractéristiques pour entraîner un modèle de détection de toxicité, et le modèle est testé à la fois dans un contexte classique et un contexte où on simule des altérations aux messages faites par un utilisateur tentant de déjouer un filtre de toxicité. La conclusion de ces tests est que les informations de sentiment aident à la détection de toxicité, particulièrement dans un contexte où les messages sont modifiés. Le troisième point est le sujet d’un second article, qui a comme objectif de valider si les sentiments des premiers messages d’une conversation permettent de prédire si elle va dérailler. Le même outil de détection de sentiments est utilisé, en combinaison avec d’autres caractéristiques trouvées dans de précédents travaux dans le domaine. La conclusion est que les sentiments permettent d’améliorer cette tâche également.
Automatic toxicity detection of online content is a major research field nowadays. Moderators cannot filter manually all the messages that are posted everyday and users constantly find new ways to circumvent classic filters. In this master’s thesis, I explore the benefits of sentiment detection for three majors challenges of automatic toxicity detection: standard toxicity detection, making filters harder to circumvent, and predicting conversations at high risk of becoming toxic. The two first challenges are studied in the first article. Our main intuition is that it is harder for a malicious user to hide the toxic sentiment of their message than to change a few toxic keywords. To test this hypothesis, a sentiment detection tool is built and used to measure the correlation between sentiment and toxicity. Next, the sentiment is used as features to train a toxicity detection model, and the model is tested in both a classic and a subversive context. The conclusion of those tests is that sentiment information helps toxicity detection, especially when using subversion. The third challenge is the subject of our second paper. The objective of that paper is to validate if the sentiments of the first messages of a conversation can help predict if it will derail into toxicity. The same sentiment detection tool is used, in addition to other features developed in previous related works. Our results show that sentiment does help improve that task as well.
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

Corre, Kevin. "User controlled trust and security level of Web real-time communications". Thesis, Rennes 1, 2018. http://www.theses.fr/2018REN1S029/document.

Texto completo
Resumen
Dans cette thèse, je propose trois contributions principales : dans notre première contribution, nous étudions l'architecture d'identité WebRTC et plus particulièrement son intégration aux algorithmes de délégation d'authentification existants. Cette intégration n'a pas encore été étudiée jusqu'à présent. Dans cette perspective, nous implémentons les composants de l'architecture d'identité WebRTC ce qui nous permet de montrer que cette architecture n'est pas particulièrement adaptée à une intégration aux protocoles de délégation d'authentification existants tels qu'OpenID Connect. Pour répondre à RQ1, nous montrons ensuite comment la position centrale des fournisseurs d'identité dans l'écosystème du Web est renforcée par leur intégration à l'établissement de session WebRTC, posant ainsi un risque supplémentaire contre la discrétion des utilisateurs. Dans l'écosystème Web, la norme est l'architecture des services en silo dont les utilisateurs sont captifs. C'est en particulier le cas des systèmes de délégation d'authentification, pour lesquels la plupart du temps, il n'est pas possible de choisir son fournisseur d'identité. Afin de répondre à RQ3, nous réalisons une étude afin de déterminer pour quelles raisons les utilisateurs ne peuvent pas choisir leur fournisseur d'identité sur Web. Notre étude montre que bien que ce choix soit possible en théorie, l'absence d'implémentation de certains standards par les sites webs et les fournisseurs d'identité empêche ce choix en pratique. Dans notre seconde contribution, nous cherchons à donner plus de contrôle à l'utilisateur. Pour ce faire et en réponse à RQ2, nous proposons une extension de la spécification WebRTC afin de permettre la négociation des paramètres d'identité. Un prototype d'implémentation est proposé afin de valider notre proposition. Cette implémentation révèle certaines limites dues à l'API d'identité WebRTC empêchant notamment d'obtenir un retour sur le niveau d'authentification de l'autre utilisateur ainsi que l'impossibilité de changer de fournisseur d'identité en cours de session. Nous proposons ensuite une API Web permettant aux utilisateurs de choisir leur fournisseur d'identité lors d'une authentification sur un site tiers via une interface de sélection d'identité contrôlée par le navigateur. Répondant à RQ3, notre API repose sur une réutilisation de l'architecture d'identité WebRTC dans un scénario client-serveur. Nous présentons une implémentation de notre solution, basée sur une extension du navigateur Firefox, afin d'en démontrer l'utilisabilité. Nos résultats montrent qu'à long terme, l'adoption de cette API pourrait réduire la charge d'implémentation pour les développeurs de sites Web et permettre aux utilisateurs de préserver leur discrétion en choisissant des fournisseurs d'identité de confiance
In this thesis, we propose three main contributions : In our first contribution we study the WebRTC identity architecture and more particularly its integration with existing authentication delegation protocols. This integration has not been studied yet. To fill this gap, we implement components of the WebRTC identity architecture and comment on the issues encountered in the process. In order to answer RQ1, we then study this specification from a privacy perspective an identify new privacy considerations related to the central position of identity provider. In the Web, the norm is the silo architecture of which users are captive. This is even more true of authentication delegation systems where most of the time it is not possible to freely choose an identity provider. In order to answer RQ3, we conduct a survey on the top 500 websites according to Alexa.com to identify the reasons why can't users choose their identity provider. Our results show that while the choice of an identity provider is possible in theory, the lack of implementation of existing standards by websites and identity providers prevent users to make this choice. In our second contribution, we aim at giving more control to users. To this end and in order to answer RQ2, we extend the WebRTC specification to allow identity parameters negotiation. We present a prototype implementation of our proposition to validate it. It reveals some limits due to the WebRTC API, in particular preventing to get feedback on the other peer's authentication strength. We then propose a web API allowing users to choose their identity provider in order to authenticate on a third-party website, answering RQ2. Our API reuse components of the WebRTC identity architecture in a client-server authentication scenario. Again, we validate our proposition by presenting a prototype implementation of our API based on a Firefox extension. Finally, in our third contribution, we look back on RQ1 and propose a trust and security model of a WebRTC session. Our proposed model integrates in a single metric the security parameters used in the session establishment, the encryption parameters for the media streams, and trust in actors of the communication setup as defined by the user. Our model objective is to help non-expert users to better understand the security of their WebRTC session. To validate our approach, we conduct a preliminary study on the comprehension of our model by non-expert users. This study is based on a web survey offering users to interact with a dynamic implementation of our model
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

Kondratyeva, Olga. "Timed FSM strategy for optimizing web service compositions w.r.t. the quality and safety issues". Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLL004/document.

Texto completo
Resumen
Les concepts d’architecture orientée service (SOA) ainsi que tout une panoplie de technologies «en tant que service» (XaaS) sont utilisés quasiment partout de nos jours, et l’organisation optimisée d’activités synchronisées devient un défi important. Dans le but de proposer à l’utilisateur final un service sécuritaire et fiable sans compromettre la qualité, les questions concernant la vérification et la validation des compositions des services deviennent d’un grand intérêt tant théorique que pratique. Dans les autres travaux traitant du sujet, de nombreux modèles et techniques sont proposés, mais la plupart mettent l’accent sur les aspects fonctionnels ou non-fonctionnels pris séparément, alors que l’intégration de ces paramètres en un modèle formel unifié reste un problème qui doit être résolu – ce qui est devenu par conséquent un des objectifs fondamentaux de cette thèse. Dans notre travail, nous réfléchissons aux problèmes de la vérification et de l’optimisation des compositions des services web. Tout ceci est étudié dans l’optique de la fonctionnalité des systèmes, de leur qualité et de la sécurité des compositions. Il a été prouvé que les modèles à états finis sont utiles à des fins de tests et de vérification, de même que pour le contrôle qualité à chaque étape du développement du service. C’est pour cette raison que nous proposons d’utiliser le modèle de machine temporisée à états finis (TFSM) pour intégrer une description fonctionnelle du service avec les paramètres de sécurité et de qualité liées au temps. L’extension du modèle permettra alors d’interpréter adéquatement le non-déterminisme significatif causé par un manque d’observabilité ou/et de contrôle sur les services tiers. Dans le but d’optimiser les compositions des systèmes, nous proposons une méthode pour dériver la solution la plus globale contenant tous les composants autorisés pour la mise en œuvre du service, basée sur la résolution de l’équation parallèle du TFSM. Ensuite, les techniques pour extraire des solutions restreintes avec les propriétés requises (paramètres de temps minimisé/maximisé, interblocages actifs ou passifs de sécurité, similarité avec le composant d’origine donné, etc.) ont été proposées. Dans le cas où les spécifications d’un service composite consistent en un ensemble d’exigences fonctionnelles, éventuellement renforcées par des exigences de qualité, nous proposons une technique de minimisation de l’ensemble, dans le respect du composant à optimiser. L’application des résultats obtenus à la découverte et à la mise en place de composants plus efficaces, ainsi que l’extension du modèle à des modes de communication plus complexes font partie des sujets possibles pour des études futures
Service-oriented architecture (SOA) together with a family of Everything-as-a-Service (XaaS) concepts nowadays are used almost everywhere, and the proper organization of collaborative activities becomes an important challenge. With the goal of bringing to the end-user safe and reliable service with the guaranteed level of quality, issues of service compositions verification and validation become of high practical and theoretical interest. In the related works, numerous models and techniques are proposed, but mostly focused on functional and non-functional issues in isolation, while integration of these parameters within unified formal framework still remains a problem to be solved – and therefore became one of the core objectives of this thesis. In our work, we address the problems of web service composition verification and optimization with respect to functional, quality and safety properties of the composition. Finite state models are proven to be useful for testing and verification purposes as well as for service quality evaluation at each step of service development. Therefore, we propose to use the model of Finite State Machine with Timeouts (TFSM) for integrating functional service description with time-related quality and safety parameters, and derive the extension of the model in order to adequately inherit significant nondeterminism due to the lack of observability and control over third-party component services. For the purpose of component optimization in the composition, we propose a method for deriving the largest solution containing all allowed component service implementations, based on solving TFSM parallel equation. Further, techniques for extracting restricted solutions with required properties (minimized/maximized time parameters, deadlock- and livelock-safety, similarity to the initially given component, etc.) have been proposed. In cases when the specification of a composite service is provided as a set of functional requirements, possibly, augmented with quality requirements, we propose a technique to minimize this set with respect to the component under optimization. Application of the obtained results for more efficient candidate component services discovery and binding, alongside with extending the framework for more complex distributed modes of communications, are among the topics for the future work
Los estilos APA, Harvard, Vancouver, ISO, etc.
34

Xydas, Ioannis. "Aide à la surveillance de l’application d’une politique de sécurité dans un réseau par prise de connaissance d’un graphe de fonctionnement du réseau". Limoges, 2007. https://aurore.unilim.fr/theses/nxfile/default/ba3a6a50-5708-4f1a-9d00-dca7fa1469cd/blobholder:0/2007LIMO4006.pdf.

Texto completo
Resumen
Dans ce mémoire nous étudions la possibilité d'appliquer la visualisation et l'analytique visuelle dans le contexte de l'analyse de données pour la sécurité des réseaux. En particulier nous avons étudié la sécurité web Internet et en employant une représentation visuelle "intelligente" des attaques web nous avons extrait la connaissance à partir d'un graphe de fonctionnement du réseau. Pour atteindre ce but nous avons conçu et développé un prototype d’un système intelligent. Ce système est une aide à la surveillance pour l'analyste de sécurité et l’administrateur web en lui offrant un outil visuel facile à utiliser pour détecter des anomalies dans des requêtes web en surveillant et explorant les graphiques 3D, ainsi que pour comprendre rapidement le genre d'attaque en cours d’exécution au moyen de couleurs et en ayant la possibilité de naviguer dans les données de la requête web, du trafic normal ou malveillant, pour une analyse complémentaire et une réponse appropriée. Les parties fondamentales d'un tel système sont l’intelligence artificielle et la visualisation. Un système évolutionnaire de réseaux de neurones artificiels combinant les réseaux de neurones et les algorithmes génétiques s'est avéré idéal pour la tâche de classification des attaques web
In this thesis we study the possibility of applying visualization and visual analytics in the context of data analysis for network security. In particular, we studied Internet web security and by using an “intelligent” visual representation of web attacks we extracted knowledge from a network operation graph. To achieve this goal we designed and developed an intelligent prototype system. This system is a surveillance aid for the security and web analyst, offering him/her a user friendly visual tool to detect anomalies in web requests by monitoring and exploring 3D graphs, to understand quickly the kind of undergoing attack by means of colours and the ability to navigate into the web request payload, of either normal or malicious traffic, for further analysis and appropriate response. The fundamental parts of such a system are Artificial Intelligence and Visualization. A hybrid expert system such as an Evolutionary Artificial Neural Network proved to be ideal for the classification of the web attacks
Los estilos APA, Harvard, Vancouver, ISO, etc.
35

Delignat-Lavaud, Antoine. "On the security of authentication protocols on the web". Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLEE018/document.

Texto completo
Resumen
Est-il possible de démontrer un théorème prouvant que l’accès aux données confidentielles d’un utilisateur d’un service Web (tel que GMail) nécessite la connaissance de son mot de passe, en supposant certaines hypothèses sur ce qu’un attaquant est incapable de faire (par exemple, casser des primitives cryptographiques ou accéder directement aux bases de données de Google), sans toutefois le restreindre au point d’exclure des attaques possibles en pratique?Il existe plusieurs facteurs spécifiques aux protocoles du Web qui rendent impossible une application directe des méthodes et outils existants issus du domaine de l’analyse des protocoles cryptographiques.Tout d’abord, les capacités d’un attaquant sur le Web vont largement au-delà de la simple manipulation des messages échangés entre le client et le serveur sur le réseau. Par exemple, il est tout à fait possible (et même fréquent en pratique) que l’utilisateur ait dans son navigateur un onglet contenant un site contrôlé par l’adversaire pendant qu’il se connecte à sa messagerie (par exemple, via une bannière publicitaire) ; cet onglet est, comme n’importe quel autre site, capable de provoquer l’envoi de requêtes arbitraires vers le serveur de GMail, bien que la politique d’isolation des pages du navigateur empêche la lecture directe de la réponse à ces requêtes. De plus, la procédure pour se connecter à GMail implique un empilement complexe de protocoles : tout d’abord, un canal chiffré, et dont le serveur est authentifié, est établi avec le protocole TLS ; puis, une session HTTP est créée en utilisant un cookie ; enfin, le navigateur exécute le code JavaScript retourné par le client, qui se charge de demander son mot de passe à l’utilisateur.Enfin, même en imaginant que la conception de ce système soit sûre, il suffit d’une erreur minime de programmation (par exemple, une simple instruction goto mal placée) pour que la sécurité de l’ensemble de l’édifice s’effondre.Le but de cette thèse est de bâtir un ensemble d’outils et de librairies permettant de programmer et d’analyser formellement de manière compositionelle la sécurité d’applicationsWeb confrontées à un modère plausible des capacités actuelles d’un attaquant sur le Web. Dans cette optique, nous étudions la conception des divers protocoles utilisés à chaque niveau de l’infrastructure du Web (TLS, X.509, HTTP, HTML, JavaScript) et évaluons leurs compositions respectives. Nous nous intéressons aussi aux implémentations existantes et en créons de nouvelles que nous prouvons correctes afin de servir de référence lors de comparaisons. Nos travaux mettent au jour un grand nombre de vulnérabilités aussi bien dans les protocoles que dans leurs implémentations, ainsi que dans les navigateurs, serveurs, et sites internet ; plusieurs de ces failles ont été reconnues d’importance critiques. Enfin, ces découvertes ont eu une influence sur les versions actuelles et futures du protocole TLS
As ever more private user data gets stored on the Web, ensuring proper protection of this data (in particular when it transits through untrusted networks, or when it is accessed by the user from her browser) becomes increasingly critical. However, in order to formally prove that, for instance, email from GMail can only be accessed by knowing the user’s password, assuming some reasonable set of assumptions about what an attacker cannot do (e.g. he cannot break AES encryption), one must precisely understand the security properties of many complex protocols and standards (including DNS, TLS, X.509, HTTP, HTML,JavaScript), and more importantly, the composite security goals of the complete Web stack.In addition to this compositional security challenge, onemust account for the powerful additional attacker capabilities that are specific to the Web, besides the usual tampering of network messages. For instance, a user may browse a malicious pages while keeping an active GMail session in a tab; this page is allowed to trigger arbitrary, implicitly authenticated requests to GMail using JavaScript (even though the isolation policy of the browser may prevent it from reading the response). An attacker may also inject himself into honest page (for instance, as a malicious advertising script, or exploiting a data sanitization flaw), get the user to click bad links, or try to impersonate other pages.Besides the attacker, the protocols and applications are themselves a lot more complex than typical examples from the protocol analysis literature. Logging into GMail already requires multiple TLS sessions and HTTP requests between (at least) three principals, representing dozens of atomic messages. Hence, ad hoc models and hand written proofs do not scale to the complexity of Web protocols, mandating the use of advanced verification automation and modeling tools.Lastly, even assuming that the design of GMail is indeed secure against such an attacker, any single programming bug may completely undermine the security of the whole system. Therefore, in addition to modeling protocols based on their specification, it is necessary to evaluate implementations in order to achieve practical security.The goal of this thesis is to develop new tools and methods that can serve as the foundation towards an extensive compositional Web security analysis framework that could be used to implement and formally verify applications against a reasonably extensive model of attacker capabilities on the Web. To this end, we investigate the design of Web protocols at various levels (TLS, HTTP, HTML, JavaScript) and evaluate their composition using a broad range of formal methods, including symbolic protocol models, type systems, model extraction, and type-based program verification. We also analyze current implementations and develop some new verified versions to run tests against. We uncover a broad range of vulnerabilities in protocols and their implementations, and propose countermeasures that we formally verify, some of which have been implemented in browsers and by various websites. For instance, the Triple Handshake attack we discovered required a protocol fix (RFC 7627), and influenced the design of the new version 1.3 of the TLS protocol
Los estilos APA, Harvard, Vancouver, ISO, etc.
36

Subramanian, Deepak. "Information Flow Control for the Web Browser through a Mechanism of Split Addresses". Thesis, CentraleSupélec, 2017. http://www.theses.fr/2017CSUP0006.

Texto completo
Resumen
Le monde moderne a évolué au point où de nombreux services tels que la banque et le shopping sont fournis grâce aux applications web. Ces applicationsWeb dépendent de logiciels reposant sur le modèle client-serveur. Parce que ces applications Web fournissent aux utilisateurs des services sensibles tels que la banque et le shopping, leur sécurité est d’une importance cruciale. Du côté serveur, la gamme des menaces de sécurité comprend des attaques telles que le déni de service, la mauvaise configuration de sécurité et l’injection de code malveillant par exemple, l’injection SQL). Du côté client, la majeure partie des problèmes de sécurité relève du navigateurWeb qui est l’interface entre les utilisateurs et l’application côté serveur: comme n’importe quel logiciel, il peut être sujet à des attaques telles que des dépassements de tampon. Cependant, il n’est pas suffisant d’empêcher indépendamment les menaces de sécurité côté client et côté serveur, car certains problèmes de sécurité des applicationsWeb sont intrinsèques aux applications Web elles-mêmes. Par exemple, dans l’Internet moderne, une page Web se compose de plusieurs pages Web aggrégées. Cette aggrégation de pages Web permet de construire une application Web qui utilise le contenu de plusieurs sources pour créer un seul nouveau service accessible via une interface graphique unique. Plus généralement, la difficulté de la sécurité des applications web réside dans le fait que l’exploitation d’une vulnérabilité côté serveur peut avoir un impact côté client, et inversement. Il est à noter que de nombreuses vulnérabilités côté serveur telles que Cross-Site Scripting (XSS) et Cross-Site Request Forgery (CSRF) ont un impact direct sur le navigateur Web.Dans cette thèse, nous nous concentrons sur la sécurité côté client, c’est-à-dire des navigateurs web, et nous nous limitons au contexte de Javascript. Nous ne considérons pas la résolution des vulnérabilités elles-mêmes, mais fournissons un mécanisme dans lequel les informations sensibles de l’utilisateur sont protégées de la divulgation (confidentialité) ainsi que des modifications non autorisées (intégrité) malgré la vulnérabilité exploitée. À cet effet, nous affirmons que les vulnérabilités basées sur des scripts malveillants sont caractérisées par des flux d’informations illégaux. Par conséquent, nous proposons une approche basée sur le contrôle du flux d’information (IFC - Information Flow Control). En effet, les approches basées sur IFC sont plus globales dans leur portée pour résoudre les problèmes et fournissent également des solutions plus simples pour gérer la sécurité de l’information dans son intégralité. Notre approche est basée sur un modèle IFC concret, appelé Address Split Design (ASD), qui consiste à séparer toute variable contenant des données sensibles et à maintenir la table de symboles pour protéger les accès à la partie secrète de telles variables. Nous avons implémenté notre modèle dans le moteur V8 chrome, un moteur JavaScript à part entière. Après la mise en oeuvre, des tests de performance et de conformité ont été effectués sur notre implémentation. La baisse de performance mesurée est significativement plus faible que d’autres approches comparatives. Nous avons également démontré que la mise en oeuvre de notre approche n’affecte pas le fonctionnement général des sites Web existants en effectuant un test sur les principaux sites Web d’Internet. De plus, nous avons également pu vérifier que notre modèle peut être utilisé pour protéger des variables dans plusieurs scénarios qui auraient autrement provoqué la divulgation d’informations secrètes
The modern world has evolved to the point where many services such as banking and shopping are provided thanks to web applications. These Web applications depend on server-side as well as client-side software. Because these web applications provide to users sensitive services such as banking and shopping, their security is of pivotal importance. From the server side, the range of the security threats includes attacks such as denial of service, security misconfiguration and injection of malicious code (i.e. SQL injection). From the client side, major part of the security issues come with the web browser that is the interface between the users and server side application: as any software, it can be subject to attacks such as buffer overflows. However, it is not sufficient to independently prevent security threats from each side, because some security issues of web applications are intrinsic to the web applications themselves. For instance, the modern internet consists of several webpages which are mashup webpages. A mashup, in web development, is a web page, or web application, that uses content from more than one source to create a single new service displayed in a single graphical interface. More generally, the difficulty of web application security lies in the fact that exploiting a server-side vulnerability can have a client-side impact, and vice versa. It must be noted that many vulnerabilities on the server side such as Cross-Site Scripting (XSS) and Cross-Site Request Forgery (CSRF) have a direct impact on the web browser.In this thesis, we focus on the client side security of the web browsers, and limit ourselves to the context of Javascript. We do not consider solving the vulnerabilities themselves but providing a mechanism where user’s sensitive information is protected from disclosure (confidentiality) as well as unauthorized modifications (integrity) despite the vulnerability being exploited. For that purpose, we affirm that the vulnerabilities based on malicious script are characterized by illegal information flows. Hence, we propose an approach based on Information Flow Control (IFC). Indeed, IFC-based approaches are more encompassing in their scope to solve problems and also provide more streamlined solutions to handling the information security in its entirety. Our approach is based on a practical IFC model, called Address Split Design (ASD), that consists in splitting any variable that contains sensitive data and maintaining the symbol table to protect accesses to the secret part of these variables. We have implemented our model on the chromium V8 engine, a full-fledged JavaScript engine. Following the implementation, performance and conformance testing have been done on our implementation. The measured performance drop is significantly smaller than other comparative approaches. We further showed that implementation of our approach does not affect the general working of existing websites by performing such a test over the top websites of the internet. Further, we have also been able to verify that our model can be used to protect variables in several scenarios that would have otherwise caused disclosure of secret information
Los estilos APA, Harvard, Vancouver, ISO, etc.
37

Levointurier, Christophe. "De la nécessité d'une vision holistique du code pour l'analyse statique et la correction automatique des Applications Web". Phd thesis, Université Rennes 1, 2011. http://tel.archives-ouvertes.fr/tel-00688117.

Texto completo
Resumen
L'omniprésence de l'informatique a comme conséquences, parmi d'autres, la multiplication du volume logiciel existant et en cours de développement pour répondre à une demande toujours croissante. Cette course à la productivité implique une industrialisation de la production de code sous contrôle qualitatif de plus en plus exigeante.Cette thèse tend à repousser des limites constatées dans le domaine de la qualité logicielle. Ces limites perceptibles dans les outils actuels concernent (1) le périmètre d'analyse, (2) l'ergonomie et les contextes d'utilisation, ainsi que (3) les solutions de correction du code proposées.Le point prépondérant de cette étude est la valorisation de l'ensemble des contenus qui entrentdans la composition d'une application pour améliorer les performances de l'analyse statique.Cette approche nous a permis d'obtenir des réponses plus complètes pour les problématiques déjà couvertes par l'existant. Cette diversité des sources nous a également permis de formuler des nouvelles analyses plus spécifiques et mieux adaptées aux caractéristiques de l'application cible. Nous avons aussi montré que la parallélisation de l'exécution et la possible automatisation de corrections aux problèmes trouvés lors de l'analyse permettent d'appliquer rapidement un nombre important de transformations sur un code volumineux.
Los estilos APA, Harvard, Vancouver, ISO, etc.
38

Su, Ziyi. "Application de gestion des droits numériques au système d'information d'entreprise". Phd thesis, INSA de Lyon, 2012. http://tel.archives-ouvertes.fr/tel-00737777.

Texto completo
Resumen
Pour faire face aux enjeux d'une économie mondialisée et aux fluctuations du marché, les entreprises (et principalement les PMEs) doivent développer de nouvelles stratégies de collaboration et d'organisation en réseau permettant de s'intéresser effectivement au réseau de création de valeur (et non pas se limiter à une simple organisation de chaîne de valeur) plus en rapport avec le contexte économique " blue ocean " visant le développement de produits et services innovants. Actuellement, ces réseaux de collaborations sont basés sur des relations de confiance et des communautés bien identifiées. Pour passer à une collaboration à très grande échelle, il importe d'accroître l'agilité et l'interopérabilité des entreprises et de leurs systèmes d'information pour permettre leur interconnexion. Cette stratégie de collaboration pose le problème d'une gestion de la sécurité " de bout en bout " pendant tout le cycle de vie des informations et processus partagés. Or les approches traditionnelles de sécurité ne proposent qu'une protection " statique " et " instantanée " ce qui ne permet pas de répondre aux contraintes de gestion des usage et d'adaptation dynamique requises par les organisations collaboratives. Pour répondre à ces enjeux, nous proposons d'adapter les approches de gestion des droits numériques (DRM) aux systèmes d'information. Après avoir proposé une architecture semi-distribuée de gestion des droits d'usage, nous avons proposé un modèle de politique de sécurité intégrant les droits d'usage et les obligations associées. Ceci nous a conduits à définir une syntaxe et une sémantique adaptée pour enrichir les politiques traditionnelles. Nos travaux ont porté ensuite sur la prise en compte de la dimension collaborative. Dans ce cadre nous avons proposé une algèbre d'intégration permettant de gérer la composition des politiques en fonction de l'ajout ou du retrait de partenaires dans l'organisation en analysant les processus métiers mis en œuvre par la collaboration. Enfin, notre architecture a été validée par un prototype incluant un moteur de négociation (construit sur l'outil "SUN XACML implementation"), un moteur d'agrégation s'appuyant sur JAVA DOM et JDOM et une composante d'analyse de contexte.
Los estilos APA, Harvard, Vancouver, ISO, etc.
39

Chiapponi, Elisa. "Detecting and Mitigating the New Generation of Scraping Bots". Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS490.

Texto completo
Resumen
Chaque jour, une guerre invisible pour les données se déroule entre les sites de commerce électronique et les acteurs qui,en siphonnent les données, sont appelés "scrapers'' . Les sites de commerce électronique détiennent les données au cœur du conflit et souhaitent les fournir uniquement aux utilisateurs légitimes. Les scrapers veulent un accès illimité et continu aux données susmentionnées pour en tirer profit. Pour atteindre cet objectif, les scrapers envoient de grandes quantités de requêtes aux sites de commerce électronique, ce qui leur cause des problèmes financiers. Cela a conduit l'industrie de la sécurité à s'engager dans une course aux armements contre les scrapers afin de créer de meilleurs systèmes pour détecter et contrer leurs activités. À l'heure actuelle, la bataille se poursuit, mais les scrapers semblent avoir le dessus, notamment grâce à leur utilisation de Proxies IP Résidentiels (RESIPs). Dans cette thèse, nous visons à rééquilibrer la balance des forces en introduisant de nouvelles techniques de détection et d'atténuation qui surmontent les limitations des méthodes actuelles. Nous proposons une technique inspirée des "pots de miel'' qui piège les scrapers en leur faisant croire qu'ils ont obtenu les données visées tandis qu'ils reçoivent des informations modifiées. Nous présentons deux nouvelles techniques de détection basées sur des mesures de réseau qui identifient les requêtes émanant de scrapers cachés derrière les infrastructures RESIP. À travers un partenariat en cours avec Amadeus IT Group, nous validons nos résultats en utilisant des données opérationnelles réelles. Conscients que les scrapers ne cesseront pas de chercher de nouvelles façons d'éviter la détection et l'atténuation, nous offrons des contributions qui peuvent aider à élaborer les prochaines armes défensives pour lutter contre les scrapers. Nous proposons une caractérisation complète des RESIPs, la plus puissante arme actuellement à la disposition des scrapers. De plus, nous examinons la possibilité d'acquérir des renseignements sur les menaces liées aux scrapers en les géolocalisant lorsqu'ils envoient des demandes via un RESIP
Every day an invisible war for data takes place between e-commerce websites and web scrapers. E-commerce websites own the data at the heart of the conflict and would like to provide it only to genuine users. Web scrapers aim to have illimited and continuous access to the above-mentioned data to capitalize on it. To achieve this goal, scrapers send large amounts of requests to e-commerce websites, causing them financial problems. This led the security industry to engage in an arms race against scrapers to create better systems to detect and mitigate their requests. At present, the battle continues, but scrapers appear to have the upper hand, thanks to the usage of Residential IP Proxies (RESIPs). In this thesis, we aim to shift the balance by introducing novel detection and mitigation techniques that overcome the limitations of current state-of-the-art methods. We propose a deceptive mitigation technique that lures scrapers into believing they have obtained their target data while they receive modified information. We present two new detection techniques based on network measurements that identify scraping requests proxied through RESIPs. Thanks to an ongoing collaboration with Amadeus IT Group, we validate our results on real-world operational data. Being aware that scrapers will not stop looking for new ways to avoid detection and mitigation, this thesis provides additional contributions that can help in building the next defensive weapons for fighting scrapers. We propose a comprehensive characterization of RESIPs, the strongest weapon currently at the disposal of scrapers. Moreover, we investigate the possibility of acquiring threat intelligence on the scrapers by geolocating them when they send requests through a RESIP
Los estilos APA, Harvard, Vancouver, ISO, etc.
40

Barquissau, Eric. "L’évaluation de la qualité de la relation client en ligne par les utilisateurs d’espaces clients de sites web : une application dans le secteur bancaire et dans le secteur de la téléphonie mobile". Thesis, Paris 10, 2013. http://www.theses.fr/2013PA100205.

Texto completo
Resumen
Internet a profondément changé la manière dont les entreprises interagissent avec leurs clients. Le développement d’une relation client en ligne a mené les organisations à repenser l’idée qu’elles se faisaient de cette relation, ainsi que leurs pratiques en termes de marketing relationnel. Cette recherche vise à mieux comprendre la manière dont les utilisateurs d’espaces clients de sites web évaluent la qualité de la relation client en ligne, et inclut une dimension importante dans l’évaluation de la qualité de la relation en ligne, l’appropriation de l’espace client.Une étude qualitative a été menée auprès de 15 personnes, afin d’étudier les variables permettant de construire le modèle de recherche et de proposer une échelle de mesure de l’appropriation des espaces clients de sites web. Par la suite, un modèle de recherche a été créé et un questionnaire en ligne a été administré. Un échantillon final se composant de 534 personnes, utilisatrices d’espaces clients de sites web dans le secteur bancaire et dans le secteur de la téléphonie mobile, a permis de tester les hypothèses de recherche. Il en résulte que l’appropriation de l’espace client du site web joue un rôle médiateur entre deux variables - la facilité d’utilisation perçue et l’utilité perçue - et la qualité de la relation client en ligne, que ce soit pour les utilisateurs d’espaces clients de sites web dans le secteur bancaire ou dans le secteur de la téléphonie mobile. De même, la sécurité/confidentialité perçue de l’espace client du site web exerce une influence positive sur la qualité de la relation client en ligne. L’hypothèse postulant que l’interactivité perçue de l’espace client du site web exerce une influence positive sur la qualité de la relation client en ligne est partiellement validée. En revanche, la présence sociale de l’espace client du site web n’exerce pas une influence positive sur la qualité de la relation client en ligne
The Internet has dramatically changed the way companies interact with their customers. Because of the importance of e-customer relationship management, companies have to reconsider their strategies in terms of relationship marketing. The purpose of this research is to investigate the way users of personal websites’ accounts evaluate e-relationship quality within two sectors: the banking sector and the mobile phone sector. This research deals with an important concept: appropriation.A qualitative study has been conducted in order to build a research model and to create a measurement scale to study the appropriation of a personal websites’ account. Therefore, an online survey (N=534) was conducted to test the hypothesis. The findings suggest that the appropriation of a personal websites’ account is a mediating variable between perceived ease of use, perceived usability and relationship quality, both in the banking sector and in the mobile phone sector. In the same way, privacy has a positive influence on e-relationship quality. Moreover, perceived interactivity has a positive influence on e-relationship quality, but that particular hypothesis is partially validated. Finally, social presence does not have a positive influence on e-relationship quality
Los estilos APA, Harvard, Vancouver, ISO, etc.
41

Shbair, Wazen M. "Service-Level Monitoring of HTTPS Traffic". Thesis, Université de Lorraine, 2017. http://www.theses.fr/2017LORR0029/document.

Texto completo
Resumen
Dans cette thèse, nous dressons tout d'abord un bilan des différentes techniques d'identification de trafic et constatons l'absence de solution permettant une identification du trafic HTTPS à la fois précise et respectueuse de la vie privée des utilisateurs. Nous nous intéressons dans un premier temps à une technique récente, néanmoins déjà déployée, permettant la supervision du trafic HTTPS grâce à l'inspection du champ SNI, extension du protocole TLS. Nous montrons que deux stratégies permettent de contourner cette méthode. Comme remédiation, nous proposons une procédure de vérification supplémentaire basée sur un serveur DNS de confiance. Les résultats expérimentaux montrent que cette solution pragmatique est efficace. Ensuite, nous proposons une architecture qui permet l'identification des services dans le trafic HTTPS, en se basant sur l'apprentissage automatique. Nous avons ainsi défini un nouvel ensemble de caractéristiques statistiques combinées avec une identification à deux niveaux, identifiant d'abord le fournisseur de services, puis le service, selon notre évaluation à partir de trafic réel. Enfin, nous améliorons cette architecture afin de permettre l'identification du trafic en temps réel en ne considérant que les premiers paquets des flux plutôt que leur totalité. Pour évaluer notre approche, nous avons constitué un dataset comportant les flux complets de chargement des principaux sites web et l'avons rendu public pour comparaison. Nous présentons également un prototype de logiciel reconstituant les flux HTTPS en temps réel puis les identifiant
In this thesis, we provide a privacy preserving for monitoring HTTPS services. First, we first investigate a recent technique for HTTPS services monitoring that is based on the Server Name Indication (SNI) field of the TLS handshake. We show that this method has many weakness, which can be used to cheat monitoring solutions.To mitigate this issue, we propose a novel DNS-based approach to validate the claimed value of SNI. The evaluation show the ability to overcome the shortage. Second, we propose a robust framework to identify the accessed HTTPS services from a traffic dump, without relying neither on a header field nor on the payload content. Our evaluation based on real traffic shows that we can identify encrypted HTTPS services with high accuracy. Third, we have improved our framework to monitor HTTPS services in real-time. By extracting statistical features over the TLS handshake packets and a few application data packets, we can identify HTTPS services very early in the session. The obtained results and a prototype implementation show that our method offers good identification accuracy, high HTTPS flow processing throughput, and a low overhead delay
Los estilos APA, Harvard, Vancouver, ISO, etc.
42

Lalanne, Vincent. "Gestion des risques appliquée aux systèmes d’information distribués". Thesis, Pau, 2013. http://www.theses.fr/2013PAUU3052/document.

Texto completo
Resumen
Dans cette thèse nous abordons la gestion des risques appliquée aux systèmes d’information distribués. Nous traitons des problèmes d’interopérabilité et de sécurisation des échanges dans les systèmes DRM et nous proposons la mise en place de ce système pour l’entreprise: il doit nous permettre de distribuer des contenus auto-protégés. Ensuite nous présentons la participation à la création d’une entreprise innovante qui met en avant la sécurité de l’information, avec en particulier la gestion des risques au travers de la norme ISO/IEC 27005:2011. Nous présentons les risques liés à l’utilisation de services avec un accent tout particulier sur les risques autres que les risques technologiques; nous abordons les risques inhérents au cloud (défaillance d’un provider, etc...) mais également les aspects plus sournois d’espionnage et d’intrusion dans les données personnelles (Affaire PRISM en juin 2013). Dans la dernière partie nous présentons un concept de DRM d’Entreprise qui utilise les métadonnées pour déployer des contextes dans les modèles de contrôle d’usage. Nous proposons une ébauche de formalisation des métadonnées nécessaires à la mise en œuvre de la politique de sécurité et nous garantissons le respect de la réglementation et de la loi en vigueur
In this thesis we discuss the application of risk management to distributed information systems. We handle problems of interoperability and securisation of the exchanges within DRM systems and we propose the implementation of this system for the company: it needs to permit the distribution of self-protected contents. We then present the (our) participation in the creation of an innovative company which emphasizes on the security of information, in particular the management of risks through the ISO/IEC 27005:2011 standard. We present risks related to the use of services, highlighting in particular the ones which are not technological: we approach inheritent risks in clouds (provider failure, etc ...) but also the more insidious aspects of espionage and intrusion in personal data (Case PRISM in June 2013). In the last section, we present a concept of a DRM company which uses metadata to deploy settings in usage control models. We propose a draft formalization of metadata necessary for the implementation of a security policy and guarantee respect of regulations and legislation
Los estilos APA, Harvard, Vancouver, ISO, etc.
43

Baina, Amine. "Controle d'accès pour les grandes infrastructures critiques. Application au réseau d'énergie électrique". Phd thesis, INSA de Toulouse, 2009. http://tel.archives-ouvertes.fr/tel-00432841.

Texto completo
Resumen
En raison de ses vulnérabilités physiques et logiques, une infrastructure critique (IC) peut subir des défaillances, et en raison des interdépendances entre IC, de simples défaillances peuvent avoir des conséquences dramatiques sur lensemble de linfrastructure. Dans notre travail, nous nous concentrons principalement sur les systèmes dinformation et de communication (lIIC : infrastructure dinformation critique) dédiés au réseau d'énergie électrique. Nous proposons une nouvelle approche pour répondre aux problèmes de sécurité que rencontre une IIC, plus particulièrement, ceux liés au contrôle d'accès et à la collaboration. Le but est doffrir à chaque organisation faisant partie de lIIC la possibilité de collaborer avec les autres, tout en maintenant un contrôle sur ses données et sa politique de sécurité internes. Nous avons modélisé, et développé PolyOrBAC, une plateforme de contrôle daccès collaboratif, basée sur le modèle de contrôle daccès OrBAC et sur la technologie des Services Web, cette plateforme est applicable dans le contexte dune infrastructure critique en général, et plus particulièrement dans le cadre dun réseau électrique.
Los estilos APA, Harvard, Vancouver, ISO, etc.
44

Khéfifi, Rania. "Informations personnelles sensibles aux contextes : modélisation, interrogation et composition". Thesis, Paris 11, 2014. http://www.theses.fr/2014PA112194/document.

Texto completo
Resumen
Cette thèse a été réalisée dans le cadre du projet PIMI, financé par l’Agence Nationale de la Recherche. Elle porte sur la modélisation et l’utilisation d’informations personnelles dont la validité ou l'utilisabilité dépend du contexte. Plus particulièrement, elle a pour but d'aider l’utilisateur à réaliser des procédures en ligne. Elle aborde les problématiques de la représentation d’informations hétérogènes,d’interrogation d’espaces d’informations personnelles contextualisées, de remplissage automatique de formulaires et de réalisation automatique de procédures définies à un haut niveau d’abstraction par composition de services disponibles en ligne. Pour répondre à ces problématiques, nous avons proposé plusieurs contributions.La première contribution porte sur la gestion d’un espace d’informations personnelles. Nous avons proposé une modélisation permettant la description des informations personnelles en utilisant plusieurs ontologies de domaine. Ces informations personnelles sont ainsi instanciées avec différentes valeurs dont l’utilisabilité dépend du contexte et d'un degré d'utilisabilité. Nous avons également proposé deux algorithmes d’interrogation contextuelles SQE et FQE qui permettent la recherche par des requêtes sur des informations personnelles stockées.La seconde contribution porte sur l'utilisation de ces informations par de différents services en ligne, et ce dans deux cas. Dans le cas du remplissage automatique de formulaires, nous avons proposé un algorithme permettant de générer une requête sémantique à partir de la représentation annotée d’un formulaire. Cette requête est évaluée en utilisant les deux algorithmes d'interrogation SQE et FQE. Dans le cas de la réalisation d'un objectif utilisateur par composition de services, nous avons étendu l'algorithme de Graphplan pour prendre en compte la contextualisation des données et des politiques de sécurité spécifiées par l'utilisateur. Ces dernières permettent ainsi à l'utilisateur d'augmenter le contrôle sur ses informations et de limiter leur divulgation
This thesis was conducted within the PIMI project, financed by the National Agency of the Research. It concerns the modeling, the querying and thecomposition of personal information. We considered that the use and the accessto personal information is context dependent (e.g., social, geographical). More particularly, it aims to support the user when realising online,administrative or personal procedures. In this setting, the tackled problems arethe representation of heterogeneous information, the context-aware personalinformation spaces querying, the automatic form-filling and the automaticrealization of procedures defined at a high level of abstraction by compositionof online available services.To solve these problems, we have developped several contributions. The first oneconcerns the management of the personal information space. We havedefined a model allowing the description of personal information using severaldomain ontologies. Our model can be instantiated on the user's personalinformation with several usability values depending on the context and with ausability degree. We have also proposed two contextualquerying algorithms SQE and FQE which allow to query the recorded information.The second contribution concerns the use of these information by several onlineservices. It presents two use cases. In the case of the automaticforms-filling, we have proposed an algorithm allowing to generate a semanticquery from an annotated form representation. This query is evaluated by usingboth querying algorithms SQE and FQE. Then, in the case of the user objectiverealization (an abstract procedure) by service composition, we have extendedthe Graphplan algorithm to take into account the contextualization of the dataand the access policy rules specified by the user. The latter allows the user toincrease the control of its information and to limit their leaking
Los estilos APA, Harvard, Vancouver, ISO, etc.
45

Baïna, Amine. "Contrôle d'Accès pour les Grandes Infrastructures Critiques : application au réseau d'énergie électrique". Toulouse, INSA, 2009. http://eprint.insa-toulouse.fr/archive/00000296/.

Texto completo
Resumen
En raison de ses vulnérabilités physiques et logiques, une infrastructure critique (IC) peut subir des défaillances, et en raison des interdépendances entre IC, de simples défaillances peuvent avoir des conséquences dramatiques sur l’ensemble de l’infrastructure. Dans notre travail, nous nous concentrons principalement sur les systèmes d’information et de communication (l’IIC : infrastructure d’information critique) dédiés au réseau d'énergie électrique. Nous proposons une nouvelle approche pour répondre aux problèmes de sécurité que rencontre une IIC, plus particulièrement, ceux liés au contrôle d'accès et à la collaboration. Le but est d’offrir à chaque organisation faisant partie de l’IIC la possibilité de collaborer avec les autres, tout en maintenant un contrôle sur ses données et sa politique de sécurité internes. Nous avons modélisé, et développé PolyOrBAC, une plateforme de contrôle d’accès collaboratif, basée sur le modèle de contrôle d’accès OrBAC et sur la technologie des Services Web, cette plateforme est applicable dans le contexte d’une infrastructure critique en général, et plus particulièrement dans le cadre d’un réseau électrique
Because of its physical and logical vulnerabilities, critical infrastructure (CI) may suffer failures, and because of the interdependencies between CIs, simple failures can have dramatic consequences on the entire infrastructure. In our work, we mainly focus on information systems and communications (CII: Critical Information Infrastructure) dedicated to the electrical power grid. We proposed a new approach to address security problems faced by an IIC, particularly those related to access control and collaboration. The goal of this study is to provide each organization belonging to the IIC the opportunity to collaborate with others while maintaining control over its data and its internal security policy. We modeled and developed PolyOrBAC, a platform for collaborative access control, based on the access control model OrBAC and on the Web Services technology, this platform is applicable in the context of a critical infrastructure in general, and more particularly to an electrical power grid
Los estilos APA, Harvard, Vancouver, ISO, etc.
46

Avanesov, Tigran. "Résolution de contraintes de déductibilité : application à la composition de services Web sécurisés". Phd thesis, Université Henri Poincaré - Nancy I, 2011. http://tel.archives-ouvertes.fr/tel-00641237.

Texto completo
Resumen
Les contraintes de déductibilité ont été introduites pour vérifier les protocoles cryptographiques. Cette thèse présente une procédure de décision pour le problème de satisfaisabilité des systèmes généraux de contraintes de déductibilité. Deux cas sont envisagés: la théorie de Dolev-Yao standard et son extension par un opérateur associatif, commutatif, idempotent. Le résultat est utilisé pour résoudre le problème de l'orchestration automatique et distribué de services Web sécurisés. Comme seconde application nous proposons une procédure pour décider la sécurité d'un nombre fini de sessions de protocole en présence de plusieurs intrus qui ne communiquent pas. Nous montrons également comment il est possible de détecter certaines attaques par réécriture qui exploitent le format des messages en XML.
Los estilos APA, Harvard, Vancouver, ISO, etc.
47

Poitevin-Lavenu, François. "E-fiscalité : les règles fiscales à l'ère de la dématérialisation". Thesis, Paris 2, 2011. http://www.theses.fr/2011PA020043.

Texto completo
Resumen
La dématérialisation des échanges commerciaux nécessite des règles fiscales claires afin de sauvegarder la souveraineté fiscale de l’État et préserver la sécurité juridique indispensable pour le bon déroulement de la vie des affaires dans le cadre de l’accroissement du commerce électronique. Il s’agit de mettre en exergue le droit fiscal interne et les règles fiscales internationalement acceptées, que ce soit en matière d’impôts directs ou indirects. Plus largement, ce processus de dématérialisation induit une révolution dans l’organisation de l’administration fiscale et des prérogatives qu’elle détient. Les adaptations des procédures de déclaration, de recouvrement et de contrôle fiscal sont incontournables et lesdites procédures s’en trouvent profondément bouleversées. Les entreprises et les particuliers doivent alors s’adapter à ce nouvel environnement, qu’ils exercent ou non une activité de commerce électronique
The business exchange dematerialization needs clear tax rules to preserve state tax rights and transactions security for the global business within the framework e-commerce growth. We have to examine domestic law and international tax law for direct or indirect taxes. The dematerialization process leads widely organization and prerogatives tax authorities’ revolution. The tax return, the collection of tax and the tax audit adaptations must be addressed and procedures are deeply changed. Companies and private individuals have to adapt to the new technologies even if they do e-business or not
Los estilos APA, Harvard, Vancouver, ISO, etc.
48

El, jaouhari Saad. "A secure design of WoT services for smart cities". Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2018. http://www.theses.fr/2018IMTA0120/document.

Texto completo
Resumen
WebRTC est une technologie récente de communication qui permet d’établir des échanges multimédia conversationnels directement entre navigateurs. Nous nous intéressons dans cette thèse à des locuteurs dans un Smart Space (SS) défini comme un environnement centré-utilisateur instrumenté par unensemble de capteurs et d’actionneurs connectés. Nous analysons les capacités nécessaires pour permettre à un participant d’une session WebRTC d’impliquer dans cette même session, les flux induits par les objets connectés appartenant au SS d’un utilisateur quelconque de la session. Cette approche recèle un gisement de nombreux nouveaux usages. Nous limitons notre analyse à ceux concernant l’exercice distant d’une expertise et d’un savoir-faire. Techniquement, il s’agit d’articuler de façon contrôlée WebRTC et IoT/WoT. Nous procédons à une extension de WebRTC par WoT pour fournir à tout utilisateur d’une session WebRTC, un accès aux objets connectés du SS de tout autre participant à la session, en mettant l’accent sur la sécurisation de cet accès ainsi que sur sa conformité aux exigences de respect de la vie privée (RGPD) de l’utilisateur concerné. Le positionnement de notre approche dans le contexte des services de communication opérant dans les villes connectées, impose la prise en compte de SSs multiples et variés induisant chacun ses propres politiques de routage et de sécurité. Pour répondre à nos objectifs, il devient nécessaire au cours d’une session WebRTC, d’identifier, sélectionner, déployer et appliquer les règles de routage et de sécurité de façon à garantir un accès rapide et sécurisé aux différents SSs concernés et distribués sur tout le réseau. Nous développons une architecture originale répondant à ces besoins et intégrant un contrôleur SDN du fait de l’étroite imbrication entre les problématiques de routage et de sécurité. Un prototype illustrant notre approche a été mis en oeuvre et testé afin d’évaluer la performance et la sécurité du système. Nous illustrons finalement notre approche dans le domaine de la santé en démontrant son apport pour gérer une infrastructure de grande taille telle qu’un hôpital
The richness and the versatility of WebRTC, a new peer-to-peer, real-time and browser based communication technology, allowed the imagination of new and innovative services. In this thesis, we analyzed the capabilities required to allow a participant in a WebRTC session to access the smart Things belonging to his own environment as well as those of any other participant in the same session. The access to such environment, which we call “SmartSpace (SS)”, can be either passive, for example by monitoring the contextual information provided by the sensors, or active by requesting the execution of commands by the actuators, or a mixture of both. This approach deserves attention because it allows solving in an original way various issues such as allowing experts to remotely exercise and provide their expertise and/or knowing how. From a technical point of view the issue is not trivial because it requires a smooth and mastered articulation between two different technologies: WebRTC and the Internet of Things (IoT) /Web of Things (WoT). Hence, the first part of the problem studied in this thesis, consists in analyzing the possibilities of extending WebRTC capabilities with theWoT. So as to provide a secure and privacy-respectful access to the various smart objects located in the immediate environment of a participant to any otherend-user involved in the same ongoing WebRTC session. This approach is then illustrated in the ehealth domain and tested in a real smart home (a typical example of a smart space). Moreover,positioning our approach in the context of communication services operating in smart cities requires the ability to support a multiplicity of SSs,each with its own network and security policy. Hence,in order to allow a participant to access one of his own SSs or one of another participant (through a delegation of access process), it becomes necessary to dynamically identify, select, deploy, and enforce the SS’s specific routing and security rules, so as to have an effective, fast and secure access. Therefore, the second part of the problem studied in this Ph.D.consists in defining an efficient management of the routing and security issues regarding the possibility of having multiple SSs distributed over the entire network
Los estilos APA, Harvard, Vancouver, ISO, etc.
49

Zheng, Lili. "Les antécédents et les conséquences des risques perçus dans les achats sur Internet en Chine et en France : une approche interculturelle". Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENG011/document.

Texto completo
Resumen
Les risques perçus associés aux achats en ligne ont un effet critique sur la prise de décision du consommateur. En outre, étant donnée la mondialisation rapide des achats en ligne, une compréhension des raisons pour lesquelles les risques perçus varient en fonction de différentes cultures dans les achats en ligne est pertinente. La question de recherche qui motive cette étude est la suivante: « Quelles sont les différences significatives dans les effets de plusieurs déterminants des risques perçus dans les achats de vêtements en ligne en fonction des différences culturelles entre la Chine et la France ? » Un modèle d'équations structurelles est développé sur les relations hypothétiques entre les construits de l'étude. La recherche a apporté quelques résultats. Tout d'abord, nous avons constaté que les répondants chinois et français perçoivent de faibles niveaux de risques non-personnels et personnels dans leurs achats de vêtements sur Internet, mais les répondants chinois perçoivent un niveau plus élevé de risques non-personnels et personnels que les français. Le deuxième résultat principal est que le rôle des déterminants des risques perçus (la préoccupation des informations personnelles, la protection de la sécurité et la réputation des vendeurs en ligne) sur les risques perçus dans les achats en ligne varient selon les cultures. La réputation du site Web est plus valorisée dans les cultures collectivistes (Chine), tandis que la préoccupation des informations personnelles et la protection de la sécurité sont plus valorisées dans les cultures individualistes (France). Enfin, à la fois pour l'échantillon chinois et français, les risques perçus non-personnels ont un effet significatif sur l'intention à racheter. D'autre part, en ce qui concerne l'effet des risques perçus personnels, nous avons constaté qu'il y avait un effet négatif des risques perçus personnels sur les consommateurs chinois
The perceived risks associated with online shopping have a critical effect on consumer decision making. In addition, cultural values provide a good theoretical basis for understanding perceived risk. Given the rapid globalization of online shopping, an understanding of the reasons why perceived risk vary in different cultures regarding online shopping should be crucial. The research question furnishing the main impetus for this study is: What are the significant differences in the effect of several determinants of perceived risk of online clothing shopping depending on cultural differences between China and France? Structural equation models with the maximum likelihood estimation method are employed to test all the hypothesized relationships. The research puts forth some findings. First, it is interesting to note that both the Chinese and French respondents perceive low levels of non-personal and personal risk regarding their online clothing purchases, but the Chinese respondents perceive higher non-personal risk than the French respondents and higher personal risk than the French respondents. The second key finding is that privacy concerns, security protection, and reputation have different effects on both consumer perception of non-personal risk and personal risk depending on cultural differences. Reputation is more valued in collectivist cultures (China), while privacy concerns and security protection are more valued in individualist cultures (France). Additionally, for both the Chinese and French samples, non-personal perceived risk significantly effects intention to repurchase. We found personal perceived risk has a significant effect only on Chinese consumer intention to repurchase
Los estilos APA, Harvard, Vancouver, ISO, etc.
50

Duffort, Benoit. "Les politiques de défense française et britannique face à l'émergence de la politique européenne de sécurité et de défense [1991-2001]". Thesis, Paris 3, 2009. http://www.theses.fr/2009PA030048.

Texto completo
Resumen
Un demi-siècle après la signature du traité de Dunkerque, la France et le Royaume-Uni signèrent, à Saint Malo, une déclaration sur la défense européenne d’une portée historique fondamentale. Cette déclaration fut à l’origine de la mise en œuvre, dans le cadre de l’Union européenne, de la politique européenne de sécurité et de défense, qui fut déclarée « opérationnelle » à l’occasion du sommet de Laeken, en décembre 2001. Acteurs principaux de ce processus, la France et le Royaume-Uni avaient des intérêts essentiels à garantir dans la conduite des négociations européennes et transatlantiques qui aboutirent à ce compromis historique. Sur la base de documents d’archives récemment déclassifiés ou consultés sur dérogation, d’entretiens menés avec des acteurs de premier plan, ou encore des travaux parlementaires publiés sur cette question, cette thèse se propose d’analyser l’évolution des politiques de défense française et britannique, dans leur acception la plus étendue, en amont de ce processus et à compter de la mise en place de la politique étrangère et de sécurité commune, véritable berceau de la PESD, instituée à l’issue de la conférence intergouvernementale de 1991, qui aboutit à l’établissement de l’Union européenne
Half a century after the Dunkirk treaty, France and the United Kingdom signed in Saint-Malo a declaration on European defence of paramount historic significance. From this declaration originated the implementation, within the frame of the European Union, of the European Security and Defence Policy, which was declared ‘operational’ in December 2001 during the Laeken Summit. As leading parties of this process France and the United Kingdom had essential interests to safeguard in the conducting of the European and transatlantic negotiations which resulted in this historic compromise. Based on archival records which have been either recently released or consulted by special dispensation, on discussions with leading figures of the period or on parliamentary papers about the question, this thesis intends to analyse the evolution of the French and British defence policies in their fullest sense prior to this process and from the enforcement of the Common Foreign and Security Policy, from which originated the ESDP, instituted at the end of the 1991 Intergovernmental Conference which led to the implementation of the European Union
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía