Tesis sobre el tema "Télécommunications – Trafic – Mesures de sûreté"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 50 mejores tesis para su investigación sobre el tema "Télécommunications – Trafic – Mesures de sûreté".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Kheir, Nizar. "Response policies and counter-measure : management of service dependencies and intrusion and reaction impacts". Télécom Bretagne, 2010. http://www.theses.fr/2010TELB0162.

Texto completo
Resumen
Nowadays, intrusion response is challenged by both attack sophistication and the complexity of target systems. In fact, Internet currently provides an exceptional facility to share resources and exploits between novice and skilled attackers. As a matter of fact, simply detecting or locally responding against attacks has proven to be insufficient. On the other hand, in order to keep pace with the growing need for more interactive and dynamic services, information systems are getting increasingly dependent upon modular and interdependent service architectures. In consequence, intrusions and responses often have drastic effects as their impacts spread through service dependencies. We argue in this thesis that service dependencies have multiple security implications. In the context of intrusion response, service dependencies can be used to find the proper enforcement points which are capable to support a specific response strategy. They can be also used in order to compute the impact of such responses in order to select the least costly response. In a first attempt to realize the thesis objectives, we explore graph-based service dependency models. We implement intrusion and response impacts as security flows that propagate within a directed graph. We introduce countermeasures as transformations to the dependency graph, and which have direct implications on the impact flows triggered by an intrusion. In a second step, we replace the analytic graph-based approach with a simulation-based approach using colored Petri nets. We develop for this purpose a new service dependency model that outperforms the initial graph-based models. It represents access permissions that apply to service dependencies. Attacker permissions are also implemented in this model by interfacing with attack graphs. We develop a simulation platform that tracks the propagation of intrusion impacts, response impacts, and the combined impacts for intrusion and response. We define a new response index, the return on response investment (RORI), that we evaluate for each response candidate with the aim to select the one that provides a maximal positive RORI index.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Lassoued, Imed. "Adaptive monitoring and management of Internet traffic". Nice, 2011. http://www.theses.fr/2011NICE4110.

Texto completo
Resumen
Les mesures de trafic permettent aux opérateurs de réseaux de réaliser plusieurs applications de surveillances telles que l’ingénierie du trafic, l’approvisionnement des ressources, la gestion de réseaux, et la détection d’anomalies. Cependant, les solutions existantes présentent plusieurs problèmes, à savoir le problème de scalabilité, le problème de la détection des changements dans le trafic du réseau, et le problème de la perte d’informations significatives sur le trafic. La principale conséquence de cette tendance est un désaccord entre les solutions de surveillance existantes et les besoins croissants des applications de gestion des réseaux ; Ainsi, l’amélioration des applications de surveillance présente un défi majeur et un énorme engagement pour les grands réseaux. Ce défi devient plus difficile avec la croissance remarquable de l’infrastructure d’Internet, l’hétérogénéité des comportements des utilisateurs et l’émergence d’une large variété d’applications réseau. Dans ce contexte, nous présentons la conception d’une architecture centralisée adaptative qui fournit une visibilité sur l’ensemble du réseau grâce à un système cognitif de surveillance de son trafic. Nous considérons les exigences suivantes dans la conception de notre système de surveillance de réseaux. La première souligne le fait que les vendeurs ne veulent pas mettre en œuvre des outils d’échantillonnage sophistiqués qui donne nt de bons résultats dans certaines circonstances. Ils veulent mettre en œuvre des solutions simples et robustes qui sont bien décrites par une certaine norme (i. E. S’Flow, NetFlow). Ainsi, nous décidons de concevoir une nouvelle solution qui utilise des techniques de surveillance existantes et tente de coordonner les responsabilités entre les différents moniteurs afin d’améliorer la précision globale des mesures. La deuxième exigence stipule que le système de surveillance devrait fournir des informations générales sur l’ensemble du réseau0. Pour ce faire, nous adaptons une approche centralisée qui offre une visibilité sur l’ensemble du réseau. Notre système combine les différentes mesures locales en vue d’atteindre le compromis entre l’amélioration de la précision des résultats et le respect des contraintes de surveillance. Et la dernière exigence indique que le système de surveillance devrait régler le problème de scalabilité et respecter les contraintes de surveillance. Par conséquent, notre système repose sur un module de configuration de réseau qui fournit une solution réactive capable de détecter les changements dans les conditions du réseau et d’adapter la configuration des moniteurs à l’état du réseau. De plus, ils évitent les détails et les oscillations inutiles dans le trafic afin de garder la consommation des ressources dans les limites souhaitées. Le module de reconfiguration du réseau utilise des outils locaux de surveillance et ajuste automatiquement et périodiquement leurs taux d’échantillonnage afin de coordonner les responsabilités et répartir le travail entre les différents moniteurs
Traffic measurement allows network operators to achieve several purposes such as traffic engineering, network resources provisioning and management, accounting and anomaly detection. However, existing solutions suffer from different problems namely the problem of scalability to high speeds, the problem of detecting changes in network conditions, and the problem of missing meaningful information in the traffic. The main consequence of this trend is an inherent disagreement between existing monitoring solutions and the increasing needs of management applications. Hence, increasing monitoring capabilities presents one of the most challenging issues and an enormous undertaking in a large network. This challenge becomes increasingly difficult to meet with the remarkable growth of the Internet infrastructure, the increasing heterogeneity of user’s behaviour and the emergence of a wide variety of network applications. In this context, we present the design of an adaptive centralized architecture that provides visibility over the entire network through a net-work-wide cognitive monitoring system. We consider the following important requirements in the design of our network-wide monitoring system. The first underscores the fact that the vendors do not want to implement sophisticated sampling schemes that give good results under certain circumstances. They want to implement simple and robust solutions that are well described by some form of a standard (i. E. SFlow, NetFlow). Thus, we decide to design a new solution that deals with existing monitoring techniques and tries to coordinate responsibilities between the different monitors in order to improve the overall accuracy. The second requirement stipulates that the monitoring system should provide general information of the entire network. To do so, we adopt a centralized approach that provides visibility over the entire network. Our system investigates the different local measurements and correlates their results in order to address the trade off between accuracy and monitoring constraints. Ands the last requirement indicates that the monitoring system should address the scalability problem and respect monitoring constraints. To this end, our system relies on a network configuration module hat provides a responsive solution able to detect changes in network conditions and adapt the different sampling rates to network state. At the same time it avoids unnecessary details and oscillations in the traffic in order to keep the resulting overhead within the desired bounds. The network reconfiguration module deals with local monitoring tools and adjusts automatically and periodically sampling rates in order to coordinate responsibilities and distribute the work between the different monitors
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Jarma, Yesid. "Protection de ressources dans des centres de données d'entreprise : architectures et protocoles". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2012. http://tel.archives-ouvertes.fr/tel-00666232.

Texto completo
Resumen
Au cours des dernières années, l'apparition de l'Internet a changé la façon dont les affaires sont menées partout dans le monde. Pour rester compétitives, les entreprises ont déployé du support informatique pour les processus métiers au fil des années. Dans ce contexte, les architectures orientées service (SOA) ont émergé comme la solution principale pour l'intégration des systèmes patrimoniaux avec les nouvelles technologies au coeur des grandes organisations. Les centres de traitement de données d'entreprise qui implémentent les concepts et solutions des SOA sont normalement déployés en suivant une architecture à deux niveaux où, pour libérer les serveurs de services des tâches computationnelles intensives (e.g., l'analyse syntaxique de documents XML) et pour effectuer de la protection de ressources, ces fonctions sont déchargées dans un cluster d'appliances qui implémentent des fonctions des réseaux orientées service (SON). Dans les centres de traitement, l'accès aux services est gouverné par des contrats de garantie de services (SLA), dont le but est de protéger les ressources du centre de traitement. Actuellement, les appliances SON sont utilisées pour protéger les ressources du centre de traitement en limitant l'accès (e.g., en contrôlant le trafic) aux services. Le provisionnement et l'optimisation de ressources sont des problèmes classiques de la gestion de la QoS. En outre, le contrôle de trafic est un problème très connu de l'ingénierie de trafic. Cependant, dans les centres de traitement orientés service le problème est fondamentalement diffèrent. Dans les réseaux classiques, les ressources protégée par la fonction de mise en conformité sont normalement la bande passante et la taille des mémoires tampon, dont les unités de mesure sont clairement définies et mesurées avec précision. Dans un centre de traitement, les métriques des ressources sont comprises pour la plupart dans un des types suivants: puissance de calcul et mémoire des serveurs d'application (CPU et RAM), capacité de stockage des serveurs de stockage (espace en disque dur), et la bande passante du réseau interne du centre de traitement. Une autre différence fondamentale est que, dans les réseaux dits "classiques", le contrôle de trafic a une étendue locale, puisque le trafic prend la conformité d'une connexion simple. Dans un centre de traitement, les clients de service accèdent aux services à partir de multiples points d'entrée (p.ex., un cluster d'appliances SON). Ainsi, l'effet désiré est une mise en conformité "globale" du trafic. Le défi est donc faire respecter les contrats de service en agissant localement dans chaque point d'entrée. Cette thèse apporte trois contributions. D'abord nous proposons DoWSS, un algorithme dynamique basé sur des crédits pour la mise en conformité de trafic multipoint-à-point. À la différence des approches existantes basées sur des crédits, notre approche utilise une stratégie doublement pondérée pour l'affectation de crédits, en utilisant des poids basés sur la taille des requêtes de service. L'évaluation de DoWSS montre que ses performances sont optimales puisqu'il limite le nombre de requêtes au maximum permis par le contrat de service. Par la suite, nous affirmons que les appliances SON actuelles présentent des limitations architecturales qui les empêchent d'être utilisées efficacement pour la mise en conformité de trafic en présence d'hôtes de service multiples. Pour palier à ce problème, nous proposons MuST, une architecture interne pour les appliances SON appropriée pour la mise en conformité de trafic multi-service. L'évaluation des performances de notre approche montre qu'elle résout le problème de la mise en conformité de trafic multipoint-à-multipoint tout en poussant le système à être utilisé à sa capacité maximale. Finalement, actuellement les applications sont souvent déployées dans des centres de données géographiquement distribués. Les approches existantes pour la mise en conformité de trafic, lesquelles ont étés conçues spécifiquement pour des centres de données aménagés sur un même site, présentent des problèmes liés aux latences réseau quand ils sont utilisés dans des environnements géographiquement distribués. Pour palier à ce problème, nous proposons GeoDS, un approche pour la mise en conformité du trafic géographiquement distribué qui considère les délais de communication entre les entités qui forment le système. L'évaluation de ses performances montre qu'il est capable de résoudre efficacement le problème de la mise en conformité du trafic dans les environnements géographiquement distribués.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Farraposo, Silvia. "Contributions on detection and classification of internet traffic anomalies". Phd thesis, Université Paul Sabatier - Toulouse III, 2009. http://tel.archives-ouvertes.fr/tel-00400506.

Texto completo
Resumen
Il est évident aujourd'hui que le trafic Internet est bien plus complexe et irrégulier qu'escompté, ce qui nuit grandement à un fonctionnement efficace des réseaux, ainsi qu'à la garantie de niveaux de performances et de qualité de service (QdS) satisfaisants. En particulier, le comportement du réseau est surtout mis à mal lorsque le trafic contient des anomalies importantes. Différentes raisons peuvent être à la source de ces anomalies, comme les attaques de déni de service (DoS), les foules subites ou les opérations de maintenance ou de gestion des réseaux. De fait, la détection des anomalies dans les réseaux et leurs trafics est devenue un des sujets de recherche les plus chauds du moment. L'objectif de cette thèse a donc été de développer de nouvelles méthodes originales pour détecter, classifier et identifier les anomalies du trafic. La méthode proposée repose notamment sur la recherche de déviations significatives dans les statistiques du trafic par rapport à un trafic normal. La thèse a ainsi conduit à la conception et au développement de l'algorithme NADA : Network Anomaly Detection Algorithm. L'originalité de NADA - et qui garantit son efficacité - repose sur l'analyse du trafic selon 3 axes conjointement : une analyse multi-critères (octets, paquets, flux, ...), multi-échelles et selon plusieurs niveaux d'agrégations. A la suite, la classification repose sur la définition de signatures pour les anomalies de trafic. L'utilisation des 3 axes d'analyse permettent de détecter les anomalies indépendamment des paramètres de trafic affectés (analyse multi-critères), leurs durées (analyse multi-échelles), et leurs intensités (analyse multi-niveaux d'agrégation). Les mécanismes de détection et de classification d'anomalies proposés dans cette thèse peuvent ainsi être utilisés dans différents domaines de l'ingénierie et des opérations réseaux comme la sécurité des réseaux, l'ingénierie du trafic ou des réseaux superposés, pour citer quelques exemples. Une contribu tion importante de la thèse a trait à la méthode de validation et d'évaluation utilisée pour NADA. NADA a ainsi été validé sur une base de trace de trafic contenant des anomalies documentées, puis évalué sur les principales traces de trafic disponibles. Les résultats obtenus sont de très bonne facture, notamment lorsqu'ils sont comparés avec ceux obtenus par d'autres outils de détection d'anomalies. De plus, la qualité des résultats est indépendante du type de trafic analysé et du type d'anomalie. Il a été en particulier montré que NADA était capable de détecter et classifier efficacement les anomalies de faible intensité, qui sont apparues comme des composantes essentielles des attaques DOS. NADA apporte donc une contribution intéressante en matière de sécurité réseau.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Boin, Clément. "Détection d'attaques DDoS dans le contexte d'un fournisseur cloud de grande envergure". Electronic Thesis or Diss., Université de Lille (2022-....), 2023. http://www.theses.fr/2023ULILB036.

Texto completo
Resumen
L'objet de cette thèse est la conception et le développement d'un système de détection des attaques DDoS volumétriques, intégré au sein d'une infrastructure en nuage (cloud). Cette nouvelle proposition vise à remplacer un système préexistant qui a été jugé peu adaptable et complexe à exploiter par les ingénieurs d'OVHcloud. Afin d'atteindre cet objectif, le travail de thèse est articulé autour de quatre axes majeurs.Tout d'abord, une revue exhaustive de la littérature scientifique est entreprise pour appréhender les problématiques associées à la détection des attaques volumétriques dans le contexte spécifique des environnements en nuage. Les attaques DDoS, depuis leur avènement au début des années 2000, n'ont cessé de gagner en sophistication et en ampleur. Les environnements tels que celui d'OVHcloud font l'objet de centaines d'attaques DDoS quotidiennes, dont certaines dépassent le seuil du téraoctet de trafic. Dans une première contribution, l'examen détaillé d'une année d'attaques visant l'infrastructure d'OVHcloud révèle que peu de travaux antérieurs tiennent compte de tels niveaux de volumétrie. Cette constatation initiale met en évidence la nécessité d'adapter les solutions de pointe existantes afin qu'elles puissent être appliquées dans des environnements à haute performance.Dans un second volet, il est démontré que les ensembles de données disponibles pour la recherche sont peu compatibles sur le plan statistique avec les conditions observées dans le cadre de cette étude. Les métriques largement utilisées dans la littérature scientifique ne parviennent pas à capturer la réalité quotidienne. Cette lacune génère des problématiques, tant du point de vue de la conception de solutions adaptées à ce contexte spécifique que de la reproductibilité des travaux de recherche. Du point de vue des hébergeurs, l'absence de jeux de données appropriés s'explique partiellement par les difficultés rencontrées par le milieu académique pour accéder aux infrastructures industrielles, majoritairement sous l'égide de grandes multinationales du secteur privé. Les considérations liées à la confidentialité des données à caractère personnel présentes dans de tels jeux de données constituent également un frein. C'est ainsi que dans un troisième apport significatif, une proposition de générateur de trafic est formulée, respectant les propriétés statistiques spécifiques à l'infrastructure cloud étudiée.Fort de cette compréhension accrue des problématiques internes aux fournisseurs de services en nuage pour la détection des attaques DDoS, ainsi que des défis liés à la reproduction de situations réelles, incluant à la fois le trafic nominal et les attaques, un quatrième et dernier volet, sous la forme d'un brevet industriel, est consacré à la description d'une architecture de système de détection des attaques DDoS volumétriques. Cette architecture doit permettre l'intégration d'algorithmes de détection, tout en restant maintenable par les experts métier. De plus, elle doit être conçue pour résoudre les problématiques relatives à la charge réseau générée par une infrastructure accueillant des millions de clients à travers le monde
The objective of this thesis is the conception and development of a system for detecting volumetric DDoS attacks, integrated within a cloud infrastructure. This novel proposition aims to supplant an existing system deemed to be inadequately adaptable and operationally complex for OVHcloud engineers. To achieve this objective, the thesis is structured around four primary axes.Firstly, a comprehensive review of the scientific literature is undertaken to apprehend the issues associated with detecting volumetric attacks within the specific context of cloud environments. Since their emergence in the early 2000s, DDoS attacks have continually increased in sophistication and magnitude. Environments such as OVHcloud are subjected to hundreds of daily DDoS attacks, with some exceeding the terabit traffic threshold. In a primary contribution, a detailed examination of a year's worth of attacks targeting the OVHcloud infrastructure reveals that few prior works take such levels of volume into account. This initial observation underscores the necessity of adapting existing state-of-the-art solutions for application in high-performance environments.In a secondary facet, it is demonstrated that the available datasets for research lack statistical compatibility with the observed conditions within this study's framework. Widely employed metrics in scientific literature fail to capture everyday realities. This shortfall generates issues both in terms of devising context-specific solutions and in reproducing research outcomes. From the perspective of hosting providers, the absence of suitable datasets is partially attributed to the difficulties faced by the academic community in accessing industrial infrastructures, predominantly under the purview of major private-sector multinationals. Considerations linked to the confidentiality of personally identifiable information within such datasets also impede progress. Thus, in a significant tertiary contribution, a traffic generator proposal is formulated, adhering to the specific statistical properties of the studied cloud infrastructure.Leveraging this heightened comprehension of the intrinsic challenges faced by cloud service providers in detecting DDoS attacks, as well as the obstacles posed by the replication of real-world scenarios, encompassing both normal traffic and attacks, a fourth and final facet, presented in the form of an industrial patent, is devoted to delineating an architecture for detecting volumetric DDoS attacks. This architecture must facilitate the integration of detection algorithms while remaining maintainable by domain experts. Furthermore, it should be designed to address issues pertaining to the network load engendered by an infrastructure accommodating millions of clients across the globe
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Abbes, Tarek. "Classification du trafic et optimisation des règles de filtrage pour la détection d'intrusions". Nancy 1, 2004. http://www.theses.fr/2004NAN10192.

Texto completo
Resumen
Nous nous intéressons dans cette thèse à des problèmes sensibles rencontrés par la détection d'intrusions à savoir le haut débit, les techniques d'évasion et les fausses alertes. Afin de soutenir le haut débit, nous procédons à une classification du trafic réseau ce qui permet de diviser la charge d'analyse sur plusieurs systèmes de détection d'intrusions et de sélectionner pour chaque classe du trafic la meilleure méthode de détection. Par ailleurs nous réduisons le temps de traitement de chaque paquet en organisant convenablement les règles de détection d'attaques stockées sur les systèmes de détection d'intrusions. Au cours de cette analyse nous proposons un filtrage à la volée de plusieurs signatures d'attaques. Ainsi, nous évitons le réassemblage du trafic qui était auparavant nécessaire pour résister aux techniques d'évasion. Par ailleurs nous assurons une analyse protocolaire avec des arbres de décisions ce qui accélère la détection des attaques et évite les inconvénients du filtrage brut de motifs telles que la génération abondante des faux positifs
In this dissertation we are interested by some bottlenecks that the intrusion detection faces, namely the high load traffic, the evasion techniques and the false alerts generation. In order to ensure the supervision of overloaded networks, we classify the traffic using Intrusion Detection Systems (IDS) characteristics and network security policies. Therefore each IDS supervises less IP traffic and uses less detection rules (with respect to traffics it analyses). In addition we reduce the packets time processing by a wise attack detection rules application. During this analysis we rely on a fly pattern matching strategy of several attack signatures. Thus we avoid the traffic reassembly previously used to deceive evasion techniques. Besides, we employ the protocol analysis with decision tree in order to accelerate the intrusion detection and reduce the number of false positives noticed when using a raw pattern matching method
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Toure, Almamy. "Collection, analysis and harnessing of communication flows for cyber-attack detection". Electronic Thesis or Diss., Valenciennes, Université Polytechnique Hauts-de-France, 2024. http://www.theses.fr/2024UPHF0023.

Texto completo
Resumen
La complexité croissante des cyberattaques, caractérisée par une diversification des techniques d'attaque, une expansion des surfaces d'attaque et une interconnexion croissante d'applications avec Internet, rend impérative la gestion du trafic réseau en milieu professionnel. Les entreprises de tous types collectent et analysent les flux réseau et les journaux de logs pour assurer la sécurité des données échangées et prévenir la compromission des systèmes d'information. Cependant, les techniques de collecte et de traitement des données du trafic réseau varient d'un jeu de données à l'autre, et les approches statiques de détection d'attaque présentent des limites d'efficacité et précision, de temps d'exécution et de scalabilité. Cette thèse propose des approches dynamiques de détection de cyberattaques liées au trafic réseau, en utilisant une ingénierie d'attributs basée sur les différentes phases de communication d'un flux réseau, couplée aux réseaux de neurones à convolution (1D-CNN) et leur feature detector. Cette double extraction permet ainsi une meilleure classification des flux réseau, une réduction du nombre d'attributs et des temps d'exécution des modèles donc une détection efficace des attaques. Les entreprises sont également confrontées à des cybermenaces qui évoluent constamment, et les attaques "zero-day", exploitant des vulnérabilités encore inconnues, deviennent de plus en plus fréquentes. La détection de ces attaques zero-day implique une veille technologique constante et une analyse minutieuse, mais coûteuse en temps, de l'exploitation de ces failles. Les solutions proposées garantissent pour la plupart la détection de certaines techniques d'attaque. Ainsi, nous proposons un framework de détection de ces attaques qui traite toute la chaîne d'attaque, de la phase de collecte des données à l'identification de tout type de zero-day, même dans un environnement en constante évolution. Enfin, face à l'obsolescence des jeux de données et techniques de génération de données existants pour la détection d'intrusion et à la nature figée, non évolutive, et non exhaustive des scénarios d'attaques récents, l'étude d'un générateur de données de synthèse adapté tout en garantissant la confidentialité des données est abordée. Les solutions proposées dans cette thèse optimisent la détection des techniques d'attaque connues et zero-day sur les flux réseau, améliorent la précision des modèles, tout en garantissant la confidentialité et la haute disponibilité des données et modèles avec une attention particulière sur l'applicabilité des solutions dans un réseau d'entreprise
The increasing complexity of cyberattacks, characterized by a diversification of attack techniques, an expansion of attack surfaces, and growing interconnectivity of applications with the Internet, makes network traffic management in a professional environment imperative. Companies of all types collect and analyze network flows and logs to ensure the security of exchanged data and prevent the compromise of information systems. However, techniques for collecting and processing network traffic data vary from one dataset to another, and static attack detection approaches have limitations in terms of efficiency and precision, execution time, and scalability. This thesis proposes dynamic approaches for detecting cyberattacks related to network traffic, using feature engineering based on the different communication phases of a network flow, coupled with convolutional neural networks (1D-CNN) and their feature detector. This double extraction allows for better classification of network flows, a reduction in the number of attributes and model execution times, and thus effective attack detection. Companies also face constantly evolving cyber threats, and "zero-day" attacks that exploit previously unknown vulnerabilities are becoming increasingly frequent. Detecting these zero-day attacks requires constant technological monitoring and thorough but time-consuming analysis of the exploitation of these vulnerabilities. The proposed solutions guarantee the detection of certain attack techniques. Therefore, we propose a detection framework for these attacks that covers the entire attack chain, from the data collection phase to the identification of any type of zero-day, even in a constantly evolving environment. Finally, given the obsolescence of existing datasets and data generation techniques for intrusion detection, and the fixed, non-evolving, and non-exhaustive nature of recent attack scenarios, the study of an adapted synthetic data generator while ensuring data confidentiality is addressed. The solutions proposed in this thesis optimize the detection of known and zero-day attack techniques on network flows, improve the accuracy of models, while ensuring the confidentiality and high availability of data and models, with particular attention to the applicability of the solutions in a company network
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Rébaï, Raja. "Optimisation de réseaux de télécommunications avec sécurisation". Paris 9, 2000. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2000PA090025.

Texto completo
Resumen
La première partie de cette thèse concerne une étude de robustesse des algorithmes de points intérieurs prédicteurs correcteurs, ainsi qu'une approche par décomposition de cette méthode pour la résolution de problèmes de multiflot. Dans la deuxième partie, nous nous intéressons au problème de sécurisation globale dont l'objectif est de déterminer un multiflot (qui transporte toute demande de son nud origine a son nud destination en respectant la loi de Kirchhoff) et l'investissement de moindre coût en capacité nominale et de réserve qui assure le routage nominal et garantit sa survie par reroutage global. Dans notre modèle les routages et les capacités sont fractionnables. PSG se formule alors comme un problème linéaire de grande taille avec plusieurs niveaux de couplage. Sa structure particulière appelle à l'emploi d'algorithmes de décomposition. Nous proposons quatre méthodes utilisant la technique de génération de colonnes. Les deux premières sont basées sur les techniques proximales. Leur tâche principale consiste en la résolution de sous problèmes quadratiques indépendants. Le troisième algorithme s'inspire de l'approche de points intérieurs décrite à la première partie. Pour finir, nous intégrons une procédure d'élimination de chemins dans une adaptation d'un solveur de points intérieurs. Nous reportons des résultats numériques obtenus en testant ces algorithmes sur des données réelles fournies par le CNET.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Hachem, Nabil. "MPLS-based mitigation technique to handle cyber attacks". Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2014. http://www.theses.fr/2014TELE0013.

Texto completo
Resumen
Les cyber-attaques pourraient engendrer des pertes qui sont de plus en plus importantes pour les utilisateurs finaux et les fournisseurs de service. Ces attaques sont, en outre, élevées par une myriade des ressources infectées et comptent surtout sur les réseaux pour être contrôlées, se propager ou endommager. Face à ces risques, il y a un besoin essentiel qui se manifeste dans la réponse à ces nombreuses attaques par des stratégies de défense efficaces. Malgré les multitudes efforts dévouées pour mettre en œuvre des techniques de défense complètes afin de se protéger contre les attaques réseaux; les approches proposées n’ont pas parvenus à satisfaire toutes les exigences. Les stratégies de défense impliquent un processus de détection complété par des actions de mitigation. Parallèlement à l’importance accordée à la conception des stratégies de détection, il est essentiel de fermer la boucle de sécurité avec des techniques efficaces permettant d’atténuer les impacts des différentes attaques. Dans cette thèse, nous proposons une technique pour réagir aux attaques qui abusent les ressources du réseau, par exemple, DDoS, botnet, distribution des vers, etc. La technique proposée s’appuie sur des approches de gestion du trafic et utilise le standard Multiprotocol Label Switching (MPLS) pour gérer le trafic diagnostiqué comme abusant du réseau, tout en invoquant les processus de détection. Les objectifs de notre technique peuvent être résumés comme suit: d’une part, fournir les moyens — par la qualité de service et schémas de routage — à séparer les flux suspects des légitimes, et d’autre part de prendre le contrôle des flux suspects. Nous bénéficions de l’extension du MPLS au niveau d’inter-domaine pour permettre une coopération entre les fournisseurs, permettant par suite la construction d’un mécanisme de défense à grande échelle. Nous développons un système afin de compléter les aspects de gestion de la technique proposée. Ce système effectue plusieurs tâches telles que l’extraction de données d’alerte, l’adaptation de la stratégie et la configuration des équipements. Nous modélisons le système en utilisant une approche de regroupement et un langage de politiques de sécurité afin de gérer de manière cohérente et automatique le contexte et l’environnement dans lequel la technique de mitigation est exécutée. Enfin, nous montrons l’applicabilité de la technique et du système à travers des différentes simulations tout en évaluant la qualité de service dans des réseaux MPLS. L’application de la technique a démontré son efficacité dans non seulement la mitigation des impacts des attaques mais aussi dans l’offre des avantages financiers aux acteurs de la chaîne de sécurité, à savoir les fournisseurs de service
Cyber attacks cause considerable losses not only for end-users but also service providers. They are fostered by myriad of infected resources and mostly rely on network resources for whether propagating, controlling or damaging. There is an essential need to address these numerous attacks by efficient defence strategies. Researchers have dedicated large resources without reaching a comprehensive method to protect from network attacks. Defence strategies involve first a detection process, completed by mitigation actions. Research on detection is more active than on mitigation. Yet, it is crucial to close the security loop with efficient technique to mitigate counter attacks and their effects. In this thesis, we propose a novel technique to react to attacks that misuse network resources, e.g., DDoS, Botnet, worm spreading, etc. Our technique is built upon network traffic management techniques. We use the Multiprotocol Label Switching (MPLS) technology to manage the traffic diagnosed to be part of a network misuse by detection processes. The goals of our technique can be summarized as follows: first to provide the means — via QoS and routing schemes — to segregate the suspicious flows from the legitimate traffic; and second, to take control over suspicious flows. We profit from the enhancement on the inter-domain MPLS to permit a cooperation among providers building a large-scale defence mechanism. We develop a system to complete the management aspects of the proposed technique. This system performs tasks such as alert data extraction, strategy adaptation and equipments configurations. We model the system using a clustering method and a policy language in order to consistently and automatically manage the mitigation context and environment in which the proposed technique is running. Finally, we show the applicability of the technique and the system through simulation. We evaluate and analyse the QoS and financial impacts inside MPLS networks. The application of the technique demonstrates its effectiveness and reliability in not only alleviating attacks but also providing financial benefits for the different players in the mitigation chain, i.e., service providers
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Carlinet, Yannick. "Supervision de trafic au niveau applicatif : application à la sécurité et à l'ingénierie des réseaux". Rennes 1, 2010. https://tel.archives-ouvertes.fr/tel-00536850.

Texto completo
Resumen
Les travaux décrits dans ce mémoire portent sur la supervision du trafic dans le coeur de réseau, au niveau de la couche applicative. Nous illustrons l'intérêt de la supervision dans la couche 7 grâce à trois études qui montrent les bénéfices obtenus pour la sécurité et pour l'évaluation de modifications d'architecture du réseau. La première étude utilise l'épidémiologie, la science qui étudie les causes et la propagation des maladies. L'épidémiologie fournit des concepts et des méthodes pour analyser à quels risques potentiels d'infection les PC des clients ADSL sont exposés. La deuxième étude porte sur l'opportunité pour un opérateur d'installer des caches P2P dans son réseau. Enfin, la troisième étude porte sur l'opportunité pour un opérateur de réseau de coopérer avec les réseaux P2P à travers une interface de type P4P. Nous montrons donc dans ces travaux que la supervision applicative est un outil essentiel pour l'évaluation des protocoles et architectures mis en oeuvre dans les services Internet
Traffic monitoring at the application level: application to security and network engineering. The work presented in this document deals with traffic monitoring in the core network, at the application level. The benefits of traffic monitoring in the layer-7 is illustrated thanks to several studies
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Bassil, Carole. "SVSP (Secure Voice over IP Simple Protocole) : une solution pour la sécurisation de la voix sur IP". Paris, ENST, 2005. http://www.theses.fr/2005ENST0045.

Texto completo
Resumen
Depuis l invention du premier téléphone par Alexandre Graham Bell en 1869, la téléphonie n a cessé d évoluer : de la commutation de circuit à la commutation par paquet, d un réseau fixe à un réseau mobile. Plusieurs architectures ont été crées où la voix est combinée aux données et à l imagerie pour être transportées sur un seul réseau data. La nature de ces réseaux ouverts a un impact sur la voix en terme de sécurité. D où le besoin imminent de sécuriser la voix tout en assurant une bonne qualité de service à la voix aussi bien dans un réseau fixe que dans un réseau mobile ou IP. Des solutions de sécurisation sont proposées pour les données. Mais des solutions partielles voire incomplètes sont proposées pour la voix. Dans un premier temps, nous définissons les besoins de la sécurisation de la téléphonie et les services de sécurité nécessaires à son déploiement. Ainsi, nous analysons la sécurité offerte par les différents réseaux offrant un service de téléphonie, à savoir la sécurité dans le réseau téléphonique traditionnel (RTC et RNIS), dans les réseaux mobiles (GSM et UMTS), et dans le réseau de données IP avec les deux architectures prépondérantes H. 323 et SIP. Ceci va nous permettre de comparer les solutions de sécurité offertes par ces architectures de téléphonie et de pouvoir aborder d une part, leur avantages et inconvénients et d autre part, les exigences qu ils ne peuvent pas satisfaire. Cette analyse nous conduit à un résultat éloquent qui est l absence d une solution de sécurité complète qui répond aux exigences de la téléphonie et qui permet d effectuer un appel sécurisé de bout en bout. Dans un second temps, nous proposons une architecture de sécurité pour une architecture de téléphonie abstraite. Cette architecture propose une nouvelle couche de service qui s'insère entre deux couches de niveaux N et N+1 du modèle de l'OSI. Ce choix permet d'assurer une transparence et une indépendance du réseau sous-jacent mais nécessite de revoir les interfaces et donc de définir une API qui s'occupe d'assurer cette transparence et l'interfaçage entre l'application de sécurité et le réseau sous-jacent. Cette architecture assure les services de sécurité et définit les politiques de sécurité nécessaires pour répondre aux exigences de la sécurisation des communications de voix. Notre proposition s'accompagne de la définition d'un protocole de sécurité que nous avons nommé SVSP pour Simple Voice Security Protocol. SVSP intègre les services de sécurité définis par cette architecture et permet la sécurisation d'un appel téléphonique de bout en bout. Des études ont été effectuées pour l'intégrer dans différentes infrastructures de téléphonie comme le réseau fixe, le réseau mobile GSM et une plate-forme de voix sur IP avec le standard H. 323. Un prototype de SVSP a été implémenté suivi d'une intégration avec SIP, le standard de voix sur IP de l'IETF
Since the invention of the first telephone by Alexander Graham Bell in 1869, network telephony technology did not stop evolving: from circuit switching to packet switching, from fixed network to wireless network. Several new architectures were created which combines the transport of voice, data and image in the same data network. The nature of these open networks has an impact on the voice in terms of security. This yields to the imminent need to secure voice communications while insuring a good quality of service to the voice as well in fixed, wireless and IP networks. Different security solutions are proposed for the data. But partial even incomplete solutions are proposed for the voice. First, we define the needs for securing the telephony and the security services required. Thus, we analyze the security offered by the different telephone networks, namely the security in the traditional telephone network (PSTN and ISDN), in the mobile networks (GSM and UMTS), and in the IP network based on the H. 323 and SIP architectures. This will allow us to compare the security solutions offered by these telephony architectures and to be able to present their advantages and limitations and the security requirements that they cannot satisfy. This analysis drives us to an eloquent result that is the absence of a complete end to end security solution that complies with the security requirements of telephony. Secondly, we propose security architecture for a unified telephony architecture. This security architecture proposes a service layer that is inserted between N and N + 1 layers of the OSI reference model. This choice provides a transparency and an independence of the underlying network but requires reviewing the interfaces and therefore the needs to define an API between the security application and the underlying network that insures transparency. This architecture provides the security services and defines necessary security policies to secure voice communications. Following the security architecture, we defined a security protocol that we named SVSP for Simple Voice Security Protocol. SVSP satisfies the security services defined by this architecture that provides a secure end-to-end phone call. Studies were carried out to integrate it in different telephony infrastructures, namely with the traditional telephone network, GSM the mobile network and with the H. 323 standard for voice over IP communications. A prototype of SVSP was implemented followed by integrating it with SIP the IETF voip standard
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Cornejo, Bautista Joaquim Alfonso Alejandro. "Etude de la sécurisation du canal de transmission optique par la technique de brouillage de phase". Télécom Bretagne, 2009. http://www.theses.fr/2008TELB0095.

Texto completo
Resumen
Les réseaux optiques sont couramment utilisés pour satisfaire les besoins en transmission de données. Cette évolution permet d'offrir aux utilisateurs de nouveaux services, tel que la vidéo à la demande, la vidéo-conférence, la télévision à haute définition etc. Le problème de la confidentialité des donnés transférées par fibre optique à haut débit peut se poser, dans certains cas, pour l'acheminement d'information à caractère sensible ou à but commercial, parce que le canal optique peut être espionné sans que l'émetteur et/ou récepteur ne s'en aperçoivent. Les méthodes classiques de cryptographie ne sont pas toujours applicables en raison du grand volume de données à coder. Il faut trouver un moyen physique pour sécuriser le transfert de données à haut débit en affectant le moins possible l'équipement de ligne. Ce travail de thèse a porté sur la conception et la modélisation d'un système optique de brouillage de phase pour sécuriser la transmission de données à haut débit dans des liaisons point à point WDM (Wavelength Division Multiplexing) sans affecter les équipements de ligne et la gestion des canaux. Pour ce faire, on a utilisé un système en espace libre de façonnage. On a particulièrement pris en compte la conception d'un système de brouillage ayant un impact réduit sur l'architecture des systèmes de transmission, notamment avec une grande tolérance par rapport à l'ensemble des effets de propagation dans une fibre. D'autre part, pour garantir la confidentialité des données, il est nécessaire de renouveler la clé de brouillage, parce qu'il est possible que l'intrus la récupère, par exemple, en utilisant la technique de l'échantillonnage linéaire optique. C'est-à-dire, qu'il faut partager la clé entre l'émetteur et le récepteur. C'est pourquoi, nous avons concentré, dans une deuxième partie, notre effort sur la modélisation numérique d'une méthode QKD (Quantum Key Distribution) qui pourrait être utilisée pour véhiculer la clé, sur une ligne de transmission commerciale. Ce modèle nous a permis par là même d'étudier l'impact (l'intrusion) sur la méthode QKD dans une liaison point à point WDM classique, sous l'influence des effets de propagation standard dans une fibre et pour une certaine distance.
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Salha, Guillaume. "Management des systèmes d'information et télécommunications". Perpignan, 2006. http://www.theses.fr/2006PERP0712.

Texto completo
Resumen
Le sujet traite du Management des Systèmes d'Informations et de Télécommunications, dans un monde interconnecté où la révolution des nouvelles technologies de communication impacte les entreprises et induit à des changements dans leur fonctionnement et leur organisation. Afin de répondre à ce besoin économique, je propose une description détaillée des différentes topologies en matière d'interconnections et de sécurité permettant de traiter la modélisation des systèmes informatiques , d'étudier le comportement des systèmes sur des modèles et non sur le système lui-même. Je présenterai notamment une solution innovante que j'ai conçue, basée sur le concept de télécollecte IP et Routage Multi opérateur basé sur la technologie de collecte XDSL d'opérateur d'infrastructure routeur en cœur de réseau sur un site centralisé, ainsi que la démarche projet à suivre dans le cadre de la mise en place du système d'information par une méthodologie destinée à fournir un cadre commun couvrant la maîtrise des processus fondamentaux et leurs impacts organisationnels et techniques sur le déploiement en entreprise
The subject concerns the management of the Information systems and Telecommunications. I propose a detailed description of various topologies of inter-connection and security. I propose a modelisation of the information processing systems, to study the behavior of the systems on models and not on the system itself. I present an innovating solution based on the concept of IP collect and Multi operator routing, using the XDSL technologies of infrastructure operators, to the router in a centralized site. I propose project guidelines and methodology intended to provide a common framework covering the control of the fundamental processes and their organizational and technical impacts on the deployment in companies
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Hachem, Nabil. "MPLS-based mitigation technique to handle cyber attacks". Thesis, Evry, Institut national des télécommunications, 2014. http://www.theses.fr/2014TELE0013/document.

Texto completo
Resumen
Les cyber-attaques pourraient engendrer des pertes qui sont de plus en plus importantes pour les utilisateurs finaux et les fournisseurs de service. Ces attaques sont, en outre, élevées par une myriade des ressources infectées et comptent surtout sur les réseaux pour être contrôlées, se propager ou endommager. Face à ces risques, il y a un besoin essentiel qui se manifeste dans la réponse à ces nombreuses attaques par des stratégies de défense efficaces. Malgré les multitudes efforts dévouées pour mettre en œuvre des techniques de défense complètes afin de se protéger contre les attaques réseaux; les approches proposées n’ont pas parvenus à satisfaire toutes les exigences. Les stratégies de défense impliquent un processus de détection complété par des actions de mitigation. Parallèlement à l’importance accordée à la conception des stratégies de détection, il est essentiel de fermer la boucle de sécurité avec des techniques efficaces permettant d’atténuer les impacts des différentes attaques. Dans cette thèse, nous proposons une technique pour réagir aux attaques qui abusent les ressources du réseau, par exemple, DDoS, botnet, distribution des vers, etc. La technique proposée s’appuie sur des approches de gestion du trafic et utilise le standard Multiprotocol Label Switching (MPLS) pour gérer le trafic diagnostiqué comme abusant du réseau, tout en invoquant les processus de détection. Les objectifs de notre technique peuvent être résumés comme suit: d’une part, fournir les moyens — par la qualité de service et schémas de routage — à séparer les flux suspects des légitimes, et d’autre part de prendre le contrôle des flux suspects. Nous bénéficions de l’extension du MPLS au niveau d’inter-domaine pour permettre une coopération entre les fournisseurs, permettant par suite la construction d’un mécanisme de défense à grande échelle. Nous développons un système afin de compléter les aspects de gestion de la technique proposée. Ce système effectue plusieurs tâches telles que l’extraction de données d’alerte, l’adaptation de la stratégie et la configuration des équipements. Nous modélisons le système en utilisant une approche de regroupement et un langage de politiques de sécurité afin de gérer de manière cohérente et automatique le contexte et l’environnement dans lequel la technique de mitigation est exécutée. Enfin, nous montrons l’applicabilité de la technique et du système à travers des différentes simulations tout en évaluant la qualité de service dans des réseaux MPLS. L’application de la technique a démontré son efficacité dans non seulement la mitigation des impacts des attaques mais aussi dans l’offre des avantages financiers aux acteurs de la chaîne de sécurité, à savoir les fournisseurs de service
Cyber attacks cause considerable losses not only for end-users but also service providers. They are fostered by myriad of infected resources and mostly rely on network resources for whether propagating, controlling or damaging. There is an essential need to address these numerous attacks by efficient defence strategies. Researchers have dedicated large resources without reaching a comprehensive method to protect from network attacks. Defence strategies involve first a detection process, completed by mitigation actions. Research on detection is more active than on mitigation. Yet, it is crucial to close the security loop with efficient technique to mitigate counter attacks and their effects. In this thesis, we propose a novel technique to react to attacks that misuse network resources, e.g., DDoS, Botnet, worm spreading, etc. Our technique is built upon network traffic management techniques. We use the Multiprotocol Label Switching (MPLS) technology to manage the traffic diagnosed to be part of a network misuse by detection processes. The goals of our technique can be summarized as follows: first to provide the means — via QoS and routing schemes — to segregate the suspicious flows from the legitimate traffic; and second, to take control over suspicious flows. We profit from the enhancement on the inter-domain MPLS to permit a cooperation among providers building a large-scale defence mechanism. We develop a system to complete the management aspects of the proposed technique. This system performs tasks such as alert data extraction, strategy adaptation and equipments configurations. We model the system using a clustering method and a policy language in order to consistently and automatically manage the mitigation context and environment in which the proposed technique is running. Finally, we show the applicability of the technique and the system through simulation. We evaluate and analyse the QoS and financial impacts inside MPLS networks. The application of the technique demonstrates its effectiveness and reliability in not only alleviating attacks but also providing financial benefits for the different players in the mitigation chain, i.e., service providers
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Truffot, Jérome. "Conception de réseaux haut débit sous contrainte de sécurisation". Clermont-Ferrand 2, 2007. http://www.theses.fr/2007CLF21793.

Texto completo
Resumen
L'augmentation constante des débits de transmission de données a fait évoluer les réseaux IP vers de nouveaux services. Dans ce contexte, ces travaux de thèse étudient l'influence des nouveaux protocoles dans la conception de réseaux haut débit tolérants aux pannes. Dans un premier temps, nous nous sommes intéressés aux spécificités du routage dans les réseaux MPLS (MultiProtocol Label Switching). Pour limiter la taille des tables de commutation, il est nécessaire de limiter le nombre de routes. Cette contrainte forte sur le support des flux change considérablement la complexité des problèmes de routage. Notre contribution porte principalement sur la modélisation des problèmes de flots k-séparables par des programmes linéaires en nombres entiers adaptés à une résolution exacte. D'autre part nous nous sommes intéressés à la contrainte de délai de bout-en-bout. Nos modèles de flots k-séparables offrent des possibilités intéressantes pour gérer cette contrainte
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Alberdi, Ion. "Malicious trafic observation using a framework to parallelize and compose midpoint inspection devices". Electronic Thesis or Diss., Toulouse, INSA, 2010. http://www.theses.fr/2010ISAT0008.

Texto completo
Resumen
Notre thèse stipule qu'au vu de l'ampleur des agissements malveillants dans l'Internet, les logiciels d'extrémité doivent être surveillés. Pour limiter le nombre de points de surveillance, nous proposons de surveiller les logiciels depuis un point d'interconnexion. Nous avons dans ce but conçu Luth, un outil permettant de composer et de paralléliser un ensemble d'inspecteurs de points d'interconnexion (appelés MI) qui implémentent des mini IDS, IPS ou pare-feux, tout en vérifiant la correction et l'optimalité de ces derniers, à l'aide d'un langage de configuration et des algorithmes associés. Nous utilisons ensuite cet outil pour surveiller des logiciels d'extrémité permettant l'observation de trafic malveillant. Premièrement, après avoir démontré la nécessité de surveiller des pots de miels collecteurs de logiciels malveillants en concevant une attaque originale, nous montrons comment nous configurons Luth pour bloquer les attaques précédemment créées tout en laissant passer les attaques émulées par le pot de miel. Dans un second temps, nous utilisons Luth pour implémenter un bac-à-sable permettant d'analyser dynamiquement et aussi sûrement que voulu, les communications réseaux des logiciels malveillants. Nous montrons comment les informations obtenues par cette analyse permettent de regrouper ces logiciels et ainsi de limiter le nombre de binaires à analyser manuellement. Ensuite nous montrons comment nous générons automatiquement des signatures permettant la détection de ces virus depuis un point d'interconnexion
Our Ph.D states that given the magnitude of malicious behavior in the Internet, end-host software must be monitored. To limit the number of monitoring points, we propose to monitor the software from an interconnection point, i.e. a midpoint. We have designed for this purpose Luth, a tool to compose and parallelize a set of midpoint inspectors (MI) that implement mini IDS, IPS or firewall-s, while checking the correction and optimality of the resulting inspection tree, using a configuration language, its interpreter and associated algorithms. We then configure this tool to monitor some end-host software used to observe malicious traffic. First, we demonstrate why malware downloading honeypots must be monitored by designing an original attack. Then, we show how we configure Luth to block these attacks while accepting the intrusions emulated by the honeypot. In a second step, we use Luth to implement a sandbox that analyzes dynamically and as safely as wanted malware's network communications. We show how the information obtained by this analysis enables us to cluster the analyzed malware and therefore limit the number of malware to analyze manually. Finally, we show how we automatically generate signatures from this analysis to detect those malware from a midpoint device
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Hardouin, Ronan. "La responsabilité limitée des prestataires techniques dans la loi pour la confiance dans l'économie numérique". Versailles-St Quentin en Yvelines, 2011. http://www.theses.fr/2011VERS023S.

Texto completo
Resumen
Alors que le droit de la responsabilité connaît une tendance à l’objectivation, il peut paraître incongru d’accorder aux prestataires techniques un régime dit de « responsabilité limitée ». Une telle démarche ne contribue certainement pas à l’objectif affiché par la responsabilité civile depuis la révolution industrielle : l’indemnisation du dommage. Pourtant, ce régime dérogatoire au droit commun trouve toute sa cohérence dès lors qu’il est mis en perspective avec les notions de « convergence », de « neutralité de l’Internet », ou, tout simplement, avec les nombreuses libertés fondamentales dont l’exercice est décuplé sur la toile. Il est, en réalité, une réponse à une autre révolution ; celle du monde des communications dont Internet à bouleverser les fondamentaux. Construit sur une idéologie fondée sur la neutralité, le réseau Internet est certainement devenu l’un des enjeux majeurs de notre société. Il est tant un vecteur de liberté qu’un accélérateur d’innovation dynamisée par les perspectives de relance offerte par la « Net économie ». Toutefois, ces espoirs ne peuvent être satisfaits qu’à la seule condition d’instaurer un climat de confiance. Confiance pour les prestataires de services qui ne peuvent développer leurs modèles d’affaires qu’en ayant une visibilité sur les risques juridiques encourus. Confiance pour les utilisateurs d’Internet qui doivent être rassurés quant à la protection de leurs droits et quant au respect de leurs libertés. La prise en compte de ces impératifs, parfois difficilement conciliables, a abouti à un compromis consistant à faire des prestataires techniques des vecteurs de libertés tout en les obligeant à contribuer à la cessation des contenus illicites. Nouvel Eldorado pour certains, source de tous les maux pour d’autres, la responsabilité limitée accordée aux prestataires techniques par l’intermédiaire de la LCEN est un sujet de controverse. Faut-il permettre à de nouveaux services de bénéficier d’un tel régime ? Le législateur doit-il revoir sa copie et abroger le régime de responsabilité des prestataires techniques ? Faut-il envisager, ainsi que le préconise une partie de la doctrine, une « troisième voie » ? Malgré ces interrogations légitimes, cette étude permettra de faire apparaître que la LCEN est une loi équilibrée qui ne doit ni être revisitée ni interprétée de manière à objectiver la responsabilité des prestataires techniques. Les enjeux en termes de développement de l’économie numérique ainsi que ceux relatifs au respect des libertés fondamentales sont trop importants et justifient le régime de responsabilité limitée des prestataires techniques
Whereas the liability law has a tendency to be objective, it could seem disparate to grant intermediary service providers a limited liability. This approach doesn’t have part in civil liability’s objectives since the industrial revolution: the compensation of harm. Nevertheless, it departs from the ordinary law and seems coherent if it is compared with « convergence » and « the Internet neutrality » notions, or, basically, with the several fundamental liberties used a lot on the Internet. In reality, it is a response to another revolution; those of communications world whose the Internet has disrupted the basics. Developed on an ideology based on neutrality, the Internet network is certainly become one of the main challenges of our society. It promotes liberties and innovation, which is enhanced by the “Net economy”. However, all these hopes can be satisfied on condition that to introduce a confidence atmosphere. A confidence for Internet service providers who are able to develop their business models if they have a visibility concerning the risks. A confidence for the Internet users who have to not be worried about their rights’ protection and liberties’ respect. All of this lead to a compromise that promotes liberties but forces them to be involved in the stopping of unlawful contents. New Eldorado for few people, source of troubles for others, the limited liability granted Internet service providers is a controversial subject. Should we allow any new services to benefit from this liability? Should the legislator abrogate the liability of Internet service providers? Should we consider as the doctrine does a « third way»? In spite of these questions, this study will prove that the LCEN is a balanced law, which doesn’t have to amend. The challenges concerning the development of Net economy as well as the respect of fundamental liberties are essential and justify the limited liability of Internet service providers
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Önen, Suna Melek. "La Sécurité des communications multipoints dans les réseaux satellitaires: Une approche centrée sur la satisfaction des utilisateurs". Phd thesis, Télécom ParisTech, 2005. http://pastel.archives-ouvertes.fr/pastel-00001363.

Texto completo
Resumen
Les communications multipoints permettent à une source de distribuer des données à un groupe de récepteurs de façon optimale. Les réseaux satellitaires offrent des avantages considérables pour ces communications. Cependant, les applications multicast présentent des besoins forts en terme de sécurité, notamment pour la confidentialité, l'authentification et la disponibilité. De nombreuses solutions ont été proposées et analysées du point de vue performance pour répondre à ces besoins. Une des raisons qui ralentit leur implémentation est leur insuffisance en terme de fiabilité et satisfaction des clients. Le but de cette thèse est d'étudier et de fournir des solutions sécurisées et fiables qui tiennent compte des attentes des clients. Dans une première partie, nous proposons une étude détaillée du problème de la confidentialité multicast et soulignons les aspects négligés des solutions actuelles en terme de fiabilité et d'attente des clients. Puis, nous proposons une nouvelle approche dans laquelle le serveur regroupe les entités selon certains critères, définit un ensemble de membres privilégiés et leur offre un meilleur service. Dans la deuxième partie de la thèse, nous nous intéressons au problème de la disponibilité. Nous analysons les solutions actuelles de protection contre les attaques de déni de service et décrivons leurs limitations lors de leur implémentation pour les réseaux satellitaires. Enfin, nous proposons une solution originale qui permet à la source d'identifier rapidement les paquets falsifiés, et ainsi de limiter l'impact de ces attaques sur les clients légitimes.
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Alberdi, Ion. "Malicious trafic observation using a framework to parallelize and compose midpoint inspection devices". Thesis, Toulouse, INSA, 2010. http://www.theses.fr/2010ISAT0008/document.

Texto completo
Resumen
Notre thèse stipule qu'au vu de l'ampleur des agissements malveillants dans l'Internet, les logiciels d'extrémité doivent être surveillés. Pour limiter le nombre de points de surveillance, nous proposons de surveiller les logiciels depuis un point d'interconnexion. Nous avons dans ce but conçu Luth, un outil permettant de composer et de paralléliser un ensemble d'inspecteurs de points d'interconnexion (appelés MI) qui implémentent des mini IDS, IPS ou pare-feux, tout en vérifiant la correction et l'optimalité de ces derniers, à l'aide d'un langage de configuration et des algorithmes associés. Nous utilisons ensuite cet outil pour surveiller des logiciels d'extrémité permettant l'observation de trafic malveillant. Premièrement, après avoir démontré la nécessité de surveiller des pots de miels collecteurs de logiciels malveillants en concevant une attaque originale, nous montrons comment nous configurons Luth pour bloquer les attaques précédemment créées tout en laissant passer les attaques émulées par le pot de miel. Dans un second temps, nous utilisons Luth pour implémenter un bac-à-sable permettant d'analyser dynamiquement et aussi sûrement que voulu, les communications réseaux des logiciels malveillants. Nous montrons comment les informations obtenues par cette analyse permettent de regrouper ces logiciels et ainsi de limiter le nombre de binaires à analyser manuellement. Ensuite nous montrons comment nous générons automatiquement des signatures permettant la détection de ces virus depuis un point d'interconnexion
Our Ph.D states that given the magnitude of malicious behavior in the Internet, end-host software must be monitored. To limit the number of monitoring points, we propose to monitor the software from an interconnection point, i.e. a midpoint. We have designed for this purpose Luth, a tool to compose and parallelize a set of midpoint inspectors (MI) that implement mini IDS, IPS or firewall-s, while checking the correction and optimality of the resulting inspection tree, using a configuration language, its interpreter and associated algorithms. We then configure this tool to monitor some end-host software used to observe malicious traffic. First, we demonstrate why malware downloading honeypots must be monitored by designing an original attack. Then, we show how we configure Luth to block these attacks while accepting the intrusions emulated by the honeypot. In a second step, we use Luth to implement a sandbox that analyzes dynamically and as safely as wanted malware's network communications. We show how the information obtained by this analysis enables us to cluster the analyzed malware and therefore limit the number of malware to analyze manually. Finally, we show how we automatically generate signatures from this analysis to detect those malware from a midpoint device
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Belhouane, Nabil. "Étude du rayonnement spectral du four micro-ondes et son influence sur la bande du service mobile par satellite". Toulouse, INPT, 1997. http://www.theses.fr/1997INPT088H.

Texto completo
Resumen
Ce travail consiste a presenter une etude du rayonnement spectral des fuites du four micro-ondes et son influence sur la bande de frequence allouee au service mobile par satellite. Cette etude nous a permis de localiser les sources du rayonnement, de mesurer leurs niveaux du champ electrique et de donner des solutions telsque : le blindage de la partie alimentation du four et la conception d'un filtre pour la porte, pour les diminuer. La modelisation du four micro-ondes nous a permis d'obtenir une relation theorique qui exprime la frequence de fonctionnement du magnetron en fonction de sa tension d'alimentation et de l'admittance presentee par la charge. Cette relation met en evidence le couplage existant entre le magnetron et la charge du four micro-ondes. Son identification est faite d'une maniere experimentale.
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Brissaud, Pierre-Olivier. "Analyse de trafic HTTPS pour la supervision d'activités utilisateurs". Electronic Thesis or Diss., Université de Lorraine, 2020. http://www.theses.fr/2020LORR0255.

Texto completo
Resumen
L'usage du chiffrement pour protéger la vie privée des utilisateurs est devenue la norme pour l'ensemble des services web. Ainsi, il n'est plus possible d'utiliser les outils habituels, tel que l'inspection de paquet, pour détecter des comportements illicites sur Internet. L'enjeu principal de cette thèse est donc de trouver de nouvelles solutions alternatives pour superviser certains comportements utilisateur dans du trafic HTTPS, tout en respectant trois principes : passivité, transparence et respect de la vie privée. Ce besoin est réel car dans le domaine de l'analyse de trafic chiffré, l'état de l'art s'est développé principalement autour de la reconnaissance des protocoles ou des services mais pas sur la détection des actions utilisateur. Un premier objectif de cette thèse est de superviser des mots-clés recherchés sur un moteur de recherche d'images lors de l'usage de HTTPS couplé avec HTTP/1.1. Cette solution passe par la reconstruction des tailles d'objets HTTP pour construire des signatures du trafic avec la méthode de l'estimation par noyau (KDE). Lors de l'évaluation de cette solution afin de détecter l'utilisation de plus de 10 000 mots-clés sur le service Google Images, notre solution de classification atteint un taux de justesse de plus de 99% en considérant un scénario en monde ouvert. Cette approche convient pour du trafic chiffré HTTP/1.1 mais voit ses performances limitées face à du trafic HTTP/2, car cette version de HTTP à un fort impact sur le trafic. Ainsi, dans un deuxième temps, l'objectif est d'adapter nos connaissances pour réaliser de la détection sur du trafic HTTPS couplé avec HTTP/2. Cette nouvelle solution de supervision, s'articule autour de caractéristiques observables sur du trafic chiffré et adaptées pour HTTP/2. Les caractéristiques couplées à une solution d'apprentissage supervisé (les forêts d'arbres décisionnels) permettent la création d'un modèle de classification. Cette solution nommé H2Classifier est évaluée sur plusieurs services très utilisés (Amazon, Google, Google Images et Google Maps) et affiche un TPR entre 61 et 98% dépendant du service considéré, lors de la supervision de 2000 mots-clés (par service) dans le cadre d'un scénario en monde ouvert. Finalement H2Classifier est également testé dans différentes situations permettant d'évaluer l'impact du temps, des services et des configurations sur ce nouvel outil de supervision
The protection of the Internet users’ privacy has made every web service offer some security by using encryption. Thus, it is now impossible to use classical tools anymore, like DPI (deep pakets inspection), in order to detect malicious behaviour on the Internet. The main target of this thesis is to find new ways to monitor malicious behaviours despite the use of encryption (HTTPS). This new solution should, nevertheless, follow tree guidelines: passivity, transparency and privacy preservation. According to the works in the state of the art for encrypted traffic monitoring, they mainly focus about protocols or services detection but not about the detections of the users' behavior inside a service. The first objective is to construct a monitoring solution in order to detect some behaviour inside a web service protected by HTTPS used with HTTP/1.1. We develop an example which detects requests related to non-legitimate keywords on Images search engine by only monitoring the encrypted traffic. The solution reconstructs the size of the encrypted HTTP objects and builds a footprint of the related traffic by using the Kernel Density estimation method (KDE). The evaluation of this traffic classification when monitoring 10 000 keywords achieved an accuracy of more than 99% considering an open world scenario. Despite, this solution is very effective when monitoring HTTP/1.1 traffic, it shows some limitation when dealing with HTTP/2 traffic because of its impact on the traffic. Thus, the second goal is to adapt our knowledge for purposes of detecting keywords when HTTPS is used with HTTP/2. This new method is structured around some features collected on the encrypted traffic and use supervised machine learning (random forest) to classify them. The solution called H2Classifier is evaluated over four very used services (Amazon, Google, Google Images and Google Maps) and achieve a TPR between 61 and 98% depending of the service when monitoring 2000 keywords (per service) considering open world scenario. Finally, H2Classifier evaluated over the time, against new services and with new configurations too
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Llorens, Cédric. "Mesure de la sécurité "logique" d'un réseau d'un opérateur de télécommunications". Phd thesis, Télécom ParisTech, 2005. http://pastel.archives-ouvertes.fr/pastel-00001492.

Texto completo
Resumen
Cette thèse présente un prototype et une méthodologie pour mesurer la sécurité "logique" d'un réseau d'un opérateur de télécommunications. Cette méthode consiste à définir une politique de sécurité, à vérifier l'application de la politique de sécurité dans les configurations des équipements réseau, à définir des indicateurs de sécurité afin d'établir un tableau de bord de la sécurité réseau, à quantifier le risque associé à la non application de la politique de sécurité et enfin à définir des priorités pour corriger les faiblesses de sécurité les plus critiques.
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Depigny, Marine. "Terrorisme international et mesures de sûreté : analyse économique du comportement du voyageur sur le réseau de transport aérien mondial". Thesis, Lyon 2, 2011. http://www.theses.fr/2011LYO22020/document.

Texto completo
Resumen
Dans cette thèse, nous questionnons l’impact du terrorisme international et des mesures de sûreté sur le comportement des usagers du réseau de transport aérien mondial. A l’aide d’un modèle économétrique, nous analysons une base de données inédite, AirNetTerror, composée de l’ensemble des vols internationaux à destination des Etats-Unis de 1990 à 2006, et des données du terrorisme international par pays sur cette période. La pertinence de notre travail est double. D’une part, nos interrogations sur les comportements des voyageurs et leurs éventuelles substitutions d’itinéraires en lien avec le terrorisme international n’ont, à notre connaissance, jamais été traitées. D’autre part, en abordant le transport aérien sous l’angle du réseau, nous proposons une vision dynamique des répercussions des comportements des usagers en lien avec la menace terroriste et les mesures de sûreté. En particulier, la prise en compte de la situation de sûreté interdépendante régissant le réseau aérien mondial nous permet de questionner l’existence de failles dans les mesures de sûreté. Nos résultats soulignent l’impact avéré et significatif des événements du terrorisme international, mais aussi des mesures de sûreté sur le réseau de transport aérien mondial. De plus, nous observons localement des substitutions d’itinéraires des voyageurs aériens en lien avec ces phénomènes. Ainsi, l’effet combiné de la menace terroriste internationale et des mesures de sûreté semble être à l’origine de ruptures d’équilibre, certes limitées mais réelles, des flux de passagers du réseau de transport aérien mondial. Notre thèse, parce qu’elle place le comportement du voyageur au centre des interactions stratégiques entre les acteurs de la sûreté et les terroristes, permet d’apporter une vision inédite de l’impact du terrorisme international sur le transport aérien
In our dissertation, we question the impact of both international terrorism and security measures on the behavior of the users of the global air transportation network. Using an econometric model, we analyze a new database, AirNetTerror, which contains data on all international passenger flows toward the U.S. from 1990 to 2006 as well as the events of international terrorism by country for the same period. The relevance of our research is twofold. On the one hand, our investigation regarding air travelers’ behavior and their possibilities of modifying their itinerary in light of international terrorism has – so far as we know – never been studied. On the other hand, as we analyze passenger flows from the perspective of the network, we propose a dynamic representation of the impact of travelers’ behavior changes related to terrorist threats and security measures. In particular, taking into account the interdependent security that rules the global air transport network, allows us to question the existence of failures in security measures. Our results underline a significant impact of both international terrorist events and security measures. Furthermore, we locally observe itinerary modifications of travelers that are linked to the previous phenomena. Thus, the combined effect of terrorist threats and security measures seems to lead to equilibrium breaks – that are limited but real – in passenger flows of the global air network. Our thesis offers a different representation of the impact of international terrorism on air transport by placing the traveler’s behavior at the center of the strategic interactions between security actors and terrorists
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Varet, Antoine. "Conception, mise en oeuvre et évaluation d'un routeur embarqué pour l'avionique de nouvelle génération". Phd thesis, INSA de Toulouse, 2013. http://tel.archives-ouvertes.fr/tel-00932283.

Texto completo
Resumen
Le contexte aéronautique a depuis plusieurs années mis en évidence le besoin croissant de technologies de sécurité permettant d'éviter des utilisations malveillantes des matériels ou services installés à bord des avions. La plupart des approches de sécurisation 'avion' se concentre sur des méthodes et techniques permettant de sécuriser les échanges au sein de l'avion. Elles sont cependant inadaptées à la sécurisation dans les cas d'interconnexion des réseaux avioniques avec le reste des réseaux de communication (réseau Internet par exemple). Le problème abordé dans ce travail de thèse vise donc à proposer une architecture de sécurité et de sûreté pour l'ensemble des communications aéronautiques et permettant une interconnexion sécurisée entre le monde 'avion' et le monde extérieur, en tenant compte de l'ensemble des critères de sécurité qui caractérisent les divers environnements traversés et considère dès le départ les divers principes de standardisation associés afin de garantir la pérennité scientifique et industrielle. La solution architecturale proposée dans ce travail de thèse repose principalement sur un composant central de routage, de filtrage et de sécurisation des flux de données aéronautiques. Le travail de conception et de développement de ce composant appelé Routeur Sécurisé de Nouvelle Génération (routeur SNG) a permis une validation expérimentale sur un système reproduisant un système embarqué.
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Grandemange, Quentin. "Contribution à la modélisation et à la détection d'anomalies du traffic Internet à partir de mesures d'un coeur de réseau opérateur". Electronic Thesis or Diss., Université de Lorraine, 2018. http://www.theses.fr/2018LORR0061.

Texto completo
Resumen
Grâce au partenariat avec l'entreprise luxembourgeoise Post Luxembourg, nous avons pu tester différentes méthodes pour mesurer le trafic interdomaine à la bordure de leur réseau avec Internet. Le choix s'est porté sur une technologie existante : Netflow. Avec ces données nous avons pu réaliser diverses analyses afin de comprendre l'évolution du trafic en fonction de différents paramètres comme l'heure de la journée, le jour de la semaine... D'après ces analyses, plusieurs solutions ont été envisagées pour modéliser le trafic. Deux méthodes ont été proposées et testées sur des données réelles : une méthode d'analyse de séries temporelles et une méthode de machine learning reposant sur les processus gaussiens. Ces techniques ont été comparées sur différents systèmes autonomes. Les résultats sont satisfaisants pour les deux méthodes avec un avantage pour la méthode des processus gaussiens. Cette thèse propose le développement d'une solution logicielle ANODE mise en production chez Post Luxembourg et permettant l'analyse de bout en bout du trafic de cœur de réseau : mesure de données, modélisation, prédiction et détection d'anomalies
Inter-domain routing statistics are not usually publicly available but with the partnership with Post Luxembourg, we deployed a network wide measurements of Internet traffic. Those statistics show clear daily and weekly pattern and several points of interest. From all the information gathered, two modelling approach were chosen: the first one from the time series domain and the second one from the machine learning approach. Both were tested on several dataset of autonomous systems and the second one, Gaussian Process, was kept for the next steps. The proposal of this study is the development of a software solution called ANODE, which is used at Post Luxembourg, allowing the analysis of backbone traffic: measurments, modelling, forecasting and anomaly detection
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Aouini, Zied. "Traffic monitoring in home networks : from theory to practice". Thesis, La Rochelle, 2017. http://www.theses.fr/2017LAROS035/document.

Texto completo
Resumen
Les réseaux domestiques sont confrontés à une évolution continue et deviennent de plus en plus complexes. Leur complexité a évolué selon deux dimensions interdépendantes. D'une part, la topologie du réseau domestique devient plus complexe avec la multiplication des équipements et des technologies de connectivité. D'autre part, l'ensemble des services accessibles via le réseau domestique ne cesse de s’élargir. Un tel contexte a rendu la gestion du réseau domestique plus difficile pour les Fournisseurs d’Accès Internet (FAI) et les utilisateurs finaux. Dans ce manuscrit, nous nous concentrons sur la deuxième dimension de la complexité décrite ci-dessus liée au trafic circulant depuis/vers le réseau domestique. Notre première contribution consiste à proposer une architecture pour la supervision du trafic dans les réseaux domestiques. Nous fournissons une étude comparative de certains outils open source existants. Ensuite, nous effectuons une évaluation de performances expérimentale d’un sous ensemble des processus impliqués dans notre architecture. Sur la base des résultats obtenus, nous discutons les limites et les possibilités de déploiement de ce type de solution. Dans notre deuxième contribution, nous présentons notre analyse à large échelle des usages et du trafic résidentiel basée sur une trace de trafic réelle impliquant plus de 34 000 clients. Premièrement, nous présentons notre méthode de collecte et de traitement des données. Deuxièmement, nous présentons nos observations statistiques vis-à-vis des différentes couches de l’architecture Internet. Ensuite, nous effectuons une analyse subjective auprès de 645 clients résidentiels. Enfin, nos résultats fournissent une synthèse complète des usages et des caractéristiques des applications résidentielles. Dans notre troisième contribution, nous proposons une nouvelle méthode pour la classification en temps réel du trafic résidentiel. Notre méthode, laquelle est basée sur l’utilisation d’un algorithme d’apprentissage statistique de type C5.0, vise à combler les carences identifiées dans la littérature. Ensuite, nous détaillons notre implémentation d’une sonde légère sur un prototype de passerelle résidentielle capable de capturer, de suivre et d'identifier d’une manière fine les applications actives dans le réseau domestique. Cette implémentation nous permet, en outre, de valider nos principes de conception via un banc d'essai réaliste mis en place à cet effet. Les résultats obtenus indiquent que notre solution est efficace et faisable
Home networks are facing a continuous evolution and are becoming more and more complex. Their complexity has evolved according to two interrelated dimensions. On the one hand, the home network topology (devices and connectivity technologies) tends to produce more complex configurations. On the other hand, the set of services accessed through the home network is growing in a tremendous fashion. Such context has made the home network management more challenging for both Internet Service Provider (ISP) and end-users. In this dissertation, we focus on the traffic dimension of the above described complexity. Our first contribution consists on proposing an architecture for traffic monitoring in home networks. We provide a comparative study of some existing open source tools. Then, we perform a testbed evaluation of the main software components implied in our architecture. Based on the experiments results, we discuss several deployment limits and possibilities. In our second contribution, we conduct a residential traffic and usages analysis based on real trace involving more than 34 000 customers. First, we present our data collection and processing methodology. Second, we present our findings with respect to the different layers of the TCP/IP protocol stack characteristics. Then, we perform a subjective analysis across 645 of residential customers. The results of both evaluations provide a complete synthesis of residential usage patterns and applications characteristics. In our third contribution, we propose a novel scheme for real-time residential traffic classification. Our scheme, which is based on a machine learning approach called C5.0, aims to fulfil the lacks identified in the literature. At this aim, our algorithm is evaluated using several traffic inputs. Then, we detail how we implemented a lightweight probe able to capture, track and identify finely applications running in the home network. This implementation allowed us to validate our designing principles upon realistic test conditions. The obtained results show clearly the efficiency and feasibility of our solution
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Sun, Donglai. "Exploring QoS and security in wireless ad-hoc network". Thesis, Dijon, 2012. http://www.theses.fr/2012DIJOS063/document.

Texto completo
Resumen
Le réseau sans-fil Ad-hoc est une technologie de communication qui a émergé au cours de la dernière décennie. Ce type de réseau peut-être mis en oeuvre facilement sans infrastructures fixes, et il est considéré comme l’une des solutions les plus utilisées pour la construction de systèmes distribués. De toute évidence le canal physique du réseau sans-fil ad-hoc se distingue nettement des autres réseaux existants. Par exemple, les fluctuations causées par un canal sans-fil instable sont plus sévères. Du point de vue ordinaire, ces caractéristiques sont considérées comme des inconvénients, et doivent être éliminées dans la conception du réseau.La technologie appelée “sécurité de la couche physique” représente une attitude tout à fait subversive par rapport à ces questions. L’unique canal physique est exploité pour fournir une garantie de sécurité supplémentaire. Cependant de nouveaux problèmes sont également introduits dans le système. La vitesse de transmission des liens avec la sécurité de la couche physique est limitée en raison de la surcharge utilisée pour le mécanisme sécurisé. Donc les performances du réseau (par exemple le débit et le délai ) sont affectées. Ainsi, la qualité de service se révèle être une préoccupation majeure dans les réseaux avec sécurité de la couche physique. Dans cette recherche, l’accent est mis sur la question de savoir comment garantir la QoS et la sécurité de la couche physique sans fil simultanément dans les réseaux ad-hoc. Comme les solutions traditionnelles de QoS sont toujours mises en oeuvre dans les couches supérieures de la structure du réseau, elles ne fonctionnent pas bien avec la nouvelle couche physique sécurisée. En outre, comme il y a les autres services qui ne demandent pas plus de sécurité dans le réseau, la coexistence de la couche physique sécurisée avec la couche physique régulière doit être prise en considération. Ces questions ont établi de nouvelles exigences de protocoles dans la couche MAC. Par conséquent nous résumons les caractéristiques générales de la technologie sécurité de couche physique, sur la base duquel un cadre de planification de couche MAC est présenté : SecDCF. Une interface est également conçue pour permettre l’intégration de politiques d’ordonnancement différentes. En outre les exigences diversifiées de scénarios différents sont étudiées, et des politiques d’ordonnancement sont ensuite dérivées pour être appliquées avec SecDCF. Les analyses numérique et les simulations correspondantes sont également menées pour évaluer notre recherche. En conclusion il est illustré dans cette thèse que, avec une ordonnancement special dans la couche MAC, il est possible d’exploiter les caractéristiques riches de la couche physique pour atteindre la sécurité et la qualité de service en même temps dans les réseaux sans-fil ad-hoc
Wireless Ad-hoc Network is an emerging communication technology over the last decade. As this kind of network can be easily implemented without requiring fixed infrastructures, it is considered as one of the most important solutions for building distributed wireless systems. Obviously, the physical channel in wireless ad-hoc network significantly distinguishes itself from the other existing networks. For example, fluctuations caused by unstable wireless channel are more severe. From an ordinaryperspective, these characteristics are treated as disadvantages, and have to be eliminated in network design.Burgeoning technology called physical layer security represents a completely subversive attitude to these issues. Unique physical channel is exploited to provide additional security guarantee. However, new problems are also introduced into the system. Transmission rate of links with physical layer security is largely restricted due to the overhead used for secure mechanism. Network performance (e.g., throughput and delay) is accordingly affected. Thus, QoS turns out to be a major concern innetworks with physical layer security. In this research, the focus is on the problem of how to guarantee QoS and physicallayer security simultaneously in wireless ad-hoc networks. Since traditional solutions for QoS are always implemented in upper layers of the network structure, they can hardly provide full support to the new secure physical layer. Furthermore, as services without secure requirement still exist in the network, the coexistence of secure and regular physical layer has to be taken into consideration. These issues have set new demands of corresponding MAC layer scheduling protocols. Therefore, we summarizethe general characteristics of physical layer security technology, based on which SecDCF, a MAC layer scheduling framework is presented. An interface is also designed to enable the integration of different scheduling policies. Furthermore, diversifiedrequirements from different scenarios are studied, and scheduling policies are then derived to be applied with SecDCF.Corresponding numerical analysis and simulations are also carried out to evaluate our research. As a conclusion, it is illustrated in this dissertation that with elaborately designed MAC layer scheduling schemes, it is possible to exploit the rich physical layercharacteristics for achieving both security and QoS in wireless ad-hoc networks
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Gawedzki, Ignacy. "Algorithmes distribués pour la sécurité et la qualité de service dans les réseaux ad hoc mobiles". Paris 11, 2008. http://www.theses.fr/2008PA112240.

Texto completo
Resumen
Les protocoles de routage pour réseaux ad hoc actuels supposent l'absence totale de participants malveillants, alors que cette hypothèse est souvent contredite dans les applications. Nous avons cherché à enrichir les protocoles dits proactifs pour permettre aux nœuds de surveiller le réseau de manière distribuée et de mesurer la menace représentée par chacun des autres nœuds. Cette mesure sert à extraire une métrique de qualité de service utilisée ensuite par le protocole de routage pour contourner les nœuds les plus suspects d'après les différentes méthodes de détection utilisées. Nous proposons de détecter la perte de paquets de données, intentionnelle ou non. La détection est réalisée par une vérification distribuée du principe de conservation de flot, basée sur l'échange de compteurs de paquets entre voisins. Nous proposons également une méthode de diffusion de ces valeurs qui permet un meilleur passage à l'échelle. Cette détection ne sert qu'à maintenir un degré de suspicion local qui, une fois diffusé à tout le réseau et recombiné par les autres nœud, produit une métrique de suspicion globale envers chaque nœud. L'application au protocole OLSR est décrite et ses performances évaluées par simulation. Nous montrons que la solution est efficace et que l'impact du surcoût de contrôle sur la capacité du médium reste faible. Nous présentons enfin une plateforme expérimentale du protocole OLSR avec qualité de service et sécurité, servant à faire fonctionner nos solutions dans des mises en place réelles pour déceler les problèmes qui apparaissent lors de l'utilisation de matériel grand public
Currently available routing protocols for ad hoc networks assume the total absence of malicious participants, although this assumption is seldom true in practical applications. In this work, we look for a way to augment proactive protocols so as to let nodes watch over the network in a distributed fashion and measure the threat represented by every node. The measurement is used to extract a quality of service metric used in turn by the routing protocol to avoid the most suspected nodes, according to all the implemented detection methods. We propose to detect data packet loss, be it intentional or not. The detection is performed by a verification of the principle of flow conservation, based on the exchange of packet counters between neighbors. A scalable method of diffusion of these values is also proposed. The actual checking is used to maintain a local degree of distrust which is diffused in all the network and recombined by the nodes into a global metric of distrust in each node. The application to the OLSR protocol is described and its performance evaluated by simulation. We show that the solution is efficient and that the impact of the control overhead on the medium capacity remains low. Finally, an experimental platform of OLSR with quality of service and security is presented, which is aimed at making our solutions work in an actual real setup in order to reveal any potential problem that may appear with the use of commercial off-the-shelf hardware
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Jacquemart, Quentin. "Déceler les attaques par détournement BGP". Electronic Thesis or Diss., Paris, ENST, 2015. http://www.theses.fr/2015ENST0063.

Texto completo
Resumen
Internet est constitué de milliers de systèmes autonomes (Autonomous Systems, AS) qui échangent des informations de routage grâce au protocole BGP (Border Gateway Protocol). Chaque AS attend des autres qu'il lui donne des informations de routage correctes, et leur accorde donc une confiance totale. Le détournement de préfixe (prefix hijacking) exploite cette confiance afin d'introduire des routes falsifiées. Les techniques qui détectent cette attaque génèrent un nombre important d'alertes, composé de faux positifs résultant d'opérations de routage courantes. Dans cette dissertation, nous cherchons à trouver la cause principale de ces alertes, de manière indubitable. A cette fin, d'une part, nous réduisons le nombre d'alertes en analysant en profondeur ces réseaux, dont nous dérivons une série de structures qui reflètent les pratiques standard de routage du monde réel, et en considérant le risque associé à ces structures lors une attaque par détournement. D'autre part, nous utilisons des bases de données auxiliaires qui nous permettent de connaître la raison derrière un évènement de routage, qui n'est, en général, connue que du propriétaire du réseau. Précisément, nous regardons les préfixes à origines multiples (Multiple Origin AS, MOAS), et mettons en évidence une classification nous permettant d'éliminer 80% des alertes. Nous présentons un cas réel où un MOAS coïncide avec du spam et des sites d'arnaque en ligne. Nous étudions les préfixes non-disjoints, et présentons un prototype permettant d'éliminer 50% des alertes sub-MOAS.Nous explorons l'espace IP non assigné, cherchons des adresses IP joignables, et localisons une grande quantité de spam et des sites d'arnaques en ligne
The Internet is composed of tens of thousands Autonomous Systems (ASes) that exchange routing information using the Border Gateway Protocol (BGP). Consequently, every AS implicitly trusts every other ASes to provide accurate routing information. Prefix hijacking is an attack against the inter-domain routing infrastructure that abuses mutual trust in order to propagate fallacious routes. The current detection techniques pathologically raise a large number of alerts, mostly composed of false positives resulting from benign routing practices. In this Dissertation, we seek the root cause of routing events beyond reasonable doubts. First, we reduce the global number of alerts by analyzing false positive alerts, from which we extract constructs that reflect real-world standard routing practices. We then consider the security threat associated with these constructs in a prefix hijacking scenario. Second, we use a variety of auxiliary datasets that reflect distinct facets of the networks involved in a suspicious routing event in order to closely approximate the ground-truth, which is traditionally only known by the network owner. Specifically, we investigate Multiple Origin AS (MOAS) prefixes, and introduce a classification that we use to discard up to 80% of false positive. Then we show a real-world case where a MOAS coincided with spam and web scam traffic. We look at prefix overlaps, clarify their global use, and present a prototype that discards around 50% of false positive sub-MOAS alerts. Finally, we explore the IP blackspace, study the routing-level characteristics of those networks, find live IP addresses, and uncover a large amount of spam and scam activities
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

Bou, Diab Wafaa. "End-to-security of real-time services over beyond third generation networks". Versailles-St Quentin en Yvelines, 2010. http://www.theses.fr/2010VERS0011.

Texto completo
Resumen
La sécurité représente un grand défi pour la transmission du trafic temps-réel sur les réseaux IP, l'objectif est d'acquérir le même niveau de sécurité offert par la téléphonie standard sans affecter la performance et la qualité de service. Sécuriser les services multimédia temps-réel sur un réseau IP est un processus complexe; les solutions de sécurité doivent prendre en compte les contraintes temps-réel des services voix et multimédia et leurs mécanismes doivent traiter les attaques possibles et l’overhead associé. La nécessité d’offrir un certain niveau de qualité de service (QoS) résulte souvent de l’utilisation des faibles mécanismes de sécurité. Le problème d’appliquer les mécanismes de sécurité pour les applications sensibles en temps-réel est que la sécurité et l'efficacité sont des exigences contradictoires ; les mécanismes de sécurité dégradent la performance et la QoS de telles applications, c’est principalement car ces mécanismes peuvent être responsables de l'augmentation de la latence et de la perte de paquets ; si la latence est trop élevée elle peut être la contrainte la plus dégénérant de la qualité des communications multimédia temps-réel. D'autre part, l'un des défis majeurs pour les applications temps-réel sur des réseaux mobiles de prochaine génération ou les réseaux au-delà de troisième génération (B3G) est le handover vertical sans-couture (seamless vertical handover). Ces applications sensibles aux latences et à la perte de paquets nécessitent un contrôle de handover rapide et efficace sur les diverses technologies sans fil pour réaliser la continuité de service et la mobilité sans coupure tout en préservant la sécurité et la qualité de service. L'objectif de cette thèse est de fournir une solution de sécurité robuste sans compromis sur la qualité de service et la performance des applications multimédia temps réel. À cause de la nature temps-critique des applications multimédia et leur faible tolérance au délai et à la perte de paquet, de nombreux mécanismes de sécurité mis en oeuvre dans les réseaux de données ne sont pas applicables aux services temps réel. D'abord, nous étudions les mécanismes de sécurité utilisés actuellement pour la protection des applications IP et examinons les différentes solutions de sécurité VPN en présentant leurs avantages et inconvénients. Ensuite, nous analysons les mécanismes de sécurité supportant les services temps réel et permettant de protéger les signalisations et les trafics médias et comparons les différentes solutions afin de trouver une solution de sécurité robuste supportant des applications multimédia sur des réseaux d’accès hétérogènes. Ensuite, nous présentons une nouvelle solution VPN basé sur IPSec permettant d’offrir une sécurité de bout-en-bout pour les applications temps-réel tout en préservant la performance et la Qualité de Service. La solution est basée sur le protocole de sécurité IPSec et travaille indépendamment du réseau sous-jacent, elle offre de chiffrement de bout-en-bout et donc évite les bouchons (bottlenecks) des files d'attente au niveau des routeurs et protège les utilisateurs et les communications multimédia des attaquants de l'intérieur. La méthode de signalisation permet d’établir le tunnel VPN de bout-en-bout sans délai. Nous proposons une nouvelle méthode de routage du trafic média sécurisé sur les réseaux IP, cette méthode réduit l’overhead de traitement à chaque routeur dans le chemin et minimise la latence et la perte de paquet multimédia. Après cela, nous décrivons le défi de la sécurité et les exigences des applications temps réel durant le handover vertical. Les applications temps réel ont besoin d'une solution de gestion de la mobilité qui réalise le handover aussi rapide que possible et offre un handover sans couture sécurisé sans perception du point de vue d’utilisateur. Ensuite, nous présentons la nouvelle solution de gestion de mobilité offrant un handover sans-couture, rapide et sécurisé pour les applications temps réel durant la mobilité entre les réseaux d’accès hétérogènes. Cette solution effectue l’authentification et la protection de l'intégrité durant le processus de handover anticipé, ce qui minimise l’overhead de signalisation et entraîne une réduction significative de la latence de handover et la perte de paquet. La solution permet aussi de résoudre le problème de désynchronisation entre les utilisateurs dû au mécanisme de compression. Un nouveau module entre les domaines E-IDM (Enhanced Inter-Domain Module) est introduit pour assurer la qualité de service et la sécurité de bout-en-bout des applications multimédia temps réel, tout en offrant de handover sécurisé entre les réseaux d'accès hétérogènes
Security presents a big challenge for transmitting real-time traffic over IP networks; the goal is to acquire the same security level offered by the standard telephony without affecting the performance and the quality of service. Securing real-time multimedia services over IP networks is a complex process; the security solutions must take into account the real-time constraints of voice and multimedia services and their mechanisms should address possible attacks and overhead associated with it. The need to provide certain level of Quality of Service (QoS) often results with weak security mechanisms. The problem of applying security mechanism for real-time sensitive applications is that security and efficiency are conflicting requirements and the security mechanisms may degrade the performance and the QoS of such applications. This is mainly because security mechanisms can be responsible for the increased latency and the packet loss; if latency is too high, it can be the most deteriorating constrain for the quality of the real-time multimedia communications. On the other hand, one of the major challenges for real-time applications over extgeneration mobile networks or the Beyond Third Generation Networks (B3G) is the seamless vertical handoff. Such latency and loss sensitive applications require fast and efficient handover control over various wireless technologies to realize service continuity and seamless mobility while preserving the security and the QoS. The aim of this thesis is to provide a robust security solution without compromising the QoS and the performance of the real-time multimedia applications. Because of the timecritical nature of multimedia applications and their low tolerance for disruption and packet loss, many security mechanisms implemented in data networks are not applicable to real-time services. We first investigate the different security mechanisms applying nowadays for protecting IP applications, and examine the various VPN security solutions presenting their advantages and drawbacks. Then, we analyze the mechanisms supporting real-time services and enabling to protect both the signaling and the media traffic, and compare the different
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

Borne, Sylvie. "Sécurisation et dimensionnement de réseaux multicouches : modèles et polyèdres". Phd thesis, Clermont-Ferrand 2, 2006. https://theses.hal.science/tel-00713851/document.

Texto completo
Resumen
Les réseaux de télécommunications évoluent vers des modèles qui consistent en un certain nombre de routeurs IP interconnectés par un réseau optique intelligent. Cette nouvelle infrastructure multicouche nécessite un haut niveau de fiabilité, de telle manière que les services du réseau puissent être rétablis en cas de panne. Dans cette thèse, nous considérons différents problèmes de sécurisation et de dimensionnement liés à cette infrastructure multicouche. Nous donnons des formulations en terme de programmes linéaires mixtes, et nous discutons des polytopes associés. Nous décrivons plusieurs classes d'inégalités valides et étudions les conditions pour qu'elles définissent des facettes. Nous discutons de procédures de séparation pour ces inégalités et induisons des opérations de réduction. Nous développons des algorithmes de coupes et branchements et de coupes génération de colonnes et branchements et présentons une étude expérimentale sur des instances aléatoires et réelles
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

Borne, Sylvie. "Sécurisation et dimensionnement de réseaux multicouches : modèles et polyèdres". Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2006. http://tel.archives-ouvertes.fr/tel-00713851.

Texto completo
Resumen
Les réseaux de télécommunications évoluent vers des modèles qui consistent en un certain nombre de routeurs IP interconnectés par un réseau optique intelligent. Cette nouvelle infrastructure multicouche nécessite un haut niveau de fiabilité, de telle manière que les services du réseau puissent être rétablis en cas de panne. Dans cette thèse, nous considérons différents problèmes de sécurisation et de dimensionnement liés à cette infrastructure multicouche. Nous donnons des formulations en terme de programmes linéaires mixtes , et nous discutons des polytopes associés. Nous décrivons plusieurs classes d'inégalités valides et étudions les conditions pour qu'elles définissent des facettes. Nous discutons de procédures de séparation pour ces inégalités et induisons des opérations de réduction. Nous développons des algorithmes de coupes et branchements et de coupes génération de colonnes et branchements et présentons une étude expérimentales sur des instances aléatoires et réelles.
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

Hatahet, Sinan. "La Security in unstructured P2P networks". Compiègne, 2011. http://www.theses.fr/2011COMP1935.

Texto completo
Resumen
Les réseaux P2P représentent aujourd’hui une partie considérable des échanges sur Internet, principalement parce qu’ils offrent aux utilisateurs du monde entier un moyen rapide et efficace pour partager des ressources. Les réseaux P2P offrent plusieurs avantages tels qu’un meilleur passage à l’échelle et une meilleure résistance aux pannes et par conséquent un meilleur rendement et une meilleure qualité de service. Ces apports ont largement favorisés l’apparition de nouvelles applications qui offrent des services divers et variés. Cependant, les réseaux P2P sont vulnérables à certaines attaques de sécurité. La sécurité des réseaux P2P a reçu beaucoup d’attention dans la recherche. De nombreuses solutions ont été proposées pour renforcer la sécurité dans les réseaux P2P. Dans cette thèse, nous nous sommes notamment intéressés au problème de la propagation de vers et aux systèmes de prévention et de détection d’échanges illégaux de fichiers sur les réseaux P2P. Nous présentons une analyse détaillée du problème tout en mettant en évidence les problèmes et les caractéristiques inhérents aux réseaux P2P. Ensuite, nous exposons les solutions de sécurité existantes dans la littérature scientifique. Ensuite, nous identifions une faille de sécurité dans le réseau BitTorrent qui peut être exploitée par les vers actifs et qui leur permet de se propager, une propagation trois fois plus vite que les autres vers connus. Ensuite, nous proposons un système de détection et de confinement de vers dans le réseau BitTorrent. Notre étude analytique montre que l’intervention de notre solution permet une réduction de 98,9 pour cent du taux d’infection global. En outre, nous présentons un simulateur que nous avons développé pour analyser et étudier les solutions que nous avons proposées. Enfin, nous exposons une proposition originale pour détecter les téléchargements illégaux de fichiers protégés par des droits d’auteur
Peer-to-peer (p2p) networking technology has gained popularity as an efficient mechanism for users to obtain free services without the need for centralized servers. P2P networks offer several advantages such as scalability, fault tolerance, and performance. These properties have led to the proliferation of variety of applications. However, P2P raises some security concerns. Indeed, P2P networks are open systems that apply no restriction whatsoever on the joining process of users. As a result, malicious user scan actively join a P2P system and initiate attacks within the network. Moreover, in P2P networks topology information is exposed to the systems peers to allow cooperation between them. Attackers can leverage this information to compromise P2P networks. P2P security has received a lot of attention in research. A host of research has proposed a number of solutions to reinforce security in P2P networks. In this thesis, we primarily deal with worm propagation and traffic throttling in P2P networks. We present a detailed analysis of the problem while highlighting special features and issues inherent to P2P computing. Then, we review existing security solutions in the literature and analyze their advantages and shortcomings. Next, we identify security vulnerabilities in BitTorrent that can be exploited by active worms. The latter could then propagate much faster than other worms. Then, we propose a worm detection and containment system in BitTorrent that detects active worm propagation. Our analysis shows that our solution can stop worm attacks before 1. 1 percent of the vulnerable hosts are infected. We also present a simulator that we developed to further analyze and study our proposed solutions. Finally, we provide a novel approach to detect BitTorrent illegal download of copyright protected files. Our analyses show that in worst case scenarios, our solution could reduce the download success rate of copyright protected contents to 49 percent
Los estilos APA, Harvard, Vancouver, ISO, etc.
34

Zeng, Xuan. "Vers une mobilité transparente dans le réseau ICN : connectivité, sécurité, et fiabilité". Electronic Thesis or Diss., Sorbonne université, 2018. http://www.theses.fr/2018SORUS046.

Texto completo
Resumen
Avec la prolifération des appareils mobiles, la mobilité devient une exigence et une caractéristique incontournable pour 5G. Cependant, en dépit des efforts pour permettre la mobilité dans le réseau IP, les solutions sont anchor-basées et inefficaces. Dans ce contexte, le réseau centré sur l'information (ICN) est proposé. Alors que ICN soutient mieux la mobilité, certains défis restent sans solution pour une mobilité transparente. La thèse explore trois défis de ce type et propose solutions efficaces. Tout d'abord, pour résoudre la mobilité des producteurs, MapMe, un protocole de gestion de micro mobilité compatible avec trafics latence-sensibles est proposée. MAP-Me est sans anchor et préserve les avantages de l'ICN. Les résultats de simulation montrent que MAP-Me surpasse les autres solutions en matière de performances client tout en gardant bas les frais de réseau sur diverses conditions réseau. En plus, nous étudions la sécurité de mobilité des producteurs. Nous nous concentrons sur l'attaque de préfixe hijacking, qui est à la base de plusieurs attaques. Pour éviter cette attaque, nous proposons un protocole léger et distribué basé sur hash-chaining. Les premiers résultats montrent une amélioration significative des frais de vérification. Enfin, il faut d'autres mécanismes dans la couche transport pour ICN mobile. Nous proposons WLDR et MLDR pour la détection et la récupération des pertes dans le réseau afin de faciliter le contrôle de la congestion. Les résultats de simulation montrent une réduction significative du temps d'écoulement (jusqu'à 20%)
With the proliferation of mobile devices, mobility becomes a requirement and a compelling feature for 5G. However, despite tremendous efforts in the last 2 decades to enable mobility in IP network, the solutions are mostly anchor-based and inefficient. In this context, Information-Centric networking (ICN) is proposed. While ICN has some native support of mobility, other architectural challenges remain unsolved to achieve seamless mobility. The thesis explores 3 main challenges of such and contributes novel solutions. First, to solve producer mobility, MapMe, a micro mobility management protocol supporting latency sensitive traffic is proposed. MAP-Me is anchorless and preserves key ICN benefits. Simulation results show that MAP-Me outperforms existing work in user performance while retaining low network overheads in various network conditions. Second, we investigate security in producer mobility. We focus on prefix hijacking attack, which is a basis of several attacks. To prevent prefix hijacking, we propose a light-weight and distributed prefix attestation protocol based on hash-chaining. First results show significant improvement in verification overhead. It is resistant to replay-based prefix hijacking. Finally, additional transport-layer mechanisms are needed in mobile ICN. To this aim, we investigate alleviating the adverse effect of wireless/mobility loss on congestion control. We propose WLDR and MLDR for in-network loss detection and recovery to facilitate congestion control. Simulation results show a significant reduction in flow completion time (up to 20%)
Los estilos APA, Harvard, Vancouver, ISO, etc.
35

Grandemange, Quentin. "Contribution à la modélisation et à la détection d'anomalies du traffic Internet à partir de mesures d'un coeur de réseau opérateur". Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0061/document.

Texto completo
Resumen
Grâce au partenariat avec l'entreprise luxembourgeoise Post Luxembourg, nous avons pu tester différentes méthodes pour mesurer le trafic interdomaine à la bordure de leur réseau avec Internet. Le choix s'est porté sur une technologie existante : Netflow. Avec ces données nous avons pu réaliser diverses analyses afin de comprendre l'évolution du trafic en fonction de différents paramètres comme l'heure de la journée, le jour de la semaine... D'après ces analyses, plusieurs solutions ont été envisagées pour modéliser le trafic. Deux méthodes ont été proposées et testées sur des données réelles : une méthode d'analyse de séries temporelles et une méthode de machine learning reposant sur les processus gaussiens. Ces techniques ont été comparées sur différents systèmes autonomes. Les résultats sont satisfaisants pour les deux méthodes avec un avantage pour la méthode des processus gaussiens. Cette thèse propose le développement d'une solution logicielle ANODE mise en production chez Post Luxembourg et permettant l'analyse de bout en bout du trafic de cœur de réseau : mesure de données, modélisation, prédiction et détection d'anomalies
Inter-domain routing statistics are not usually publicly available but with the partnership with Post Luxembourg, we deployed a network wide measurements of Internet traffic. Those statistics show clear daily and weekly pattern and several points of interest. From all the information gathered, two modelling approach were chosen: the first one from the time series domain and the second one from the machine learning approach. Both were tested on several dataset of autonomous systems and the second one, Gaussian Process, was kept for the next steps. The proposal of this study is the development of a software solution called ANODE, which is used at Post Luxembourg, allowing the analysis of backbone traffic: measurments, modelling, forecasting and anomaly detection
Los estilos APA, Harvard, Vancouver, ISO, etc.
36

Challal, Yacine. "Sécurité dans les communications de groupe". Compiègne, 2005. http://www.theses.fr/2005COMP1561.

Texto completo
Resumen
Les avantages qu'offre IP multicast pour les communications multi-parties, telles que : l'économie de bande passante, la simplicité et l'efficacité, sont typiquement intéressants pour de nouveaux services combinant la voix, la vidéo et le texte sur Internet. Par ailleurs, la demande des fournisseurs d'accès à Internet et les distributeurs de contenus pour le multicast est de plus en plus importante. C'est pourquoi, le déploiement à large échelle de ce modèle de communication devient un besoin urgent. Malheureusement, les avantages d'IP multicast alimentent ses faiblesses en terme de sécurité. Effectivement, l'adhésion ouverte et anonyme, ainsi que la nature distribuée du multicast, présentent de sérieuses menaces en terme de sécurité pour ce modèle de communication. Plusieurs travaux de recherche ont été conduits afin de remédier à ces problèmes de sécurité en proposant des contre-mesures telles que : le contrôle d'accès, la confidentialité, authentification, et le tatouage. Dans cette thèse, nous traitons deux aspects fondamentaux de toute architecture de multicast sécurisé, qui sont la confidentialité et l'authentification de l'origine des données multicast. Pour chacun de ces deux thèmes, nous présenterons une analyse détaillée du problème tout en mettant en évidence les problèmes et les caractéristiques inhérents à la nature du multicast. Puis, nous présenterons les solutions existantes dans la littérature tout en analysant leurs avantages et leurs inconvénients. Enfin, nous présenterons nos propres propositions, ainsi que leurs avantages par rapport aux solutions existantes
The advantages of IP multicast in multi-party communications, such as saving bandwidth, simplicity and efficiency, are very interesting for new services combining voire, video and text over Internet. This urges the effective large scale deployment of multicasting to satisfy the increasing demand for multicasting from both Internet Service Providers (ISPs) and Content Distributors. Unfortunately, the strengths of IP multicast are also its security weaknesses. Indeed, the open and anonymous membership and the distributed nature of multicasting are serious threats to the security of this communication mode!. Much effort has been conducted to address the many issues relating to securing multicast data transmission, such as: access control, confidentiality, authentication and watermarking. Ln this thesis we deal with the two keystone security issues of any secure multicast architecture: data origin authentication and confidentiality. For each theme, we present a detailed analysis of the problem while highlighting special features and issues inherent to the multicast nature. Then, we review existing solutions in the literature and analyze their advantages and shortcomings. Finally, we provide our own original proposaIs, depicting their advantages over the previous solutions
Los estilos APA, Harvard, Vancouver, ISO, etc.
37

Mayzaud, Anthéa. "Monitoring and Security for the RPL-based Internet of Things". Electronic Thesis or Diss., Université de Lorraine, 2016. http://www.theses.fr/2016LORR0207.

Texto completo
Resumen
L'intérêt grandissant pour l'Internet des Objets (IdO) s'est traduit par le déploiement à grande échelle de réseaux dits LLN. Ceux-ci sont fortement contraints en matière de ressources et communiquent via des liens instables. Les protocoles de routages existants pour les réseaux traditionnels ne sont pas adaptés à ces caractéristiques. L'IETF a proposé un nouveau protocole de routage appelé RPL fondé sur IPv6 et spécifiquement conçu pour ces environnements. Cependant, il est exposé à de nombreuses attaques et la mise en place de mécanismes de sécurité représente un coût considérable. Les réseaux LLN introduisent donc de nouveaux enjeux quant à leur supervision et leur sécurité. Dans le cadre de cette thèse, nous étudions une approche de supervision pour la sécurité de l'IdO tout en limitant son coût. Nous évaluons tout d'abord les menaces auxquelles sont soumis les réseaux RPL en les classifiant au travers d'une taxonomie. Nous quantifions également les conséquences de deux attaques appelées l'attaque d'incohérence DAG et l'attaque du numéro de version. Nous nous concentrons ensuite sur les solutions pour la sécurité dans les réseaux RPL. Nous proposons une stratégie locale qui limite les attaques d'incohérences DAG et nous présentons une architecture de supervision distribuée orientée sécurité pour détecter des attaques complexes comme les attaques sur le numéro de version et compléter notre approche locale. Celle-ci nous permet de préserver l'énergie des nœuds en effectuant les activités de surveillance et de détection sur des nœuds dédiés. Nous quantifions ensuite les performances de cette architecture ainsi que la stratégie de détection proposée
The growing interest for the Internet of Things (IoT) has resulted in the large scale deployment of Low power and Lossy Networks (LLN). These networks are strongly constrained in terms of resources and communicate using unstable links. In this context, existing routing protocols for traditional networks do not cope with all these constraints. The IETF has proposed a new routing protocol called RPL based on IPv6 and specifically designed for these environments. The RPL protocol is however exposed to a large variety of attacks. The deployment of security mechanisms may also be quite expensive for the nodes. Therefore, LLN networks present new challenges in terms of monitoring and security. In this thesis we propose to investigate a security-oriented monitoring approach for addressing the trade-off between security and cost in the IoT. In a first stage, we assess security threats faced by these networks by identifying and classifying attacks through a dedicated taxonomy. We also quantify the consequences of two major attacks called DAG inconsistency attacks and version number attacks causing over-consumption of node resources. We then focus our work on security solutions for RPL-based IoT. We propose a local strategy for addressing DAG inconsistency attacks. In order to detect complex attacks such as version number attacks and to complement our node-level approach, we design a security-oriented distributed monitoring architecture for RPL networks. This solution allows us to preserve constrained nodes energy by performing monitoring and detection activities on dedicated nodes. We quantify the performance and the cost of this architecture and the deployed detection modules
Los estilos APA, Harvard, Vancouver, ISO, etc.
38

Shbair, Wazen M. "Service-Level Monitoring of HTTPS Traffic". Electronic Thesis or Diss., Université de Lorraine, 2017. http://www.theses.fr/2017LORR0029.

Texto completo
Resumen
Dans cette thèse, nous dressons tout d'abord un bilan des différentes techniques d'identification de trafic et constatons l'absence de solution permettant une identification du trafic HTTPS à la fois précise et respectueuse de la vie privée des utilisateurs. Nous nous intéressons dans un premier temps à une technique récente, néanmoins déjà déployée, permettant la supervision du trafic HTTPS grâce à l'inspection du champ SNI, extension du protocole TLS. Nous montrons que deux stratégies permettent de contourner cette méthode. Comme remédiation, nous proposons une procédure de vérification supplémentaire basée sur un serveur DNS de confiance. Les résultats expérimentaux montrent que cette solution pragmatique est efficace. Ensuite, nous proposons une architecture qui permet l'identification des services dans le trafic HTTPS, en se basant sur l'apprentissage automatique. Nous avons ainsi défini un nouvel ensemble de caractéristiques statistiques combinées avec une identification à deux niveaux, identifiant d'abord le fournisseur de services, puis le service, selon notre évaluation à partir de trafic réel. Enfin, nous améliorons cette architecture afin de permettre l'identification du trafic en temps réel en ne considérant que les premiers paquets des flux plutôt que leur totalité. Pour évaluer notre approche, nous avons constitué un dataset comportant les flux complets de chargement des principaux sites web et l'avons rendu public pour comparaison. Nous présentons également un prototype de logiciel reconstituant les flux HTTPS en temps réel puis les identifiant
In this thesis, we provide a privacy preserving for monitoring HTTPS services. First, we first investigate a recent technique for HTTPS services monitoring that is based on the Server Name Indication (SNI) field of the TLS handshake. We show that this method has many weakness, which can be used to cheat monitoring solutions.To mitigate this issue, we propose a novel DNS-based approach to validate the claimed value of SNI. The evaluation show the ability to overcome the shortage. Second, we propose a robust framework to identify the accessed HTTPS services from a traffic dump, without relying neither on a header field nor on the payload content. Our evaluation based on real traffic shows that we can identify encrypted HTTPS services with high accuracy. Third, we have improved our framework to monitor HTTPS services in real-time. By extracting statistical features over the TLS handshake packets and a few application data packets, we can identify HTTPS services very early in the session. The obtained results and a prototype implementation show that our method offers good identification accuracy, high HTTPS flow processing throughput, and a low overhead delay
Los estilos APA, Harvard, Vancouver, ISO, etc.
39

Amblard, Zoé. "Cryptographie quantique et applications spatiales". Thesis, Limoges, 2016. http://www.theses.fr/2016LIMO0113.

Texto completo
Resumen
Cette thèse réalisée en collaboration avec l’entreprise Thales Alenia Space, qui étudie les protocoles de cryptographie quantique à n parties en dimension d, a un double objectif. D’une part, nous analysons la famille des inégalités de Bell homogènes introduites par par François Arnault dans [1] afin de proposer des outils théoriques pour leur compréhension et leur implémentation à l’aide d’appareils optiques appelés ditters dont une représentation mathématique est donnée par Zukowski et al. dans [2]. Avec ces outils théoriques, nous proposons de nouveaux protocoles cryptographiques en dimension d qui sont décrits dans [3] et qui utilisent ces inégalités. D’autre part, nous étudions les avantages et inconvénients de la cryptographie quantique pour la protection des communications avec un satellite LEO en environnement bruité dans différents scénarios et, pour chacun de ces scénarios, nous concluons sur l’intérêt d’utiliser des protocoles de Distribution Quantique de Clés
This thesis in collaboration with Thales Alenia Space studies quantum cryptographic protocols for n parties in dimension d. We first analyze the family of Bell inequalities called homogeneous Bell inequalities introduces by François Arnault in [1] and we construct several theoretical tools for a better understanding of these inequalities. With these tools, we show how to implement the measurements required to test these inequalities by using optical devices calleds multiport beamsplitters and described by Zukowski et al. in [2]. We use these devices to construct new cryptographic protocols in dimension d called hdDEB which we describe in [3]. Then, we study advantages and drawbacks of the use of quantum cryptography to protect satellite links in a noisy environment. We consider several scenarios with LEO satellites and, for each of them, we conclude about the interest of using Quantum Key Distribution protocols
Los estilos APA, Harvard, Vancouver, ISO, etc.
40

Kondratyeva, Olga. "Timed FSM strategy for optimizing web service compositions w.r.t. the quality and safety issues". Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLL004.

Texto completo
Resumen
Les concepts d’architecture orientée service (SOA) ainsi que tout une panoplie de technologies «en tant que service» (XaaS) sont utilisés quasiment partout de nos jours, et l’organisation optimisée d’activités synchronisées devient un défi important. Dans le but de proposer à l’utilisateur final un service sécuritaire et fiable sans compromettre la qualité, les questions concernant la vérification et la validation des compositions des services deviennent d’un grand intérêt tant théorique que pratique. Dans les autres travaux traitant du sujet, de nombreux modèles et techniques sont proposés, mais la plupart mettent l’accent sur les aspects fonctionnels ou non-fonctionnels pris séparément, alors que l’intégration de ces paramètres en un modèle formel unifié reste un problème qui doit être résolu – ce qui est devenu par conséquent un des objectifs fondamentaux de cette thèse. Dans notre travail, nous réfléchissons aux problèmes de la vérification et de l’optimisation des compositions des services web. Tout ceci est étudié dans l’optique de la fonctionnalité des systèmes, de leur qualité et de la sécurité des compositions. Il a été prouvé que les modèles à états finis sont utiles à des fins de tests et de vérification, de même que pour le contrôle qualité à chaque étape du développement du service. C’est pour cette raison que nous proposons d’utiliser le modèle de machine temporisée à états finis (TFSM) pour intégrer une description fonctionnelle du service avec les paramètres de sécurité et de qualité liées au temps. L’extension du modèle permettra alors d’interpréter adéquatement le non-déterminisme significatif causé par un manque d’observabilité ou/et de contrôle sur les services tiers. Dans le but d’optimiser les compositions des systèmes, nous proposons une méthode pour dériver la solution la plus globale contenant tous les composants autorisés pour la mise en œuvre du service, basée sur la résolution de l’équation parallèle du TFSM. Ensuite, les techniques pour extraire des solutions restreintes avec les propriétés requises (paramètres de temps minimisé/maximisé, interblocages actifs ou passifs de sécurité, similarité avec le composant d’origine donné, etc.) ont été proposées. Dans le cas où les spécifications d’un service composite consistent en un ensemble d’exigences fonctionnelles, éventuellement renforcées par des exigences de qualité, nous proposons une technique de minimisation de l’ensemble, dans le respect du composant à optimiser. L’application des résultats obtenus à la découverte et à la mise en place de composants plus efficaces, ainsi que l’extension du modèle à des modes de communication plus complexes font partie des sujets possibles pour des études futures
Service-oriented architecture (SOA) together with a family of Everything-as-a-Service (XaaS) concepts nowadays are used almost everywhere, and the proper organization of collaborative activities becomes an important challenge. With the goal of bringing to the end-user safe and reliable service with the guaranteed level of quality, issues of service compositions verification and validation become of high practical and theoretical interest. In the related works, numerous models and techniques are proposed, but mostly focused on functional and non-functional issues in isolation, while integration of these parameters within unified formal framework still remains a problem to be solved – and therefore became one of the core objectives of this thesis. In our work, we address the problems of web service composition verification and optimization with respect to functional, quality and safety properties of the composition. Finite state models are proven to be useful for testing and verification purposes as well as for service quality evaluation at each step of service development. Therefore, we propose to use the model of Finite State Machine with Timeouts (TFSM) for integrating functional service description with time-related quality and safety parameters, and derive the extension of the model in order to adequately inherit significant nondeterminism due to the lack of observability and control over third-party component services. For the purpose of component optimization in the composition, we propose a method for deriving the largest solution containing all allowed component service implementations, based on solving TFSM parallel equation. Further, techniques for extracting restricted solutions with required properties (minimized/maximized time parameters, deadlock- and livelock-safety, similarity to the initially given component, etc.) have been proposed. In cases when the specification of a composite service is provided as a set of functional requirements, possibly, augmented with quality requirements, we propose a technique to minimize this set with respect to the component under optimization. Application of the obtained results for more efficient candidate component services discovery and binding, alongside with extending the framework for more complex distributed modes of communications, are among the topics for the future work
Los estilos APA, Harvard, Vancouver, ISO, etc.
41

Shbair, Wazen M. "Service-Level Monitoring of HTTPS Traffic". Thesis, Université de Lorraine, 2017. http://www.theses.fr/2017LORR0029/document.

Texto completo
Resumen
Dans cette thèse, nous dressons tout d'abord un bilan des différentes techniques d'identification de trafic et constatons l'absence de solution permettant une identification du trafic HTTPS à la fois précise et respectueuse de la vie privée des utilisateurs. Nous nous intéressons dans un premier temps à une technique récente, néanmoins déjà déployée, permettant la supervision du trafic HTTPS grâce à l'inspection du champ SNI, extension du protocole TLS. Nous montrons que deux stratégies permettent de contourner cette méthode. Comme remédiation, nous proposons une procédure de vérification supplémentaire basée sur un serveur DNS de confiance. Les résultats expérimentaux montrent que cette solution pragmatique est efficace. Ensuite, nous proposons une architecture qui permet l'identification des services dans le trafic HTTPS, en se basant sur l'apprentissage automatique. Nous avons ainsi défini un nouvel ensemble de caractéristiques statistiques combinées avec une identification à deux niveaux, identifiant d'abord le fournisseur de services, puis le service, selon notre évaluation à partir de trafic réel. Enfin, nous améliorons cette architecture afin de permettre l'identification du trafic en temps réel en ne considérant que les premiers paquets des flux plutôt que leur totalité. Pour évaluer notre approche, nous avons constitué un dataset comportant les flux complets de chargement des principaux sites web et l'avons rendu public pour comparaison. Nous présentons également un prototype de logiciel reconstituant les flux HTTPS en temps réel puis les identifiant
In this thesis, we provide a privacy preserving for monitoring HTTPS services. First, we first investigate a recent technique for HTTPS services monitoring that is based on the Server Name Indication (SNI) field of the TLS handshake. We show that this method has many weakness, which can be used to cheat monitoring solutions.To mitigate this issue, we propose a novel DNS-based approach to validate the claimed value of SNI. The evaluation show the ability to overcome the shortage. Second, we propose a robust framework to identify the accessed HTTPS services from a traffic dump, without relying neither on a header field nor on the payload content. Our evaluation based on real traffic shows that we can identify encrypted HTTPS services with high accuracy. Third, we have improved our framework to monitor HTTPS services in real-time. By extracting statistical features over the TLS handshake packets and a few application data packets, we can identify HTTPS services very early in the session. The obtained results and a prototype implementation show that our method offers good identification accuracy, high HTTPS flow processing throughput, and a low overhead delay
Los estilos APA, Harvard, Vancouver, ISO, etc.
42

Rizk, Carl. "Contribution to the evaluation and optimization of passengers' screening at airports". Thesis, Toulouse, INPT, 2019. http://www.theses.fr/2019INPT0121.

Texto completo
Resumen
Les menaces à la sécurité sont apparues au cours des dernières décennies comme un problème de plus en plus critique pour le transport aérien, qui est l'un des principaux levier de la mondialisation de l'Économie. Des mesures de contrôle renforcées reposant sur des recherches pluridisciplinaires et sur de nouvelles technologies ont été mises en oeuvre dans les aéroports en réaction à différentes attaques terroristes. Du point de vue scientifique, le filtrage efficace des passagers dans les aéroports reste un défi et l’objectif principal de cette thèse est d’ouvrir de nouvelles pistes de recherche dans ce domaine en développant des approches avancées utilisant les ressources de la science informatique. Tout d’abord, cette thèse présente les principaux concepts et définitions de la sécurité dans les aéroports et donne un aperçu des systèmes de contrôle des terminaux de passagers, et plus précisément des postes d’inspection-filtrage qui sont identifiés et décrits. Un modèle logique du système de contrôle des départs des passagers d’un aéroport est proposé. Ce modèle est transcrit en graphiquement (Controlled Satisfiability Graph- CSG), ce qui permet de tester le système de filtrage sous différents scénarios d’attaque. Ensuite, une approche probabiliste pour l’évaluation du système de contrôle des flux de passagers au départ est développée, conduisant à l’introduction des réseaux de Petri colorés Bayésiens (BCPN). Enfin, une approche d'optimisation est adoptée pour organiser au mieux les flux de passagers au contrôle de départ compte tenu de la performance probabiliste des éléments composant le système de contrôle. Après la mise en place d'un modèle d'évaluation global basé sur un traitement en série indifférencié des passagers, une structure de contrôle en deux étapes est analysée, qui met en évidence l'intérêt du pré-filtrage et de l'organisation des passagers en groupes distincts. La conclusion de cette étude indique la poursuite de ce thème
Security threats have emerged in the past decades as a more and more critical issue for Air Transportation which has been one of the main ressource for globalization of economy. Reinforced control measures based on pluridisciplinary research and new technologies have been implemented at airports as a reaction to different terrorist attacks. From the scientific perspective, the efficient screening of passengers at airports remain a challenge and the main objective of this thesis is to open new lines of research in this field by developing advanced approaches using the resources of Computer Science. First this thesis introduces the main concepts and definitions of airport security and gives an overview of the passenger terminal control systems and more specifically the screening inspection positions are identified and described. A logical model of the departure control system for passengers at an airport is proposed. This model is transcribed into a graphical view (Controlled Satisfiability Graph-CSG) which allows to test the screening system with different attack scenarios. Then a probabilistic approach for the evaluation of the control system of passenger flows at departure is developped leading to the introduction of Bayesian Colored Petri nets (BCPN). Finally an optimization approach is adopted to organize the flow of passengers at departure as best as possible given the probabilistic performance of the elements composing the control system. After the establishment of a global evaluation model based on an undifferentiated serial processing of passengers, is analyzed a two-stage control structure which highlights the interest of pre-filtering and organizing the passengers into separate groups. The conclusion of this study points out for the continuation of this theme
Los estilos APA, Harvard, Vancouver, ISO, etc.
43

Azorin, Raphael. "Traffic representations for network measurements". Electronic Thesis or Diss., Sorbonne université, 2024. http://www.theses.fr/2024SORUS141.

Texto completo
Resumen
Mesurer l'activité d'un réseau de télécommunications est essentiel à son opération et sa gestion. Ces mesures sont primordiales pour analyser la performance du réseau et établir son diagnostic. En particulier, effectuer des mesures détaillées sur les flux consiste à calculer des métriques caractérisant les flots de données individuels qui traversent le réseau. Afin de développer des représentations pertinentes de leur trafic, les opérateurs réseau doivent en sélectionner les caractéristiques appropriées et doivent attentivement relier leur coût d'extraction à leur expressivité pour les tâches considérées. Dans cette thèse, nous proposons de nouvelles méthodologies pour extraire des représentations pertinentes du trafic. Particulièrement, nous postulons que l'apprentissage automatique (Machine Learning) peut améliorer les systèmes de mesures, grâce à sa capacité à apprendre des motifs adéquats issus des données, ce afin de fournir des prédictions sur des caractéristiques du trafic.La première contribution de cette thèse est un cadre de développement permettant aux systèmes de mesures basés sur des sketches d'exploiter la nature biaisée du trafic réseau. Spécifiquement, nous proposons une nouvelle représentation de ces structures de données, qui tire profit de de la sous-utilisation des sketches, réduisant ainsi l'empreinte mémoire des mesures par flux en n'enregistrant que les compteurs utiles. La deuxième contribution est un système de surveillance réseau assisté par un modèle d'apprentissage automatique, en intégrant un classificateur de trafic. En particulier, nous isolons les flux les plus larges dans le plan de données (data plane), avant de les traiter séparément avec des structures de données dédiées pour différents cas d'usage. Les dernières contributions de cette thèse abordent la conception d'un pipeline d'apprentissage profond (Deep Learning) pour les mesures de réseau, afin d'extraire de riches représentations des données de trafic permettant l'analyse du réseau. Nous puisons dans les récentes avancées en modélisation de séquences afin d'apprendre ces représentations depuis des données de trafic catégorielles et numériques. Ces représentations alimentent la résolution de tâches complexes telles que la réconciliation de données issues d'un flux de clics enregistré par un fournisseur d'accès à internet, ou la prédiction du mouvement d'un terminal dans un réseau Wi-Fi. Enfin, nous présentons une étude empirique des affinités entre tâches candidates à l'apprentissage multitâches, afin d'évaluer lorsque deux tâches bénéficieraient d'un apprentissage conjoint
Measurements are essential to operate and manage computer networks, as they are critical to analyze performance and establish diagnosis. In particular, per-flow monitoring consists in computing metrics that characterize the individual data streams traversing the network. To develop relevant traffic representations, operators need to select suitable flow characteristics and carefully relate their cost of extraction with their expressiveness for the downstream tasks considered. In this thesis, we propose novel methodologies to extract appropriate traffic representations. In particular, we posit that Machine Learning can enhance measurement systems, thanks to its ability to learn patterns from data, in order to provide predictions of pertinent traffic characteristics.The first contribution of this thesis is a framework for sketch-based measurements systems to exploit the skewed nature of network traffic. Specifically, we propose a novel data structure representation that leverages sketches' under-utilization, reducing per-flow measurements memory footprint by storing only relevant counters. The second contribution is a Machine Learning-assisted monitoring system that integrates a lightweight traffic classifier. In particular, we segregate large and small flows in the data plane, before processing them separately with dedicated data structures for various use cases. The last contributions address the design of a unified Deep Learning measurement pipeline that extracts rich representations from traffic data for network analysis. We first draw from recent advances in sequence modeling to learn representations from both numerical and categorical traffic data. These representations serve as input to solve complex networking tasks such as clickstream identification and mobile terminal movement prediction in WLAN. Finally, we present an empirical study of task affinity to assess when two tasks would benefit from being learned together
Los estilos APA, Harvard, Vancouver, ISO, etc.
44

Dacier, Marc. "Vers une évaluation quantitative de la sécurité informatique". Phd thesis, Institut National Polytechnique de Toulouse - INPT, 1994. http://tel.archives-ouvertes.fr/tel-00012022.

Texto completo
Resumen
Les systèmes d'information actuels doivent, à la fois, protéger les informations qui leur sont confiées et se plier à des environnements opérationnels variables. Cesdeux objectifs, sécurité et flexibilité, peuvent être antinomiques. Ce conflit conduit généralement à l'utilisation de systèmes offrant un niveau de sécurité acceptable, mais non maximal. Définir un tel niveau présuppose l'existence de méthodes d'évaluation de la sécurité. Cette problématique fait l'objet de cette thèse. L'auteur y passe en revue les différents critères d'évaluation existant ainsi que les méthodes dites d'analyse de risques. Ceci introduit la nécessité de définir un cadre formel capable de modéliser tout système et d'évaluer dans quelle mesure il satisfait à des objectifs de protection précis.
Les modèles formels développés pour l'étude de la sécurité informatique, n'offrent pas le cadre mathématique désiré. L'auteur montre qu'ils adoptent une hypothèse de pire cas sur le comportement des utilisateurs, incompatible avec une modélisation réaliste. Après avoir montré, sur la base du modèle take-grant, comment s'affranchir de cette hypothèse, l'auteur définit un nouveau modèle, le graphe des privilèges, plus efficace pour gérer certains problèmes de protection. Il illustre son utilisation dans le cadre des systèmes Unix.
Enfin, l'auteur propose d'évaluer la sécurité en calculant le temps et l'effort nécessaires à un intrus pour violer les objectifs de protection. Il montre comment définir un cadre mathématique apte à représenter le système pour obtenir de telles mesures. Pour cela, le graphe des privilèges est transformé en un réseau de Petri stochastique et son graphe des marquages est dérivé. Les mesures sont calculées sur cette dernière structure et leurs propriétés mathématiques sont démontrées. L'auteur illustre l'utilité du modèle par quelques résultats issus d'un prototype développé afin d'étudier la sécurité opérationnelle d'un système Unix.
Los estilos APA, Harvard, Vancouver, ISO, etc.
45

Sambra, Andrei Vlad. "Data ownership and interoperability for a decentralized social semantic web". Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2013. http://www.theses.fr/2013TELE0027.

Texto completo
Resumen
Assurer l'appropriation des données personnelles et l'interopérabilité des applications Web sociaux décentralisées est actuellement un sujet controversé, surtout en prenant compte des aspects de la vie privée et du contrôle d'accès. Il est important d'améliorer le Web social de telle manière à permettre des modèles d'affaires viables tout en étant capable de fournir une plus grande appropriation des données et l'interopérabilité des données par rappport à la situation actuelle. A cet égard, nous avons concentré notre recherche sur trois thèmes différents: le contrôle d'identité, l'authentifiaction et le contrôle d'accès. Tout d'abord, nous abordons le sujet de l'identité décentralisée en proposant un nouveau standard Web appelé "Web Identity and Discovery" (WebID), qui offre un mécanisme d'identification simple et universel qui est distribué et ouvertement extensible. Ensuite, nous passons à la question de l'authentification où nous proposons WebID-TLS, un protocole d'authentification décentralisé qui permet l'authentification sécurisée, simple et efficace sur le Web en permettant aux personnes de se connecter à l'aide de certificats clients. Nous étendons également WebID-TLS, en offrant des moyens d'effectuer de l'authentification déléguée et de la délégation d'accès. Enfin, nous présentons notre dernière contribution, un service de contrôle d'accès social, qui sert à protéger l'accès aux ressources Linked Data générés par les utilisateurs (par exemple, les données de profil, messages du mur, conversations, etc) par l'application de deux mesures: la "distance de proximité sociale" et "contexte social"
Ensuring personal data ownership and interoperability for decentralized social Web applications is currently a debated topic, especially when taking into consideration the aspects of privacy and access control. Since the user's data are such an important asset of the current business models for most social Websites, companies have no incentive to share data among each other or to offer users real ownership of their own data in terms of control and transparency of data usage. We have concluded therefore that it is important to improve the social Web in such a way that it allows for viable business models while still being able to provide increased data ownership and data interoperability compared to the current situation. To this regard, we have focused our research on three different topics: identity, authentication and access control. First, we tackle the subject of decentralized identity by proposing a new Web standard called "Web Identity and Discovery" (WebID), which offers a simple and universal identification mechanism that is distributed and openly extensible. Next, we move to the topic of authentication where we propose WebID-TLS, a decentralized authentication protocol that enables secure, efficient and user friendly authentication on the Web by allowing people to login using client certificates and without relying on Certification Authorities. We also extend the WebID-TLS protocol, offering delegated authentication and access delegation. Finally we present our last contribution, the Social Access Control Service, which serves to protect the privacy of Linked Data resources generated by users (e.g. pro le data, wall posts, conversations, etc.) by applying two social metrics: the "social proximity distance" and "social contexts"
Los estilos APA, Harvard, Vancouver, ISO, etc.
46

Lourme, Olivier. "Détection d'intrusions réaliste dans les maisons connectées à l'aide d'indicateurs physiques volatiles". Electronic Thesis or Diss., Université de Lille (2022-....), 2023. http://www.theses.fr/2023ULILB024.

Texto completo
Resumen
Au sein de l'Internet des Objets, le secteur de la maison connectée est en plein essor. Pour quelques dizaines d'euros, chacun peut s'équiper de solutions domotiques intelligentes commandables à distance. Ces écosystèmes sont cela dit vulnérables à des attaques variées en raison A) d'une conception essentiellement guidée par le coût, générant des objets contraints sans implémentation de sécurité viable possible, B) de l'utilisation par ces objets de protocoles de communication sans-fil hétérogènes, dispersant les efforts de sécurisation, et C) de la gestion de ces objets par des consommateurs non-experts, adeptes du « setup and forget ».Contrairement à l'informatique traditionnelle où les solutions de protection sont répandues, nous faisons le constat de l'absence de proposition commerciale équivalente dans la maison connectée. Dans cette thèse, nous nous interrogeons sur les conditions de l'adoption à grande échelle de solutions de sécurité de type Systèmes de Détection d'Intrusion (IDS), visant à protéger les objets contraints déjà déployés. Ainsi, une première contribution recense les caractéristiques des maisons connectées pour les croiser avec des taxonomies d'IDS, afin de proposer les critères qualitatifs d'une solution de sécurité domestique réaliste.Par la suite, afin de faciliter la conception d'IDS, une deuxième contribution met à disposition de la communauté scientifique un jeu de données Zigbee, participant à la fourniture d'outils couvrant les principaux protocoles de la maison connectée. Toutes les trames échangées par 10 objets pendant 10 jours ont été capturées par 4 sondes distribuées dans un domicile-test. Des attaques ont été introduites afin d'établir et comparer différentes stratégies de détection. Outre une redondance des données de couche MAC, le jeu de données tire son originalité de l'extraction par chaque sonde du RSSI (Received Signal Strength Indicator) de chaque trame. Cette grandeur de couche physique, accessible à peu de frais dans les technologies sans-fil, permet de participer à l'identification de nœuds fixes. Par la suite, on peut imaginer d'identifier robustement chaque objet par une empreinte de couche physique faite d'un tuple de RSSI, complexe à imiter par un attaquant.Enfin, dans une troisième contribution, nous exploitons le jeu de données pour proposer un IDS détectant les attaques d'usurpation d'identité, favorisées par le fait que des piles de protocoles n'intègrent que peu ou pas d'authentification sur leur couche MAC. Pour les détecter, la cohérence de l'identifiant de couche MAC et de l'empreinte précédente à base de RSSI peut être considérée mais ce n'est plus possible quand les environnements sont sans cesse redessinés par les habitants qui y évoluent, les RSSI devenant volatiles. En fournissant des séries temporelles de RSSI en entrée d'un algorithme d'apprentissage non supervisé, nous établissons pour chaque couple (objet, sonde) un modèle des séquences RSSI normales. Les déviations par rapport au modèle permettent de détecter une attaque. Les métriques de détection obtenues, très intéressantes en regard de la faible complexité de l'architecture initiale envisagée, ainsi que les évaluations de l'autonomie et du coût de la solution laissent entrevoir une diffusion de tels systèmes dans les maisons connectées
Within the Internet of Things, the smart home sector is booming. For a few tens of euros, everyone can be equipped with smart-home automation solutions that can be controlled remotely. However, these ecosystems are vulnerable to various attacks due to A) an essentially cost-driven design, generating constrained devices with too few resources for viable security implementations, B) the use by these devices of multiple wireless communication protocols, dispersing security efforts, and C) the management of these devices by non-expert consumers, following a “setup and forget” policy.Unlike traditional IT where protection solutions are widespread, we note the absence of an equivalent commercial proposal in smart-home environments. In this thesis, we question the conditions for a large-scale adoption of security solutions such as Intrusion Detection Systems (IDS), aiming at protecting constrained devices already deployed. Thus, a first contribution identifies the characteristics of smart homes to cross them with IDS taxonomies, in order to propose the qualitative criteria of a realistic domestic security solution.Subsequently, in order to facilitate the design of IDS, a second contribution provides the scientific community with a Zigbee dataset, participating to the availability of tools covering the main protocols found in smart homes. All the frames exchanged by 10 devices during 10 days were captured by 4 probes distributed in a test house. Attacks have been introduced in order to establish and compare different detection strategies. In addition to MAC layer data redundancy, the dataset derives its originality from the extraction by each probe of the RSSI (Received Signal Strength Indicator) of each frame. This physical layer feature, accessible easily in most wireless technologies, allows to participate to the identification of fixed nodes. Later, one can imagine identifying each device more robustly by a physical layer fingerprint made of a tuple of several RSSIs, a complex combination to imitate by an attacker.Finally, in a third contribution, we exploit the dataset to propose several IDSs detecting spoofing attacks, favored by the fact that several protocol stacks integrate little or no authentication on their MAC layer. To detect them, the consistency of the MAC layer identifier and the previous RSSI-based fingerprint can be considered, but this is no longer possible when the environments are constantly redrawn by the evolving inhabitants, as the RSSI becomes volatile. By providing RSSI time series as input to an unsupervised learning algorithm, we establish for each (device, probe) pair a model of normal RSSI sequences. Deviations from this model help detect an attack. The obtained detection metrics, which are very interesting given the low complexity of the initial considered architecture, as well as the evaluations of the autonomy and cost of the solution, suggest the spread of such systems in smart homes
Los estilos APA, Harvard, Vancouver, ISO, etc.
47

Becker, Sheila. "Conceptual Approaches for Securing Networks and Systems". Electronic Thesis or Diss., Université de Lorraine, 2012. http://www.theses.fr/2012LORR0228.

Texto completo
Resumen
Les communications pair-à-pair en temps réel ainsi que les applications de transmissions multi-média peuvent améliorer leurs performances en utilisant des services d'estimation de topologie au niveau d'application. Les systèmes aux coordonnées virtuelles représentent un tel service. A l'aide d'un tel système les noeuds d'un réseau pair-à-pair prédisent les latences entre différents noeuds sans nécessiter des mesures étendues. Malheureusement, prédire les latences correctement requis que les noeuds soient honnêtes et coopératifs. La recherche récente propose des techniques pour atténuer des attaques basiques (inflation, déflation, oscillation) où les attaquants conduisent un type d'attaque seulement. Dans ce travail, nous définissons et utilisons un modèle basé sur la théorie des jeux pour identifier la meilleure solution pour défendre le système en supposant que les attaquants utilisent l'attaque la plus pire. Ce modèle nous aide à démontrer l'impact et l'efficacité des attaques et défenses en utilisant un système de coordonnées virtuelles répondu. De même, nous explorons des techniques de l'apprentissage automatique supervisé pour détecter des attaques plus lentes et subtiles, comme l'attaque à l'inflation-lente et l'attaque de dégroupage de réseau qui sont capable de contourner des techniques de défenses existantes. Nous évaluons nos techniques sur le système Vivaldi contre des stratégies d'attaques plus complexes sur des simulations ainsi que des déploiements Internet
Peer-to-peer real-time communication and media streaming applications optimize their performance by using application-level topology estimation services such as virtual coordinate systems. Virtual coordinate systems allow nodes in a peer-to-peer network to accurately predict latency between arbitrary nodes without the need of performing extensive measurements. However, systems that leverage virtual coordinates as supporting building blocks, are prone to attacks conducted by compromised nodes that aim at disrupting, eavesdropping, or mangling with the underlying communications. Recent research proposed techniques to mitigate basic attacks (inflation, deflation, oscillation) considering a single attack strategy model where attackers perform only one type of attack. In this work, we define and use a game theory framework in order to identify the best attack and defense strategies assuming that the attacker is aware of the defense mechanisms. Our approach leverages concepts derived from the Nash equilibrium to model more powerful adversaries. We apply the game theory framework to demonstrate the impact and efficiency of these attack and defense strategies using a well-known virtual coordinate system and real-life Internet data sets. Thereafter, we explore supervised machine learning techniques to mitigate more subtle yet highly effective attacks (frog-boiling, network-partition) that are able to bypass existing defenses. We evaluate our techniques on the Vivaldi system against a more complex attack strategy model, where attackers perform sequences of all known attacks against virtual coordinate systems, using both simulations and Internet deployments
Los estilos APA, Harvard, Vancouver, ISO, etc.
48

Ould, yahia Youcef. "Proposition d’un modèle de sécurité pour la protection de données personnelles dans les systèmes basés sur l’internet des objets". Electronic Thesis or Diss., Paris, CNAM, 2019. http://www.theses.fr/2019CNAM1242.

Texto completo
Resumen
Les technologies de l'Internet des objets (IdO) et de l'externalisation des services informatiques ont conduit à l'émergence de nouvelles menace sur la vie privée des utilisateurs. Cependant, l'implémentation des moyens de sécurité traditionnels sur les équipements de l'IdO constitue un premier défi lié aux limites de capacités. D'un autre côté, la délégation du traitement et du stockage des données, nous pose le problème de confiance envers les fournisseurs de service.Dans ce contexte, nous avons proposé une solution de chiffrement qui assure une protection de données centrée sur leurs propriétaires et adaptée à l'environnement contraignant des objets connectés. Ce modèle se base sur le chiffrement par attributs avec externalisation sécurisée et la technologie de la Blockchain. Ensuite, en réponse à la problématique de la confiance et de la sélection du service, nous avons exploré les possibilités offertes par les outils de l'intelligence artificielle. Pour ce faire, nous avons proposé un modèle de filtrage collaboratif basé sur les cartes de Kohonen avec une solution pour détecter les utilisateurs non fiable
Internet of Things (IoT) and IT service outsourcing technologies have led to the emergence of new threats to users' privacy. However, the implementation of traditional security measures on IoT equipment is a first challenge due to capacity limitations. On the other hand, the offloading of data processing and storage poses the problem of trust in service providers.In this context, we have proposed an encryption solution that provides owner-centric data protection adapted to the constraining environment of IoT. This model is based on attribute-based encryption with secure offloading capability and Blockchain technology. Then, in response to the issue of trust and service selection, we explored the possibilities offered by artificial intelligence tools. To do this, we proposed a collaborative filtering model based on Kohonen maps and efficient solution to detect the untrusted users
Los estilos APA, Harvard, Vancouver, ISO, etc.
49

Mayzaud, Anthéa. "Monitoring and Security for the RPL-based Internet of Things". Thesis, Université de Lorraine, 2016. http://www.theses.fr/2016LORR0207/document.

Texto completo
Resumen
L'intérêt grandissant pour l'Internet des Objets (IdO) s'est traduit par le déploiement à grande échelle de réseaux dits LLN. Ceux-ci sont fortement contraints en matière de ressources et communiquent via des liens instables. Les protocoles de routages existants pour les réseaux traditionnels ne sont pas adaptés à ces caractéristiques. L'IETF a proposé un nouveau protocole de routage appelé RPL fondé sur IPv6 et spécifiquement conçu pour ces environnements. Cependant, il est exposé à de nombreuses attaques et la mise en place de mécanismes de sécurité représente un coût considérable. Les réseaux LLN introduisent donc de nouveaux enjeux quant à leur supervision et leur sécurité. Dans le cadre de cette thèse, nous étudions une approche de supervision pour la sécurité de l'IdO tout en limitant son coût. Nous évaluons tout d'abord les menaces auxquelles sont soumis les réseaux RPL en les classifiant au travers d'une taxonomie. Nous quantifions également les conséquences de deux attaques appelées l'attaque d'incohérence DAG et l'attaque du numéro de version. Nous nous concentrons ensuite sur les solutions pour la sécurité dans les réseaux RPL. Nous proposons une stratégie locale qui limite les attaques d'incohérences DAG et nous présentons une architecture de supervision distribuée orientée sécurité pour détecter des attaques complexes comme les attaques sur le numéro de version et compléter notre approche locale. Celle-ci nous permet de préserver l'énergie des nœuds en effectuant les activités de surveillance et de détection sur des nœuds dédiés. Nous quantifions ensuite les performances de cette architecture ainsi que la stratégie de détection proposée
The growing interest for the Internet of Things (IoT) has resulted in the large scale deployment of Low power and Lossy Networks (LLN). These networks are strongly constrained in terms of resources and communicate using unstable links. In this context, existing routing protocols for traditional networks do not cope with all these constraints. The IETF has proposed a new routing protocol called RPL based on IPv6 and specifically designed for these environments. The RPL protocol is however exposed to a large variety of attacks. The deployment of security mechanisms may also be quite expensive for the nodes. Therefore, LLN networks present new challenges in terms of monitoring and security. In this thesis we propose to investigate a security-oriented monitoring approach for addressing the trade-off between security and cost in the IoT. In a first stage, we assess security threats faced by these networks by identifying and classifying attacks through a dedicated taxonomy. We also quantify the consequences of two major attacks called DAG inconsistency attacks and version number attacks causing over-consumption of node resources. We then focus our work on security solutions for RPL-based IoT. We propose a local strategy for addressing DAG inconsistency attacks. In order to detect complex attacks such as version number attacks and to complement our node-level approach, we design a security-oriented distributed monitoring architecture for RPL networks. This solution allows us to preserve constrained nodes energy by performing monitoring and detection activities on dedicated nodes. We quantify the performance and the cost of this architecture and the deployed detection modules
Los estilos APA, Harvard, Vancouver, ISO, etc.
50

Zeng, Xuan. "Vers une mobilité transparente dans le réseau ICN : connectivité, sécurité, et fiabilité". Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUS046/document.

Texto completo
Resumen
Avec la prolifération des appareils mobiles, la mobilité devient une exigence et une caractéristique incontournable pour 5G. Cependant, en dépit des efforts pour permettre la mobilité dans le réseau IP, les solutions sont anchor-basées et inefficaces. Dans ce contexte, le réseau centré sur l'information (ICN) est proposé. Alors que ICN soutient mieux la mobilité, certains défis restent sans solution pour une mobilité transparente. La thèse explore trois défis de ce type et propose solutions efficaces. Tout d'abord, pour résoudre la mobilité des producteurs, MapMe, un protocole de gestion de micro mobilité compatible avec trafics latence-sensibles est proposée. MAP-Me est sans anchor et préserve les avantages de l'ICN. Les résultats de simulation montrent que MAP-Me surpasse les autres solutions en matière de performances client tout en gardant bas les frais de réseau sur diverses conditions réseau. En plus, nous étudions la sécurité de mobilité des producteurs. Nous nous concentrons sur l'attaque de préfixe hijacking, qui est à la base de plusieurs attaques. Pour éviter cette attaque, nous proposons un protocole léger et distribué basé sur hash-chaining. Les premiers résultats montrent une amélioration significative des frais de vérification. Enfin, il faut d'autres mécanismes dans la couche transport pour ICN mobile. Nous proposons WLDR et MLDR pour la détection et la récupération des pertes dans le réseau afin de faciliter le contrôle de la congestion. Les résultats de simulation montrent une réduction significative du temps d'écoulement (jusqu'à 20%)
With the proliferation of mobile devices, mobility becomes a requirement and a compelling feature for 5G. However, despite tremendous efforts in the last 2 decades to enable mobility in IP network, the solutions are mostly anchor-based and inefficient. In this context, Information-Centric networking (ICN) is proposed. While ICN has some native support of mobility, other architectural challenges remain unsolved to achieve seamless mobility. The thesis explores 3 main challenges of such and contributes novel solutions. First, to solve producer mobility, MapMe, a micro mobility management protocol supporting latency sensitive traffic is proposed. MAP-Me is anchorless and preserves key ICN benefits. Simulation results show that MAP-Me outperforms existing work in user performance while retaining low network overheads in various network conditions. Second, we investigate security in producer mobility. We focus on prefix hijacking attack, which is a basis of several attacks. To prevent prefix hijacking, we propose a light-weight and distributed prefix attestation protocol based on hash-chaining. First results show significant improvement in verification overhead. It is resistant to replay-based prefix hijacking. Finally, additional transport-layer mechanisms are needed in mobile ICN. To this aim, we investigate alleviating the adverse effect of wireless/mobility loss on congestion control. We propose WLDR and MLDR for in-network loss detection and recovery to facilitate congestion control. Simulation results show a significant reduction in flow completion time (up to 20%)
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía