To see the other types of publications on this topic, follow the link: Internet – Gestion.

Dissertations / Theses on the topic 'Internet – Gestion'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Internet – Gestion.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Vu, Van-Hoan. "Infrastructure de gestion de la confiance sur internet." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2010. http://tel.archives-ouvertes.fr/tel-00611839.

Full text
Abstract:
L'établissement de la confiance est un problème qui se pose en permanence dans la vie quotidienne. Nous avons toujours besoin d'évaluer la confiance que l'on a en quelqu'un avant de décider d'entreprendre une action avec. Il s'agit bien évidemment d'une question très importante pour les applications de l'Internet où il est de plus en plus rare d'engager une transaction avec des personnes ou des entités que l'on connaîtrait au préalable. La confiance est un élément clé pour le développement et le bon fonctionnement des applications d'e-commerce et par extension de tous les services qui amènent à des interactions avec des inconnus.Le but de cette thèse est de proposer une infrastructure de gestion de la confiance qui permette à chaque participant d'exprimer sa propre politique de confiance ; politique qui guidera le comportement des applications qui fournissent ou qui permettent d'accéder à des services. Cette infrastructure met en œuvre des mécanismes de négociation qui vont permettre d'établir une confiance mutuelle entre les différents participants d'une transaction. Un des points importants de notre proposition est d'offrir un langage d'expression des politiques qui permet d'utiliser toutes les sources d'informations disponibles telles que les qualifications (credentials), la notion de réputation, de recommandation, de risque pour exprimersa politique de confiance.
APA, Harvard, Vancouver, ISO, and other styles
2

Abdelnur, Humberto Jorge Festor Olivier. "Gestion de vulnérabilités voix sur IP." S. l. : Nancy 1, 2009. http://www.scd.uhp-nancy.fr/docnum/SCD_T_2009_0005_ABDELNUR.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Fodil, Idir Bahaa. "Architectures de Gestion par Politiques des Services dans les Réseaux d'Accès Internet." Paris 6, 2004. http://www.theses.fr/2004PA066118.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Abdelnur, Humberto Jorge. "Gestion de vulnérabilités voix sur IP." Thesis, Nancy 1, 2009. http://www.theses.fr/2009NAN10005/document.

Full text
Abstract:
Les solutions voix sur IP (VoIP) sont actuellement en plein essor et gagnent tous le jours de nouveaux marché en raison de leur faible coût et d'une palette de services riche. Comme la voix sur IP transite par l'Internet ou utilise ses protocoles, elle devient la cible de multiples attaques qui peuvent mettre son usage en péril. Parmis les menaces les plus dangereuses on trouve les bugs et les failles dans les implantations logicielles des équipements qui participent à la livraison de ces services. Cette thése comprend trois contributions à l'amélioration de la sécurité des logiciels. La première est une architecture d'audit de sécurité pour les services VoIP intégrant découverte, gestion des données et attaques à des fins de test. La seconde contribution consiste en la livraison d'une approche autonome de discrimination de signatures de messages permettant l'automatisation de la fonction de fingerprinting passif utilisée pour identifier de façon unique et non ambigüe la source d'un message. La troisième contribution porte sur la détection dynamique de vulnérabilités dans des états avancés d'une interaction protocolaire avec un équipement cible. L'expérience acquise dans la recherche de vulnérabilités dans le monde de la VoIP avec nos algorithmes est également partagée dans cette thèse
VoIP networks are in a major deployment phase and are becoming widely accepted due to their extended functionality and cost efficiency. Meanwhile, as VoIP traffic is transported over the Internet, it is the target of a range of attacks that can jeopardize its proper functionality. Assuring its security becomes crucial. Among the most dangerous threats to VoIP, failures and bugs in the software implementation will continue rank high on the list of vulnerabilities. This thesis provides three contributions towards improving software security. The first is a VoIP specific security assessment framework integrated with discovery actions, data management and security attacks allowing to perform VoIP specific assessment tests. The second contribution consists in an automated approach able to discriminate message signatures and build flexible and efficient passive fingerprinting systems able to identify the source entity of messages in the network. The third contribution addresses the issue of detecting vulnerabilities using a stateful fuzzer. It provides an automated attack approach capable to track the state context of a target device and we share essential practical experience gathered over a two years period in searching for vulnerabilities in the VoIP space
APA, Harvard, Vancouver, ISO, and other styles
5

Boudani, Ali. "Routage multicast : gestion des petits groupes et ingenierie de trafic." Rennes 1, 2004. http://www.theses.fr/2004REN10049.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Ould, Cheik El Mehdi Saadbouh. "Un nouveau mécanisme de gestion de flux temps réel basé sur le paramètre échéance et son intégration dans l' Internet." Paris 13, 2007. http://www.theses.fr/2007PA132004.

Full text
Abstract:
Pour répondre aux exigences temporelles de flux temps réels, beaucoup de techniques d’ordonnancement de paquets ont été proposées dans la littérature pour être utilisées au niveau de routeurs IP. La technique utilisant l’algorithme EDF a attiré une attention particulière car l’optimalité de cet algorithme a été prouvée pour un nombre important de critères. Cependant la complexité et le surcoût induit par l’algorithme EDF ont constitué toujours un handicap majeur empêchant son implémentation. Dans cette thèse, nous avons proposé une nouvelle approche d’ordonnancement basée sur la discipline EDF mais beaucoup plus facile à implémenter que celle-ci. L’approche proposée consiste à combiner l’algorithme EDF avec l’algorithme standard FIFO, au sein d’un seul mécanisme hybride, de telle sorte que l’algorithme EDF soit appliqué uniquement sur une plage réduite (Le N premiers paquets dans la file d’attente) alors que l’algorithme FIFO est appliqué sur le reste de la file. Cette combinaison a bien permis d’obtenir des performances proches de celles de l’algorithme EDF avec une facilité d’implémentation proche de celle de l’algorithme FIFO. Ainsi, dans une deuxième partie de ce travail, nous avons proposé et présenté une intégration de notre approche dans la logique du cadre actuel de la gestion de la qualité de service dans l’Internet tel que IntServ et DiffServ.
APA, Harvard, Vancouver, ISO, and other styles
7

Kaddah, Rim. "Gestion active de la demande basée sur l'habitat connecté." Thesis, Paris, ENST, 2016. http://www.theses.fr/2016ENST0025/document.

Full text
Abstract:
L’Internet des Objets (IdO) et le déploiement des équipements connectés permettent la mise en place de solutions de Gestion Active de la Demande(GAD) avancées. En effet, il devient possible d’avoir plus de visibilité et un contrôle fin sur différents équipements qui consomment, stockent ou produisent de l’énergie dans une maison. Dans cette thèse, nous considérons des solutions ayant la capacité de produire des décisions de contrôle direct à différents niveaux de granularité en fonction des variables mesurées dans les habitats. Le contrôle est basé sur une optimisation d’utilité perçue. Des fonctions utilité sont définies à travers une approche générique qui considère la flexibilité de la charge et l’impact des décisions de contrôle sur les utilisateurs. L’approche proposée n’impose pas de restrictions sur le type des équipements contrôlés ni sur la granularité des décisions de contrôle. Ceci permet un contrôle joint d’équipements hétérogènes. Nous considérons trois types d’architectures de contrôle à savoir: des solutions centralisées, partiellement distribuées et entièrement distribuées. Ces architectures diffèrent dans la distribution de la prise de décision entre les entités impliquées dans le contrôle et les données qui sont mis à disposition de ces entités. L’analyse numérique montre les compromis des solutions proposées du point de vue de la performance, de l’extensibilité et de la complexité
The Internet of Things (IoT) paradigm brings an opportunity for advanced Demand Response (DR) solutions. Indeed, it enables visibility and control on the various appliances that may consume, store or generate energy within a home. In this thesis, we consider solutions having the capability to produce direct control decisions at different granularities based on variables measured at homes. Control schemes are driven by an optimization based on utility functions. These functions are defined based on a generic approach that considers load’s flexibility and the impact of control decisions on users. The proposed approach does not impose any restrictions on the type of controlled appliances nor on the granularity of control decisions. This enables joint control of heterogeneous loads. We consider three types of control architectures, namely centralized, partially distributed and fully distributed solutions. Schemes based on these architectures differ in the distribution of decision making among entities involved in the control and data that is made available to these entities. Numerical analysis shows the trade-offs of proposed solutions from a performance, scalability and complexity perspectives
APA, Harvard, Vancouver, ISO, and other styles
8

Saleh, Dalia. "Santé mentale et gestion du stress chez des étudiants à l’université : mise en place et évaluation d’un programme de gestion du stress par internet." Thesis, Paris 10, 2017. http://www.theses.fr/2017PA100024/document.

Full text
Abstract:
Contexte : Les étudiants universitaires représentent la catégorie la plus touchée par le stress, la détresse psychique et leurs conséquences (physiques et psychiques). Ils sont plus vulnérables aux troubles psychiques que la population générale et que les autres étudiants en raison des nombreux changements et des responsabilités qui accompagnent la période d’étude à l'université. Cette thèse a pour but, d’une part, de mieux comprendre le mal-être psychologique des étudiants universitaires, et, d’autre part, de se pencher sur les actions pouvant être menées pour faire face à ce problème. Format de la thèse : Cette thèse s’articule en deux axes. Le premier axe porte sur l’évaluation de la santé mentale, et notamment du stress, auprès d’un échantillon d’étudiants universitaires (Partie I : Santé mentale chez les étudiants universitaires: perspectives théoriques et études empiriques). Le deuxième axe porte sur l’élaboration et l’évaluation d’une intervention de gestion du stress menée auprès de ces étudiants (Partie II : Gestion du stress chez les étudiants : perspectives théoriques et études empiriques). Pour chaque axe, une revue de la littérature sur les concepts étudiés, ainsi qu’une revue des études empiriques ont été menées sous forme d’articles (publiés ou en cours).Le but de cette dissertation est donc double et s’articule autour de dix articles ;Conclusion: Malgré certaines limites, nos résultats constituent des apports nouveaux et prometteurs sur la gestion du stress via internet pour les étudiants universitaires. Cette proposition d'intervention via internet pourrait s'adresser particulièrement aux étudiants qui ne consultent pas
Context: University students are the most affected by stress, psychological distress and their consequences (physical and mental). They are more vulnerable to mental disorders than the general population and other students because of the many changes and responsibilities that come with studying at the university. On the one hand, this thesis aims to better understand the psychological ill being of university students, and on the other hand, to look at ways to face this problem.Format of the thesis: This thesis is articulated in two axes. The first focuses on the evaluation of mental health, including stress, among a sample of university students (Part I: Mental Health among University Students: Theoretical Perspectives and Empirical Studies). The second focuses on the development and the evaluation of a stress management intervention for these students (Part II: Students Stress Management: Theoretical Perspectives and Empirical Studies). For each, a review of the literature on the concepts studied, as well as a review of empirical studies, was conducted in the form of articles (published or in progress). The purpose of this dissertation is therefore dual and is articulated around ten articles;Conclusion: Despite some limitations, our results constitute new and promising contributions on stress management online for university students. This proposal for an intervention online could be particularly aimed at students who do not consult
APA, Harvard, Vancouver, ISO, and other styles
9

Cases, Anne-Sophie. "La réduction du risque dans le contexte de l'achat électronique sur internet." Montpellier 2, 2001. http://www.theses.fr/2001MON20065.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Koussa, Chokri. "Implantation d’un système d’information géographique 3D sur Internet pour la gestion des modèles urbains." Strasbourg, 2011. https://publication-theses.unistra.fr/public/theses_doctorat/2011/KOUSSA_Chokri_2011.pdf.

Full text
Abstract:
Grâce à des facteurs multiples (progrès continu des outils informatiques en termes de logiciels et matériel, puissance de plus en plus remarquable des outils d’acquisition des données spatiales, généralisation des applications et données spatiales pour un usage de plus en plus étendu, etc. ), on voit naître des applications spatiales de plus en plus sophistiquées que ce soit aux niveaux des outils libres ou commerciaux. Les Systèmes d’Information Géographiques (SIG) se révèlent être des « consommateurs » incontournables des données géo-référencées. Ils constituent des outils très adéquats, voire les plus appropriés, pour l’exploitation de tel type de données. En effet, ils proposent des fonctionnalités diverses qui se focalisent principalement autour de la gestion, l’interrogation et la représentation des données spatiales. Les SIG ont commencé à se généraliser réellement pendant les années 1990. Cependant à l’époque, vu les limites des outils informatiques, les SIG s’intéressaient principalement à des données spatiales 2D. Vers la fin des années 1990 et pendant la première décennie du 21ème siècle, les développeurs des SIG se sont orientés vers la 3D pour la représentation des données spatiales dans le SIG. Le concept de SIG 3D est ainsi devenu omniprésent et un axe de recherche très répandu dans la communauté scientifique. Comme le progrès des SIG est lié de très près au progrès des technologies informatiques, Internet est devenu rapidement un moyen très prometteur pour la diffusion en ligne des applications SIG. De ce fait, les SIG 2D sont aujourd’hui nombreux sur Internet. Les SIG 3D restent par contre encore assez rares. C’est dans ce contexte que s’inscrivent nos travaux de thèse. En effet, l’objectif principal consiste à développer le prototype d’un SIG 3D accessible via Internet. Les SIG étant des outils multidisciplinaires faisant appel à des concepts et technologies très variés (modélisation des données, bases de données, outils de développement, 3D, etc. ), nos travaux de thèse vont porter essentiellement sur les concepts basiques des SIG 3D : la modélisation tridimensionnelle des données spatiales, la modélisation des Bases de Données Spatiales (BDS, l’intégration des données spatiales dans la BDS, etc. ), mener une réflexion sur les fonctionnalités d’interrogation des données spatiales, le développement d’une application Web permettant d’accéder en ligne à tous les services proposés par le SIG. Quant aux technologies à utiliser pour le développement du SIG, nos choix se sont orientés principalement vers les outils libres. L’objectif consiste à étudier les différentes technologies mise en oeuvre ainsi que leur combinaison pour la mise en place d’un SIG 3D fonctionnel et accessible via Internet
Due to a lot of reasons, i. E. Continuous progress of computer tools in terms of software and hardware, the development of powerful spatial data acquisition tools, the generalization of spatial data and applications for an extended use, etc. A lot of spatial applications, more and more sophisticated, are carried out either as free or commercial tools. The Geographic Information Systems (GIS) are proving to be major consumers of geo-referenced data. They consists in adequate, or even the most appropriate, tools for using such kind of data. Indeed, they offer various features that focus especially on the management, interrogation and representation of spatial data. The real beginning of GIS generalization was in the 1990s. But then, given the limits of computer tools, GIS were mainly interested in 2D spatial data. While at the late 1990s and during the first decade of the 21st century, GIS developers are oriented to the 3rd dimension for spatial data representation. The concept of 3D GIS then became ubiquitous and a widespread research topic around the world. As the progress of GIS is related mainly to advances in computer technology, Internet has become fastly a very promising way for the online dissemination of GIS applications. Thus, the 2D GIS are now multiple over Internet, while 3D GIS are rare. It is in this context that joins our thesis work. Indeed, the main objective is to develop a 3D GIS prototype accessible via Internet. Because GIS are multidisciplinary tools since they rely on very different concepts and technologies (data modeling, databases, development tools, 3D, etc. ), Our thesis work will focus on the basic concepts of 3D GIS, i. E. Three-dimensional spatial data modeling, spatial databases modeling (BDS, spatial data integration in the BDS), carrying out a reflection on the querying functionality of spatial data, a Web application development to access online all services offered by the GIS, etc. As for the technologies to be used for the development of GIS, our choices were oriented mainly to the free tools. The objective is to study the various technologies implemented and their combination for the establishment of a functional 3D GIS accessible over Internet
APA, Harvard, Vancouver, ISO, and other styles
11

MAY, MARTIN. "Evaluation quantitative des nouveaux mecanismes de gestion de la qualite de service dans internet." Nice, 1999. http://www.theses.fr/1999NICE5331.

Full text
Abstract:
Dix annees d'experience avec le deploiement et l'utilisation d'internet ont mis en evidence les limites du modele de service best-effort. Dans un futur proche, internet se doit donc d'offrir une gamme de services plus evolues s'il veut confirmer et etendre son succes actuel. Dans cette these, nous decrivons differentes approches qui permettent de fournir un service ameliore, nous /'evaluons les approches, nous identifions les problemes et les limitations des approches, et nous proposons des solutions pour resoudre les problemes identifies. Pour ce faire, nous avons commence par analyser l'architecture intserv. Nous avons fourni une des premieres implementations et mis en evidence la complexite du controle de ressources et de la signalisation. Nous avons ensuite etudie la forme la plus elementaire de controle de trafic proposee dans internet : red. Nous avons ensuite ete parmi les initiateurs du projet diffserv. Nous avons montre qu'une technologie simple sans signalisation pourrait permettre d'ameliorer la situation dans internet sans trop complexifier les routeurs. Nous avons etudie analytiquement et experimentalement les deux types de services retenues dans diffserv : assured forwarding et expedited forwarding. Cette analyse de diffserv nous a permit de mettre en evidence le role critique que jouait le mecanisme de controle des files l'attente (active queue management) dans le niveau de service observe. Pour conclure, nos travaux ont permis de quantifier la qualite de service dans internet et d'aider les fournisseurs a dimensionner leur reseau. Nous avons aussi montre que certains mecanismes populaires, en particulier red, ne peuvent pas fournir le service prevu dans l'etat actuel.
APA, Harvard, Vancouver, ISO, and other styles
12

Dabbebi, Oussema. "Gestion des risques dans les infrastructures VoIP." Electronic Thesis or Diss., Université de Lorraine, 2013. http://www.theses.fr/2013LORR0044.

Full text
Abstract:
La téléphonie sur IP est devenue un nouveau paradigme pour établir et transmettre les communications téléphoniques directement sur les réseaux IP de manière flexible et à faible coût. Toutefois, les services VoIP sont confrontés à plusieurs problèmes de sécurité qui sont soit hérités de la couche IP soit spécifiques au service lui-même. Une grande variété de mécanismes de protection est disponible pour y faire face. Cependant, ces services nécessitent des performances et une disponibilité du réseau élevé, et les mécanismes de protection peuvent nuire à ces performances. La gestion des risques offre de nouvelles perspectives à l'égard de cette problématique. Nos contributions portent sur l'application et l'automatisation de la gestion de risques dans les infrastructures VoIP selon trois axes. Le premier axe porte sur l'automatisation du processus de gestion des risques dans un réseau VoIP d'entreprise. Dans ce cadre, nous avons développé un modèle pour évaluer les risques, un ensemble de contremesures progressives et des algorithmes de mitigation. Nous l'avons couplé à un système de détection d'anomalies basé sur les SVM et un mécanisme d'auto-configuration qui peut fournir un retour d'expérience sur l'efficacité des contremesures. Le deuxième axe concerne l'extension de notre stratégie dans les réseaux P2PSIP. Nous avons mis en place une solution adaptée à la nature distribuée des environnements pair-à-pair. Nous nous sommes aussi intéressés à l'architecture RELOAD et avons étudié comment traiter les attaques résiduelles à travers des mécanismes de confiance. Nous avons enfin étudié les services VoIP dans le cloud où nous proposons plusieurs stratégies pour le déploiement et l'application des contremesures
IP telephony has become a new paradigm that permits to establish and transmit voice communications with IP networks. Its deployment has been accelerated by the standardization of dedicated signaling protocols. However, VoIP services are faced to several security issues which are inherited from the IP layer or specific to the service. A large variety of protection mechanisms are available to deal with them. However, IP telephony is a real-time service which requires high network performance. The application of countermeasures may significantly affect such a critical service. Risk management provides new perspectives for this issue. This thesis deals with the application of risk management in VoIP infrastructures. The first axis consists in the automation of the risk management process in VoIP enterprise network. In this context, we have developed a mathematical model for assessing risk, a set of progressive countermeasures to counter attackers and mitigation algorithms that evaluate the risk level and takes the decision to activate a subset of countermeasures. To improve our strategy, we have coupled it with an anomaly detection system based on SVM and a self-configuration mechanism which provides feedback about countermeasure efficiency. The second axis deals with the extension of our adaptive risk strategy to P2PSIP infrastructures. We have implemented a specific risk model and a dedicated set of countermeasures with respect to its peer-to-peer nature. For that, we have identified attack sources and established different threat scenarios. We have analyzed the RELOAD framework and proposed trust mechanisms to address its residual attacks. Finally, the third axis focuses on VoIP services in the cloud where we have proposed a risk strategy and several strategies to deploy and apply countermeasures
APA, Harvard, Vancouver, ISO, and other styles
13

Khouaja, Youssef. "Une méthode de contrôle par le réseau appliquée à la gestion hiérarchique de la mobilité IPv6." Rennes 1, 2002. http://www.theses.fr/2002REN10114.

Full text
Abstract:
Cette thèse étudie la mobilité IP dans les réseaux radio-mobiles. Nous nous intéressons principalement au réseau d'accès et notamment au processus du handover à l'intérieur d'un même réseau. Le premier travail de cette thèse consiste à étudier les deux versions IPv4 et IPv6 du protocole Mobile IP avec un intérêt particulier pour la version IPv6 qui est utilisée pour l'implémentation des propositions apportées dans la thèse. Ensuite, nous identifions les difficultés de Mobile IP à gérer les mouvements locaux limités à un réseau d'accès et nous définissons les besoins d'un nouveau protocole de micro-mobilité. Puis, grâce aux besoins définis, nous évaluons les principales solutions existantes et nous déterminons les points à améliorer. Enfin, nous proposons une solution de gestion hiérarchique de la mobilité IP contrôlée par le réseau. Cette proposition inclut la phase de décision de l'exécution du handover dans la gestion de la mobilité et introduit le contrôle du handover par le réseau.
APA, Harvard, Vancouver, ISO, and other styles
14

Sagar, Samya. "Gestion intelligente de réseaux de capteurs, intégrés à des vêtements sportifs instrumentés." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2019. http://www.theses.fr/2019IMTA0129/document.

Full text
Abstract:
L’Internet des Objets (IdO) intègre les réseaux de capteurs à Internet, et ouvre la voie pour des systèmes ou des écosystèmes ayant pour but d’aider les gens à vivre dans des mondes à la fois physiques et cybernétiques. L’IdO offre l’omniprésence d’objets capables d'interagir les uns avec les autres et de coopérer avec leurs voisins pour atteindre des objectifs communs. Ces objets dits"Intelligents" (OI), peuvent détecter l'environnement et communiquer avec d’autres objets. La création d’OI et de systèmes d’IdO fait intervenir des acteurs d’expertises très diverses. Ainsi, il devient indispensable d’avoir des descriptions standardisées et sémantiques pour résoudre les problèmes liés à l’interopérabilité et l’hétérogénéité sémantique entre les différentes ressources disponibles d’une part, et entre les différents intervenants à la conception/fabrication des OI, d’autre part. De ce fait, nous avons proposé le Framework sémantique et générique FSMS, structuré en un ensemble de modules ontologiques pour la conception/fabrication d’un OI. Une méthodologie de support à ce Framework a été proposée. Elle se fonde sur les mêmes modules ontologiques identifiés dans la composante sémantique du FSMS. Ces modules ontologiques forment l’ontologie SMS pierre angulaire de cette thèse. Un processus générique basé sur une description sémantique des composants structurels et comportementaux d’un OI a été également proposé en vue d'une gestion intelligente de la conceptiond’un OI. Ce processus a ensuite été mis en application pour des Vêtements Intelligents de sport. Un OI étant destiné à être réutilisé à différents contextes d’usage, une approche de reconfiguration/adaptationdu fonctionnement de l'OI a été proposée. Celle-ci trouve à son tour son fondement dans l’ontologie modulaire SMS
The Internet of Things (IoT) integrates sensor networks with the Internet, and paves the way for systems or ecosystems to help people live in both physical and cyber worlds. IoT offers the ubiquity of objects that are able to interact with each other and cooperate with their neighbors to achieve common goals. These objects, called "Smart" (SO), can detect the environment and communicate with other objects. The creation of SO and IoT system involves actors of very diverse expertise. Hence, it becomes essential to have standardized and semantic descriptions to solve the problems related to the interoperability and the semantic heterogeneity between the different available resources on the one hand, and between the different stakeholders designing/manufacturing the SO, on the other hand. Therefore, we have proposed the FSMS semantic and generic framework, which is structured into a set of ontological modules to design/manufacture a given SO. A support methodology for this framework has been equally proposed. It is based on the same ontological modules identified in the semantic component of the FSMS. These ontological modules form the SMS ontology that is proposed and constitutes the corner stone of this thesis. In order to intelligently manage an SO design, we proposed a generic process based on a semantic description of the structural and behavioral components of an SO. This process was thereafeter implemented for Smart Clothing of sports. This Sportswear is intended to be used in different contexts of use, an approach to reconfiguration/adaptation of the operation of the Smart Clothing has been proposed. This one is also based on the modular ontology SMS
APA, Harvard, Vancouver, ISO, and other styles
15

Billet, Benjamin. "Système de gestion de flux pour l'Internet des objets intelligents." Thesis, Versailles-St Quentin en Yvelines, 2015. http://www.theses.fr/2015VERS012V/document.

Full text
Abstract:
L'Internet des objets (ou IdO) se traduit à l'heure actuelle par l'accroissement du nombre d'objets connectés, c'est-à-dire d'appareils possédant une identité propre et des capacités de calcul et de communication de plus en plus sophistiquées : téléphones, montres, appareils ménagers, etc. Ces objets embarquent un nombre grandissant de capteurs et d'actionneurs leur permettant de mesurer l'environnement et d'agir sur celui-ci, faisant ainsi le lien entre le monde physique et le monde virtuel. Spécifiquement, l'Internet des objets pose plusieurs problèmes, notamment du fait de sa très grande échelle, de sa nature dynamique et de l'hétérogénéité des données et des systèmes qui le composent (appareils puissants/peu puissants, fixes/mobiles, batteries/alimentations continues, etc.). Ces caractéristiques nécessitent des outils et des méthodes idoines pour la réalisation d'applications capables (i) d'extraire des informations utiles depuis les nombreuses sources de données disponibles et (ii) d'interagir aussi bien avec l'environnement, au moyen des actionneurs, qu'avec les utilisateurs, au moyen d'interfaces dédiées. Dans cette optique, nous défendons la thèse suivante : en raison de la nature continue des données (mesures physiques, évènements, etc.) et leur volume, il est important de considérer (i) les flux comme modèle de données de référence de l'Internet des objets et (ii) le traitement continu comme modèle de calcul privilégié pour transformer ces flux. En outre, étant donné les préoccupations croissantes relatives à la consommation énergétique et au respect de la vie privée, il est préférable de laisser les objets agir au plus près des utilisateurs, si possible de manière autonome, au lieu de déléguer systématiquement l'ensemble des tâches à de grandes entités extérieures telles que le cloud. À cette fin, notre principale contribution porte sur la réalisation d'un système distribué de gestion de flux de données pour l'Internet des objets. Nous réexaminons notamment deux aspects clés du génie logiciel et des systèmes distribués : les architectures de services et le déploiement. Ainsi, nous apportons des solutions (i) pour l'accès aux flux de données sous la forme de services et (ii) pour le déploiement automatique des traitements continus en fonction des caractéristiques des appareils. Ces travaux sont concrétisés sous la forme d'un intergiciel, Dioptase, spécifiquement conçu pour être exécuté directement sur les objets et les transformer en fournisseurs génériques de services de calcul et de stockage.Pour valider nos travaux et montrer la faisabilité de notre approche, nous introduisons un prototype de Dioptase dont nous évaluons les performances en pratique. De plus, nous montrons que Dioptase est une solution viable, capable de s'interfacer avec les systèmes antérieurs de capteurs et d'actionneurs déjà déployés dans l'environnement
The Internet of Things (IoT) is currently characterized by an ever-growing number of networked Things, i.e., devices which have their own identity together with advanced computation and networking capabilities: smartphones, smart watches, smart home appliances, etc. In addition, these Things are being equipped with more and more sensors and actuators that enable them to sense and act on their environment, enabling the physical world to be linked with the virtual world. Specifically, the IoT raises many challenges related to its very large scale and high dynamicity, as well as the great heterogeneity of the data and systems involved (e.g., powerful versus resource-constrained devices, mobile versus fixed devices, continuously-powered versus battery-powered devices, etc.). These challenges require new systems and techniques for developing applications that are able to (i) collect data from the numerous data sources of the IoT and (ii) interact both with the environment using the actuators, and with the users using dedicated GUIs. To this end, we defend the following thesis: given the huge volume of data continuously being produced by sensors (measurements and events), we must consider (i) data streams as the reference data model for the IoT and (ii) continuous processing as the reference computation model for processing these data streams. Moreover, knowing that privacy preservation and energy consumption are increasingly critical concerns, we claim that all the Things should be autonomous and work together in restricted areas as close as possible to the users rather than systematically shifting the computation logic into powerful servers or into the cloud. For this purpose, our main contribution can be summarized as designing and developing a distributed data stream management system for the IoT. In this context, we revisit two fundamental aspects of software engineering and distributed systems: service-oriented architecture and task deployment. We address the problems of (i) accessing data streams through services and (ii) deploying continuous processing tasks automatically, according to the characteristics of both tasks and devices. This research work lead to the development of a middleware layer called Dioptase, designed to run on the Things and abstract them as generic devices that can be dynamically assigned communication, storage and computation tasks according to their available resources. In order to validate the feasability and the relevance of our work, we implemented a prototype of Dioptase and evaluated its performance. In addition, we show that Dioptase is a realistic solution which can work in cooperation with legacy sensor and actuator networks currently deployed in the environment
APA, Harvard, Vancouver, ISO, and other styles
16

Tantayakul, Kuljaree. "Mobility Management in New Internet Architectures." Phd thesis, Toulouse, INPT, 2018. http://oatao.univ-toulouse.fr/23732/1/Tantayakul_Kuljaree.pdf.

Full text
Abstract:
The software integration with new network architectures via Software-Defined Networking (SDN) axis appears to be a major evolution of networks. While this paradigm was primarily developed for easy network setup, its ability to integrate services has also to be considered. Thus, the mobility service for which solutions have been proposed in conventional architectures by defining standardized protocols should be rethought in terms of SDN service. Mobile devices might use or move in SDN network. In this thesis, we proposed a new mobility management approach which called "SDN-Mobility" and has shown that SDN can be implemented without IP mobility protocol for providing mobility like as Proxy Mobile IPv6 (PMIPv6) that is the solution adopted by 3GPP, with some performance gain. However, PMIPv6 and SDN-Mobility have some packets loss during Mobile Node (MN) handover. Thus, in this thesis, we proposed a new paradigm based on caching function to improve the quality of transfer during handover. Caching policy cooperates with SDN controller for automatic buffering of the data during the handover. We proposed two caching policies that are compared through a performance analysis regarding the quality of transfer for the user and for the operator. This thesis also presented that SDN-Mobility with caching policy can be applied easily for mobility management in heterogeneous network architectures able to integrate the future Internet based on the Information-Centric Networking (ICN).
APA, Harvard, Vancouver, ISO, and other styles
17

Rey, Bénédicte. "La privacy à l'ère du numérique : une gestion par les tensions." Paris 5, 2009. http://www.theses.fr/2009PA05H063.

Full text
Abstract:
La diffusion aujourd'hui massive de l'informatique et la démocratisation des usages de l'Internet, de la téléphonie mobile, ou plus récemment d'autres objets communicants, génèrent une profusion de traces numériques gardant la mémoire des actions des usagers. Vanté par certains qui y voient l'opportunité d'améliorer la sécurité publique, la relation marchande ou encore leur propre confort par exemple, ce constat fait craindre à d'autres l'avènement d'une société de la surveillance érodant le sens du privé. Le présent travail s'interroge sur la notion de privacy à l'ère du numérique, et montre comment les changements technologiques, serviciels et d'usage mettent en tension l'acceptation traditionnelle de la privacy fondée sur des normes. Si les problèmes de privacy liés aux technologies de l'information et de la communication ne sont pas nés avec l'ère numérique comme le montre notre analyse socio-historique, des changements se produisent aujourd'hui qui durcissent les tensions expérimentées par les usagers, et questionnent les modalités de régulation pour y répondre. Un changement d'ampleur dans la quantité d'informations existante et dans l'accessibilité de celles-ci change la nature des risques en termes de privacy. Ceux-ci deviennent difficiles à anticiper, et ne se perçoivent bien souvent qu'au travers des problèmes de privacy, une fois ceux-ci révélés. L'analyse de micro-affaires ordinaires et de cas plus médiatisés intervenant dans différentes sphères d'usage montre que la réflexion en termes de privacy doit désormais s'orienter vers le développement de modalités de régulation complémentaires au dispositif normatif existant, modalités plus souples et appropriables par les individus
The massive diffusion of information technology and of the Internet, of the mobile phone and of other communicating technologies produce lots of digital traces which keep the memory of people's acts. Some see in these changes the opportunity to increase security, Customer relationship management or comfort in everyday life. But some other fear the advent of a surveillance society in which privacy would erode. We examine here what privacy in the digital age means, and how the technological changes, but also services and uses changes unhinge the traditional privacy acceptation based on norms. Privacy problems predate the digital era. But somme changes nowadays harden privacy problems and call into question the way these problems are responded to. The wide scope of digital information and its accessibility affects privacy risks, which become difficult to pre-empt. Crises analysis shows that privacy reflexion shall from now on go in for complementary ways that should be easygoing for people to use them
APA, Harvard, Vancouver, ISO, and other styles
18

Franklin, de Castro Miguel. "Gestion programmable et adaptative de la qualité de service sur IP." Evry, Institut national des télécommunications, 2004. http://www.theses.fr/2004TELE0003.

Full text
Abstract:
La prochaine génération de l'Internet sera caractérisée par sa capacité à fournir différents niveaux de qualité de service (QoS) aux utilisateurs, qui souhaiteraient avoir le choix du prix à payer pour le service demandé. Cependant, le déploiement de la QoS dans l'Internet n'est pas simple, puisque son protocole de niveau réseau (IP) n'a pas été initialement conçu pour un traitement hétérogène. L'offre du support de QoS dans IP est obtenue par un traitement différencié des paquets dans les couches sous-jacentes. Pour accomplir cette tâche, plusieurs mécanismes sont disponibles. Parmi ces mécanismes, deux types sont les plus importants : la gestion de files d'attente et l'ordonnancement des paquets. Ces deux types de mécanismes peuvent définir le procédé avec lequel les paquets sont acheminés à l'intérieur d'un nœud du réseau. Il existe, cependant, une multitude de propositions dans ce domaine, et en choisir une bonne configuration n'est pas une tâche aisée. En effet, chaque configuration peut révéler une convenance spécifique à quelques scénarios de trafic, présentant ainsi de meilleures performances que celles obtenues avec d'autres configurations. Cette spécificité des configurations de gestion de QoS nous a conduit à proposer une gestion adaptative de QoS, dans laquelle les nœuds du réseau utiliseraient leurs connaissances pour appliquer la configuration la mieux adaptée en fonction du scénario de trafic en cours. Cette thèse présente d'abord une analyse comportementale de quelques configurations de gestion de QoS (gestion de files d'attente et ordonnancement de paquets), en prenant en considération la nature du trafic. Lors des expériences effectuées, le rapport de paquets UDP dans l'agrégat du trafic est la principale caractéristique observée. A partir de ces expériences, nous avons pu observer que, selon le scénario du trafic considéré (c. -à-d. , le rapport du trafic de UDP), nous pouvons obtenir différents profils de performance pour les configurations examinées. Motivés par ces résultats, nous avons également élaboré une architecture pour la gestion adaptative de QoS basée sur la technologie des réseaux actifs et programmables. L'objectif principal de cette architecture est de permettre le déploiement des comportements personnalisés au sein des entités du réseau. Ces comportements définissent la configuration de QoS utilisée dans le nœud, en fonction de son scénario du trafic. La manière dont ces comportements sont commutés afin de s'adapter aux conditions courantes du trafic, désignée dans cette thèse par le terme " méta-configuration ", est déterminée par la connaissance du nœud qui est représentée par des règles du type ECA (événement-Condition-Action). De plus, le fait d'avoir recours à la technologie des réseaux actifs et programmables permet à l'architecture d'être personnalisé à tout moment grâce à une nouvelle méta-configuration " à la volée ". En liaison avec l'architecture, on propose également un nouveau langage DSL (Domain-Specific Language), appelé CLAM (Compact Language for Adaptive Management). Ce langage est utilisé pour la spécification des modules programmables qui formeront une méta-configuration, tels que des comportements, des statistiques, des configurations et des notifications. La dernière partie de cette thèse présente trois cas de figure dans lesquels l'architecture proposée est exploitée pour exécuter la gestion adaptative de QoS. Ces cas de figure sont basés sur des objectifs spécifiques qui doivent être accomplis au moyen de l'architecture adaptative de gestion de QoS CLAM. Les expériences réalisées ont été basées sur l'implémentation de l'architecture CLAM dans un outil commercial de simulation réseau (OPNET Modeler). Les résultats obtenus nous ont permis de vérifier que la gestion adaptative de QoS exécutée par l'architecture CLAM est vraiment efficace pour accomplir les objectifs mentionnés. Nous avons été en mesure d'observer des gains effectifs de performance grâce à la mise en place de la gestion adaptative de QoS
APA, Harvard, Vancouver, ISO, and other styles
19

Kaddah, Rim. "Gestion active de la demande basée sur l'habitat connecté." Electronic Thesis or Diss., Paris, ENST, 2016. http://www.theses.fr/2016ENST0025.

Full text
Abstract:
L’Internet des Objets (IdO) et le déploiement des équipements connectés permettent la mise en place de solutions de Gestion Active de la Demande(GAD) avancées. En effet, il devient possible d’avoir plus de visibilité et un contrôle fin sur différents équipements qui consomment, stockent ou produisent de l’énergie dans une maison. Dans cette thèse, nous considérons des solutions ayant la capacité de produire des décisions de contrôle direct à différents niveaux de granularité en fonction des variables mesurées dans les habitats. Le contrôle est basé sur une optimisation d’utilité perçue. Des fonctions utilité sont définies à travers une approche générique qui considère la flexibilité de la charge et l’impact des décisions de contrôle sur les utilisateurs. L’approche proposée n’impose pas de restrictions sur le type des équipements contrôlés ni sur la granularité des décisions de contrôle. Ceci permet un contrôle joint d’équipements hétérogènes. Nous considérons trois types d’architectures de contrôle à savoir: des solutions centralisées, partiellement distribuées et entièrement distribuées. Ces architectures diffèrent dans la distribution de la prise de décision entre les entités impliquées dans le contrôle et les données qui sont mis à disposition de ces entités. L’analyse numérique montre les compromis des solutions proposées du point de vue de la performance, de l’extensibilité et de la complexité
The Internet of Things (IoT) paradigm brings an opportunity for advanced Demand Response (DR) solutions. Indeed, it enables visibility and control on the various appliances that may consume, store or generate energy within a home. In this thesis, we consider solutions having the capability to produce direct control decisions at different granularities based on variables measured at homes. Control schemes are driven by an optimization based on utility functions. These functions are defined based on a generic approach that considers load’s flexibility and the impact of control decisions on users. The proposed approach does not impose any restrictions on the type of controlled appliances nor on the granularity of control decisions. This enables joint control of heterogeneous loads. We consider three types of control architectures, namely centralized, partially distributed and fully distributed solutions. Schemes based on these architectures differ in the distribution of decision making among entities involved in the control and data that is made available to these entities. Numerical analysis shows the trade-offs of proposed solutions from a performance, scalability and complexity perspectives
APA, Harvard, Vancouver, ISO, and other styles
20

DEVEAUX, LAURENT. "La gestion strategique de l'information sur l'internet : essai sur les mecanismes economiques de transactions electroniques." Cachan, Ecole normale supérieure, 2002. http://www.theses.fr/2002DENSA001.

Full text
Abstract:
Le developpement de l'internet va profondement modifier le commerce tel que nous le 1 connaissons aujourd'hui. Par rapport au commerce traditionnel, le commerce electronique beneficie de la forte diminution des couts de transaction sur l'internet permettant desormais a l'information d'etre l'une des principales sources de valeur. Dans ce cadre, une attention" toute particuliere doit etre apporteea la gestion strategique de l'information commerciale. Dans cette these, nous nous interessons a l'automatisation du processus de fixation des prix dans un environnement electronique. Plus precisement, nous nous focalisons principalement sur l'etude des nouvelles strategies de tarification qui peuvent etre implementees sur l'internet par l'intermediaire d'agents electroniques. Nous etudions troismecanismes de transaction (vente aux encheres, tarification a prix fixe et negociation) et nous soulignons le role que les agents peuvent jouer dans chacun d'entre eux. Dans une vente aux encheres, un' agent peut encherir par procuration pour le compte d'un consommateur. L'implementation de ce type d'agent peut limiter le probleme du "sniping" courant dans une procedure d'encheres anglaises utilisant une date d'adjudication predeterminee. Lorsqu'un site marchand utilise une strategie de tarification a prix fixe, un agent electronique peut lui permettre, soit d'apprendre la demande, soit de limiter la concurrence sur le marche. Nous presentons deux etudes pour concevoir ces deux types d'agents de tarification dynamique. Sur le reseau, la negociation peut etre implementee par l'intermediaire de systemes d'aide a la negociation et de systemes multi-agents. Dans le cadre d'un systeme multi-agents, nous i proposons une approche-basee sur l'analyse de la negociation pour modeliser le processus de decision d'un agent de negociation.
APA, Harvard, Vancouver, ISO, and other styles
21

Suri, Kunal. "Modeling the internet of things in configurable process models." Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLL005.

Full text
Abstract:
Un nombre croissant d’entreprises internationales ont adopté les systèmes d'information centrés-processus pour profiter des avantages de l'utilisation de processus rationalisés basés sur des modèles prédéfinis, également appelés modèles de processus métier. Cependant, l'environnement commercial dynamique actuel exige de la flexibilité et la réutilisation systématique des processus métier, qui se manifeste par l'utilisation de modèles de processus configurables (CPM). Ceci évite le développement de processus à partir de zéro, qui est à la fois une démarche fastidieuse et sujette à de nombreuses erreurs, et facilite le partage d'une famille de variantes de processus métier pouvant être personnalisées en fonction d'exigences métier concrètes. Par ailleurs, l'adoption des ressources de l'Internet des objets (IoT) dans les processus d'entreprise inter-organisationnels est également en croissante constante. Cependant, ces ressources IoT doivent être utilisées efficacement. Ces dispositifs IoT sont hétérogènes en raison de leurs propriétés et de leurs fabricants (normes propriétaires), ce qui pose des problèmes d’interopérabilité. De plus, étant limitées, elles doivent être allouées (et consommées) en gardant à l'esprit des contraintes, tels que le coût énergétique, le coût de calcul, etc. pour éviter les pannes pendant leurs consommations par les processus. Il est donc essentiel de modéliser explicitement la perspective des ressources IoT dans les modèles de processus métiers lors de la phase de conception. Dans la littérature, divers travaux de recherche dans le domaine de gestion des processus métier (BPM) sont généralement axés sur la perspective du flux de contrôle. Bien qu'il existe certaines approches axées sur la perspective des ressources, elles sont généralement dédiées à la perspective des ressources humaines. Ainsi, les travaux sur l'intégration de la perspective des ressources IoT dans les processus métier sont limités pour résoudre des problèmes liés à l'hétérogénéité. De même, dans le contexte des CPM, il n’existe aucune prise en charge de la configuration permettant de modéliser la variabilité des ressources IoT au niveau des CPM. Cette variabilité résulte des fonctionnalités spécifiques aux ressources IoT, telles que la possibilité de partage, et réplication, qui sont pertinentes dans le contexte des processus métier. Dans cette thèse, nous abordons les limitations susmentionnées en proposant une approche pour intégrer la perspective IoT dans le domaine du BPM et soutenir le développement de CPM. Ce travail propose les contributions suivantes: (1) il fournit une description formelle de la perspective des ressources IoT, et de ses relations avec le domaine BPM à l'aide de la technologie sémantique, et (2) il fournit de nouveaux concepts pour permettre l'allocation de ressources IoT configurables dans les CPM. Pour valider notre approche et démontrer sa faisabilité, nous procédons comme suit: (1) implémenter des outils preuve de concept qui soutiennent le développement de processus métier et de modèles de processus configurables conscient des IoT, et (2) réaliser des expérimentations sur des jeux de données de modèles de processus qui démontrent l’efficacité de notre approche et affirment sa faisabilité
On the one hand, a growing number of multi-national organizations have embraced the Process-Aware Information Systems (PAIS) to reap the benefits of using streamlined processes that are based on predefined models, also called as Business Process (BP) models. However, today's dynamic business environment demands flexibility and systematic reuse of BPs, which is provided by the use of Configurable Process Models (CPMs). It avoids the development of processes from scratch, which is both time-consuming and error-prone, and facilitates the sharing of a family of BP variants that can be customized based on concrete business requirements. On the other hand, the adoption of the Internet of Things (IoT) resources in various cross-organizational BPs is also on a rise. However, to attain the desired business value, these IoT resources must be used efficiently. These IoT devices are heterogeneous due to their diverse properties and manufactures (proprietary standards), which leads to issues related to interoperability. Further, being resource-constrained, they need to be allocated (and consumed) keeping in the mind relevant constraints such as energy cost, computation cost, to avoid failures during the time of their consumption in the processes. Thus, it is essential to explicitly model the IoT resource perspective in the BP models during the process design phase. In the literature, various research works in Business Process Management (BPM) domain are usually focused on the control-flow perspective. While there do exist some approaches that focus on the resource perspective, they are typically dedicated to the human resource perspective. Thus, there is limited work on integrating the IoT resource perspective into BPs, without any focus on solving issues related to heterogeneity in IoT domain. Likewise, in the context of CPMs, there is no configuration support to model IoT resource variability at the CPM level. This variability is a result of specific IoT resource features such as Shareability and Replication that is relevant in the context of BPs. In this thesis, we address the aforementioned limitations by proposing an approach to integrate IoT perspective in the BPM domain and to support the development of IoT-Aware CPMs. This work contributes in the following manner: (1) it provides a formal description of the IoT resource perspective and its relationships with the BPM domain using semantic technology and (2) it provides novel concepts to enable configurable IoT resource allocation in CPMs. To validate our approach and to show its feasibility, we do the following: (1) implement proof of concept tools that assist in the development of IoT-aware BPs and IoT-aware CPMs and (2) perform experiments on the process model datasets. The experimentation results show the effectiveness of our approach and affirm its feasibility
APA, Harvard, Vancouver, ISO, and other styles
22

Jelger, Christophe. "Gestion des équipements mobiles et communications de groupe dans l'internet nouvelle génération." Université Louis Pasteur (Strasbourg) (1971-2008), 2004. http://www.theses.fr/2004STR13099.

Full text
Abstract:
Les communications multimédia sont devenues extrêmement populaires dans l'Internet. Des services tels que la télévision et la radio par Internet attirent en effet un nombre croissant d'utilisateurs. La particularité de ces applications est qu'elles font communiquer un groupe d'utilisateurs : elles sont donc adaptées à l'utilisation du routage multicast. Dans le même temps, on assiste à un déploiement très rapide de technologies de communication sans-fil. Or les utilisateurs mobiles veulent profiter des services disponibles à partir des réseaux filaires classiques. En particulier, les réseaux sans-fil doivent être capables de supporter le routage de données multicast. Dans la première partie de cette thèse, nous avons étudié différents aspects des communications de groupe avec des participants mobiles. Nous avons évalué par simulations les effets de cette mobilité sur le routage multicast. Nous avons également proposé un protocole permettant de gérer la mobilité de la source d'un arbre de diffusion multicast. Ce protocole a été évalué par simulations et nous avons montré qu'il surpasse les solutions existantes. Dans la seconde partie de ce mémoire, nous avons étudié le déploiement du routage multicast dans les réseaux ad hoc hybrides. Un réseau ad hoc hybride est un réseau ad hoc dont au moins un nœud possède une connexion vers l'Internet. Notre premier objectif a été de mettre en œuvre un protocole d'autoconfiguration d'adresses dans le cadre du protocole IP version 6. Notre proposition est basée sur le concept innovant de continuité de préfixe dans un réseau ad hoc : notre protocole permet en particulier d'obtenir des sous-réseaux connexes. Nous avons également évalué différents algorithmes permettant de maintenir la continuité de préfixe via des simulations. Dans un deuxième temps, nous avons appliqué le concept de continuité de préfixe aux communications de groupe. Nous avons ainsi proposé un ensemble de règles permettant de construire des structures de diffusion multicast respectant la continuité de préfixe. Cette approche est très intéressante car elle permet d'envisager la mise en place de protocoles de gestion de réseaux, de procédures de contrôle d'accès, et de techniques de transcodage au niveau des passerelles d'un réseau ad hoc hybride
Multimedia communications have become extremely popular in the Internet. Services such that Internet TV and radio are indeed attracting an increasing number of users. The particularity of these applications is that they are based on a group of users and can therefore benefit from the use of multicast communications. In the mean time, wireless networks are being deployed at a very fast pace. Mobile Internet users undoubtedly want to be able to have access to the services that are available in wired networks. In particular, it means that wireless networks must be multicast-capable in order to support group communications. In the first part of this thesis, we have studied different aspects of the combination of mobile users and multicast communications. We have evaluated through extensive simulations the effects of node mobility on multicast communications. We have also proposed a new protocol which aims to support mobile sources in source-rooted multicast trees. This protocol has been evaluated via simulations and it has been shown to outperform other existing solutions. In a second part of this thesis, we have also studied the deployment of multicast communications in hybrid ad hoc networks. A hybrid ad hoc network is an ad hoc network that has at least one node which can act as the gateway to the Internet. Our first objective has been to design a protocol which can be used to automatically assign IPv6 global addresses to the ad hoc nodes. Our proposal is based on the original concept of prefix continuity in an ad hoc network: the protocol creates and maintains sub-networks formed by an adjacent set of mobile nodes. We have evaluated different versions of our proposal with extensive simulations. Our second objective has then been to study the applicability of the prefix continuity concept in multicast communications in ad hoc networks. We have subsequently proposed a multicast routing protocol which creates multicast trees and meshes whose members all share an identical IPv6 network prefix. This architecture is very attractive in the sense that network management, access control, and billing systems can be easily deployed on the ad hoc gateways
APA, Harvard, Vancouver, ISO, and other styles
23

Dabbebi, Oussema. "Gestion des Risques dans les Infrastructures VoIP." Phd thesis, Université de Lorraine, 2013. http://tel.archives-ouvertes.fr/tel-00875141.

Full text
Abstract:
La téléphonie sur IP est devenue un nouveau paradigme pour établir et transmettre les com- munications téléphoniques directement sur les réseaux IP de manière flexible et à faible coût. Toutefois, les services VoIP sont confrontés à plusieurs problèmes de sécurité qui sont soit hérités de la couche IP soit spécifiques au service lui-même. Une grande variété de mécanismes de protection sont disponibles pour y faire face. Cependant, ces services nécessitent des performances et une disponibilité du réseau élevées, et les mécanismes de protection peuvent nuire à ces perfor- mances. La gestion des risques offre de nouvelles perspectives à l'égard de cette problématique. Nos contributions portent sur l'application et l'automatisation de la gestion de risques dans les infrastructures VoIP selon trois axes. Le première axe porte sur l'automatisation du processus de gestion des risques dans un réseau VoIP d'entreprise. Dans ce cadre, nous avons développé un modèle pour évaluer les risques, un ensemble de contremesures progressives et des algorithmes de mitigation. Nous l'avons couplé à un système de détection d'anomalies basé sur les SVM et un mécanisme d'auto-configuration qui peut fournir un retour d'expérience sur l'efficacité des contremesures. Le deuxième axe concerne l'extension de notre stratégie dans les réseaux P2PSIP. Nous avons mis en place une solution adaptée à la nature distribuée des environnements pair- à-pair. Nous nous sommes aussi intéressés à l'architecture RELOAD et avons étudié comment traiter les attaques résiduelles à travers des mécanismes de confiance. Nous avons enfin étudié les services VoIP dans le cloud où nous proposons plusieurs stratégies pour le déploiement et l'application des contremesures.
APA, Harvard, Vancouver, ISO, and other styles
24

Orozco, Torrentera Julio Enrique. "Gestion de la qualité de service des flux multimédias dans un Internet à différenciation de services." Rennes 1, 2005. http://www.theses.fr/2005REN10036.

Full text
Abstract:
Le modèle à Différenciation de Services cherche à donner des capacités simples de Qualité de Service à l’Internet. Avec le Comportement Assuré (AF), le modèle DiffServ introduit le concept de rejet de paquets par priorité effectué par un mécanisme de Gestion Active de Files d’Attente. Ce document traite de la définition, le développement et l’évaluation des techniques permettant de mettre en œuvre de d’utiliser efficacement le rejet par priorités afin d’améliorer la performance de la diffusion vidéo. Nous étudions deux lignes : dans la première, nous proposons l’algorithme RIO-Adaptatif qui cherche à simplifier la configuration des routeurs et à maintenir le délai dans un intervalle borné. Dans la seconde, nous proposons des stratégies d’intégration entre la vidéo H. 264 et le réseau AF cherchant à réduire la dégradation visuelle, spécialement dans le contexte des réseaux UMTS. L’étude est faite avec une nouvelle méthode d’évaluation de qualité basée sur des réseaux de neurones.
APA, Harvard, Vancouver, ISO, and other styles
25

De, Barros Serra Antonio. "La gestion de la QoS pour les services Internet au niveau de grappes de serveurs Web." Evry, Institut national des télécommunications, 2005. http://www.theses.fr/2005TELE0004.

Full text
Abstract:
Un très grand effort est fait par la communauté scientifique afin de fourni un support à la QoS dans l'infrastructure réseau. Cependant, traiter la QoS uniquement dans le réseau n'est pas suffisant pour garantir une QoS de bout-en-bout. Même s'il existe déjà des mécanismes qui permettent la différenciation des services au niveau réseau, les utilisateurs sont toujours obligés de partager d'une même façon les ressources disponibles du côté serveur Web. Pour garantir la QoS dans le réseau, un ensemble de principes sont employés (classification du trafic, contrôle d'admission, partitionnement de ressources, etc. ). Une solution possible au problème de la QoS du côté serveur est l'utilisation de ces principes pour la conception, la spécification, la mise en œuvre et l'évaluation d'une architecture de gestion de QoS pour les grappes de serveurs Web. Nous proposons une solution souple, évolutive et peu intrusive qui prend en compte l'hétérogénéité des technologies utilisées pour la mise en œuvre des applications basées sur le Web. Nous proposons aussi un mécanisme pour le contrôle d'admission de requêtes et l'équilibre de charge dans les grappes de serveurs Web, nommé WS-DSAC. Ce mécanisme permet la différenciation de la QoS des utilisateurs et utilise d'une façon efficace les ressources de traitement disponibles, réallouant dynamiquement les ressources entre les classes de QoS existantes
A significant amount of efforts have been directed toward the support of Quality of Service (QoS) in the network infrastructure. However, deal with juste network QoS problem is not sufficient to guarantee end-to-end QoS. Even there are mechanisms (DiffServ, IntServ, MPLS, etc. ) allowing service differentiation at network level, users are still forced to share in the same way available resources on the server Web side. A possible solution to deal with this problem is to use the network QoS principles (traffic classification, admission control, resources partition, etc) to extend components of Web clusters infrastructures introducing resources management mechanisms allowing guaranties of SLAs (Service Level Agreements) granted to users. Our contribution relies on the use of those principles for design, specification and implementation of a QoS management architecture for Web servers clusters. We propose a flexible, scalable and non intrusive solution that takes into account the heterogeneity of technologies used to implement Web Applications. We also propose an admission control and load balancing mechanism for Web servers clusters, called WS-DSAC (Web Servers – DiffServ Admission Control), that allows user QoS differentiation and effective use of available resources, by dynamically reallocating resources between existent QoS classes and promoting fairness during non critical moments
APA, Harvard, Vancouver, ISO, and other styles
26

Ben, Dhia Imen. "Gestion des grandes masses de données dans les graphes réels." Electronic Thesis or Diss., Paris, ENST, 2013. http://www.theses.fr/2013ENST0087.

Full text
Abstract:
De nos jours, un grand nombre d’applications utilisent de grands graphes pour la modélisation de données du monde réel. Nous avons assisté, ces dernières années, à une très rapide croissance de ces graphes dans divers contextes ; à savoir, les réseaux sociaux, la bioinformatique, le web sémantique, les systèmes de gestion des données géographiques, etc. La gestion, l’analyse et l’interrogation de ces données constituent un enjeu très important et ont suscité un vaste intérêt dans la communauté des Bases de Données. L’objectif de cette thèse est de fournir des algorithmes efficaces pour l’indexation et l’interrogation des données dans les grands graphes. Nous avons proposé EUQLID, une technique d’indexation qui permet de répondre efficacement aux requêtes de calcul de distance dans les grands graphes orientés. L’efficacité de cette technique est dûe au fait qu’elle exploite des propriétés intéressantes des graphes du monde réel. En effet, nous proposons un algorithme basé sur une variante efficace du fameux algorithme 2-hop. Les résultats obtenus montrent que notre algorithme surpassent les approches existantes en terme de temps d’indexation, ainsi qu’en temps de réponse. En effet, il permet de calculer la distance entre deux noeuds en quelques centaines de millisecondes sur de très grands graphes. Nous proposons également un modèle de contrôle d’accès pour les réseaux sociaux qui permet aux utlisateurs de spécifier leurs poltiques de contrôle d’accès en se basant sur leurs relations sociales, et qui peut utiliser EUQLID pour passer à l’échelle. Nous décrivons Primates comme étant un prototype appliquant le modèle proposé
In the last few years, we have been witnessing a rapid growth of networks in a wide range of applications such as social networking, bio-informatics, semantic web, road maps, etc. Most of these networks can be naturally modeled as large graphs. Managing, analyzing, and querying such data has become a very important issue, and, has inspired extensive interest within the database community. In this thesis, we address the problem of efficiently answering distance queries in very large graphs. We propose EUQLID, an efficient algorithm to answer distance queries on very large directed graphs. This algorithm exploits some interesting properties that real-world graphs exhibit. It is based on an efficient variant of the seminal 2-hop algorithm. We conducted an extensive set of experiments against state-of-the-art algorithms which show that our approach outperforms existing approaches and that distance queries can be processed within hundreds of milliseconds on very large real-world directed graphs. We also propose an access control model for social networks which can make use of EUQLID to scale on very large graphs. This model allows users to specify fine-grained privacy policies based on their relations with other users in the network. We describe and demonstrate Primates as a prototype which enforces the proposed access control model and allows users to specify their privacy preferences via a graphical user-friendly interface
APA, Harvard, Vancouver, ISO, and other styles
27

Ben, Atia Okba. "Plateforme de gestion collaborative sécurisée appliquée aux Réseaux IoT." Electronic Thesis or Diss., Mulhouse, 2024. http://www.theses.fr/2024MULH7114.

Full text
Abstract:
L'apprentissage fédéré (FL) permet aux clients de former collaborativement un modèle tout en préservant la confidentialité des données. Malgré ses avantages, le FL est vulnérable aux attaques de poisoning. Cette thèse aborde la détection des modèles malveillants dans le système FL pour les réseaux IoT. Nous fournissons une revue de littérature des techniques récentes de détection et proposons un cadre d'adaptation et de comportement sécurisé (FLSecLAB) pour renforcer le système FL contre les attaques. FLSecLAB offre une personnalisation pour évaluer les défenses à travers divers jeux de données et métriques. Nous proposons une détection améliorée de modèles malveillants avec sélection dynamique d'un seuil optimal, ciblant les attaques de changement d'étiquettes. Nous présentons une solution évolutive utilisant l'entropie et un seuil adaptatif pour détecter les clients malveillants. Nous explorons des scénarios complexes et proposons une détection novatrice contre les attaques simultanées de changement d'étiquettes et de porte dérobée. De plus, nous proposons un modèle adaptatif pour détecter les clients malveillants, abordant les défis des données Non-IID. Nous évaluons nos approches à travers divers scénarios de simulation avec différents jeux de données, et les comparons aux approches existantes. Les résultats démontrent l'efficacité de nos approches pour améliorer diverses métriques de performance de détection malveillante
Federated Learning (FL) allows clients to collaboratively train a model while preserving data privacy. Despite its benefits, FL is vulnerable to poisoning attacks. This thesis addresses malicious model detection in FL systems for IoT networks. We provide a literature review of recent detection techniques and propose a Secure Layered Adaptation and Behavior framework (FLSecLAB) to fortify the FL system against attacks. FLSecLAB offers customization for evaluating defenses across datasets and metrics. We propose enhanced malicious model detection with dynamic optimal threshold selection, targeting Label-flipping attacks. We present a scalable solution using entropy and an adaptive threshold to detect malicious clients. We explore complex scenarios and propose novel detection against simultaneous Label-flipping and Backdoor attacks. Additionally, we propose an adaptive model for detecting malicious clients, addressing Non-IID data challenges. We evaluate our approaches through various simulation scenarios with different datasets, comparing them to existing approaches. Results demonstrate the effectiveness of our approaches in enhancing various malicious detection performance metrics
APA, Harvard, Vancouver, ISO, and other styles
28

Serban, Rares Dabbous Walid. "La gestion dynamique de la qualité de service dans l'Internet." [S.l.] : [s.n.], 2003. http://www.inria.fr/rrrt/tu-0794.html.

Full text
APA, Harvard, Vancouver, ISO, and other styles
29

Suri, Kunal. "Modeling the internet of things in configurable process models." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLL005/document.

Full text
Abstract:
Un nombre croissant d’entreprises internationales ont adopté les systèmes d'information centrés-processus pour profiter des avantages de l'utilisation de processus rationalisés basés sur des modèles prédéfinis, également appelés modèles de processus métier. Cependant, l'environnement commercial dynamique actuel exige de la flexibilité et la réutilisation systématique des processus métier, qui se manifeste par l'utilisation de modèles de processus configurables (CPM). Ceci évite le développement de processus à partir de zéro, qui est à la fois une démarche fastidieuse et sujette à de nombreuses erreurs, et facilite le partage d'une famille de variantes de processus métier pouvant être personnalisées en fonction d'exigences métier concrètes. Par ailleurs, l'adoption des ressources de l'Internet des objets (IoT) dans les processus d'entreprise inter-organisationnels est également en croissante constante. Cependant, ces ressources IoT doivent être utilisées efficacement. Ces dispositifs IoT sont hétérogènes en raison de leurs propriétés et de leurs fabricants (normes propriétaires), ce qui pose des problèmes d’interopérabilité. De plus, étant limitées, elles doivent être allouées (et consommées) en gardant à l'esprit des contraintes, tels que le coût énergétique, le coût de calcul, etc. pour éviter les pannes pendant leurs consommations par les processus. Il est donc essentiel de modéliser explicitement la perspective des ressources IoT dans les modèles de processus métiers lors de la phase de conception. Dans la littérature, divers travaux de recherche dans le domaine de gestion des processus métier (BPM) sont généralement axés sur la perspective du flux de contrôle. Bien qu'il existe certaines approches axées sur la perspective des ressources, elles sont généralement dédiées à la perspective des ressources humaines. Ainsi, les travaux sur l'intégration de la perspective des ressources IoT dans les processus métier sont limités pour résoudre des problèmes liés à l'hétérogénéité. De même, dans le contexte des CPM, il n’existe aucune prise en charge de la configuration permettant de modéliser la variabilité des ressources IoT au niveau des CPM. Cette variabilité résulte des fonctionnalités spécifiques aux ressources IoT, telles que la possibilité de partage, et réplication, qui sont pertinentes dans le contexte des processus métier. Dans cette thèse, nous abordons les limitations susmentionnées en proposant une approche pour intégrer la perspective IoT dans le domaine du BPM et soutenir le développement de CPM. Ce travail propose les contributions suivantes: (1) il fournit une description formelle de la perspective des ressources IoT, et de ses relations avec le domaine BPM à l'aide de la technologie sémantique, et (2) il fournit de nouveaux concepts pour permettre l'allocation de ressources IoT configurables dans les CPM. Pour valider notre approche et démontrer sa faisabilité, nous procédons comme suit: (1) implémenter des outils preuve de concept qui soutiennent le développement de processus métier et de modèles de processus configurables conscient des IoT, et (2) réaliser des expérimentations sur des jeux de données de modèles de processus qui démontrent l’efficacité de notre approche et affirment sa faisabilité
On the one hand, a growing number of multi-national organizations have embraced the Process-Aware Information Systems (PAIS) to reap the benefits of using streamlined processes that are based on predefined models, also called as Business Process (BP) models. However, today's dynamic business environment demands flexibility and systematic reuse of BPs, which is provided by the use of Configurable Process Models (CPMs). It avoids the development of processes from scratch, which is both time-consuming and error-prone, and facilitates the sharing of a family of BP variants that can be customized based on concrete business requirements. On the other hand, the adoption of the Internet of Things (IoT) resources in various cross-organizational BPs is also on a rise. However, to attain the desired business value, these IoT resources must be used efficiently. These IoT devices are heterogeneous due to their diverse properties and manufactures (proprietary standards), which leads to issues related to interoperability. Further, being resource-constrained, they need to be allocated (and consumed) keeping in the mind relevant constraints such as energy cost, computation cost, to avoid failures during the time of their consumption in the processes. Thus, it is essential to explicitly model the IoT resource perspective in the BP models during the process design phase. In the literature, various research works in Business Process Management (BPM) domain are usually focused on the control-flow perspective. While there do exist some approaches that focus on the resource perspective, they are typically dedicated to the human resource perspective. Thus, there is limited work on integrating the IoT resource perspective into BPs, without any focus on solving issues related to heterogeneity in IoT domain. Likewise, in the context of CPMs, there is no configuration support to model IoT resource variability at the CPM level. This variability is a result of specific IoT resource features such as Shareability and Replication that is relevant in the context of BPs. In this thesis, we address the aforementioned limitations by proposing an approach to integrate IoT perspective in the BPM domain and to support the development of IoT-Aware CPMs. This work contributes in the following manner: (1) it provides a formal description of the IoT resource perspective and its relationships with the BPM domain using semantic technology and (2) it provides novel concepts to enable configurable IoT resource allocation in CPMs. To validate our approach and to show its feasibility, we do the following: (1) implement proof of concept tools that assist in the development of IoT-aware BPs and IoT-aware CPMs and (2) perform experiments on the process model datasets. The experimentation results show the effectiveness of our approach and affirm its feasibility
APA, Harvard, Vancouver, ISO, and other styles
30

Kexel, Christoph. "La production et la gestion des connaissances dans le marketing des moteurs de recherche : une approche basée sur l'apprentissage par l'action." Nice, 2012. http://www.theses.fr/2012NICE0034.

Full text
Abstract:
Depuis la fin des années 1980 le développement d’Internet a permis aux consommateurs de choisir parmi un très large éventail de produits et de fournisseurs et d’acheter de manière plus efficiente et flexible (Chaffey et al, 2006). Dans le marketing en ligne le consommateur potentiel ouvre un canal de communication vers le marketeur en cherchant de l’information sur les moteurs de recherche (Chaffey et al, 2006; Bogner, 2006), donc « être trouvé » représente le facteur crucial de succès pour les organisations contemporaines. Aujourd’hui, les entreprises modernes sont étonnamment réticentes à apprécier l’importance critique du marketing en ligne (Schubring, 2008). Cette dissertation a pour intention de créer une méthodologie pour améliorer les connaissances sur et les capacités de marketing en ligne des marketeurs. Tout d’abord, la thèse développe un model basé sur l’apprentissage par l’action pour transmettre les concepts de base nécessaires aux professionnels du marketing. Cette méthodologie est ensuite appliquée et évaluée dans un environnement contrôlé d’enseignement supérieur en transmettant l’expertise à un groupe de contrôle par la méthode traditionnelle. L’analyse de l’efficacité des différentes méthodes de transfert des connaissances est fournie pour identifier l’approche optimale d’apprentissage. Les données ainsi collectées sur l’amélioration possible des connaissances démontrent que le cadre développé dans la thèse produit des résultats optimaux dans toutes les sous-catégories du marketing par Internet. La thèse conclut que la méthodologie est capable de transmettre le savoir faire indispensable pour que les marketeurs puissent maitriser et utiliser le Web malgré ses extravagances. Ces résultats sont une avancée dans la pratique de la gestion en offrant une possibilité de formation efficace sur le lieu de travail pour la fonction organisationnelle du marketing en ligne. Dans un contexte plus général, ceci pourrait faciliter les modèles de formation corporative
Since the late 1980s the development of the Internet has empowered customers to choose from an extensive range of products and suppliers and to make purchases more efficient and flexible (Chaffey et al, 2006). In online marketing the potential customer opens a communication channel to the marketer by seeking information with search engines ((Chaffey et al, 2006), (Bogner, 2006)), so that ‘being found’ represents the crucial success factor for today’s organizations. However, modern firms are surprisingly sluggish in appreciating the critical importance of online marketing (Schubring, 2008). This dissertation aims to design a methodology for improvement of marketers’ knowledge and online marketing skills. The dissertation initially develops an action learning based model for conveying the basic concepts necessary for marketing practitioners. This methodology is then applied and evaluated in a controlled higher education environment by also conveying the expertise to a control group in a traditional form. An analysis of the efficacy of the different knowledge-transfer methods is provided in order to identify the optimal learning approach. The data collected on assumed knowledge improvements illustrate that optimal results have indeed been obtained in all subcategories of Internet marketing by the proposed framework. The dissertation concludes that the methodology is indeed able to instill the compulsory know-how in order that practitioners may cope with and make use of the World Wide Web – despite its vagaries. The findings advance business practice by providing a possibility of effective on-the-job training for the key organizational function of online marketing. This may facilitate corporate learning models in a more general context
APA, Harvard, Vancouver, ISO, and other styles
31

Kekhia, Walid. "Propositions pour un système de gestion d'objets et de ressources pédagogiques." Versailles-St Quentin en Yvelines, 2003. http://www.theses.fr/2003VERS0025.

Full text
Abstract:
Afin de faciliter la recherche, la réutilisation et le partage de ressources pédagogiques, nous présentons une approche pour la gestion des objets pédagogiques en définissant un modèle de structuration desdits objets qui décrit en UML le triplet (types, propriétés et relations) et un ensemble de métadonnées permettant de décrire ces objets selon une sémantique bien définie pour leur recherche. Pour valider des métadonnées, la structure de leur représentation en RDF est définie par un schéma RDF. Les traitements de ce modèle sont illustrés par un algorithme d'ordonnancement qui s'appuie sur la relation de pré-requis en vérifiant qu'un cours présente des concepts conformément aux pré-requis et un élève ne s'inscrit pas à un cours dont il n'a pas de pré-requis. L'intérêt de cette approche est que cette structure permet de gérer les ressources matérielles et humaines nécessaires à un enseignement, et, l'existence d'un schéma RDF pour les métadonnées élimine les ambigui͏̈tés sémantiques
In order to make easier the seeking, the reuse and the sharing of the learning resource, we present an approach of the management of the learning objects by defining a structuring model of the aforesaid objects which describes in UML the triplet (types, properties and relations) and a set of metadata allowing to describe these objects according to a well defined semantics for their research. To validate metadata, the structure of their representation in RDF is defined by a RDF schema. The processes of this model are illustrated by an algorithm of scheduling which is based on the relation of prerequisites by checking that a course presents concepts in accordance with the prerequisites and a student is not registered with a course of which it does not have prerequisites. The interest of this approach is that this structure allows managing the material and human resources necessary to a learning, and, the existence of a RDF schema for the metadata exclude semantic ambiguities
APA, Harvard, Vancouver, ISO, and other styles
32

Ben, Dhia Imen. "Gestion des grandes masses de données dans les graphes réels." Thesis, Paris, ENST, 2013. http://www.theses.fr/2013ENST0087/document.

Full text
Abstract:
De nos jours, un grand nombre d’applications utilisent de grands graphes pour la modélisation de données du monde réel. Nous avons assisté, ces dernières années, à une très rapide croissance de ces graphes dans divers contextes ; à savoir, les réseaux sociaux, la bioinformatique, le web sémantique, les systèmes de gestion des données géographiques, etc. La gestion, l’analyse et l’interrogation de ces données constituent un enjeu très important et ont suscité un vaste intérêt dans la communauté des Bases de Données. L’objectif de cette thèse est de fournir des algorithmes efficaces pour l’indexation et l’interrogation des données dans les grands graphes. Nous avons proposé EUQLID, une technique d’indexation qui permet de répondre efficacement aux requêtes de calcul de distance dans les grands graphes orientés. L’efficacité de cette technique est dûe au fait qu’elle exploite des propriétés intéressantes des graphes du monde réel. En effet, nous proposons un algorithme basé sur une variante efficace du fameux algorithme 2-hop. Les résultats obtenus montrent que notre algorithme surpassent les approches existantes en terme de temps d’indexation, ainsi qu’en temps de réponse. En effet, il permet de calculer la distance entre deux noeuds en quelques centaines de millisecondes sur de très grands graphes. Nous proposons également un modèle de contrôle d’accès pour les réseaux sociaux qui permet aux utlisateurs de spécifier leurs poltiques de contrôle d’accès en se basant sur leurs relations sociales, et qui peut utiliser EUQLID pour passer à l’échelle. Nous décrivons Primates comme étant un prototype appliquant le modèle proposé
In the last few years, we have been witnessing a rapid growth of networks in a wide range of applications such as social networking, bio-informatics, semantic web, road maps, etc. Most of these networks can be naturally modeled as large graphs. Managing, analyzing, and querying such data has become a very important issue, and, has inspired extensive interest within the database community. In this thesis, we address the problem of efficiently answering distance queries in very large graphs. We propose EUQLID, an efficient algorithm to answer distance queries on very large directed graphs. This algorithm exploits some interesting properties that real-world graphs exhibit. It is based on an efficient variant of the seminal 2-hop algorithm. We conducted an extensive set of experiments against state-of-the-art algorithms which show that our approach outperforms existing approaches and that distance queries can be processed within hundreds of milliseconds on very large real-world directed graphs. We also propose an access control model for social networks which can make use of EUQLID to scale on very large graphs. This model allows users to specify fine-grained privacy policies based on their relations with other users in the network. We describe and demonstrate Primates as a prototype which enforces the proposed access control model and allows users to specify their privacy preferences via a graphical user-friendly interface
APA, Harvard, Vancouver, ISO, and other styles
33

Khalil, Ahmad. "Gestion autonome de la qualité de service et de la sécurité dans un environnement Internet des objets." Thesis, Bourgogne Franche-Comté, 2019. http://www.theses.fr/2019UBFCK068.

Full text
Abstract:
De nos jours, les avancées technologiques font que l’Internet des Objets (IoT) est en train de s’imposer dans notre vie quotidienne afin d’en améliorer la qualité grâce à entre autres l’automatisation de certaines tâches. Un défi majeur dans le déploiement massif des applications et services IoT ainsi que leur utilisation dans différents domaines est l’amélioration du niveau de service correspondant. Ce niveau de service peut être caractérisé selon deux axes importants : la Qualité de Service (QoS) et la sécurité. De plus, ce niveau de service doit être géré d’une manière autonome au sein de l’IoT vu l’hétérogénéité et la taille des réseaux qui forment cet environnement rendant difficile, même impossible, leurs gestions d’une façon manuelle par les administrateurs. Dans le cadre de cette thèse, nous proposons un mécanisme de QoS, appelé QBAIoT (QoS Based Access for IoT environments) permettant d’assurer un traitement différencié des trafics existants dans l’environnement IoT afin de respecter les exigences de chacun des trafics selon différents paramètres de QoS (i.e., délai, gigue, taux de livraison de paquets, etc.). QBAIoT est ensuite amélioré afin d’être géré d’une manière autonome à travers deux fonctions importantes : l’auto-configuration et l’auto-optimisation. De plus, afin d’assurer la QoS au sein de l’environnement IoT, il faut optimiser la consommation énergétique des composants contraints en termes de ressources. Ainsi, nous proposons une adaptation de QBAIoT permettant de réduire sa consommation énergétique d’une manière autonome tout en respectant la précision des données remontées par les objets IoT. Notre contribution concernant le deuxième axe du niveau de service dans un environnement IoT, à savoir la sécurité, se traduit par un mécanisme permettant de contrôler l’accès des objets aux passerelles IoT. Nous appelons cette méthode de contrôle d’accès IoT-MAAC (IoT Multiple Attribute Access Control) car elle prend en compte différents paramètres spécifiques à l’environnement IoT (i.e., confiance des objets, identificateur de l’objet, empreinte digitale de l’objet, etc.). La prise de décision concernant le contrôle d’accès des objets IoT est gérée d’une façon autonome par les passerelles IoT et vise à respecter les exigences de cet environnement en termes de confiance
Nowadays, the Internet of Things (IoT) is becoming important in our daily lives thanks to technological advances. This paradigm aims to improve the quality of human life through automating several tasks. In this context, service level guarantee within IoT environments is a major challenge while considering a massive deployment of IoT applications and services as well as extending their usage to different domains. The IoT service level can be characterized in two parts: Quality of Service (QoS) and security. Moreover, this service level must be managed in an autonomic manner within the IoT environment given the heterogeneity and the size of its infrastructure making it difficult, even impossible, their management in a manual manner by the administrators. In this thesis, we propose a QoS based channel access control mechanism, called QBAIoT (QoS Based Access for IoT environments), to ensure a differentiated processing of existing traffics in the IoT environment. The differentiated processing allows satisfying the requirements of each traffic according to different QoS parameters (i.e., delay, jitter, packet delivery ratio, etc.). Then, QBAIoT is improved and upgraded to integrate self-management capabilities thanks to two important functions of the closed control loop: self-configuration and self-optimization. In addition, to offer a better QoS within the IoT environment, it is necessary to optimize the energy consumption of resources’ constrained components. Thus, we propose an adaptation of QBAIoT allowing to reduce its energy consumption in an autonomic manner while respecting the data accuracy. Our contribution concerning the second part of service level guarantee within an IoT environment, which is security, consists is a mechanism enabling IoT objects access control to IoT gateways, called IoT-MAAC (IoT Multiple Attribute Access Control). This mechanism takes into account different parameters that are specific to IoT environments (i.e., IoT object trust, IoT object identifier, IoT object fingerprint, etc.). Finally, the decision making process regarding IoT object access control is autonomously managed by IoT gateways and aims to meet the requirements of IoT environment in terms of trust
APA, Harvard, Vancouver, ISO, and other styles
34

Rodríguez, Herrero Álvaro Antonio. "Análisis de mercado y estrategia de comercialización para una empresa de ventas por internet." Tesis, Universidad de Chile, 2014. http://repositorio.uchile.cl/handle/2250/115501.

Full text
Abstract:
Magíster en Gestión para la Globalización
Los servicios de administración de ciclos de compra que operan actualmente en el sector minero del cobre ofrecen principalmente soluciones que contemplan cotizaciones y licitaciones que tardan más de lo deseado por los compradores, lo que conlleva importantes costos. Adicionalmente, se observan ineficiencias en la participación de las empresas proveedoras debido a los costos asociados con la preparación y envío de la información para cada una de las licitaciones, y a oportunidades de negocio limitadas a una participación esporádica. Estas son las anomalías que se abordan con la propuesta de desarrollo de E-Port. E-Port es una plataforma web de negocios que conecta a empresas con sus proveedores en este sector industrial, de forma directa y eliminando las tradicionales licitaciones. E-Port permite a los compradores buscar un producto en función de su número de catálogo interno y a los vendedores ofrecer sus productos en este canal de ventas. El objetivo de este trabajo es explorar las oportunidades de negocio para E-Port a través de un estudio de mercado, y elaborar la estrategia de comercialización que permita explotar las brechas de mercado detectadas. En la primera parte se investigan las características del mercado realizando para ello entrevistas personales a diversos proveedores, compradores, ejecutivos, y expertos de la industria, así como también recopilando información disponible en línea en distintos sitios web de interés. En la segunda parte, se desarrolla la propuesta de valor utilizando la herramienta de modelación de negocios Canvas. La tercera parte consiste en la elaboración de la estrategia de comercialización, modelo de ingresos y proyecciones de ventas. Tanto para el estudio de mercado como para el plan estratégico se utilizan los modelos de las 5 fuerzas de Porter y un análisis FODA. Al finalizar la investigación referente al mercado e industria en el que participará E-Port, se concluye que es factible la posibilidad de aplicar el modelo de negocios y crear la empresa para explotarlo. La oportunidad detectada que se busca abordar, la existencia de un importante mercado potencial en cuanto a transacciones y volúmenes transados, además del alto atractivo de la industria en la que participará, asoman como los principales factores que indican que el negocio cuenta con posibilidades reales de éxito. Mayor rapidez y reducción de costos en los procesos de compra de los clientes compradores, así como acceso a nuevos canales de venta para los clientes vendedores son las principales ventajas que cada uno de estos dos segmentos de clientes deberían obtener de la propuesta de valor ofrecida. La estrategia de comercialización, por su parte, se enfoca en llegar a Minera Escondida como primer cliente comprador, con quien se planea desarrollar un plan piloto con una gama acotada de productos y proveedores nacionales e internacionales. La eficiencia operativa, confiabilidad, posicionamiento en niveles superiores de la estructura organizacional de los clientes, gestión de la información, y definición de las fronteras de responsabilidad asoman como los factores críticos de éxito del negocio. La implementación del Plan de Negocios recomendado permitirá generar un VAN esperado de $320 millones de pesos, considerando que este proyecto se evaluó con una tasa de descuento de 30%, esto resulta muy atractivo y por tanto se recomienda su ejecución.
APA, Harvard, Vancouver, ISO, and other styles
35

Wazan, Ahmad Samer. "Gestion de la confiance dans les infrastructures à clés publiques." Toulouse 3, 2011. http://thesesups.ups-tlse.fr/1450/.

Full text
Abstract:
Aujourd'hui, l'Internet est le plus large réseau dans le monde. Support dès l'origine des échanges entre chercheurs et académiciens, les facultés qu'il offre ont séduit dans nombre de secteurs et aujourd'hui il demeure le support privilégié des usages nouveaux. Il permet d'établir des collaborations, il est le support de nombre d'interactions que ce soit dans un domaine cognitif social ou de business au sens large et au services d'usagers équipés de terminaux variés, en s'affranchissant des contraintes spatiales et temporelles. L'Internet est devenu une communauté universelle, où la volonté d'ouverture à des domaines d'applications variés, s'accompagne d'un changement naturel du profil des utilisateurs. Dans cet environnement, la maturité des services et des applications déployées sur l'Internet pose de plus en plus le problème de la confiance. L'établissement de la confiance dans l'Internet nécessite l'intervention de plusieurs éléments. Nous appelons l'ensemble de ces éléments par : chaîne de confiance. Dans toutes les chaînes de confiance, l'infrastructure à clés publiques (ICP) est un élément central. En effet, elle sert à établir le lien entre une clé publique et une entité physique grâce aux certificats signés par une entité centrale appelée autorité de certification (AC), et à fournir des moyens pour la gestion et la distribution des clés et des certificats. Tous les éléments de la chaîne de confiance créent des problèmes de gestion de la confiance. Toutefois, nous avons consacré notre travail à la gestion de la confiance dans les ICPs et plus particulièrement dans les ACs. Nous avons réalisé les étapes suivantes : * Nous avons proposé une définition de la confiance dans les ACs. * Nous avons défini une architecture d'exploitation du service de validation déployé par une entité indépendante des ACs, et reconnue par une communauté d'intérêt. * Nous avons défini un modèle de calcul qui nous permet d'obtenir un score entre 0 et 1 représentant le niveau de qualité d'un certificat (QoCER) autorisant les utilisateurs finaux à prendre des décisions de confiance sur les ACs. Enfin, nous avons implémenté un prototype qui montre un aperçu applicatif de notre travail. En particulier, nous présentons comment les utilisateurs finaux réagissent au service de validation
Today, the Internet has become a universal community, where the openness to diverse application areas, has been accompanied by a natural change in the profile of users. However, in this environment, the maturity of the services and applications is suffering from a problem of trust. The establishment of trust in the Internet requires the intervention of several elements. We refer to these elements by the term: trust chain. In all chains of trust, public key infrastructure (PKI) is a central element. It serves to establish a link between a public key and a physical entity whose certificate signed by a central entity called a certification authority (CA). Thus, PKIs provide means for the management and the distribution of keys and certificates. All elements of the trust chain create a trust management problem. We have dedicated our work, however, to PKIs, and more precisely in trust management of CAs. We have performed the following steps: • We have proposed a formal definition of trust in CAs. • We have defined an architecture that operates a validation service deployed by an entity independent of CAs, and recognized by a community of interest. • We have defined a calculation model that enables us to obtain a score between 0 and 1 representing the quality of a certificate (QoCER). Finally, we have implemented a prototype that demonstrates our ideas. In particular, we have presented how end users can interact with the validation service to make informed decisions about certificates
APA, Harvard, Vancouver, ISO, and other styles
36

Nazlioglu, Özge. "Décision de sélection des systèmes d'information : le cas des outils d'e-achats." Grenoble, 2010. http://www.theses.fr/2010CHAML016.

Full text
Abstract:
L'objectif de cette thèse est d'expliquer la décision de sélection d'un outil informatique et d'interroger l'influence de cette décision sur la satisfaction des entreprises clientes. La décision de sélection résulte d'une évaluation formelle, qui comporte des critères de sélection. Aussi, certains facteurs internes et externes à l'entreprise influencent cette décision. Pour étudier ces éléments, le cas des outils d'e-achats est retenu. Ce choix se justifie par la richesse et le dynamisme de ce marché, la présence du départ de nouveaux projets, et l'hétérogénéité des résultats obtenus. La qualité de l'éditeur, de l'outil, des services et le coût représentent les principaux critères de sélection pour les clients d'e-achats. Par ailleurs, les avantages escomptés de ces outils et les tactiques d'influence des éditeurs sont d'autres facteurs agissant sur la décision. Une analyse de contenu des sites web des éditeurs d'e-achats est réalisée, afin d'identifier les différents arguments mis en avant par ceux-ci, dans la commercialisation de leur offre. Ensuite, un questionnaire basé sur la revue de littérature et les résultats de l'analyse de contenu exploratoire est élaboré. Celui-ci est affiné par un test de tri de cartes, et un questionnaire pilote, destiné aux éditeurs d'e-achats. Le questionnaire final est administré aux clients d'e-achats. Selon les résultats du questionnaire, il existe une différence d'opinion entre les éditeurs et les clients, concernant l'intérêt de l'e-achats et les caractéristiques importantes d'un outil et d'un éditeur. Les éditeurs emploient trois principales tactiques pour influencer la décision de leurs clients : l'argumentation, la démonstration et les témoignages. L'efficacité de chacune d'entre elles dépend du type de critère de sélection priviligié par les clients dans la sélection. Globalement, le coût se montre comme la principale considération des clients d'e-achats, suivi par la qualité de l'éditeur, des services et de l'outil. Cependant, les résultats démontrent que les avantages obtenus dépendent principalement de la qualité de l'outil et des services ; surtout la mise en avant des besoins des utilisateurs (l'ergonomie et les services utilisateurs) et des caractéristiques techniques de l'outil dans la sélection. Les critères ayant le plus de poids dans la sélection sont différents de ceux qui génèrent des avantages. La réalisation des avantages s'avère être un indicateur plus pertinent que la satisfaction, pour expliquer la réussite de la sélection dans un contexte organisationnel
The objective of this thesis is to explain the decision of the selection of an IT tool, and to examine the influence of this decision on the satisfaction of the client companies. The selection decision results from a formal evaluation based on some criteria. Also, other internal and external forces influence this decision. To study these factors, the case of e­purchasing tools is chosen. This choice is justified by the richness and dynamism of this market, the presence of starting new projects, and the heterogeneity of the results obtained. The qualities of the software editor, the tool and the services, as well as the total cost represent the main criteria of selection for the clients of e-purchasing. Besides, the expected advantages and the editor's tactics of influence are the other factors that have an impact on the decision. A content analysis of the web sites of editors is realized, to identify the arguments advanced in the marketing of their offer. Then, a questionnaire is developed, based on the literature review and the results of the exploratory content analysis. It is refined by a card sorting exercise and a pilot questionnaire for the e-purchasing editors. The final questionnaire is administered to the clients of e-purchasing. According to the results of this questionnaire, there is a difference between the opinions of editors and clients on the value of e-purchasing and the important features of tools and editors. Editors use three main tactics to influence the decision of their clients: arguments, demonstration and references. The effectiveness of each depends on the selection criteria favored by customers. Overall, the cost appears to be the main consideration of the e-purchasing clients, followed by the quality of the editor, services and tool. However, the results show that benefits obtained depend primarily on the quality of the tool and services; in particular on the emphasis of the user needs (usability and the user services) and the technical characteristics during the selection. There is a difference between the criteria which is given the most weight in the selection and the criteria that lead to the "realization of advantages", which proves to be a more relevant indicator than the satisfaction, for evaluating a selection decision in an organizational context
APA, Harvard, Vancouver, ISO, and other styles
37

Lhajji, Dhiba. "L'évaluation des pratiques du yield management à l'ère d'Internet : cas de l'industrie de l'hôtellerie de chaîne en France." Grenoble 2, 2006. http://www.theses.fr/2006GRE21024.

Full text
Abstract:
Ce travail aborde la problématique de l'utilisation des applications et de leur relation à la performance. Plus précisément, l'objectif de cette recherche est d'explorer les effets de l'usage d'Internet en tant que canal de distribution sur les pratiques du Yield Management (YM), et d'évaluer l'impact de cet usage sur la performance perçue. Un modèle a été construit à cet effet, reposant sur trois propositions concernant l'influence du processus du YM, de l'usage d'Internet et des facteurs organisationnels sur la performance perçue d'un établissement hôtelier. Un certain nombre de variables de contingence liées au type d’hôtel et à certaines caractéristiques de l'environnement ont été également intégrées dans ce modèle. La démarche méthodologique retenue est de nature quantitative, ainsi, la collecte des données est effectuée par l'intermédiaire d'un questionnaire administré via Internet, auprès des hôtels de chaîne à 3 et 4 étoiles opérant en France. Pour obtenir une bonne image sur la situation des hôtels pratiquant le YM d'une manière plus ou moins formalisée, une analyse descriptive de données à travers notamment l'analyse typologique, a permis de distinguer trois groupes d'établissements (hôtels ayant une pratique majeure du YM, hôtels ayant une pratique intermédiaire du YM et hôtels ayant une pratique mineure du YM). En outre, les résultats obtenus démontrent l'importance de deux facteurs organisationnels pour réussir la politique du YM : l'engagement de la direction générale et l’implication des utilisateurs. Cette réussite est conditionnée également par le degré d'utilisation de certaines fonctionnalités transactionnelles (réservation en ligne, paiement en ligne…) et de certaines fonctionnalités informationnelles (information sur les promotions, information sur les prix et les disponibilités…). Au plan théorique, l'originalité de cette recherche est de traiter le YM sous un nouvel angle, qui est celui des systèmes d’information. Au plan managérial, cette recherche permet de mettre à la disposition des hôteliers français une première grille d'analyse sur les pratiques du YM à l'ère d'Internet
This work considers the problems of using applications and its relation to performance. More specifically, the objective of this study is to explore the effects Internet use as a distribution channel on Yield Management (YM) practices, and to evaluate its impact on the perceived performance. A research model was constructed based on three proposals—the YM process influence, Internet use, and organizational factors—and the on the perceptions of hotel performance. A certain number of contingency-dependent variables (type of hotel, environmental features) were also integrated into this model. Our methodology for was highly quantitative, and thus data was collected from a survey which was administered via the Internet. 3- and 4-star chain hotels operating in France were selected. In order to obtain a clearer picture on hotels practicing YM in a more formal manner, a descriptive data analysis using namely typological analysis was carried out. This analysis distinguished between three groups of establishments : hotels using a high level of YM practices, those only moderately using YM practices, and hotels using YM practices on a minor basis. Moreover, the results obtained show the importance of two organizational factors to ensure YM policy success : CEO commitment and user involvement. This success is also conditioned by the use of certain transactional functions (on-line reservations and payments, etc. ) and certain informational functions (information on promotions, information on rates and availability, etc. ). On a theoretical level, this study's contribution is to consider YM under the angle of Information Systems. On a managerial level, this research will make it possible to put at French hoteliers’ disposal a grid of analysis on YM practices in the Internet era
APA, Harvard, Vancouver, ISO, and other styles
38

Mombrun, Yann. "Évaluation de l’information disponible sur Internet : Application au renseignement d’origine sources ouvertes." Thesis, Rouen, INSA, 2012. http://www.theses.fr/2012ISAM0011.

Full text
Abstract:
Les services de renseignement analysent et évaluent les informations issues de sources ouvertes manuellement. Il n'est pourtant plus possible de toutes les traiter ainsi. Ces travaux visent à assister les opérationnels dans leur utilisation d'Internet pour produire des renseignements, notamment pour décider s'ils peuvent exploiter une information collectée.Nous étudions les méthodes proposées pour évaluer des informations, qu'elles soient manuelles ou automatiques, dans un contexte civil ou militaire. Nous proposons un système dédié à l'exploitation des sources ouvertes. Il cible les phases de collecte et d'analyse du cycle de renseignement. Son architecture est ouverte, pour faciliter son adaptabilité aux procédures de chaque service de renseignement. Nous décrivons un prototype mettant en œuvre un ensemble de critères sélectionnés. Nous validons l'approche par une expérimentation démontrant que l'aide apportée aux utilisateurs facilite l'évaluation des pages obtenues sur internet
Intelligence agencies analyse and assess information open sources manually. Yet it is impossible to process every piece as well. This works aims at assisting operationals to use the Internet to produce intelligence, including deciding whether they can exploit gathered information.We study methods proposed to assessing information, manual or automatic, in a civil or military context. We propose a system dedicated to the exploitation of open sources. It targets collection and analysis phases of the intelligence cycle. Its architecture is open, to ease its adaptability to the procedures of each intelligence service. We describe a prototype implementing a selected set of criteria. We validate the approach by an experiment showing that assisting users eases the assesment of pages avilable on the Internet
APA, Harvard, Vancouver, ISO, and other styles
39

Song, Meng. "Vers une gestion et un contrôle de services dynamiques, adaptatifs et avec qualité de services dans les réseaux ambiants." Paris, ENST, 2008. http://www.theses.fr/2008ENST0057.

Full text
Abstract:
Aujourd’hui, l’apparition du concept de réseaux ambiants (ANs) présente une nouvelle vision de l’environnement distribué, dans laquelle la communication est supportée de façon « anyone » « anytime » « anywhere ». Les ANs présentent un environnement de communication à l’échelle mondiale, dans lequel, les ressources coopérent afin de répondre au besoin particulier de l’utilisateur. Les applications ne sont plus fournies de façon monolithique mais reposent sur la composition des éléments de service. Ils constituent un réseau overlay supportant la mobilité et la continuité de service. Dans cette thèse nous nous intéressons à la couche de service dans ce contexte ANs en tenant compte des critères de qualité de service. Nous commençons par analyser le cycle de vie d’un service afin de proposer une nouvelle architecture des ANs en couche. Dans notre proposition, nous introduisons trois couches au lieu de la couche application du modèle de l’OSI, dénommées « couche application/SON (service overlay network) », « couche middleware service » et «couche de routage d’applicatif ». Dasns le « middleware de service », notre solution s’appuie sur le réseau pair à pair (P2P), pour avoir les caractéristiques telles que la scalabilité et l’autogestion auxquelles nous avons rajouté les aspects de QoS. Le réseau P2P basé surDHT a été choisi pour la prise en compte de la scalabilité. En fait, dans ce travail de thèse, deux types de protocoles P2P ont étéconsidérés tels que le CAN et le Chord. Ils ont été modifiés et implémentés afin d’évaluer notre proposition. Selon les résultats de simulation, ils montrent les avantages de notre proposition
Recently, much research has focused on the evolution of the future Internet and the evolution of future services. Toward the target of communication by anyone, anywhere and anytime, the emerging Ambient networks encompass several domains of research, including the mobile computing, distributed systems, ubiquitous computing, pervasive computing and Grid computing. However, the lack of support for mobility and continuity of service results in current monolithic applications no longer being adapted to system of Ambient networks. In this dissertation, we propose a new design composition of service which better matches the needs of Ambient networks, and helps us to provide the application service to adapt to Ambient networks in their heterogeneity and dynamic variability of environment. We analyze the lifecycle management for the service composition process, and give a new design for the layered architecture of Ambient networks, each layer is represented by an overlay network. For the service middleware, we propose our special method to manger distributed services, and divided them into different service groups according to their providing functionalities and their QoS feature. So, services in the same group are found to provide the same function and present the same characteristic of QoS. To support the qualified service groups’ management in the service middleware, our solution relies on the P2P network. In fact, two kinds of P2P protocols, including the modified CAN and Chord, are taken into the implementation phase. Our concept is evaluated by the simulation, and the results demonstrate the advantage and the performance presented in our proposition
APA, Harvard, Vancouver, ISO, and other styles
40

Phung, Chi Dung. "Enriching the internet control-plane for improved traffic engineering." Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUS017/document.

Full text
Abstract:
L'un des défis majeurs de l'évolution de l'architecture Internet est la définition d'une architecture protocolaire permettant d'améliorer le routage, et en particulier (i) conserver un système de routage gérable avec les technologies actuelles et futures c'est-à-dire, avec quelques millions d'états, (ii) offrir une architecture apte à faciliter la programmabilité du plan de transfert, (iii) proposer un système de routage évolutif pouvant être régulièrement optimisé avec uniquement les informations sur les flux actifs, (iv) fournir une séparation entre localisateurs et identificateurs pour la mobilité IP avancée, (v) faciliter un déploiement incrémental, (vi) mieux servir les services applicatifs "over-the-top". Le protocole LISP (\textit{Locator/Identifier Separation Protocol}) a été identifié comme l'un des protocoles émergents à cet égard. Dans son état actuel, il répond très bien aux besoins susmentionnés. Cependant, il subit des limitations lorsqu'il s'agit de prendre en compte la résilience et la capacité à réagir rapidement aux mises à jour de l'état du réseau. Ces inconvénients peuvent être compensés en améliorant l'architecture du plan de contrôle et ses algorithmes de routage. Dans cette thèse, nous proposons une nouvelle architecture réseau-système et expérimentons de nouvelles primitives de plan de contrôle, ainsi que d'algorithmes de diffusion des états, en testant son passage à l'échelle avec différentes conditions de réseau. Nous concevons et construisons d'abord un nœud de plan de données et de plan de contrôle LISP open source. Nous le comparons avec d'autres implémentations en montrant que notre implémentation atteint des performances adaptées aux vrais déploiements. Nous montrons comment notre implémentation a permis la mise en oeuvre d'une plateforme d'expérimentation à grande échelle, la plate-forme LISP-Lab, en opération aussi bien les fonctions de plan de transfert que les fonctions de plan de contrôle. En suite, nous proposons une nouvelle solution pour les migrations à chaud de machines virtuelles à travers des centres de données géographiquement répartis sur des réseaux IP étendus. Des tests dans un testbed réel connecté nativement à Internet montrent qu'avec notre approche, nous pouvons facilement atteindre des temps d'arrêt inférieurs à la seconde lors de la migration sur une grande échelle, même pour des clients très distants. En outre, nous avons étudié des protocoles d'optimisation de réseau multicouche, en particulier en relation avec le protocole MPTCP (Multipath Transport Control Protocol), auquel LISP peut offrir une diversité de chemins pour l’agrégation de bande passante, ainsi qu’une plus grande confidentialité et fiabilité des connexions. Bien que nous ne puissions bénéficier que de quelques nœuds de réseau superposés, nous avons pu évaluer expérimentalement nos propositions en montrant l'impact positif de notre solution, l'impact négatif des longs temps d'aller-rétour sur certains sous-flux MPTCP, et la forte corrélation entre le temps d'aller-retour différentiel et le débit. Enfin, nous avons travaillé sur une refonte du plan de contrôle de LISP afin d’améliorer son fonctionnement du à l'échelle d’Internet, en facilitant la coopération entre les systèmes de mapping LISP et en introduisant plus d'automatisation dans la procédure de fourniture de services de connectivité LISP. Nous croyons qu'une telle optimisation pourrait sensibiliser la communauté des fournisseurs de services, générant de nouvelles opportunités commerciales liées aux services de cartographie LISP et l'application de politiques d'ingénierie de trafic interdomaines avancées dans le but d'obtenir de meilleures garanties de qualité de service
One of the major challenges in the evolution of the Internet architecture is the definition of a protocol architecture that allows to solve the following major issues in Internet routing and traffic forwarding capabilities, (i) keeping a routing state that is manageable with current and forthcoming computing infrastructure – i.e., with few millions of states, (ii) offering a scalable pull architecture in support of data-plane programmability, (iii) offering a scalable forwarding plane able to be regularly optimized with only active flows information, (iv) offering locator/identifier separation for advanced IP mobility, (v) is incrementally deployable, (vi) can enhance the support of over-the-top services. The Locator/Identifier Separation Protocol (LISP) has been identified as one of the rising protocols in this respect. In its current status, it supports the above mentioned requirements at a level that is acceptable for basic networking environments. However, it shows too limited capacities when it comes to take into consideration fault resiliency and capability to react fast to network state updates. These shortcomings can be compensated by enhancing the control-plane architecture, and the routing algorithms therein. In this dissertation, we propose new protocol features and experiment novel control-plane primitives, as well as hybrid distributed-centralized routing state dissemination algorithms, to scale with different network conditions. We first design and build own open source LISP data-plane and control plane node, comparing it with other implementations, showing how our implementation can scale for large networks and reach performances suitable for real deployments. We present how our implementation served to operate all network nodes (data-plane and control-plane nodes) of a large scale experimentation testbed, the LISP-Lab testbed. Then we propose a novel LISP-based solution for VM live migrations across geographically separated datacenters over wide area IP networks. Experimenting it at large scale, we show that with our approach we can easily reach sub-second downtimes upon Internet-wide migration, even for very distant clients. Moreover, we investigate cross-layer network optimization protocols, in particular in relation with the Multipath Transport Control Protocol (MPTCP) to which LISP can deliver path diversity in support of bandwidth increase, confidentiality support and connection reliability, also using LISP traffic engineering network overlays. Despite we could benefit from only few overlay network nodes, we could experimentally evaluate our proposals showing the positive impact by using our solution, the negative impact of long round-trip times on some MPTCP subflows, and the strong correlation between the differential round-trip time among subflows and the throughput performance. Finally, we worked on a framework to improve LISP operation at the Internet scale, by facilitating cooperation between LISP Mapping Systems and introducing more automation in the LISP connectivity service delivery procedure. We believe such optimization could raise awareness among the service providers’ community, yielding new business opportunities related to LISP mapping services and the enforcement of advanced inter-domain traffic engineering policies for the sake of better quality of service guarantees
APA, Harvard, Vancouver, ISO, and other styles
41

Delizy, Tristan. "Gestion de la mémoire dynamique pour les systèmes embarqués avec mémoire hétérogène." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSEI134.

Full text
Abstract:
La réduction de la consommation énergétique des systèmes embarqué est un enjeu majeur de la réalisation de l'Internet des Objets. Les mémoires émergentes NVRAMs présentent notamment le potentiel de consommer peu et d'être denses, mais les différentes technologies souffrent encore de désavantages spécifiques comme une latence d'écriture élevée ou une faible endurance. Pour contrebalancer ces désavantages, les concepteurs de systèmes embarqués tendent à juxtaposer différentes technologies sur une même puce. Cette thèse s'intéresse aux interactions entre l'allocation mémoire dynamique et l'hétérogénéité mémoire. Notre objectif est de fournir au programmeur d'applications embarquées un mécanisme logiciel transparent pour exploiter cette hétérogénéité mémoire. Nous proposons un simulateur au cycle près de plateformes embarquées intégrant des technologies mémoire variées qui montre que les stratégies de placement des objets alloués dynamiquement ont un impact important. Nous montrons également que des gains intéressants peuvent être dégagés même avec une faible proportion de la mémoire utilisant une technologie à faible latence mais uniquement en utilisant une stratégie intelligente pour le placement entre les différentes banques mémoires. Nous fournissons une stratégie efficace basée sur le profilage de l'application dans notre simulateur
Reducing energy consumption is a key challenge to the realisation of the Internet of Things. While emerging memory technologies may offer power reduction and high integration density, they come with major drawbacks such as high latency or limited endurance. As a result, system designers tend to juxtapose several memory technologies on the same chip. We aim to provide the embedded application programmer with a transparent software mechanism to leverage this memory heterogeneity. This work studies the interaction between dynamic memory allocation and memory heterogeneity. We provide cycle accurate simulation of embedded platforms with various memory technologies and we show that different dynamic allocation strategies have a major impact on performance. We demonstrates that interesting performance gains can be achieved even for a low fraction of memory using low latency technology, but only with a clever placement strategy between memory banks. We propose an efficient strategy based on application profiling in our simulator
APA, Harvard, Vancouver, ISO, and other styles
42

Derriere, Sébastien. "Gestion de grands catalogues et application de relevés infrarouges à l'étude de la structure galactique." Université Louis Pasteur (Strasbourg) (1971-2008), 2001. http://www.theses.fr/2001STR13112.

Full text
APA, Harvard, Vancouver, ISO, and other styles
43

Garzone, Guillaume. "Approche de gestion orientée service pour l'Internet des objets (IoT) considérant la Qualité de Service (QoS)." Thesis, Toulouse, INSA, 2018. http://www.theses.fr/2018ISAT0027/document.

Full text
Abstract:
L’Internet des Objets (IoT) est déjà omniprésent aujourd’hui : domotique, bâtiments connectés ou ville intelligente, beaucoup d’initiatives et d’innovations sont en cours et à venir. Le nombre d’objets connectés ne cesse de croître à tel point que des milliards d’objets sont attendus dans un futur proche.L’approche de cette thèse met en place un système de gestion autonomique pour des systèmes à base d’objets connectés, en les combinant avec d’autres services comme par exemple des services météo accessibles sur internet. Les modèles proposés permettent une prise de décision autonome basée sur l’analyse d’évènements et la planification d’actions exécutées automatiquement. Des paramètres comme le temps d’exécution ou l’énergie consommée sont aussi considérés afin d’optimiser les choix d’actions à effectuer et de services utilisés. Un prototype concret a été réalisé dans un scénario de ville intelligente et de bus connectés dans le projet investissement d'avenir S2C2
The Internet of Things (IoT) is already everywhere today: home automation, connected buildings or smart city, many initiatives and innovations are ongoing and yet to come. The number of connected objects continues to grow to the point that billions of objects are expected in the near future.The approach of this thesis sets up an autonomic management architecture for systems based on connected objects, combining them with other services such as weather services accessible on the Internet. The proposed models enable an autonomous decision making based on the analysis of events and the planning of actions executed automatically. Parameters such as execution time or consumed energy are also considered in order to optimize the choices of actions to be performed and of services used. A concrete prototype was realized in a smart city scenario with connected buses in the investment for future project: S2C2
APA, Harvard, Vancouver, ISO, and other styles
44

Montavont, Nicolas. "Gestion optimisée d'interfaces multiples et prise en compte des déplacements rapides sur un terminal IPv6 mobile." Université Louis Pasteur (Strasbourg) (1971-2008), 2004. https://publication-theses.unistra.fr/public/theses_doctorat/2004/MONTAVONT_Nicolas_2004.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
45

Pérez, Gómez Ana Maria. "L'analyse économique du droit d'auteur face au défi d'une gestion collective mondiale des droits en ligne." Nantes, 2012. http://www.theses.fr/2012NANT4017.

Full text
Abstract:
La révolution technologique a emporté la mondialisation de la culture. L’absence de frontières physiques sur Internet, l’accès des internautes à un grand catalogue d’œuvres sur des sites de téléchargement en ligne à un coût proche de zéro entraînant une baisse du chiffre d’affaires de l’industrie culturelle et le besoin de l’octroi de licences multi-territoriales constituent des défis pour le législateur. La première partie de la thèse se focalise sur l’analyse économique du droit d’auteur et amène à affirmer que le droit d’auteur se développe sur un marché de concurrence monopolistique, que les œuvres de l’esprit sont des biens publics et que l’action du pirate est une externalité négative. La deuxième partie se concentre sur l’analyse économique de la gestion du droit d’auteur dans le but de proposer une solution au problème de l’octroi de licences. La gestion collective permet de diminuer les coûts transactionnels, produire des économies d’échelle, un meilleur contrôle de l’utilisation de l’œuvre et une perception plus aisée des royalties. Elle est au cœur de notre proposition consistant en la création d’un guichet unique international géré par un organisme international. Ce guichet comporte un répertoire mondial d’œuvres doté de mesures techniques permettant leur surveillance. Les membres du guichet unique international seraient les États ayant adhéré au traité international fondateur de ce guichet et dont les bénéficiaires seraient les sociétés de gestion collective, les auteurs issus de pays n’ayant pas de système de gestion et les utilisateurs d’œuvres de l’esprit numériques. Le guichet octroierait des licences multi-territoriales et multi-répertoire
Society is facing the globalization of the culture thanks to the digital revolution. Internet as a no border environment allows its users to access and download a large repertory of protected works through websites at a marginal cost close to zero. As a consequence, cultural industry is suffering great loses and a solution to the problem of multi-territorial licenses granting is a challenge to lawmakers. The first part of the PhD focuses on the law and economic analysis of copyright. We assert that the market for copyright is a monopolistic competition one due to the fact that protected works are public goods and that free riders constitute a negative externality to the market. The second part of the PhD will concentrate in the law and economic analysis of copyright collectives. The PhD aims to propose the basis of a possible solution to the granting of licenses based on the collective administration of rights. This administration leads to a decrease in the administration transaction costs and risks, the production of economies of scale and facilitates enforcement and recovery of royalties. Our proposal is to create an international one stop shop administered by an international organization. Its repertory will be characterized by the implementation of digital measures permitting follow-up and enforcement. Its members will be the states adhering to the international legislative mechanism leading to its implementation. The society will benefit of this one stop shop and particularly collecting societies, authors from countries without collective administration and users of digital copyrighted works worldwide. It will grant multi-territorial and multi-repertory licenses
APA, Harvard, Vancouver, ISO, and other styles
46

Benkirane, Nada. "La gestion du trafic dans les réseaux orientés contenus." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2014. http://tel.archives-ouvertes.fr/tel-00987630.

Full text
Abstract:
Les réseaux orientés contenus (CCN) ont été créés afin d'optimiser les ressources réseau et assurer une plus grande sécurité. Le design et l'implémentation de cette architecture est encore à ces débuts. Ce travail de thèse présente des propositions pour la gestion de trafic dans les réseaux du future.Il est nécessaire d'ajouter des mécanismes de contrôle concernant le partage de la bande passante entre flots. Le contrôle de trafic est nécessaire pour assurer un temps de latence faible pour les flux de streaming vidéo ou audio, et pour partager équitablement la bande passante entre flux élastiques. Nous proposons un mécanisme d'Interest Discard pour les réseaux CCN afin d?optimiser l'utilisation de la bande passante. Les CCN favorisant l'utilisation de plusieurs sources pour télécharger un contenu, nous étudions les performances des Multipaths/ Multisources; on remarque alors que leurs performances dépendent des performances de caches.Dans la deuxième partie de cette thèse, nous évaluons les performances de caches en utilisant une approximation simple et précise pour les caches LRU. Les performances des caches dépendent fortement de la popularité des objets et de la taille des catalogues. Ainsi, Nous avons évalué les performances des caches en utilisant des popularités et des catalogues représentant les données réelles échangées sur Internet. Aussi, nous avons observé que les tailles de caches doivent être très grandes pour assurer une réduction significative de la bande passante; ce qui pourrait être contraignant pour l'implémentation des caches dans les routeurs.Nous pensons que la distribution des caches devrait répondre à un compromis bande passante/mémoire; la distribution adoptée devrait réaliser un coût minimum. Pour ce faire, nous évaluons les différences de coût entre architectures.
APA, Harvard, Vancouver, ISO, and other styles
47

Sohrabi, Helia. "Physical internet-enabled hyperconnected distribution assessment." Doctoral thesis, Université Laval, 2016. http://hdl.handle.net/20.500.11794/26986.

Full text
Abstract:
L'Internet Physique (IP) est une initiative qui identifie plusieurs symptômes d'inefficacité et non-durabilité des systèmes logistiques et les traite en proposant un nouveau paradigme appelé logistique hyperconnectée. Semblable à l'Internet Digital, qui relie des milliers de réseaux d'ordinateurs personnels et locaux, IP permettra de relier les systèmes logistiques fragmentés actuels. Le but principal étant d'améliorer la performance des systèmes logistiques des points de vue économique, environnemental et social. Se concentrant spécifiquement sur les systèmes de distribution, cette thèse remet en question l'ordre de magnitude du gain de performances en exploitant la distribution hyperconnectée habilitée par IP. Elle concerne également la caractérisation de la planification de la distribution hyperconnectée. Pour répondre à la première question, une approche de la recherche exploratoire basée sur la modélisation de l'optimisation est appliquée, où les systèmes de distribution actuels et potentiels sont modélisés. Ensuite, un ensemble d'échantillons d'affaires réalistes sont créé, et leurs performances économique et environnementale sont évaluées en ciblant de multiples performances sociales. Un cadre conceptuel de planification, incluant la modélisation mathématique est proposé pour l’aide à la prise de décision dans des systèmes de distribution hyperconnectée. Partant des résultats obtenus par notre étude, nous avons démontré qu’un gain substantiel peut être obtenu en migrant vers la distribution hyperconnectée. Nous avons également démontré que l'ampleur du gain varie en fonction des caractéristiques des activités et des performances sociales ciblées. Puisque l'Internet physique est un sujet nouveau, le Chapitre 1 présente brièvement l’IP et hyper connectivité. Le Chapitre 2 discute les fondements, l'objectif et la méthodologie de la recherche. Les défis relevés au cours de cette recherche sont décrits et le type de contributions visés est mis en évidence. Le Chapitre 3 présente les modèles d'optimisation. Influencés par les caractéristiques des systèmes de distribution actuels et potentiels, trois modèles fondés sur le système de distribution sont développés. Chapitre 4 traite la caractérisation des échantillons d’affaires ainsi que la modélisation et le calibrage des paramètres employés dans les modèles. Les résultats de la recherche exploratoire sont présentés au Chapitre 5. Le Chapitre 6 décrit le cadre conceptuel de planification de la distribution hyperconnectée. Le chapitre 7 résume le contenu de la thèse et met en évidence les contributions principales. En outre, il identifie les limites de la recherche et les avenues potentielles de recherches futures.
The Physical Internet (PI) is an initiative that identifies several symptoms of logistics systems unsustainability and inefficiency and tackles them by proposing a novel paradigm called Hyperconnected Logistics. Similar to the Digital Internet, which connects thousands of personal and local computer networks, PI will connect the fragmented logistics systems of today. The main purpose is to enhance the performance of logistics systems from economic, environmental and social perspectives. Focusing specifically on the distribution system, this thesis questions the order of magnitude of the performance gain by exploiting the PI-enabled hyperconnected distribution. It is also concerned by the characterization of the hyperconnected distribution planning. To address the first question, an exploratory research approach based on optimization modeling is applied; first, the current and prospective distribution systems are modeled. Then, a set of realistic business samples are created, and their economic and environmental performance by targeting multiple social performances are assessed. A conceptual planning framework is proposed to support the decision making in the hyperconnected distribution system. Based on the results obtained by our investigation, it can be argued that a substantial gain can be achieved by shifting toward Hyperconnected Distribution. It is also revealed that the magnitude of the gain varies by business characteristics and the targeted social performance. Since the Physical Internet is a novel topic, chapter 1 briefly introduces PI and Hyperconnected Logistics. Chapter 2 discusses the research foundations, goal and methodology. It also describes the challenges of conducting this research and highlights the type of contributions aimed for. Chapter 3 presents the optimization models including a core distribution network design modeling approach. Influenced by the characteristics of the current and prospective distribution systems, three distribution system-driven models are developed. Chapter 4 engages with the characterization of the business samples, the modeling and calibration of the parameter that are employed in the models. The exploratory investigation results are presented in Chapter 5. Chapter 6 describes the hyperconnected distribution planning framework. Chapter 7 summarizes the content of the thesis and highlights the main contributions. Moreover, it identifies the research limitations and potential future research avenues.
APA, Harvard, Vancouver, ISO, and other styles
48

Marie, Pierrick. "Gestion de bout en bout de la qualité de contexte pour l'internet des objets : le cadriciel QoCIM." Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30186/document.

Full text
Abstract:
Cette thèse se situe dans le cadre du projet INCOME (INfrastructure de gestion de COntexte Multi-Échelle pour l'Internet des Objets) financé par l'ANR (Appel INFRA 2011). L'objectif de ce projet est de fournir un cadriciel pour le développement et le déploiement d'un gestionnaire de contexte. Les entités logicielles d'acquisition, de traitement, de dissémination et de présentation d'informations de contexte, qui constituent un gestionnaire de contexte, doivent être construites et déployées au-dessus d'infrastructures technologiques hétérogènes et interconnectées. Ainsi, les cibles incluent les réseaux de capteurs, les systèmes ambiants, les dispositifs mobiles ou encore les serveurs du cloud, et de façon plus globale l'Internet des Objets (IoT). Les travaux menés dans cette thèse concernent plus particulièrement la gestion " de bout en bout " de la Qualité de Contexte (QoC) au sein de cette nouvelle génération de gestionnaires de contexte à déployer sur l'IoT à grande et multiples échelles. La qualité de l'information de contexte relevant de critères tels que la précision, la fraîcheur, la complétude, la granularité... Par gestion de la QoC, nous faisons référence à l'ensemble des opérations qui, tout le long du cycle de vie d'une information de contexte, permettent de gérer sa qualification, mais également d'influer, en fonction de cette qualité, sur sa dissémination et sa livraison aux applications sensibles au contexte. Actuellement des solutions de gestion de la QoC existent mais restent ad hoc à des environnements ambiants particuliers ou des applications spécifiques. Elles s'avèrent inadéquates en termes d'ouverture, de généricité et de calculabilité pour des environnements fortement hétérogènes et dynamiques tels que l'IoT où il n'y a plus de couplages forts et figés entre producteurs ou consommateurs d'informations de contexte. QoCIM (QoC Information Model) constitue le cœur de notre contribution. Il s'agit d'un méta-modèle dédié qui permet, de façon unifiée et ouverte, de définir des critères de QoC simples et composites. Basées sur QoCIM, des opérations de gestion de la QoC ont été identifiées et spécifiées. Elles permettent d'associer des critères de QoC, sous forme de métadonnées, à l'information de contexte, de caractériser les métriques et les unités pour leur valuation, d'inférer des critères de QoC de plus haut niveau d'abstraction, ou encore d'exprimer des conditions de filtrage portant sur de tels critères et/ou leurs valeurs. Un outillage logiciel d'édition de modèles QoCIM et une API en Java sont proposés aux développeurs pour facilement intégrer la gestion de tout critère de QoC lors du développement d'entités d'acquisition, de traitement, de livraison et de propagation d'informations de contexte et des applications sensibles au contexte. L'utilisation de ce cadriciel a été expérimentée, à la fois en phases de conception et d'exécution, sur un scénario de pollution urbaine. Des évaluations de performances ont été également menées et ont montré que le surcoût apporté par la prise en considération des niveaux de QoC pour le routage des informations de contexte était acceptable. Enfin, une solution d'auto-(re)configuration des opérations de gestion de la QoC a été également conçue et prototypée
The objective of the ANR INCOME project is to provide a framework for the development and the deployment of a context manager. A context manager is composed of software entities, which acquire, process, disseminate or deliver context data. These software entities have to be built and deployed over interconnected heterogeneous ICT infrastructures, which include sensor networks, ambient systems, mobile devices, cloud servers and, more generally, the Internet of Things (IoT). Related to this project, the research work presented in this thesis concerns more specifically the end-to-end management of Quality of Context (QoC) within the new generation of context managers that have to be deployed at large and multiple scales over the IoT. Quality of context data refers to criteria like accuracy, freshness, completeness or granularity. As for QoC management, it deals with all the operations that allow, throughout the life cycle of context data, to manage their qualification, but also to impact, according to this quality, on its dissemination and delivery to context-aware applications. Current QoC management solutions are dedicated to particular ambient environments or to specific applications. They are limited in terms of openness, genericity and computationability, properties required by greatly heterogeneous and dynamic IoT-based environments, in which producers and consumers of context data are no more static and highly coupled. Our contribution relies on QoCIM (QoC Information Model), a meta-model dedicated to define, in a uniform and open way, any atomic or composite QoC criterion. Based on QoCIM, some QoC management operations have been identified and specified. These operations allow to associate criteria of QoC, in the form of metadata, with the information of context; to characterize the metrics and units for their valuation; to infer QoC criteria of a higher level of abstraction; or even to express filtering conditions for such criteria or their values. A software tool for editing QoCIM models and a Java API are provided to developers to easily implement the management of any QoC criterion for their software entities that acquire, process, deliver or propagate context data, or their context-sensititive application. The use of this framework was experimented, both at design time and at run time, on a scenario related to urban pollution. Benchmarking was also led and showed that the additional cost brought when considering QoC in context information routing was acceptable. Finally, a solution for self-(re)configuring QoC management operations was also designed and prototyped
APA, Harvard, Vancouver, ISO, and other styles
49

Phung, Chi Dung. "Enriching the internet control-plane for improved traffic engineering." Electronic Thesis or Diss., Sorbonne université, 2018. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2018SORUS017.pdf.

Full text
Abstract:
L'un des défis majeurs de l'évolution de l'architecture Internet est la définition d'une architecture protocolaire permettant d'améliorer le routage, et en particulier (i) conserver un système de routage gérable avec les technologies actuelles et futures c'est-à-dire, avec quelques millions d'états, (ii) offrir une architecture apte à faciliter la programmabilité du plan de transfert, (iii) proposer un système de routage évolutif pouvant être régulièrement optimisé avec uniquement les informations sur les flux actifs, (iv) fournir une séparation entre localisateurs et identificateurs pour la mobilité IP avancée, (v) faciliter un déploiement incrémental, (vi) mieux servir les services applicatifs "over-the-top". Le protocole LISP (\textit{Locator/Identifier Separation Protocol}) a été identifié comme l'un des protocoles émergents à cet égard. Dans son état actuel, il répond très bien aux besoins susmentionnés. Cependant, il subit des limitations lorsqu'il s'agit de prendre en compte la résilience et la capacité à réagir rapidement aux mises à jour de l'état du réseau. Ces inconvénients peuvent être compensés en améliorant l'architecture du plan de contrôle et ses algorithmes de routage. Dans cette thèse, nous proposons une nouvelle architecture réseau-système et expérimentons de nouvelles primitives de plan de contrôle, ainsi que d'algorithmes de diffusion des états, en testant son passage à l'échelle avec différentes conditions de réseau. Nous concevons et construisons d'abord un nœud de plan de données et de plan de contrôle LISP open source. Nous le comparons avec d'autres implémentations en montrant que notre implémentation atteint des performances adaptées aux vrais déploiements. Nous montrons comment notre implémentation a permis la mise en oeuvre d'une plateforme d'expérimentation à grande échelle, la plate-forme LISP-Lab, en opération aussi bien les fonctions de plan de transfert que les fonctions de plan de contrôle. En suite, nous proposons une nouvelle solution pour les migrations à chaud de machines virtuelles à travers des centres de données géographiquement répartis sur des réseaux IP étendus. Des tests dans un testbed réel connecté nativement à Internet montrent qu'avec notre approche, nous pouvons facilement atteindre des temps d'arrêt inférieurs à la seconde lors de la migration sur une grande échelle, même pour des clients très distants. En outre, nous avons étudié des protocoles d'optimisation de réseau multicouche, en particulier en relation avec le protocole MPTCP (Multipath Transport Control Protocol), auquel LISP peut offrir une diversité de chemins pour l’agrégation de bande passante, ainsi qu’une plus grande confidentialité et fiabilité des connexions. Bien que nous ne puissions bénéficier que de quelques nœuds de réseau superposés, nous avons pu évaluer expérimentalement nos propositions en montrant l'impact positif de notre solution, l'impact négatif des longs temps d'aller-rétour sur certains sous-flux MPTCP, et la forte corrélation entre le temps d'aller-retour différentiel et le débit. Enfin, nous avons travaillé sur une refonte du plan de contrôle de LISP afin d’améliorer son fonctionnement du à l'échelle d’Internet, en facilitant la coopération entre les systèmes de mapping LISP et en introduisant plus d'automatisation dans la procédure de fourniture de services de connectivité LISP. Nous croyons qu'une telle optimisation pourrait sensibiliser la communauté des fournisseurs de services, générant de nouvelles opportunités commerciales liées aux services de cartographie LISP et l'application de politiques d'ingénierie de trafic interdomaines avancées dans le but d'obtenir de meilleures garanties de qualité de service
One of the major challenges in the evolution of the Internet architecture is the definition of a protocol architecture that allows to solve the following major issues in Internet routing and traffic forwarding capabilities, (i) keeping a routing state that is manageable with current and forthcoming computing infrastructure – i.e., with few millions of states, (ii) offering a scalable pull architecture in support of data-plane programmability, (iii) offering a scalable forwarding plane able to be regularly optimized with only active flows information, (iv) offering locator/identifier separation for advanced IP mobility, (v) is incrementally deployable, (vi) can enhance the support of over-the-top services. The Locator/Identifier Separation Protocol (LISP) has been identified as one of the rising protocols in this respect. In its current status, it supports the above mentioned requirements at a level that is acceptable for basic networking environments. However, it shows too limited capacities when it comes to take into consideration fault resiliency and capability to react fast to network state updates. These shortcomings can be compensated by enhancing the control-plane architecture, and the routing algorithms therein. In this dissertation, we propose new protocol features and experiment novel control-plane primitives, as well as hybrid distributed-centralized routing state dissemination algorithms, to scale with different network conditions. We first design and build own open source LISP data-plane and control plane node, comparing it with other implementations, showing how our implementation can scale for large networks and reach performances suitable for real deployments. We present how our implementation served to operate all network nodes (data-plane and control-plane nodes) of a large scale experimentation testbed, the LISP-Lab testbed. Then we propose a novel LISP-based solution for VM live migrations across geographically separated datacenters over wide area IP networks. Experimenting it at large scale, we show that with our approach we can easily reach sub-second downtimes upon Internet-wide migration, even for very distant clients. Moreover, we investigate cross-layer network optimization protocols, in particular in relation with the Multipath Transport Control Protocol (MPTCP) to which LISP can deliver path diversity in support of bandwidth increase, confidentiality support and connection reliability, also using LISP traffic engineering network overlays. Despite we could benefit from only few overlay network nodes, we could experimentally evaluate our proposals showing the positive impact by using our solution, the negative impact of long round-trip times on some MPTCP subflows, and the strong correlation between the differential round-trip time among subflows and the throughput performance. Finally, we worked on a framework to improve LISP operation at the Internet scale, by facilitating cooperation between LISP Mapping Systems and introducing more automation in the LISP connectivity service delivery procedure. We believe such optimization could raise awareness among the service providers’ community, yielding new business opportunities related to LISP mapping services and the enforcement of advanced inter-domain traffic engineering policies for the sake of better quality of service guarantees
APA, Harvard, Vancouver, ISO, and other styles
50

Benmahamed, Djilali. "Démarche globale de gestion des connaissances en entreprise : de la stratégie au système d'information." Evry, Institut national des télécommunications, 2008. http://www.theses.fr/2008TELE0014.

Full text
Abstract:
Cette thèse présente une recherche sur l’exploitation des techniques de Gestion et d’Ingénierie des connaissances en vue de l’élaboration d’une démarche pour le transfert des savoir-faire métiers, au sein d’une entreprise, en lien avec son Système d’Information. Ce transfert se base sur la conception des dispositifs de partage et d’apprentissage à partir des connaissances bien identifiées, dans le domaine des métiers pétroliers. L’accent est mis sur les aspects stratégie et criticité des domaines de connaissances sur lesquels des efforts doivent être fournis en termes de capitalisation, de partage, d’apprentissage et de transfert. > L’originalité scientifique et le caractère innovant pour l’entreprise de notre approche résident dans quelques concepts, parfois répandus dans d’autres disciplines (stratégie, systèmes d’information, apprentissage …), mais qui sont encore embryonnaires en Gestion des Connaissances. Ces concepts sont mis en œuvre dans la définition d’un processus complet de la stratégie à la mise en place des dispositifs opérationnels. Certaines activités décrites dans le processus sont très récents et peu connus : par exemple la cartographie des connaissances et l’analyse de criticité et l’interconnexion Ingénierie des connaissances / Ingénierie pédagogique. > Chaque activité du processus a fait l’objet d’un choix en fonction de son efficacité, de son adaptabilité au contexte de l’entreprise et de la possibilité de se lier aux autres activités. Ces choix restreignent bien évidemment le champ des possibles, mais ils déterminent un mode d’action fondé et efficient. Le processus a été testé en vraie grandeur sur un cas pilote de l’entreprise Sonatrach : la division PED (Petroleum Engineering & Development) de l’activité amont de cette entreprise. Ceci a permis de mener de bout en bout un projet de Gestion des Connaissances partant de la stratégie de l’entreprise et aboutissant à la conception d’un dispositif d’apprentissage et d’un serveur de connaissances. Le résultat de la recherche trouve ainsi une légitimité opérationnelle, ce qui était un attendu de cette recherche en entreprise.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography