To see the other types of publications on this topic, follow the link: Fournisseur d'accès à internet.

Dissertations / Theses on the topic 'Fournisseur d'accès à internet'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 38 dissertations / theses for your research on the topic 'Fournisseur d'accès à internet.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Duhen, Willy. "La responsabilité extra-contractuelle du fournisseur d'accès à Internet." Thesis, Aix-Marseille, 2012. http://www.theses.fr/2012AIXM1052.

Full text
Abstract:
Principal acteur de la communication au public en ligne, le fournisseur d'accès à Internet offre une connexion, contrôle les points d'accès, identifie les utilisateurs. Ses responsabilités extra-contractuelles résultent de ses multiples fonctions : prestataire technique, responsable de traitement des données, exécutant d'injonctions judiciaires. Ses responsabilités sont abondantes et parfois surabondantes. Toutefois, malgré un régime de responsabilité qui lui est spécifiquement applicable, la notion de "fournisseur d'accès à Internet" n'est toujours pas juridiquement définie. Cette imprécision de la notion entraîne une profusion de régimes juridiques imposant le statut de fournisseur d'accès à des acteurs dont l'activité principale n'est pas la fourniture d'une connexion à Internet : Universités, entreprises, particuliers. Dès lors, les responsabilités extra-contractuelles pénales, civiles et administratives se multiplient et créent un régime obligationnel instable, obscur, voire abscons. Cet éclatement lexical et juridique est encore aggravé par l'application fonctionnelle à l'activité de fourniture d'accès, du droit des communications électroniques et de la société de l'information. Il est alors nécessaire de proposer une définition formelle du fournisseur d'accès à Internet susceptible d'unifier son régime de responsabilité autour de notions juridiques stabilisées. Cette reconstruction affectera inévitablement la réglementation relative à la communication au public en ligne et à ses acteurs, mais proposera une possible fondation au droit des communications électroniques
Internet Service Providers are major actors of the Information Society. They offer connections, controls access points, and can also identify their users. Their many liabilities result from their multiple functions as technical services provider, data controller or performers of judicial orders. These legal obligations are numerous and sometimes overabundant. In spite of an existing and specific liability status, the very notion of "Internet service provider" still remains legally undefined. This lacuna entails a profusion of legal status imposing an ISP status to players for which the main activity is not to provide an Internet connection : Universities, companies, individuals. From then on, criminal, civil and administrative liabilities multiply and create an instable, obscure and even abstruse status. This lexical and legal scattering is even worsened by the functional application of the electronic communications and Information Society legal framework to access providing activities. It is then necessary to unify the legal regimes associated to those activities according to stabilized legal concepts. This reconstruction will inevitably affect the Information Society legal framework as a whole. Eventually, it will open on a possible ground for the electronic communications legal framework
APA, Harvard, Vancouver, ISO, and other styles
2

Fodil, Idir Bahaa. "Architectures de Gestion par Politiques des Services dans les Réseaux d'Accès Internet." Paris 6, 2004. http://www.theses.fr/2004PA066118.

Full text
APA, Harvard, Vancouver, ISO, and other styles
3

Richebourg, Aube. "L'internet associatif en France et en Allemagne : sociologie d'une rémanence utopique." Electronic Thesis or Diss., Paris, EHESS, 2024. http://www.theses.fr/2024EHES0134.

Full text
Abstract:
À la marge de la révolution numérique, inconnu·es du grand public, des bénévoles continuent depuis trente ans, d’administrer et de fournir des services internet non lucratifs. Ces associations, parfois très anciennes, cherchent à faire vivre l’utopie organisationnelle qui remonte aux débuts du réseau et les valeurs qui s’y rattachent. Mais qu’est-ce qui pousse encore des bénévoles à défendre cette cause perdue ? Quelle fonction remplit leur engagement ? Comment le situer dans l’évolution d’internet ces trente dernières années ?Cette thèse propose une analyse sociologique de la « pratique utopique » et des conditions de sa « rémanence » à partir d’une enquête comparée entre la France et l’Allemagne, croisant ethnographie et travail d’archives. Grâce à la perspective de l’analyse configurationnelle empruntée à Norbert Elias, on expliquera comment la capacité conservatrice et adaptative de ce mouvement associatif répond aux frustrations relatives des déçu·es de la révolution numérique, en croisant les niveaux d’analyse structurel, organisationnel et individuel.La thèse commence par retracer la sociogenèse de l’internet associatif dans les années 1990, entre pratiques pionnières, marginalisation économique et insertion discrète dans les politiques publiques locales de la connexion. C’est dans les années 2000 que l’activité associative s’est « utopisée », sous l’action d’« entrepreneurs d’utopie », à la marge de l’espace du militantisme pour la défense des droits et libertés numériques alors émergent. Ensuite, sur le plan organisationnel, la thèse montre comment les associations de l’internet ont été travaillées de l’intérieur par les vagues successives de bénévoles investissant, en fonction de leurs socialisations propres à internet, un sens de la cause et un modèle d’organisation correspondant.Enfin, sur le plan individuel, grâce à une division du travail utopique permettant d’exercer autrement son métier, l’engagement dans ces associations a comporté des rétributions tant pour les pionniers que pour les bénévoles plus tardifs. Trait d’union entre des socialisations alternatives constituantes du rapport à l’apprentissage, désir d’autonomie, de liberté et de sécurité, les associations créent les conditions d’une utopie individuelle pour ceux, et plus rarement celles, qui parviennent à s’y intégrer, compensant les rapports de force dont ils et elles font par ailleurs l’expérience au travail.Ainsi, tout en organisant la conservation de pratiques pré-marchandes de collaborationentre pairs, l’internet associatif offre des voies de transformations à ses adeptes, notamment sur le plan du rapport individuel et collectif à l’activité. La comparaison permet de saisir quant à elle les contours d’une utopie internet européenne et ce que la diversité des pratiques utopiques doit aux structures nationales de pouvoir, notamment en matière de régulation du marché des télécommunications. Au-delà d’une perspective normative voyant dans l’utopie en société un facteur de changement univoque ou un système d’idées opposé aux fictions conservatrices, tourné vers une société meilleure, cette thèse entend contribuer à la compréhension sociologique des phénomènes utopiques à partir des logiques pratiques
On the fringes of the digital revolution, unknown to the general public, volunteers have been administering and providing non-profit Internet services for thirty years. These associations, some of them very old, are trying to keep alive the organisational utopia that dates back to the beginnings of the network and the values associated with it. But what is it that still drives volunteers to defend this lost cause? What function does their commitment fulfil? And how does it fit into the evolution of the internet over the last thirty years?This thesis offers a sociological analysis of the “utopian practice” and the conditions of its persistence, based on a comparative survey between France and Germany combining ethnography and archival work. Using the perspective of configuration analysis borrowed from Norbert Elias, we will explain how the conservative and adaptive capacity of this associative movement responds to the relative frustrations of those disappointed by the digital revolution, by crossing structural, organisational and individual levels of analysis.The thesis begins by tracing the sociogenesis of the associative Internet in the 1990s, between pioneering practices, economic marginalisation and discreet insertion into local public connection policies. It was in the 2000s that associative activity became ‘utopian’, through the actions of ‘utopian entrepreneurs’, on the fringes of the then emerging activism in defence of digital rights and freedoms. Secondly, the thesis shows, from an organisational point of view, how Internet associations were shaped from the inside by successive waves of volunteers who, according to their own socialisation on the Internet, invested in a sense of the cause and a corresponding organisational model. Finally, on an individual level, thanks to a utopian division of labour that enabled people to practise their profession in a different way, we will explain how involvement in these associations was rewarded for pioneers and later volunteers alike. As a link between the alternative socialisations that make up the relationship to learning, the desire for autonomy, freedom and security, the associations create the conditions for an individual utopia for those who manage to join them, compensating for the power relationships they experience at work.So, while organising the preservation of pre-market practices of collaboration between peers, the associative internet offers its followers avenues of transformation, particularly regarding the individual and collective relationship to activity. The comparison enables us to grasp the contours of a European Internet utopia and what the diversity of utopian practices owes to national power structures, particularly regarding regulation of the telecommunications market. Beyond a normative perspective that sees utopia in society as a factor for unambiguous change, or as a system of ideas opposing conservative fictions and geared towards a better society, this thesis aims to contribute to a sociological understanding of utopian phenomena based on an analysis of their logical practices
APA, Harvard, Vancouver, ISO, and other styles
4

Li, Yanhuang. "Interoperability and Negotiation of Security Policies." Thesis, Télécom Bretagne, 2016. http://www.theses.fr/2016TELB0414/document.

Full text
Abstract:
Suite au développement des technologies de l'information, et en particulier au déploiement d'infrastructures telles que le Cloud Computing, de plus en plus d'applications et plateformes coopèrent en échangeant des données et des services. Cette tendance renforce l'importance de la gestion de la sécurité. Afin d'assurer la sécurité des données et de l'interaction de service une politique de sécurité doit être appliquée. Dans cette thèse, nous nous intéressons aux politiques de contrôle d'accès. Ce type de politique spécifie les privilèges de l'utilisation des ressources et est implémentée par différents modèles selon différents scénarios. Notre objectif ici est d'aider le client du service à bien exprimer ses exigences de sécurité et à choisir les fournisseurs de services qui peuvent la déployer. La première partie de cette thèse est dédiée à la sélection des fournisseurs de service. Dans le cas où les politiques de sécurité du fournisseur sont accessibles au client, nous proposons une méthode pour mesurer la similarité entre les politiques de sécurité. Dans le cas où les politiques de sécurité ne sont pas accessibles au client ou ne sont pas explicitement spécifiées, nous proposons un cadre à base de règles permettant la dérivation à partir des exigences de sécurité aux politiques de sécurité concrètes. La seconde partie de la thèse porte sur la négociation de politiques de sécurité. Nous étudions le processus permettant aux parties en négociation de parvenir à un accord par une série d'échanges d'offres et de contre-offres. Lorsque le résultat de la négociation est positif, un contrat incluant la politique de sécurité acceptée par les parties est généré
Security policy provides a way to define the constraints on behavior of the members belonging to a system, organization or other entities. With the development of IT technology such as Grid Computing and Cloud Computing, more and more applications and platforms exchange their data and services for cooperating. Toward this trend, security becomes an important issue and security policy has to be applied in order to ensure the safety of data and service interaction. In this thesis, we deal with one type of security policy: access control policy. Access control policy protects the privileges of resource's utilization and there exist different policy models for various scenarios. Our goal is to ensure that the service customer well expresses her security requirements and chooses the service providers that fit these requirements.The first part of this dissertation is dedicated to service provider selection. In case that the security policies of the service provider are accessible to the service customer, we provide a method for measuring the similarity between security policies. Another case is that security policies are not accessible to the service customer or not specified explicitly. Our solution is proposing a policy-based framework which enables the derivation from attribute-based security requirements to concrete security policies. The second part of the dissertation focuses on the security policy negotiation. We investigate the process of reaching agreement through bargaining process in which negotiators exchange their offers and counter offers step by step. The positive result of the negotiation generates a policy contract
APA, Harvard, Vancouver, ISO, and other styles
5

Fayçal, Marguerite. "Routage efficace pour les réseaux pair-à-pair utilisant des tables de hachage distribuées." Phd thesis, Paris, Télécom ParisTech, 2010. https://pastel.hal.science/pastel-00521935.

Full text
Abstract:
Ce mémoire est une synthèse de nos travaux de recherche menés à Orange Labs (France Télécom R&D) pour répondre à une problématique identifiée par ledit opérateur concernant les flux d’échanges en mode P2P. La montée en puissance du P2P exige de nouveaux systèmes satisfaisant tant les usagers que les opérateurs de réseaux. Les premiers cherchent en permanence une bonne QoS. Les seconds aspirent à l’optimisation de l’usage du réseau et à la réduction des différents coûts d’opération et de maintenance. D’où l’intérêt de cette thèse qui vise à sensibiliser un réseau P2P au réseau IP sous-jacent afin d’aboutir à un système de routage efficace. Nos travaux se focalisent sur les systèmes utilisant des DHTs, après les avoir étudiées et analysées. Ce mémoire commence par une analyse des principaux protocoles de découverte de ressources dynamiques dans les différentes architectures P2P. Les exigences requises pour un routage P2P efficace sont par la suite établies. Il s’en suit une présentation des techniques de génération de l’information de proximité sous-jacente, ainsi que des techniques et principaux systèmes d’exploitation de cette information. Nos travaux de recherche ont abouti à la définition, la conception, la spécification et l’analyse individuelle et comparative de deux systèmes : CAP (Context-Aware P2P system) et NETPOPPS (NETwork Provider Oriented P2P System). Le premier système est sensible au contexte et introduit une sémantique dans les identifiants des pairs et des objets. Le second système est orienté opérateur de réseau, et adapte les flux P2P à la topologie sous-jacente et aux politiques de l’opérateur, tout en simplifiant la gestion des différents identifiants
This dissertation is a synthesis of our research at Orange Labs (formerly France Telecom R&D) to answer a problem identified by the aforesaid network operator and concerning peer-to-peer (P2P) streams. The rise of P2P requires new systems to meet the needs of users, but also those of ISPs and other network operators. The former seek permanently quite noticeable high QoS; the latter aim to optimize the use of network resources and to reduce various operations’ and management costs. Hence the interest of this thesis, that aims to let a P2P network be aware of its underlying IP network in order to achieve a system with an efficient routing mechanism that leads to a win-win situation. Our research focuses on systems based on distributed hash tables (DHT), that we study and analyze first. This dissertation begins with an analysis of the main protocols for discovery of dynamic resources in the different P2P architectures. The requirements for efficient P2P routing are then established. Afterwards, discovery techniques for generating and providing underlay network proximity information are presented, followed by techniques and main systems that exploit such information. Our research led to the definition, design, specification and both individual and comparative analysis of two systems: CAP (Context-Aware P2P system) and NETPOPPS (Network Provider Oriented P2P System). The former introduces semantics in the identifiers of peers and objects and is context-aware. The latter simplifies the management of the different identifiers and is network operator oriented: it enables cooperation between P2P traffic and the underlay’s network operator (its policies and network topology)
APA, Harvard, Vancouver, ISO, and other styles
6

Fayçal, Marguerite. "Routage Efficace pour les Réseaux Pair-à-Pair utilisant des Tables de Hachage Distribuées." Phd thesis, Télécom ParisTech, 2010. http://pastel.archives-ouvertes.fr/pastel-00521935.

Full text
Abstract:
Ce mémoire est une synthèse de nos travaux de recherche menés au sein des laboratoires d'Orange Labs (anciennement France Télécom R&D) pour répondre à une problématique identifiée par ledit opérateur et concernant les flux d'échanges en mode pair-à-pair (P2P). Communément assimilé à un échange de fichiers, le P2P a de nombreuses applications. Il correspond à une évolution du monde du logiciel, des réseaux et des équipements. Au-delà du partage, nous sommes confrontés à une puissance disponible de façon distribuée (en termes de CPU, bande passante, stockage, etc.). La montée en puissance du P2P exige de nouveaux systèmes pouvant satisfaire les besoins des usagers, mais aussi ceux des fournisseurs d'accès à Internet (FAI) et autres opérateurs de réseaux. Les premiers cherchent en permanence une bonne qualité de service (QoS) bien perceptible. Les seconds aspirent à l'optimisation de l'usage des ressources du réseau (notamment la bande-passante) et à la réduction des différents coûts d'opération et de maintenance (dont ceux découlant de leurs accords économiques inter-opérateurs). D'où l'intérêt de nos travaux de recherche qui visent à sensibiliser un réseau P2P au réseau IP sous-jacent, afin d'aboutir à un système de routage P2P efficace, en phase avec les politiques des réseaux d'infrastructures sous-jacents. Ces travaux se focalisent sur les systèmes P2P utilisant des tables de hachage distribuées (DHT), après les avoir étudiées et analysées. Ce mémoire commence par une analyse des principaux protocoles de découverte de ressources dynamiques dans les différentes architectures de réseaux P2P. Les exigences requises pour un routage P2P efficace sont par la suite établies. Il s'en suit une présentation des techniques de génération de l'information de proximité sous-jacente, ainsi que des techniques et principaux systèmes d'exploitation de cette information. Nos travaux de recherche ont abouti à la définition, la conception, la spécification et l'analyse individuelle et comparative de deux systèmes : CAP (Context-Aware P2P system) et NETPOPPS (NETwork Provider Oriented P2P System). Le premier système est sensible au contexte et introduit une sémantique dans les identifiants des pairs et des objets. Le second système est orienté opérateur de réseau, et adapte les flux P2P à la topologie sous-jacente et aux politiques de l'opérateur, tout en simplifiant la gestion des différents identifiants.
APA, Harvard, Vancouver, ISO, and other styles
7

Albrieux, Sandrine. "La responsabilité du fournisseur de moyens de communication électronique." Paris 2, 2004. http://www.theses.fr/2004PA020057.

Full text
Abstract:
Le fournisseur de moyens de communication électronique - qui n'est ni l'auteur, ni l'éditeur des informations circulant sur l'internet mais celui qui offre aux fournisseurs de contenus les instruments permettant ou facilitant la diffusion ou la localisation auprès du public des données qu'ils ont produites - n'a jamais pu se réjouir de pouvoir évoluer dans un espace de " non-droit ". Ses activités n'échappent pas à l'emprise du Droit, lorsqu'il fournit intentionnellement ou imprudemment l'instrument du délit. En dehors des quelques hypothèses où il peut invoquer son irresponsabilité ou une cause d'exonération de responsabilité, consacrées par la loi pour la confiance dans l'économie numérique, il doit répondre de son comportement dommageable pour autrui ou affectant la société. Sa responsabilité peut être engagée au titre de la complicité lorsqu'il participe à l'infraction pénale du fournisseur de contenus sciemment et volontairement, si l'infraction de l'auteur principal reçoit la qualification de délit continu. Son comportement est civilement fautif, lorsqu'il a connaissance ou ne peut ignorer l'illicéité du contenu qu'il transmet, héberge, référence ou dont il facilite l'échange et n'agit pas promptement pour le retirer du réseau ou en rendre l'accès impossible, laissant ainsi perdurer l'acte dommageable qu'il pouvait empêcher ou faire cesser. Mais dans un univers transcendant les frontières, la mise en œuvre de la réponse judiciaire peut s'avérer délicate et la dette du fournisseur de moyens établi à l'étranger demeurer inexécutée, car l'autorité des décisions françaises ne possède pas une valeur internationale s'imposant aux autorités étrangères
The supplier of electronic ways of communication - who is not the author nor the editor of the informations circulating on internet, but the person who offers to the suppliers of contents the instruments permitting or facilitating the diffusion or the localization to the public of the information they have produced - has never been able to evolve in a " no-go area". His activities do not escape the rulings of the law when he supplies intentionally or unwisely the cause of the offence. Apart a few assumptions where he can put forward his irresponsibility or exemption of responsibility, dedicated by law for the trust in digital economy, he must answer for his harmful attitude towards others or affecting society. His responsibility can be committed as conniving when he is part of the criminal offense of the supplier of contents knowlingly and voluntarily, providing that the offense of the principal author receive the qualification of continuous offense. His attitude is reprehensible from then on he has the knowledge or could not ignore the illicitness of the content being transmitted by him, housed, reference of which is facilitated and do not act promptly to withdraw it from the network or to make access impossible, letting in this way continue the harmful action he could prevent or stop. But in a universe transcending the frontiers, the implementation of the judicial answer can be delicate and the debt of the supplier of electronic ways of communication settled abroad stand unfulfilled, because the authority of the French decisions does not have an international value as to impress the foreign authorities
APA, Harvard, Vancouver, ISO, and other styles
8

Roudiere, Gilles. "Détection d'attaques sur les équipements d'accès à Internet." Thesis, Toulouse, INSA, 2018. http://www.theses.fr/2018ISAT0017/document.

Full text
Abstract:
Les anomalies réseaux, et en particulier les attaques par déni de service distribuées, restent une menace considérable pour les acteurs de l'Internet. La détection de ces anomalies requiert des outils adaptés, capables non seulement d'opérer une détection correcte, mais aussi de répondre aux nombreuses contraintes liées à un fonctionnement dans un contexte industriel. Entre autres, la capacité d'un détecteur à opérer de manière autonome, ainsi qu'à fonctionner sur du trafic échantillonné sont des critères importants. Au contraire des approches supervisées ou par signatures, la détection non-supervisée des attaques ne requiert aucune forme de connaissance préalable sur les propriétés du trafic ou des anomalies. Cette approche repose sur une caractérisation autonome du trafic en production, et ne nécessite l'intervention de l'administrateur qu'à postériori, lorsqu’une déviation du trafic habituel est détectée. Le problème avec de telle approches reste que construire une telle caractérisation est algorithmiquement complexe, et peut donc nécessiter des ressources de calculs conséquentes. Cette exigence, notamment lorsque la détection doit fonctionner sur des équipements réseaux aux charges fonctionnelles déjà lourdes, est dissuasive quant à l'adoption de telles approches. Ce constat nous amène à proposer un nouvel algorithme de détection non-supervisé plus économe en ressources de calcul, visant en priorité les attaques par déni de service distribuées. Sa détection repose sur la création à intervalles réguliers d'instantanés du trafic, et produit des résultats simples à interpréter, aidant le diagnostic de l'administrateur. Nous évaluons les performances de notre algorithme sur deux jeux de données pour vérifier à la fois sa capacité à détecter correctement les anomalies sans lever de faux-positifs et sa capacité à fonctionner en temps réel avec des ressources de calcul limitées, ainsi que sur du trafic échantillonné. Les résultats obtenus sont comparés à ceux de deux autres détecteurs, FastNetMon et UNADA
Network anomalies, and specifically distributed denial of services attacks, are still an important threat to the Internet stakeholders. Detecting such anomalies requires dedicated tools, not only able to perform an accurate detection but also to meet the several constraints due to an industrial operation. Such constraints include, amongst others, the ability to run autonomously or to operate on sampled traffic. Unlike supervised or signature-based approaches, unsupervised detection do not require any kind of knowledge database on the monitored traffic. Such approaches rely on an autonomous characterization of the traffic in production. They require the intervention of the network administrator a posteriori, when it detects a deviation from the usual shape of the traffic. The main problem with unsupervised detection relies on the fact that building such characterization is complex, which might require significant amounts of computing resources. This requirement might be deterrent, especially when the detection should run on network devices that already have a significant workload. As a consequence, we propose a new unsupervised detection algorithm that aims at reducing the computing power required to run the detection. Its detection focuses on distributed denial of service attacks. Its processing is based upon the creation, at a regular interval, of traffic snapshots, which helps the diagnosis of detected anomalies. We evaluate the performances of the detector over two datasets to check its ability to accurately detect anomalies and to operate, in real time, with limited computing power resources. We also evaluate its performances over sampled traffic. The results we obtained are compared with those obtained with FastNetMon and UNADA
APA, Harvard, Vancouver, ISO, and other styles
9

Schuers, Matthieu. "Évaluation d'outils d'accès à la connaissance en médecine générale." Thesis, Normandie, 2017. http://www.theses.fr/2017NORMR070/document.

Full text
Abstract:
Les médecins, et en particulier les médecins généralistes, sont confrontésquotidiennement à la difficulté de ne pas tout savoir. En médecine générale, l’étendue duchamp d’activité impose aux professionnels une maîtrise de plus en plus aiguë del’information, qui doit s’appuyer sur le développement d’une littératie numérique, c’està-dire la capacité d’utiliser et de comprendre les outils et médias numériques. Lesobjectifs de ce travail étaient d’identifier les obstacles à la recherche d’information chezles médecins généralistes et de développer et d’évaluer des outils susceptibles desurmonter ces difficultés.Pour cela, nous avons réalisé une étude qualitative auprès d’internes de médecinegénérale et de médecins généralistes français. Elle a permis de mettre en évidence denombreux obstacles à la recherche d’informations en santé en ligne. Ces obstaclesconcernent les professionnels et les outils, certains sont également d’ordre institutionnel.Parmi ces obstacles figure la langue anglaise, qui semble constituer un repoussoir pourles médecins installés mais également pour les médecins en formation. D’après lesdonnées que nous avons recueillies, ce frein concerne aussi bien l’information en ellemêmeque son support.Plusieurs des outils développés par l’équipe du Département d’Informatique etd’Information Médicales du CHU de Rouen ont vocation à répondre à ces difficultés. Labase de données bibliographiques LiSSa permet l’accès à plusieurs centaines de milliersde références francophones en santé, issues de PubMed mais également de revuesfrancophones non indexées dans PubMed. Le constructeur de requêtes bibliographiquesmédicales permet à des utilisateurs non anglophones de construire des équations derecherche complexes dans leur langue maternelle, leur permettant de requêter dansPubMed, LiSSa ou CISMeF
Physicians, and especially general practitioners, are not « all-knowing ». As they areconfronted with a large amount of clinical situations, information and knowledgemanagement are essential topics of interest. This management is mainly based on thedevelopment of numeric literacy, that is the ability to use and understand digital tools andmedia. The aims of this work were to identify the obstacles encountered by generalpractitioners when seeking health information online and to develop and assess tools tohelp them to overcome these barriers.We performed a qualitative study among general practice residents and generalpractitioners. This allowed us to highlight several obstacles encountered by them whenseeking medical information online. These obstacles include both tools and professionals’issues. Institutional obstacles were also identified. Of these barriers, the insufficientcommand of English was cited as an important issue by both residents and physicians.The Department of Medical Information and Informatics of the Rouen University Hospitalhas developed several tools in order to facilitate access to knowledge for healthprofessionals. LiSSa is a bibliographic database containing only articles written in French.It allows health professionals and researchers, whose native language is not English, toaccess to hundreds of thousands of references, from PubMed and from journals notindexed in PubMed. A multi-lingual query builder to facilitate information retrieval wasdesigned. It appears to be an effective tool to improve the quality of PubMed queries inparticular for users whose first native language is not English
APA, Harvard, Vancouver, ISO, and other styles
10

Zohore, Dominique. "L'équilibre contractuel entre fournisseur et utilisateur de services de communications électroniques." Aix-Marseille 3, 2010. http://www.theses.fr/2010AIX32091.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Mikaelian, Nathalie. "La mutation des droits d'auteur dans l'environnement numérique : l'émergence d'un droit d'accès." Nice, 2004. http://www.theses.fr/2004NICE0043.

Full text
Abstract:
Les droits d'auteur, nés concomitamment aux grands textes révolutionnaires, ont pour objectif de réguler les convergences entre les parties prenantes à la création et à la diffusion des œuvres. Les technologies de l'information et de la communication issues du numérique ont multiplié les possibilités d'utilisation des œuvres de l'esprit et ont généré leur diffusion massive à l'échelle planétaire. Les opportunités d'attenter aux œuvres se sont par conséquent considérablement accrues, ce qui a suscité un mouvement protectionniste de la part des titulaires de droits. Malgré les apparences trompeuses d'immobilisme et le maintien des concepts traditionnels, les droits d'auteur font l'objet, dans l'environnement numérique, d'une véritable mutation. Les concepts existants, nonobstant une extension de leur champ d'application, ne permettent pas le contrôle des nouvelles utilisations, de sorte que le recours à la technologie numérique apparaît comme le seul remède efficace pour renforcer l'application des droits par leurs titulaires. L'environnement numérique suscitant l'émergence de nouveaux acteurs économiques a accru le phénomène déjà amorcé de dépossession de l'auteur au profit de l'investisseur. Par ailleurs, il a marqué la convergence factuelle des droits patrimoniaux de l'auteur vers un nouveau droit d'accès autour duquel les parties prenantes à la création et à la diffusion de l'œuvre se repositionnent progressivement. Permettant le contrôle et la rémunération de chaque utilisation, celui-ci marque l'étape cruciale de la consécration d'un droit d'auteur favorable aux investisseurs et apparaît comme un instrument de régulation du marché de l'art dans l'environnement numérique en réseaux notamment. Les droits d'auteur dont la vocation originaire était le contrôle de l'exploitation de l'œuvre s'orientent progressivement vers un contrôle des utilisations de celle-ci, ce qui ne fait qu'accroître leur dimension marchande
The first copyright laws were passed at the same time as major revolutionary legislation. Their objective was to regulate the convergences between the parties involved in the creation and diffusion of works. Information and communication technologies, stemming from digital technology, have multiplied the possible uses of intellectual works and generated their massive diffusion worldwide. The opportunities for interference with works have, consequently, considerably increased, and this has led to a protectionist movement by copyright holders. Appearances are deceiving and despite an apparent reluctance to act and the maintaining of traditional concepts, copyright law is being transformed in the area of digital technology. Existing concepts, despite an extended field of application, do not enable new uses to be controlled, which means that recourse to digital technology appears to be the only efficient remedy for reinforcing the application of rights by their holders. The digital environment, which has prompted the emergence of new economic players, has increased the already surfacing phenomenon of dispossession of the author in favour of the investor. In addition, it marked the factual convergence of the author's proprietary rights and a new right of access around which the parties involved in the creation and diffusion of the works are gradually taking new positions. Enabling the control and remuneration of each use, this marks the crucial stage in establishing a copyright favourable to investors and appears as an instrument for regulating the art market in the digital environment, in particular in networks. Copyrights, whose original mission was to control a work's exploitation, are gradually evolving towards the control of its uses, which only increases the trading dimension
APA, Harvard, Vancouver, ISO, and other styles
12

Akbarinia, Reza. "Techniques d'accès aux données dans des systèmes pair-à-pair." Nantes, 2007. http://www.theses.fr/2007NANT2060.

Full text
Abstract:
Le but de cette thèse est de développer des nouvelles techniques d'accès aux données pour être utilisées par un service de traitement de requêtes dans des environnements P2P. En particulier, nous nous concentrons sur la conception de nouvelles techniques pour répondre à deux types de requêtes importants: les requêtes garantissant la currency des données (en français, la propriété des données d’être courantes, c. -à-d. à jour par rapport aux dernières modifications) et les requêtes top-k. Pour améliorer la disponibilité de données, la plupart des systèmes P2P s’appuient sur la réplication des données, mais sans garantir la currency. Cependant, pour beaucoup d'applications (par ex. Gestion d'agenda), la possibilité d'obtenir les données courantes est très importante. Donc, le service de traitement de requête doit traiter ce problème là. Le second problème que nous abordons est celui des requêtes top-k. Dans un système à grande échelle P2P, les requêtes top-k sont très utiles, par ex. Elles peuvent réduire le trafic du réseau significativement. Il existe des techniques efficaces pour l'exécution de requêtes top-k dans les systèmes distribués, mais elles ne conviennent pas aux systèmes P2P, en particulier aux DHTs. Dans cette thèse, nous donnons d’abord une vue d'ensemble des réseaux P2P actuels, et comparons leurs propriétés du point de vue du traitement de requêtes. Ensuite, nous proposons une solution complète au problème de la recherche d'une réplique courante dans les DHTs. Enfin, nous proposons de nouvelles solutions pour le traitement de requêtes top-k dans les systèmes P2P structuré, c. -à-d. Les DHTs, ainsi que les systèmes non structurés. Nous proposons également de nouveaux algorithmes pour traiter les requêtes top-k sur les listes triées, qui est un modèle très général. Nous avons validé nos solutions par une combinaison d'implémentation et de simulation ; Les résultats montrent de très bonnes performances, en termes du coût de communication et de temps de réponse
The goal of this thesis is to contribute to the development of new data access techniques for query processing services in P2P environments. We focus on novel techniques for two important kinds of queries: queries with currency guarantees and top-k queries. To improve data availability, most P2P systems rely on data replication, but without currency guarantees. However, for many applications which could take advantage of a P2P system (e. G. Agenda management), the ability to get the current data is very important. To support these applications, the query processing service must be able to efficiently detect and retrieve a current, i. E. Up-to-date, replica in response to a user requesting a data. The second problem which we address is supporting top-k queries which are very useful in large scale P2P systems, e. G. They can reduce the network traffic significantly. However, efficient execution of these queries is very difficult in P2P systems because of their special characteristics, in particular in DHTs. In this thesis, we first survey the techniques which have been proposed for query processing in P2P systems. We give an overview of the existing P2P networks, and compare their properties from the perspective of query processing. Second, we propose a complete solution to the problem of current data retrieval in DHTs. We propose a service called Update Management Service (UMS) which deals with updating replicated data and efficient retrieval of current replicas based on timestamping. Third, we propose novel solutions for top-k query processing in structured, i. E. DHTs, and unstructured P2P systems. We also propose new algorithms for top-k query processing over sorted lists which is a general model for top-k queries in many centralized, distributed and P2P systems, especially in super-peer networks. We validated our solutions through a combination of implementation and simulation and the results show very good performance, in terms of communication and response time
APA, Harvard, Vancouver, ISO, and other styles
13

Ekongolo, Makake Narcisse Achille Emmanuel. "Modélisation des usagers experts des systèmes d'accès à l'information sur Internet en situation de veille." Paris 10, 2008. http://www.theses.fr/2008PA100046.

Full text
Abstract:
L'appropriation des outils d'accès l'information pose un certain nombre de problèmes dont celui de l'immédiateté et la transparence des outils. La croyance « naïve » de cette immédiateté des outils entraîne une sous utilisation voire une utilisation peu efficace des outils. La prise en compte de sa réalité, la connaissance et la maîtrise de l'outil est indispensable pour mieux s'en servir et construire du sens. Le but de cette recherche est de modéliser, à partir d'une démarche orientée usager, les comportements informationnels des usagers experts ou professionnels de l'information en situation de veille, car la modélisation des expertises peut permettre un transfert de savoir-faire. L'analyse montre d'une part que les professionnels de l'information sont dotés d'aptitudes et d'attitudes stables et structurantes qui les aident à faire des inférences « justes » lorsqu'ils accèdent à l'information. D'autre part, l'ensemble des informations capitalisées sur les pratiques informationnelles des usagers experts a été formalisé à travers un outil appelé « bordereau d'indexation », artefact cognitif qui apporte une aide à l'accès à l'information et permet de conserver une trace de ce processus
The appropriation of tools to information access create a few problems. First, the problem of immediacy and transparency of the tool. The « naive » believe of the immediacy of the tools which bring a wrong use of the tools. Then the problem of the real knowledge of the tool which is essential to better use and build senses. The purpose of this study is to give an example of steps to use. The behaviors of experts or professional of information are in standby mode because the modelisation of experts can permit a transfer of knowledge. The analysis shows that the professionals of information are given the stable and structural aptitude and attitude which help them to give the right deduction when they give an information. In another way the whole information capitalized on the practical information of users and experts was called « bordereau d'indexation » cognitive artefact which bring help to access information and permit a trace conservation of the process to access information
APA, Harvard, Vancouver, ISO, and other styles
14

Dramé-Maigné, Sophie. "Blockchain and access control : towards a more secure Internet of Things." Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLL018.

Full text
Abstract:
L’Internet des objets connait un développement très fort et rapide avec 1,5 milliards d’objets actuellement connectés dans le monde et une évolution estimée à 16,9% par an pour atteindre 1700 milliards de dollars US en 2020 [IDC14]. Le sujet de thèse se place dans ce contexte d’Internet des objets et répond au besoin de sécurité et de vie privée et plus précisément à la gestion des autorisations et des tokens [RFC6749, UMA, HMM15] en vue de réglementer les échanges inter-objets et l’accès aux données issues des objets. Une question centrale dans la gestion sécuritaire a trait à la définition des responsabilités de gestion des credentiels (gestion de « trust »). Le rôle de gestionnaire de « trust » est souvent assumé par un fournisseur de services, qui dans le cadre de la délivrance d’un service à ses propres clients, leur distribue des credentiels afin de sécuriser ce service. Ce type d’organisation est souvent inadapté dans l’internet des choses où le déploiement d’applications est souvent fait par des partenaires associés dans des relations d’égal à égal. Il importe donc d’identifier des modèles de gestion de « trust » adaptés à de tels modèles business. La délégation d’autorisation, qui permet à des entités business de déléguer à une tierce partie la gestion du contrôle d’accès à certaines de leur ressources apparait comme un modèle potentiellement bien adapté pour gérer la sécurité dans ce contexte. Un premier objectif consistera à positionner la délégation d’autorisation vis-à-vis d’autres méthodes de gestion des fonctions d’authentification et d’autorisation telles que celles traditionnellement utilisées dans un système d’information classique. Pour cela, la démarche prendra appui sur des modèles formels établis tels que [AG13]. Il s’agira aussi de réaliser un état de l’art sur les solutions d’autorisations actuellement définies dans les standards [RFC6749, UMA, HMM15] et proposées dans les publications scientifiques [HSR14]. Deux pistes de recherche seront ensuite explorées dans la thèse de doctorat. L’une d’elles consiste à proposer des solutions visant à simplifier la définition des règles de contrôle d’accès dans le cadre de l’Internet des objets. L’idée est de simplifier et optimiser la définition de ces règles en passant par exemple par plusieurs niveaux d’abstraction à la manière de RBAC [RBAC, BCC07]. L’autre piste consiste à clairement identifier les risques de sécurité posés par la centralisation de la gestion des règles d’autorisation qui positionne le serveur d’autorisation comme un point d’attaque central, et à proposer des solutions pour réduire ces risques. Pour cela on explorera l’intérêt de méthodes récemment apparues dans la littérature, et consistant à répliquer l’information à protéger un grand nombre de fois pour pour éliminer le risque d’attaque du système par concentration des attaques sur un point unique. On pourra par exemple s’appuyer sur le principe des BlockChain [Zys, DW13] qui permettent d’assurer l’intégrité de certaines transactions (e.g. Bitcoin) dans un contexte totalement distribué. Les contributions feront l’objet de vérifications ou preuves (simulations et/ou preuves mathématiques) et d’une preuve de concept sur la plate-forme de l’IRT-SystemX. Les contributions seront valorisées dans des conférences et journaux scientifiques de haut niveau
The thesis takes place in the Internet of objects context and meets the need for security and privacy, and more specifically the authorization and token management [RFC6749, UMA, HMM15] in order to regulate interactions between objects and access to data produced by the objects. A first objective of the thesis is to position the authorization delegation with respect to other methods used for authentication and authorization management, such as those traditionally used in a classical information system. For this, the approach will raise on established formal models such as [AG13]. Another objective is to elaborate a critical state of the art on current authorization solutions, as defined in the standard solutions [RFC6749, UMA, HMM15] and as proposed in the literature [HSR14]. Two lines of research are then proposed for investigation in the doctoral thesis. One of them is to propose solutions to simplify the definition of access control rules in the context of the Internet of Things. The idea is to simplify and optimize the definition of these rules for example by defining several levels of abstraction, as done in RBAC [RBAC, BCC07]. The other line of research is to clearly identify the security risks raised by the centralized management of authorization rules which positions the authorization server as a single point of failure, and to propose solutions to reduce these risks. For this, we intend to investigate some methods emerged recently in the literature, which consists in replicating the critical information a large number of times to increase the system attack surface. For example, it could be based on the principle of BlockChain [Zys, DW13] that ensures the integrity of certain transactions (eg Bitcoin) in a fully distributed environment
APA, Harvard, Vancouver, ISO, and other styles
15

Mouelhi, Tejeddine. "Modélisation et test de mécanismes de sécurité dans des applications internet." Phd thesis, Institut National des Télécommunications, 2010. http://tel.archives-ouvertes.fr/tel-00544431.

Full text
Abstract:
Les travaux effectués dans de cadre de cette thèse s'intéressent à la problématique du test de sécurité des applications, en considérant la validation des mécanismes de sécurité interne à un système d'une part, puis la sécurité des interfaces web d'autre part. Pour la partie interne, nous avons comparé, dans un premier temps, l'utilisation du test fonctionnel et des tests de sécurité pour valider les mécanismes implémentant une politique de contrôle d'accès. Dans ce cadre, l'analyse de mutation a été adaptée pour qualifier et évaluer les tests. Nous avons ensuite proposé trois méthodologies pour tester les mécanismes de contrôle d'accès: - utilisation du pair-wise pour générer les tests de sécurité, - sélection et transformation des tests fonctionnels en tests de sécurité - détection de mécanismes de sécurité cachés qui nuisent à la flexibilité et l'évolutivivité du système. Concernant le test des interfaces web, visant non seulement à tester le code validant les entrées de l'utilisateur mais aussi protéger les applications web, nous avons proposé une nouvelle approche qui tire profit du test par contournement (bypass-testing) et qui permet de protéger les applications web contre ce type d'attaques. Cette approche a été concrétisée dans un outil permettant à la fois l'audit et la sécurisation des applications web. L'ensemble de ces travaux a conduit à réfléchir à de nouvelles méthodologies de développement garantissant une meilleure qualité et une meilleure testabilité des mécanismes de contrôle d'accès. L'ingénierie des modèles (IDM) a été exploitée pour automatiser la spécification et le déploiement semi-automatisé des politiques de contrôle d'accès, et offrir par analyse de mutation un moyen de certification générique des tests de sécurité. Enfin, la composition de modèles permet d'automatiser l'intégration des mécanismes de sécurité, et surtout la reconfiguration automatique du système en cas d'évolution de la politique de sécurité.
APA, Harvard, Vancouver, ISO, and other styles
16

Farag, Ahmed. "Les bibliothèques nationales face aux technologies de l'information et de la communication : étude de portails d'accès internet aux ressources documentaires et des services aux utilisateurs : aspects stratégiques." Bordeaux 3, 2004. http://www.theses.fr/2004BOR30038.

Full text
Abstract:
Cette thèse a pour objectif l'étude des portails d'accès internet. Elle met en perspective les nouveaux services offerts aux utilisateurs de bibliothèques nationales et s'interroge sur certains nombres d'aspects stratégiques dont surtout : la définition des portails, le choix des dispositifs d'information et de communication, la question de la normalisation des documents numériques et leur échange, le développement des bibliothèques numériques. . . On s'est appuyé sur des applications mises en œuvre dans des grandes bibliothèques, la Bibliothèque nationale de France, la Bibliothèque nationale de Canada et la Bibliothèque du Congrès, en particulier. Notre travail se focalise également sur l'impact de la TIC sur les portails de ces bibliothèques, notamment en matière de services et de missions. Deux problématiques essentielles ont été le fil conducteur de la réflexion développée ici : En quoi les TIC implémentées dans un portail d'internet vont-elles accroître les capacités de services proposés par les bibliothèques et, par conséquent, en modifier les perspectives ? De quelle manière les portails d'accès internet optimisent-ils l'accès aux ressources, non seulement électroniques, mais encore conventionnelles ?
This thesis aims at the study of the internet access portals. It puts in prospect the new services offered to the users for national libraries and wonders about certain numbers of strategic aspects of which especially the definition of the internet portals, the choice of the devices of information and communication, the question of the standardization of the numerical documents and their exchange, the development of the digital libraries. We were based on applications implemented in large libraries, the national Library of France, the national Library of Canada and the Library of the Congress, in particularOur work is also focused on the impact of the TIC on the internet portals of these libraries, in particular services and missions. Two essential problems were the discussion thread of the reflexion developed hereIn what the TIC implemented in a Internet portals will they will increase the capacities of services suggested by the libraries and, consequently, modify the prospects for them? How do the internet access portals optimise the access to the resources, not only electronic, but still conventional?
APA, Harvard, Vancouver, ISO, and other styles
17

Gu, Wei. "Robustness against interference in Internet of Things." Thesis, Lille 1, 2012. http://www.theses.fr/2012LIL10195/document.

Full text
Abstract:
L'Internet des objets, plus particulièrement les réseaux de capteurs, a attiré beaucoup d'attention ces dernières années. Sa mise en œuvre soulève de nombreuses difficultés, comme la génération d'interférences d'accès multiple (MAI) à caractère impulsif et la consommation d'énergie relativement forte. Les MAI et le bruit thermique doivent être considérés simultanément car ils perturbent fortement les communications. Nous modélisons les MAI et le bruit thermique respectivement par la distribution stable et gaussienne. Nous étudions tout d’abord l’effet des turbo-codes sur le lien direct en utilisant la norme-p comme métrique de décodage. Cette métrique permet une performance de correction d’erreur proche du décodeur optimal. Ensuite nous nous penchons sur les communications coopératives. A l’aide de l’échantillonnage préférentiel, nous estimons les densités de probabilité de la décision statistique du récepteur optimal en présence des bruits stable et gaussien. Cette approche est coûteuse en calcul. Nous proposons donc d’approximer ces densités de probabilité par la distribution gaussienne inverse normale (NIG). Cette solution de calcul est efficace pour approcher le récepteur optimal. Nous montrons également que le récepteur utilisant la norme-p a des performances robustes, quel que soit le type de bruit dominant. A la fin nous combinons les travaux du codage canal et des communications coopératives pour établir une stratégie de codage canal distribué. Basé sur la qualité du lien direct et le niveau de taux d’erreur binaire envisagé, la stratégie d’économie d’énergie peut être mise en place via le choix d’un schéma de codage canal distribué
Internet of Things brought great interests in recent years for its attractive applications and intelligent structure. However, the implementation of sensor networks still presents important challenges such as the generation of Multiple-Access-Interference (MAI) with impulsive nature and the relatively high energy consumption. Both the MAI and the thermal noise should be considered due to their strong impairments each may cause on the communication quality. We employ the stable and Gaussian distributions to model the MAI and the thermal noise respectively. Firstly we study the performance of turbo codes in the direct link and we propose the p-norm as a decoding metric. This metric allows a considerable error correction performance improvement which is close to the optimal decoder. Then we investigate cooperative communications. The probability densities in the decision statistic of the optimal receiver are estimated using importance sampling approach when both the stable and Gaussian noises are present. Such a method is computationally expensive. Hence we develop an approximation approach based on the Normal Inverse Gaussian (NIG) distribution. This solution is efficient for calculation and is proximate to the optimal receiver. In addition we show that the p-norm receiver has robust performance no matter what kind of noise is dominant. At last we combine the channel coding and cooperative communication works to establish a distributed channel coding strategy. Through some simulation assessments, the energy saving strategy can be realized by choosing an appropriate distributed channel coding scheme based on the direct link quality and target bit error rate
APA, Harvard, Vancouver, ISO, and other styles
18

Tembo, Mouafo Serge Romaric. "Applications de l'intelligence artificielle à la détection et l'isolation de pannes multiples dans un réseau de télécommunications." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2017. http://www.theses.fr/2017IMTA0004/document.

Full text
Abstract:
Les réseaux de télécommunication doivent être fiables et robustes pour garantir la haute disponibilité des services. Les opérateurs cherchent actuellement à automatiser autant que possible les opérations complexes de gestion des réseaux, telles que le diagnostic de pannes.Dans cette thèse nous nous sommes intéressés au diagnostic automatique de pannes dans les réseaux d'accès optiques de l'opérateur Orange. L'outil de diagnostic utilisé jusqu'à présent, nommé DELC, est un système expert à base de règles de décision. Ce système est performant mais difficile à maintenir en raison, en particulier, du très grand volume d'informations à analyser. Il est également impossible de disposer d'une règle pour chaque configuration possible de panne, de sorte que certaines pannes ne sont actuellement pas diagnostiquées.Dans cette thèse nous avons proposé une nouvelle approche. Dans notre approche, le diagnostic des causes racines des anomalies et alarmes observées s'appuie sur une modélisation probabiliste, de type réseau bayésien, des relations de dépendance entre les différentes alarmes, compteurs, pannes intermédiaires et causes racines au niveau des différents équipements de réseau. Ce modèle probabiliste a été conçu de manière modulaire, de façon à pouvoir évoluer en cas de modification de l'architecture physique du réseau.Le diagnostic des causes racines des anomalies est effectué par inférence, dans le réseau bayésien, de l'état des noeuds non observés au vu des observations (compteurs, alarmes intermédiaires, etc...) récoltées sur le réseau de l'opérateur. La structure du réseau bayésien, ainsi que l'ordre de grandeur des paramètres probabilistes de ce modèle, ont été déterminés en intégrant dans le modèle les connaissances des experts spécialistes du diagnostic sur ce segment de réseau. L'analyse de milliers de cas de diagnostic de pannes a ensuite permis de calibrer finement les paramètres probabilistes du modèle grâce à un algorithme EM (Expectation Maximization).Les performances de l'outil développé, nommé PANDA, ont été évaluées sur deux mois de diagnostic de panne dans le réseau GPON-FTTH d'Orange en juillet-août 2015. Dans la plupart des cas, le nouveau système, PANDA, et le système en production, DELC, font un diagnostic identique. Cependant un certain nombre de cas sont non diagnostiqués par DELC mais ils sont correctement diagnostiqués par PANDA. Les cas pour lesquels les deux systèmes émettent des diagnostics différents ont été évalués manuellement, ce qui a permis de démontrer dans chacun de ces cas la pertinence des décisions prises par PANDA
Telecommunication networks must be reliable and robust to ensure high availability of services. Operators are currently searching to automate as much as possible, complex network management operations such as fault diagnosis.In this thesis we are focused on self-diagnosis of failures in the optical access networks of the operator Orange. The diagnostic tool used up to now, called DELC, is an expert system based on decision rules. This system is efficient but difficult to maintain due in particular to the very large volume of information to analyze. It is also impossible to have a rule for each possible fault configuration, so that some faults are currently not diagnosed.We proposed in this thesis a new approach. In our approach, the diagnosis of the root causes of malfunctions and alarms is based on a Bayesian network probabilistic model of dependency relationships between the different alarms, counters, intermediate faults and root causes at the level of the various network component. This probabilistic model has been designed in a modular way, so as to be able to evolve in case of modification of the physical architecture of the network. Self-diagnosis of the root causes of malfunctions and alarms is made by inference in the Bayesian network model of the state of the nodes not observed in view of observations (counters, alarms, etc.) collected on the operator's network. The structure of the Bayesian network, as well as the order of magnitude of the probabilistic parameters of this model, were determined by integrating in the model the expert knowledge of the diagnostic experts on this segment of the network. The analysis of thousands of cases of fault diagnosis allowed to fine-tune the probabilistic parameters of the model thanks to an Expectation Maximization algorithm. The performance of the developed probabilistic tool, named PANDA, was evaluated over two months of fault diagnosis in Orange's GPON-FTTH network in July-August 2015. In most cases, the new system, PANDA, and the system in production, DELC, make an identical diagnosis. However, a number of cases are not diagnosed by DELC but are correctly diagnosed by PANDA. The cases for which self-diagnosis results of the two systems are different were evaluated manually, which made it possible to demonstrate in each of these cases the relevance of the decisions taken by PANDA
APA, Harvard, Vancouver, ISO, and other styles
19

Rakotomalala, Harisoa Ny aina. "Appropriation de l'ordinateur et d'internet dans les points d'accès public : les cas comparés de Brest, de Saint-Denis de La Réunion et d'Antananarivo." Thesis, La Réunion, 2012. http://www.theses.fr/2012LARE0015.

Full text
Abstract:
Les points d'accès public à internet ou au multimédia sont des dispositifs permettant aux usagers qui les fréquentent d'utiliser les équipements numériques et d'avoir un accès à internet. Selon les structures qui en sont à l'origine et selon le public cible, plusieurs dénominations existent pour désigner ces lieux : les espaces publics numériques (EPN), les Netpublics, les cyberbases, les cybercases, les espaces culturels multimédias (ECM), les Points-cyb, les cybercommunes, les points d'accès public internet (PAPI) et les cybercafés. En France, les points d'accès public ont un double objectif : permettre à toute personne qui n'a pas les moyens de s'équiper et de se connecter à internet d'avoir accès aux outils numériques et accompagner le public à l'apprentissage et à l'utilisation des TICs. A Madagascar, les points d'accès public proposent un libre accès au public sauf que contrairement aux précédents, leur stratégie est basée sur une logique marchande. L'objectif de cette thèse est de s'interroger sur les rôles des points d'accès public auprès du public qui les fréquente dans l'appropriation de l'ordinateur et d'internet. Du point de vue théorique, la notion d'appropriation des TICs est d'abord questionnée en ayant recours à trois approches : celle de la diffusion, celle de la traduction et celle de l'appropriation. Dans un second temps, une analyse comparée des usages de l'ordinateur et d'internet dans les points d'accès public brestois, réunionnais et tananariviens permet de souligner le rôle important que jouent les facteurs sociétaux, économiques et géographiques sur les trajectoires d'appropriation des TICs. Au-delà de la définition des pratiques effectuées dans ces espaces, ce travail de recherche tente d'identifier les usagers et d'évoquer les raisons pour lesquelles ces espaces sont fréquentés. Il s'appuie sur des observations, des enquêtes par questionnaires dans 18 points d'accès public brestois, réunionnais et tananariviens complétées par des entretiens auprès des usagers sur leurs pratiques de l'ordinateur et d'internet, leur apprentissage, les raisons qui les poussent à fréquenter les points d'accès public, leur dépendance aux TICs et leurs opinions sur ces technologies
Internet access points are a place where users can access and use digital equipment and connect to internet. Various terms are used to indicate these places : « espaces publics numériques (EPN) », « Netpublics », «cyberbases », « cybercases », « espaces culturels multimédias (ECM) », « Points-cyb », « cybercommunes », « points d’accès public internet (PAPI) » and « cybercafés ». In France, internet access points help people without computer and internet access to use these technologies, to learn and to be assisted in their uses. In Madagascar, internet access points provide access to computer and internet networks but services are fee-based. The objective of this dissertation is to examine the roles of internet access points in ICTs appropriation process by public who visit these places. This research work analyses the theoretical concept of appropriation by using three approaches: the diffusion, the translation and the appropriation. This is followed by a comparative analysis of the uses of computer and internet in internet access points situated in Brest, Reunion Island and Antananarivo. The analysis shows the important role played by societal, economic and geographic contexts on ICTs appropriation. Beyond the uses of ICT in these places, this research attempts to identify users and discuss the reasons of their visits. The results are based on observations, questionnaire surveys and interviews with users in 18 internet access points in Brest, Reunion Island and Antananarivo
APA, Harvard, Vancouver, ISO, and other styles
20

Touati, Lyes. "Internet of things security : towards a robust interaction of systems of systems." Thesis, Compiègne, 2016. http://www.theses.fr/2016COMP2311/document.

Full text
Abstract:
Cette thèse traite des problèmes et des défis de sécurité dans l’Internet des Objets (IdO). L’évolution de l’Internet classique vers l’Internet des Objets crée de nombreux challenges dans la manière de sécuriser les communications et soulève des problèmes liés au contraintes de l’internet des objets à savoir : objets à faibles ressources d’énergie et de calculs, hétérogénéité nuisant à l’interopérabilité des objets, taille du réseau de plus en plus grande, ... etc. En effet, Internet s’est développé d’un réseau d’ordinateurs personnels et de serveurs vers un immense réseau connectant des milliards d’objets intelligents communicants. Ces objets seront intégrés dans des systèmes complexes et utiliseront des capteurs et actionneurs pour observer et interagir avec leur environnement physique. Les exigences des interactions entre objets communicants en termes de sécurité dépendent du contexte qui évolue dans l’espace et le temps. Par conséquent, la définition de la politique de sécurité doit être adaptative et sensible au contexte. Un des problèmes auxquels nous nous sommes intéressés est le contrôle d’accès efficace à base de cryptographie d’attributs : « Attributes Based Encryption (ABE) ». Les schémas ABE (CP-ABE et KP-ABE) présentent plusieurs atouts pour l’implémentation d’un contrôle d’accès cryptographique. Par contre, ces schémas posent des défis opérationnels à cause de leurs complexités et leur surcoût élevé en termes de temps d’exécution et consommation énergétique. Pour pallier cet inconvénient, nous avons exploité l’hétérogénéité d’environnement Internet des Objets pour proposer des versions collaboratives et distribuées de ces schémas de contrôle d’accès cryptographique. Nos solutions réduisent considérablement le coût en termes d’énergie nécessaire à l’exécution. Le deuxième inconvénient des schémas ABE est l’inexistence de mécanismes efficaces de gestion de clés. Nous avons proposé des solutions pour le problème de révocation d’attributs dans le schéma CP-ABE, Ces solutions, en plus de leur efficacité, répondent à des exigences de sécurité différentes selon le cas d’applications. Nous avons proposé également, une solution à base de CP-ABE pour le problème du « grouping proof ». Le « grouping proof » consiste à fournir une preuve sur la coexistence, dans le temps et l’espace, d’un ensemble d’objets. Parmi les applications de notre solution, on peut citer le payement NFC et la sécurisation de l’accès aux locaux sensibles
In this thesis, we deal with security challenges in the Internet of Things. The evolution of the Internet toward an Internet of Things created new challenges relating to the way to secure communications given the new constraints of IoT, namely: resource constrained objects, heterogeneity of network components, the huge size of the network, etc. Indeed, the Internet evolved from a network of computers and servers toward a huge network connecting billions of smart communicating objects. These objects will be integrated into complex systems and use sensors and actuators to observe and interact with their physical environment. The security requirements of the interactions between smart objects depend on the context which evolves in time and space. Consequently, the definition of the security policies should be adaptive and context-aware. In this thesis, we were interested in the problem of access control in IoT relying on Attribute based Encryption (ABE). Indeed, ABE schemes present many advantages in implementing a cryptographic fine-grained access control. However, these schemes raise many implementation challenges because of their complexity and high computation and energy overheads. To overcome this challenge, we leveraged the heterogeneity of IoT to develop collaborative and distributed versions of ABE schemes. Our solutions reduce remarkably the overhead in terms of energy consumption and computation. The second limitation of ABE schemes is the absence of efficient attribute/key revocation techniques. We have proposed batch based mechanisms for attribute/key revocation in CP-ABE. We demonstrated the efficiency of the proposed solutions through simulations. Finally, we have proposed a CP-ABE based solution for the problem of grouping proof. This problem consists of providing the proof that a set of objects are present simultaneously (same time and same location). The propose solution has many applications such as enforcing the security of NFC based payments and the access to sensitive locations
APA, Harvard, Vancouver, ISO, and other styles
21

Bitouzet, Christine. "Le concept de communauté : un levier pour le développement du commerce électronique ? : Analyse et études de cas de la construction de l'offre de service en ligne." Palaiseau, Ecole polytechnique, 2001. http://www.theses.fr/2001EPXX0037.

Full text
Abstract:
Le concept de communauté est très souvent évoqué par les acteurs professionnels développant ou utilisant internet. Du point de vue des acteurs de l'offre de services informatiques et télécoms, les communautés constituent un levier pour le développement du commerce électronique: I'organisation d'internautes en communautés conduit d'une part à créer de nouveaux services basés sur la notion de membre doté d'un identifiant et d'un mot de passe ; et d'autre part l'existence de dynamiques de groupes (effet réseau de démultiplication de l'utilité d'un service et bouche-à-oreille) favorise le développement des ventes en ligne de produits et de services. Du côté des entreprises utilisatrices, la structuration, grâce aux nouvelles technologies de l'information et de la communication, de communautés déjà plus ou moins identifiées autour de problématiques ou de projets communs, devrait permettre de réduire les coûts de gestion en facilitant les échanges et en mutualisant les ressources. Cependant, comment se construit l'offre de services aux communautés, au regard de l'appropriation des technologies de l'information par leurs membres ? D'une part, I'observation des usages des services en ligne montre que le rythme d'appropriation des technologies est très lent. Le développement du commerce électronique repose donc sur la création de processus d'apprentissage. D'autre part, I'observation des relations entre différents acteurs de l'offre (infrastructures, produits, contenus) met en évidence l'existence de processus transversaux d'apprentissage fondés sur la complémentarité des offres et des rapports de prescription. Les futurs utilisateurs sont parfois associés pour concevoir de nouveaux services à valeur ajoutée. L'analyse de la construction de l'offre montre qu'un des enjeux de l'utilisation du concept de communauté est l'émergence d'une dynamique collective d'apprentissage. L'étude de cas conduit à décrire deux modèles de croissance des communautés tirés l'un par la conception de nouveaux services, et l'autre par la construction de nouveaux modèles économiques.
APA, Harvard, Vancouver, ISO, and other styles
22

Ndiaye, Moustapha. "Approche comparative de l'appropriation de la téléphonie mobile et de l'internet dans les lieux d'accès publics des villes de Rennes et de Thiès." Phd thesis, Université Rennes 2, 2008. http://tel.archives-ouvertes.fr/tel-00299076.

Full text
Abstract:
Beaucoup d'analyses ont tendance à se limiter à la notion d'accès ou à la dotation en équipements en comparant l'appropriation des outils de communication et en évoquant la fracture numérique entre les cadres sociaux du Nord et du Sud. Ainsi, la dimension culturelle de l'appropriation des outils de communication est souvent évacuée au profit d'une conception universaliste. Le phénomène de l'appropriation s'insère dans un cadre socioculturel bien déterminé avec des représentations, des valeurs spécifiques qui interviennent dans le processus. S'intéresser au contexte socioculturel et aux individus est essentiel pour saisir la complexité de l'appropriation des TIC. C'est tout l'intérêt que revêt une recherche comparative sur l'appropriation de la téléphonie mobile et d'internet dans deux cadres sociaux appartenant à des univers géographiquement, économiquement et culturellement différents comme Rennes et Thiès. En tant qu'éléments constitutifs de la physionomie de ces deux villes, de tels outils techniques incorporent leurs réalités socioculturelles. En plus d'être révélateur des modèles de société en vigueur dans ces deux villes, l'appropriation de ces deux outils reflète les identités culturelles des usagers. Ce phénomène fait transparaître les rapports sociaux de générations, de genres, de groupes entre autres. La culture technique, précisément un savoir-faire et une compétence minimale, intervient aussi pour rendre opérationnel l'outil de communication. Celle-ci varie, toutefois, selon les usagers, les groupes et les cadres socioculturels. L'appropriation implique aussi les finalités, les représentations, les identités des usagers ainsi qu'un ensemble de capitaux (culturel, économique et symbolique) mobilisables. Les codes acquis durant le processus de socialisation ainsi que les trajectoires et visions du monde se reflètent sur le phénomène. Par conséquent, l'articulation entre les identités des usagers et les objets techniques mais aussi les contextes socioculturels, constitue une entrée privilégiée pour appréhender l'appropriation
APA, Harvard, Vancouver, ISO, and other styles
23

Tarek, mohamed ibrahim hafez Dina. "Development of Spectrum Sharing Protocol for Cognitive Radio Internet of Things." Thesis, Avignon, 2020. http://www.theses.fr/2020AVIG0280.

Full text
Abstract:
L'Internet des objets (IoT) présente un nouveau style de vie en développant des maisons intelligentes, des réseaux intelligents, des villes intelligentes, des transports intelligents… etc., alors l'IoT se développe rapidement. Cependant, des recherches récentes se concentrent sur le développement des applications IoT sans tenir compte du problème de rareté du spectre IoT ont recontrant. L'intégration de la technologie de l'Internet des objets (IoT) et des réseaux radio cognitifs (CRN), formant l'Internet des objets par radio cognitive (CRIoT), est une solution économique pour battre la rareté du spectre IoT. Le but de cette thèse est de résoudre le problème du partage du spectre pour CRIoT; le travail en thèse est présenté en trois parties.Notre première contribution est de proposer deux nouveaux protocoles pour résoudre le problème de la prédiction de l'état des canaux pour les CRN entrelacés.Les deux protocoles utilisent le modèle de Markov caché (HMM). Dans la phase d'entrainement des deux protocoles, les données disponibles sont utilisées pour produire deux modèles HMM, un modèle HMM occupé et un modèle pas occupé.Les deux modèles sont utilisés ensemble pour produire le HMM à 2 modèles (2-model HMM). Dans la phase de prédiction, le premier protocole utilise le théorème de Bayes et le modèle HMM à 2 modèles, tandis que le second protocole utilise la machine à vecteur de support (SVM) qui emploie les paramètres produits à partir de l'application du modèle HMM à 2 modèles. Le HMM-SVM à 2 modèles est supérieure l’ HMM classique et le HMM à 2 modèles en termes de pourcentage réel, d'imprécision et de probabilité de collision des utilisateurs principaux(prédiction de faux négatifs). Dans notre deuxième contribution, nous avons proposé un protocole central pour ordonner les de paquets pour CRIoT à créneaux temporels. On applique l'optimisation des essaims de particules à permutation discrète (DP-PSO) pour programmer les paquets IoT parmi les créneaux libres obtenus en appliquant la technique d'estimation de canal des réseaux radio cognitifs proposée dans la première partie. Notre protocole proposé est appliqué aux établissements de santé intelligents.On a compose trois blocs de construction principaux pour la construction d'application utilisée; Blocage des appareils IoT, blocage des nœuds de brouillard de première couche et serveur de brouillard central. Chaque groupe d'appareils IoT est connecté à un nœud de brouillard, tous les nœuds de brouillard du système sont connectés au nœud de brouillard central. Le protocole proposé est nommé Planification basée sur l'optimisation des essaims de particules à permutation discrète(SDP-PSO). Une fonction de fitness objective est formulée avec trois paramètres;maximiser l'indice d'équité entre les nœuds de brouillard, minimiser le délai de mise en file d'attente des paquets et minimiser le nombre de paquets abandonnés qui ont dépassé leur temps dans le réseau sans être envoyés. Les performances du protocole SDP-PSO proposé surmontent un ancien protocole appelé vente aux enchères de spectre en termes d'équité entre les nœuds de brouillard, le délai moyen de mise enfile d'attente, le nombre de paquets abandonnés et la complexité temporelle et spatiale.Enfin, dans la troisième contribution, nous avons proposé un protocole d'ordonnancement de paquets distribués pour CRIoT. Notre proposition de protocole est appliquée à un contrôle de la circulation urbaine. Le système configuré dans cette partie se compose de trois blocs de construction principaux: le bloc d'appareils IoT,le premier bloc de couche de brouillard (unités routières (RSU)) et le deuxième bloc de couche de brouillard. Chaque groupe d'appareils IoT est connecté à une RSU, chaque groupe de RSU est connecté à un noeud de brouillard qui est en de tête du groupe. Les noeuds de brouillard sont connectés ensemble pour former un réseau maillé partiel
Internet of Things (IoT) presents a new life style by developing smart homes, smart grids, smart city, smart transportation, etc., so IoT is developing rapidly. However recent researches focus on developing the IoT applications disregarding the IoT spectrum scarcity problem facing it. Integrating Internet of Things (IoT) technology and Cognitive Radio Networks (CRNs), forming Cognitive Radio Internet of Things (CRIoTs), is an economical solution for overcoming the IoT spectrum scarcity. The aim of this thesis is to solve the problem of spectrum sharing for CRIoT; the work in thesis is presented in three parts, each represents a contribution. Our first contribution is to propose two new protocols to solve the problem of channel status prediction for interweave CRNs. Both protocols use Hidden Markov Model (HMM). In the training stage of both protocols, the available data are trained to produce two HMM models, an idle HMM model and a busy one. Both models are used together to produce the 2-model HMM. In the prediction stage the first protocol uses Bayes theorem and the 2-model HMM, while the second protocol uses Support Vector Machine (SVM) employing the parameters produced from applying the 2-model HMM, named 2-model HMM-SVM. The 2-model HMM-SVM outperforms the classical HMM and 2-model HMM in terms of the true percentage, the inaccuracy and the probability of primary users’ collision (false negative prediction). In our second contribution, we proposed a centralized time slotted packet scheduling protocol for CRIoTs. It uses Discrete Permutation Particle Swarm Optimization (DP-PSO) for scheduling the IoT device packets among the free slots obtained from applying cognitive radio networks' channel estimation technique proposed in the first part. Our proposed protocol is applied to smart healthcare facility. Configuring three main building blocks for the used application architecture; the IoT devices block, the first layer fog nodes block and the central fog server. Each group of IoT devices is connected to a fog node, the entire fog nodes in the system are connected to the central fog node. The proposed protocol is named Scheduling based-on Discrete Permutation Particle Swarm Optimization (SDP-PSO). An objective fitness function is formulated with three parameters; maximizing the fairness index among fog nodes, minimizing the packets' queuing delay and minimizing the number of dropped packets that exceeded their allowed time in the network without being sent. The performance of the proposed SDP-PSO protocol overcomes an old protocol named spectrum auction in terms of the fairness between fog nodes, the average queuing delay, the number of dropped packets and the time and the space complexity. Finally, in the third contribution, we proposed a distributed packets' scheduling protocol for CRIoTs. Our proposed protocol can be applied to an urban traffic control. The configured system in this part consists of three main building blocks; the IoT devices block, the first fog layer block (Road Side Units (RSUs)) and the second fog layer block. Each group of IoT devices is connected to a RSU, each group of RSU are connected to a fog node which acts as their cluster head. The fog nodes are connected together forming a partial mesh network. The proposed distributed packets' scheduling protocol for CRIoTs is applying three distributed access strategies together with the SDP-PSO proposed in the second part to schedule the packets on the estimated free slots resulted from applying the protocol proposed in the first part. The used access strategies are the classical round robin, in addition to two proposed ones named; the vertex cover and the enhanced round robin. An objective fitness function near similar to that used in the centralized protocol, was applied but with some differences to make it suitable for distributed scheduling
APA, Harvard, Vancouver, ISO, and other styles
24

Mahamat, Habib Senoussi Hissein. "Étude et prototypage d'une nouvelle méthode d'accès aléatoire multi-canal multi-saut pour les réseaux locaux sans fil." Thesis, Toulouse 2, 2017. http://www.theses.fr/2017TOU20050/document.

Full text
Abstract:
L’émergence de l’Internet des Objets révolutionne les réseaux locaux sans fil et inspirent de nombreuses applications. L’une des problématiques majeures pour les réseaux locaux sans fil est l’accès et le partage du médium radio sans fil. Plusieurs protocoles MAC mono-canal ont été proposés et abordent cette problématique avec des solutions intéressantes. Néanmoins, certains problèmes majeurs liés à l’accès au canal (nœud caché, synchronisation, propagation des RDV…) pour un contexte de transmission multi-saut, persistent encore et font toujours l’objet d’intenses études de la communauté scientifique, surtout lorsqu’il s’agit de réseaux de capteurs sans fil distribués sur des topologies étendues. Certains travaux de recherches ont proposé des protocoles MAC multi-canal, traitant souvent le cas idéal, où tous les nœuds dans le réseau sont à portée les uns des autres. Les émissions et réceptions des trames de données sont généralement précédées de trames des contrôles pour l’établissement de Rendez-vous (RDV) entre les nœuds concernés. Nous constatons que les RDV ne garantissent pas la réservation des canaux de façon déterministe sans conflit entre les nœuds dans le réseau, et peuvent rendre difficile les transmissions en multi-saut. Une solution complexe serait de propager ces RDV vers les voisins du nœud récepteur au-delà de 2 sauts. C’est face à cette complexité de gestion de RDV multi-sauts que s’inscrit notre contribution. Il s’agit pour nous de proposer une méthode d’accès multi-canal aléatoire sans RDV, en topologie multi-saut. Notre solution est implémentée sur un testbedréel constitué de nœuds WiNo mono-interface, elle est basée sur la méthode ALOHA slottée améliorée pour notre contexte multi-canal, dont nous évaluons les performances qui sont comparées au cas mono-canal. Un modèle analytique lié au contexte multi-canal sans RDV a été développé également, et comparé aux résultats de notre testbed
The emergence of the Internet of Thingsrevolutionizeswireless local area networks and inspiringnumerous applications. One of the main issues for wirelessLANsis the access and sharing of the wireless radio medium. Several single-channel MAC protocols have been proposed and addressthis issue withinteresting solutions. However, some major problemsrelated to the channelaccess (hiddennode, synchronization, propagation of RDV) for a multi-hop transmission context, persist and are still the subject of intensive studies by the scientificcommunity, especiallywhenitcomes to a distributedwirelesssensors networks over extended topologies. Someresearch has proposed multi-channel MAC protocols, oftenaddressingthe ideal case, where all nodes in the network are within range of eachother. The transmissions and receptions of the data frames aregenerallypreceded by controls frames for the establishment of Rendez-Vous (RDV) among the nodesconcerned. Wefindthat the RDVs do not guarantee the channelsreservation in a deterministicwaywithoutconflictamong the nodes in the network, and maymakeitdifficult the multi-hop transmissions. A complex solution wouldbe to propagatetheseRDVs to the neighbors of the receivernodebeyond 2 hops. Facedwiththiscomplexity of multi-hop RDV management thatmakesour contribution. It is important for us to propose arandom multi-channelaccessmethodwithout RDV, in multi-hop topology. Our solution isimplemented on a real testbed made of multi-channel single-interface “WiNo” nodes, of whichweevaluate the performance that are compared to the single-channel case. An analytical model related to the multi-channelcontextwithout RDV wasalsodeveloped, and compared to the results of ourtestbed
APA, Harvard, Vancouver, ISO, and other styles
25

Ben, Khalifa Abderrahman. "Medium access control layer for dedicated IoT networks." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEI063.

Full text
Abstract:
Les réseaux dédiés pour l’Internet des Objets sont apparus avec la promesse de connecter des milliers de nœuds, voire plus, à une seule station de base dans une topologie en étoile. Cette nouvelle logique représente un changement fondamental dans la façon de penser les réseaux, après des décennies pendant lesquelles les travaux de recherche se sont focalisés sur les réseaux multi-sauts. Les réseaux pour l’Internet des Objets se caractérisent par la longue portée des transmissions, la vaste couverture géographique, une faible consommation d’énergie et un bas coût de mise en place. Cela a rendu nécessaire des adaptations à tous les niveaux protocolaires afin de satisfaire les besoins de ces réseaux. Plusieurs acteurs sont en concurrence sur le marché de l’Internet des Objets, essayant chacun d’établir la solution la plus efficiente. Ces acteurs se sont concentrés sur la modification de la couche physique, soit au niveau de la partie matérielle, soit par la proposition de nouvelles techniques de modulation. Toutefois, en ce qui concerne la solution de contrôle d’accès au canal (connue sous le nom de couche MAC), toutes les solutions proposées par ces acteurs se fondent sur des approches classiques, tel que Aloha et CSMA. L'objectif de cette thèse est de proposer une solution MAC dynamique pour les réseaux dédiés à l’Internet des Objets. La solution proposée a la capacité de s'adapter aux conditions du réseau. Cette solution est basée sur un algorithme d'apprentissage automatique, qui apprend de l'historique du réseau afin d'établir la relation entre les conditions du réseau, les paramètres de la couche MAC et les performances du réseau en termes de fiabilité et de consommation d'énergie. La solution possède également l'originalité de faire coexister des nœuds utilisant de différentes configurations MAC au sein du même réseau. Les résultats de simulations ont montré qu'une solution MAC basée sur l'apprentissage automatique pourrait tirer profit des avantages des différents protocoles MAC classiques. Les résultats montrent aussi qu'une solution MAC cognitive offre toujours le meilleur compromis entre fiabilité et consommation d'énergie, tout en prenant en compte l'équité entre les nœuds du réseau. La solution MAC cognitive testée pour des réseaux à haute densité a prouvé des bonnes propriétés de passage à l’échelle par rapport aux protocoles MACs classiques, ce qui constitue un autre atout important de notre solution
Dedicated networks for the Internet of Things appeared with the promise of connecting thousands of nodes, or even more, to a single base station in a star topology. This new logic represents a fundamental change in the way of thinking about networks, after decades during which research work mainly focused on multi-hop networks. Internet of Things networks are characterized by long transmission range, wide geographic coverage, low energy consumption and low set-up costs. This made it necessary to adapt the protocols at different architectural layers in order to meet the needs of these networks. Several players compete in the Internet of Things market, each trying to establish the most efficient solution. These players are mostly focused on modifying the physical layer, on the hardware part or through proposing new modulations. However, with regard to the channel access control solution (known as the MAC protocol), all the solutions proposed by these players are based on classic approaches such as Aloha and CSMA. The objective of this thesis is to propose a dynamic MAC solution for networks dedicated to the Internet of Things. The proposed solution has the ability to adapt to network conditions. This solution is based on a machine learning algorithm that learns from network history in order to establish the relationship between network conditions, MAC layer parameters and network performance in terms of reliability and energy consumption. The solution also has the originality of making possible the coexistence of nodes using different MAC configurations within the same network. The results of simulations have shown that a MAC solution based on machine learning could take advantage of the good properties of different conventional MAC protocols. The results also show that a cognitive MAC solution always offers the best compromise between reliability and energy consumption, while taking into account the fairness between the nodes of the network. The cognitive MAC solution tested for high density networks has proven better scalability compared to conventional MAC protocols, which is another important advantage of our solution
APA, Harvard, Vancouver, ISO, and other styles
26

Docquir, Pierre-François. "La liberté d'expression dans le réseau mondial de communication: propositions pour une théorie générale du droit d'accès à l'espace public privatisé." Doctoral thesis, Universite Libre de Bruxelles, 2009. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/210368.

Full text
APA, Harvard, Vancouver, ISO, and other styles
27

Toldov, Viktor. "Adaptive MAC layer for interference limited WSN." Thesis, Lille 1, 2017. http://www.theses.fr/2017LIL10002/document.

Full text
Abstract:
A l'époque de l'Internet des Objets, le nombre de dispositifs communicants ne cesse d'augmenter. Souvent, les objets connectés utilisent des bandes de fréquences « industriel, scientifique et médical (ISM) » pour effectuer les communications. Ces bandes sont disponibles sans licence, ce qui facilite le déploiement de nouveaux objets connectés. Cependant, cela mène aussi au fait que le niveau d'interférences augmente dans les bandes ISM. Les interférences ont non seulement un impact négatif sur la qualité de service, mais aussi elles causent des pertes de messages couteuses en énergie, ce qui est particulièrement nocif pour les nœuds capteurs souvent limités en énergie. Dans cette thèse, l'impact des interférences sur la consommation énergétique des nœuds est étudié expérimentalement. Les résultats de ces expérimentations sont utilisés pour estimer la durée de vie des nœuds en fonction de différents niveaux d’interférence subis. Puis, un algorithme de Radio Cognitive (RC) basé sur la technique d’ échantillonnage de Thompson est proposé et évalué par la simulation et implémentation. Les résultats montrent que l'approche proposée trouve le meilleur canal plus vite que les autres techniques. De plus, une extension multi sauts pour RC est proposée et évaluée par expérimentation lors d'une compétition EWSN Dependability Competition. Finalement, le protocole adaptatif WildMAC est proposé pour le cas d'usage du projet LIRIMA PREDNET qui consiste à surveiller des animaux sauvages. Les performances sont évaluées par simulation avec le simulateur WSNet. Les résultats montrent que la solution proposée respecte les contraintes imposées par le projet PREDNET dans la zone ciblée
In the era of the Internet of Things, the number of connected devices is growing dramatically. Often, connected objects use Industrial, Scientific and Medical radio bands for communication. These kinds of bands are available without license, which facilitates development and implementation of new connected objects. However, it also leads to an increased level of interference in these bands. Interference not only negatively affects the Quality of Service, but also causes energy losses, which is especially unfavorable for the energy constrained Wireless Sensor Networks (WSN). In the present thesis the impact of the interference on the energy consumption of the WSN nodes is studied experimentally. The experimental results were used to estimate the lifetime of WSN nodes under conditions of different levels of interference. Then, a Thompson sampling based Cognitive Radio (CR) adaptive solution is proposed and evaluated via both, simulation and hardware implementation. Results show that this approach finds the best channel quicker than other state of the art solutions. An extension for multihop WSN was proposed for this CR solution and evaluated by hardware implementation in the framework of EWSN Dependability Competition. Finally, an adaptive WildMAC MAC layer protocol is proposed for the usecase of the LIRIMA PREDNET wildlife animal tracking project. Obtained field range test data were used to theoretically estimate cell densities and deployment zone coverage in this Low Power Widea Area Network (LPWAN). Then performance of the protocol was evaluated in WSNet simulation. The results show performance that allows to respect PREDNET project requirements with the given coverage
APA, Harvard, Vancouver, ISO, and other styles
28

Papadopoulos, Georgios. "Improving medium access for dynamic wireless sensor networks." Thesis, Strasbourg, 2015. http://www.theses.fr/2015STRAD034/document.

Full text
Abstract:
L’Internet des objets amène des contraintes uniques et une immense variété d’applications. Ceci oblige à être capable d’établir des communications efficaces en énergie (et néanmoins à faible délai) au sein de réseaux fortement dynamiques. Nous nous sommes concentrés sur l'amélioration du contrôle d'accès au medium (MAC), afin d’optimiser la gestion des communications sans fils,principale source de consommation d'énergie dans ces réseaux. Cette thèse discute de l’auto adaptation de solutions MAC asynchrones et montre qu’une coopération localisée entre objets communicants permet de maintenir un partage efficace de la ressource de communication face à une forte dynamique (trafic, mobilité, pannes). Outre une réflexion menée sur les outils de simulation et d'expérimentation, nous avons conduit des campagnes d'évaluations complètes de nos contributions qui traitent tant des changements de trafic que de la mobilité dans les réseaux très denses
The Internet of Things brings unique constraints and a huge variety of applications. This forces to be able to establish energy efficient communications (and never the less low-delay) within highly dynamic networks. We focused on improving the medium access control (MAC) to optimize the management of wireless communications, the main source of energy consumption in these networks. This thesis discusses the self-adaptation of asynchronous MAC solutions and shows that a localized cooperation between communicating objects can maintain an efficient sharing of the communication resource in highly dynamic networks (traffic, mobility, failures). In addition to a reasoning on the tools of simulation and experimentation, we conducted comprehensive evaluation campaigns of our contributions that address traffic changes and mobility in dense networks
APA, Harvard, Vancouver, ISO, and other styles
29

Choungmo, Fofack Nicaise Éric. "Sur des modèles pour l'évaluation de performance des caches dans un réseau cœur et de la consommation d'énergie dans un réseau d'accès sans-fil." Phd thesis, Université Nice Sophia Antipolis, 2014. http://tel.archives-ouvertes.fr/tel-00968894.

Full text
Abstract:
Internet est un véritable écosystème. Il se développe, évolue et s'adapte aux besoins des utilisateurs en termes de communication, de connectivité et d'ubiquité. Dans la dernière décennie, les modèles de communication ont changé passant des interactions machine-à-machine à un modèle machine-à-contenu. Cependant, différentes technologies sans-fil et de réseaux (tels que les smartphones et les réseaux 3/4G, streaming en ligne des médias, les réseaux sociaux, réseaux-orientés contenus) sont apparues pour améliorer la distribution de l'information. Ce développement a mis en lumière les problèmes liés au passage à l'échelle et à l'efficacité énergétique; d'où la question: Comment concevoir ou optimiser de tels systèmes distribués qui garantissent un accès haut débit aux contenus tout en (i) réduisant la congestion et la consommation d'énergie dans le réseau et (ii) s'adaptant à la demande des utilisateurs dans un contexte connectivité quasi-permanente? Dans cette thèse, nous nous intéressons à deux solutions proposées pour répondre à cette question: le déploiement des réseaux de caches et l'implantation des protocoles économes en énergie. Précisément, nous proposons des modèles analytiques pour la conception de ces réseaux de stockage et la modélisation de la consommation d'énergie dans les réseaux d'accès sans fil. Nos études montrent que la prédiction de la performance des réseaux de caches réels peut être faite avec des erreurs relatives absolues de l'ordre de 1% à 5% et qu'une proportion importante soit 70% à 90% du coût de l'énergie dans les cellules peut être économisée au niveau des stations de base et des mobiles sous des conditions réelles de trafic.
APA, Harvard, Vancouver, ISO, and other styles
30

Tran, Khanh Toan. "Déploiement efficace de services complexes dans l'infrastructure de cloud." Phd thesis, Université d'Evry-Val d'Essonne, 2013. http://tel.archives-ouvertes.fr/tel-00875818.

Full text
Abstract:
Le but du travail réalisé dans cette thèse est de fournir aux fournisseurs de services une solution qui est capable de non seulement déployer les services dans le cloud de façon économique, automatique, mais aussi à grande échelle. La première contribution traite le problème de la construction d'un nouveau service demandé par le client à partir de services disponibles dans le cloud de manière à satisfaire les exigences en termes de qualité de service ainsi qu'en termes de coût. Nous présentons ce problème par un modèle analytique et proposons un algorithme heuristique dont la performance est améliorée de 20-30% par rapport aux autres approches. La seconde contribution est une solution pour déployer les services dans le cloud en considérant les demandes des utilisateurs finaux. Pour assurer qualité de services dans une grande échelle, le service demandé est dupliqué et distribué dans le réseau; chacun de ses réplicas servira les utilisateurs à proximité. Le plan d'approvisionnement selon lequel le service est dupliqué dépend de sa demande, ce qui ne cesse pas de changer en quantité ainsi qu'en distribution, ce qui rend le problème plus compliqué. Nous proposons une solution qui est capable de s'adapter aux changements dans le réseau, y compris ceux des demandes de ses utilisateurs. Enfin, nous proposons un système basé sur OpenStack qui permet de déployer les services complexes dans un cloud qui couvre différente locations (cloud multi-site). A partir d'une demande du client, le système automatiquement calcule le plan d'approvisionnement optimal et le déploie en respectant les contraintes du client.
APA, Harvard, Vancouver, ISO, and other styles
31

Materia, Francesco. "Review and analysis of institutional and regulatory frameworks for fixed Next Generation Access networks." Thesis, Paris Sciences et Lettres (ComUE), 2017. http://www.theses.fr/2017PSLED049.

Full text
Abstract:
Aujourd’hui, l’usage des données lié aux services et contenus proposés sur Internet est en croissance continue et les opérateurs de télécommunications font face à une demande croissante en connectivité. Dans ce contexte, il est indispensable que la transition vers les réseaux très haut débit soit gérée de manière efficace afin de préserver, voire incrémenter, le niveau de concurrence sur le marché ainsi que maximiser l’investissement efficace au bénéfice des consommateurs à travers une combinaison appropriée de différentes formes de concurrence, de différentes technologies et d’investissement à la fois privé et public. Si accompagnée de manière efficace, cette transition peut représenter une grande opportunité pour les marchés des télécommunications européens, les transformant en marchés modernes et concurrentiels et permettant à la régulation ex ante de se retirer progressivement. Nous passons en revue les cadres institutionnels et réglementaires pour les réseaux d’accès fixes de nouvelle génération implémentés en France, Allemagne, Italie, Royaume-Uni et Espagne. A partir d’un modèle de concurrence calibré, nous simulons l’évolution des marchés à horizon 2050 et analysons dans quelle mesure ces cadres paraissent efficaces afin de restituer les meilleurs résultats pour le secteur et pour les consommateurs. Les résultats de notre modèle calibré suggèrent que, afin d’obtenir des meilleurs résultats en terme de bien-être total de long-terme, dans des proportions plus ou moins grandes, certains ajustements pourraient être introduits dans les cadres institutionnels et réglementaires considérés.Nous formulons ainsi, pour chacun des pays analysés, des recommandations visant à accélérer la couverture en très haut débit et à améliorer le niveau de concurrence
Today, data usage driven by content and service providers over the Internet is constantly increasing and telecoms operators are expected to meet an increasing demand for connectivity. In this context, it is vital that the transition between legacy and ultrabroadband networks is properly managed in order both to preserve or improve the state of competition in the market and to maximize efficient investment to the benefit of consumers through an appropriate combination of different forms of competition, of different technologies and of private and public investment. If properly accompanied, the transition from legacy to next generation access networks can represent a major opportunity for the current European telecommunications markets, definitively transforming them into competitive and modern markets and allowing ex ante regulation to progressively step-back.We review the institutional and regulatory frameworks for fixed next generation access networks currently implemented in France, Germany, Italy, United Kingdom and Spain. Based on a calibrated competition model, we simulate market evolution up to 2050 and appraise to what extent these frameworks seem effective in order to achieve the best long-term results both for the industry and for consumers. The results of our calibrated model suggest that, to a greater or lesser extent, some adjustments might be introduced in the above-mentioned frameworks in order to achieve better outcomes in terms of total welfare in the long run. For each of the countries reviewed, we formulate policy recommendations aimed to accelerate NGA coverage and to improve the state of competition in ultrabroadband
APA, Harvard, Vancouver, ISO, and other styles
32

Nicomette, Vincent. "La protection dans les systèmes à objets répartis." Phd thesis, Institut National Polytechnique de Toulouse - INPT, 1996. http://tel.archives-ouvertes.fr/tel-00175252.

Full text
Abstract:
La protection des systèmes répartis est un problème complexe : en quelles entités du système peut-on avoir confiance et étant donné cette confiance, comment assurer la protection du système global. L'approche adoptée dans cette thèse consiste à combiner d'une part une gestion globale et centralisée des droits d'accès aux objets persistants du système par un serveur d'autorisation et d'autre part une protection locale par un noyau de sécurité sur chaque site du système réparti. Ce noyau contrôle les accès à tous les objets locaux (persistants ou temporaires) et a de plus la responsabilité de la gestion des droits d'accès aux objets temporaires locaux. Un schéma d'autorisation est développé pour une telle architecture. Ce schéma est élaboré dans le cadre de systèmes composés d'objets répartis (au sens de la programmation orientée-objets). Il permet de respecter au mieux le principe du moindre privilège, définit de nouveaux droits facilement administrables (appelés droits symboliques), et un nouveau schéma de délégation de droits. Ce modèle est utilisé dans le cadre d'une politique de sécurité discrétionnaire et dans le cadre d'une politique de sécurité multiniveau. Pour cela, un modèle de sécurité multiniveau adapté au modèle objet est développé et présenté dans cette thèse. Un exemple d'implémentation de ce schéma d'autorisation est enfin détaillé.
APA, Harvard, Vancouver, ISO, and other styles
33

Lahbib, Asma. "Distributed management framework based on the blockchain technology for industry 4.0 environments." Electronic Thesis or Diss., Institut polytechnique de Paris, 2020. http://www.theses.fr/2020IPPAS017.

Full text
Abstract:
En raison de l'avancement technologique dans les domaines des communications sans fil ainsi que ceux de l’informatique mobile et embarquée, les frontières entre les mondes physique et digital se rétrécissent pour introduire une nouvelle technologie également appelée l’internet des objets. Cette technologie est en train de devenir une partie intégrante de nos vies. Allant des capteurs de puissance et capabilités réduites, aux Appareils électroménagers intelligents et objets de télé santé jusqu’aux usines interconnectées et intelligentes dans lesquelles les employés, les machines, les processus, les services et même les produits interagissent de manière à fournir une meilleure adaptabilité dans la production ainsi qu’une allocation plus efficace des ressources, et ce, pour répondre plus rapidement au marché, d’une façon plus personnalisée et à moindre coût. L'intégration de ces technologies dans l'environnement et les processus de fabrication en combinaison avec d'autres technologies telles que le cloud computing, les systèmes physiques cybernétiques, les technologies de l'information et de la communication ainsi que l’analyse des données et l’intelligence artificielle a introduit la quatrième révolution industrielle appelée également Industrie 4.0. Dans ce futur monde, les machines parleront aux machines (M2M) pour organiser la production et coordonner leurs actions en fonction des informations collectées et échangées entre les différents capteurs et entités. Cependant, l'ouverture de la connectivité au monde externe soulève plusieurs questions sur la sécurité des données qui n'étaient pas un problème lorsque les appareils étaient contrôlés localement et que seuls quelques-uns d'entre eux étaient connectés à d'autres systèmes distants. Les risques de sécurité de tels objets représentent des ressources potentielles pour des acteurs malveillants. Une fois compromises, ces ressources peuvent être utilisées dans des attaques à large échelle contre d’autres systèmes. C’est pourquoi il est essentiel d’assurer une communication sécurisée entre les différents appareils hétérogènes déployés dans des environnements dynamiques et décentralisés pour protéger les informations échangées contre le vol ou la falsification par des cyber attaquants malveillants et par conséquent obtenir l'acceptation des utilisateurs de telles solutions. Dans cette direction, cette thèse est concentrée sur quatre questions complémentaires, principalement (1) la Gestion dynamique, basée sur la confiance de l'accès aux ressources partagées au sein d'un système distribué et collaboratif de l’industrie 4.0, (2) le protection des données personnelles et sensibles des utilisateurs tout au long des procédures de gestion d’accès et tout en éliminant le besoin de s'appuyer sur des tiers supplémentaires, (3) la vérification de la sécurité ainsi que l'exactitude fonctionnelle du cadre conçu et enfin (4) l'évaluation de degré de confiance fiabilité des parties en interaction en plus du stockage sécurisé des informations relatives afin de garantir leur confidentialité, intégrité et traçabilité. En se concentrant sur ces questions et en tenant compte des caractéristiques conventionnelles des environnements IoT et IIoT, nous avons proposé dans cette thèse un environnement générique sécurisé et décentralisé de gestion des ressources dans les environnements Industrie 4.0. Le cadre spécifié basé sur la technologie blockchain et piloté par un réseau peer to peer permet non seulement la gestion dynamique d’accès aux ressources partagées mais aussi la gouvernance distribuée du système, la protection de vie privée, la gestion de confiance et la vérification formelle des spécifications établies afin de valider leur respect des spécifications établies. Enfin, une conception et mise en œuvre de la plateforme est assurée afin de prouver sa faisabilité et d'analyser ses performances
The evolution of the Internet of Things (IoT) started decades ago as part of the first face of the digital transformation, its vision has further evolved due to a convergence of multiple technologies, ranging from wireless communication to the Internet and from embedded systems to micro-electromechanical systems. As a consequence thereof, IoT platforms are being heavily developed, smart factories are being planned to revolutionize the industry organization and both security and trust requirements are becoming more and more critical. The integration of such technologies within the manufacturing environment and processes in combination with other technologies has introduced the fourth industrial revolution referred to also as Industry 4.0. In this future world machines will talk to machines (M2M) to organize the production and coordinate their actions. However opening connectivity to the external world raises several questions about data and IT infrastructure security that were not an issue when devices and machines were controlled locally and just few of them were connected to some other remote systems. That’s why ensuring a secure communication between heterogeneous and reliable devices is essential to protect exchanged information from being stolen or tampered by malicious cyber attackers that may harm the production processes and put the different devices out of order. Without appropriate security solutions, these systems will never be deployed globally due to all kinds of security concerns. That’s why ensuring a secure and trusted communication between heterogeneous devices and within dynamic and decentralized environments is essential to achieve users acceptance and to protect exchanged information from being stolen or tampered by malicious cyber attackers that may harm the production processes and put the different devices out of order. However, building a secure system does not only mean protecting the data exchange but it requires also building a system where the source of data and the data itself is being trusted by all participating devices and stakeholders. In this thesis our research focused on four complementary issues, mainly (I) the dynamic and trust based management of access over shared resources within an Industry 4.0 based distributed and collaborative system, (ii) the establishment of a privacy preserving solution for related data in a decentralized architecture while eliminating the need to rely on additional third parties, (iii) the verification of the safety, the correctness and the functional accuracy of the designed framework and (iv) the evaluation of the trustworthiness degree of interacting parties in addition to the secure storage and sharing of computed trust scores among them in order to guarantee their confidentiality, integrity and privacy. By focusing on such issues and taking into account the conventional characteristics of both IoT and IoT enabled industries environments, we proposed in this thesis a secure and distributed framework for resource management in Industry 4.0 environments. The proposed framework, enabled by the blockchain technology and driven by peer to peer networks, allows not only the dynamic access management over shared resources but also the distribute governance of the system without the need for third parties that could be their-selves vulnerable to attacks. Besides and in order to ensure strong privacy guarantees over the access control related procedures, a privacy preserving scheme is proposed and integrated within the distributed management framework. Furthermore and in order to guarantee the safety and the functional accuracy of our framework software components, we focused on their formal modeling in order to validate their safety and compliance with their specification. Finally, we designed and implemented the proposal in order to prove its feasibility and analyze its performances
APA, Harvard, Vancouver, ISO, and other styles
34

Sambra, Andrei Vlad. "Data ownership and interoperability for a decentralized social semantic web." Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2013. http://www.theses.fr/2013TELE0027.

Full text
Abstract:
Assurer l'appropriation des données personnelles et l'interopérabilité des applications Web sociaux décentralisées est actuellement un sujet controversé, surtout en prenant compte des aspects de la vie privée et du contrôle d'accès. Il est important d'améliorer le Web social de telle manière à permettre des modèles d'affaires viables tout en étant capable de fournir une plus grande appropriation des données et l'interopérabilité des données par rappport à la situation actuelle. A cet égard, nous avons concentré notre recherche sur trois thèmes différents: le contrôle d'identité, l'authentifiaction et le contrôle d'accès. Tout d'abord, nous abordons le sujet de l'identité décentralisée en proposant un nouveau standard Web appelé "Web Identity and Discovery" (WebID), qui offre un mécanisme d'identification simple et universel qui est distribué et ouvertement extensible. Ensuite, nous passons à la question de l'authentification où nous proposons WebID-TLS, un protocole d'authentification décentralisé qui permet l'authentification sécurisée, simple et efficace sur le Web en permettant aux personnes de se connecter à l'aide de certificats clients. Nous étendons également WebID-TLS, en offrant des moyens d'effectuer de l'authentification déléguée et de la délégation d'accès. Enfin, nous présentons notre dernière contribution, un service de contrôle d'accès social, qui sert à protéger l'accès aux ressources Linked Data générés par les utilisateurs (par exemple, les données de profil, messages du mur, conversations, etc) par l'application de deux mesures: la "distance de proximité sociale" et "contexte social"
Ensuring personal data ownership and interoperability for decentralized social Web applications is currently a debated topic, especially when taking into consideration the aspects of privacy and access control. Since the user's data are such an important asset of the current business models for most social Websites, companies have no incentive to share data among each other or to offer users real ownership of their own data in terms of control and transparency of data usage. We have concluded therefore that it is important to improve the social Web in such a way that it allows for viable business models while still being able to provide increased data ownership and data interoperability compared to the current situation. To this regard, we have focused our research on three different topics: identity, authentication and access control. First, we tackle the subject of decentralized identity by proposing a new Web standard called "Web Identity and Discovery" (WebID), which offers a simple and universal identification mechanism that is distributed and openly extensible. Next, we move to the topic of authentication where we propose WebID-TLS, a decentralized authentication protocol that enables secure, efficient and user friendly authentication on the Web by allowing people to login using client certificates and without relying on Certification Authorities. We also extend the WebID-TLS protocol, offering delegated authentication and access delegation. Finally we present our last contribution, the Social Access Control Service, which serves to protect the privacy of Linked Data resources generated by users (e.g. pro le data, wall posts, conversations, etc.) by applying two social metrics: the "social proximity distance" and "social contexts"
APA, Harvard, Vancouver, ISO, and other styles
35

Shehadeh, Dareen. "Dynamic network adaptation for energy saving." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2017. http://www.theses.fr/2017IMTA0067/document.

Full text
Abstract:
Notre travail s'inscrit dans le cadre des recherches sur le Sleeping mode. Notre contribution est structurée principalement autour deux axes : l'étude et l'évaluation de la performance des processus de mise en veille/réveil des points d'accès et la sélection du nombre minimal des points d'accès dans un milieu urbain dense. Dans un premier temps, nous étudions les processus de mise en veille/réveil des points d'accès dans un scenario classique de réseau domestique. Ce scenario suppose que le point d'accès mis en veille doit détecter la présence d'un utilisateur potentiel dans sa zone de couverture et réagir par conséquence d'une façon autonome pour se mettre en état de fonctionnement normal. Nous avons choisi quatre processus de réveil du point d'accès, et nous avons ensuite étudié chacun de ces processus, et proposé un protocole de communication qui permette à un utilisateur d'envoyer l'ordre au point d'accès de s'éteindre. Lorsque cela était possible, nous avons utilisé le protocole COAP qui est prévu pour établir des sessions de commande pour l'Internet des Objets. Nous avons ensuite mesuré les performances du point de vue de l'économie d'énergie qu'il permet de réaliser et du délai entre le moment où un utilisateur potentiel est détecté et le moment où le point d'accès devient opérationnel. Nous avons aussi étudié un réseau dense dans un milieu urbain (le centre ville de Rennes) où la zone de couverture d'un point d'accès pouvait être partiellement ou totalement couverte par d'autres points d'accès. Pour évaluer la redondance dans le réseau, nous avons collecté des informations réelles sur les points d'accès en utilisant l'application Wi2Me. Le traitement de ces informations nous a permis d'identifier les points d'accès existants dans la zone étudiée et leurs zones de couverture respectives démontrant ainsi la superposition de ces zones de couverture et le potentiel d'élimination d'un certain nombre de points d'accès sans affecter la couverture globale. Nous avons alors proposé un système centralisé qui collecte les données de couverture des points d'accès observée par les utilisateur. Nous avons donc utilisé ce simple fait pour centraliser la vue du réseau de plusieurs utilisateurs, ce qui permet d'avoir une vue assez précise de la disponibilité des points d'accès dans une zone géographie. Nous avons alors proposé une représentation de ces données de couverture à travers des matrices qui traitent les différentes erreurs de capture (coordonnées GPS non précises, réutilisation des noms de réseaux, etc). Enfin, nous avons ensuite proposé deux algorithmes permettant de sélectionner l'ensemble minimal des points d'accès requis fournissant une couverture identique à celle d'origine
The main goal of the thesis is to design an Energy Proportional Network by taking intelligent decisions into the network such as switching on and off network components in order to adapt the energy consumption to the user needs. Our work mainly focuses on reducing the energy consumption by adapting the number of APs that are operating to the actual user need. In fact, traffic load varies a lot during the day. Traffic is high in urban areas and low in the suburb during day work hours, while it is the opposite at night. Often, peak loads during rush hours are lower than capacities of the networks. Thus they remain lightly utilized for long periods of time. Thus keeping all APs active all the time even when the traffic is low causes a huge waste of energy. Our goal is to benefit from low traffic periods by automatically switch off redundant cells, taking into consideration the actual number of users, their traffic and the bandwidth requested to serve them. Ideally we wish to do so while maintaining reliable service coverage for existing and new coming users. First we consider a home networking scenario. In this case only one AP covers a given area. So when this AP is switched off (when no users are present), there will be no other AP to fill the gap of coverage. Moreover, upon the arrival of new users, no controller or other mechanism exists to wake up the AP. Consequently, new arriving users would not be served and would remain out of coverage. The study of the state of the art allowed us to have a clear overview of the existing approaches in this context. As a result, we designed a platform to investigate different methods to wake up an AP using different technologies. We measure two metrics to evaluate the Switching ON/OFF process for the different methods. The first is the energy consumed by the AP during the three phases it goes through. The second is the delay of time for the AP to wake up and be operational to serve the new users. In the second case we consider a dense network such as the ones found in urban cities, where the coverage area of an AP is also covered by several other APs. In other words, the gap resulting from switching off one or several APs can be covered by other neighbouring ones. Thus the first thing to do was to evaluate the potential of switching off APs using real measurements taken in a dense urban area. Based on this collected information, we evaluate how many APs can be switched off while maintaining the same coverage. To this end, we propose two algorithms that select the minimum set of APs needed to provide full coverage. We compute several performance parameters, and evaluate the proposed algorithms in terms of the number of selected APs, and the coverage they provide
APA, Harvard, Vancouver, ISO, and other styles
36

Mushtaq, Mubashar. "QoS provisioning for adaptive video streaming over P2P networks." Thesis, Bordeaux 1, 2008. http://www.theses.fr/2008BOR13744.

Full text
Abstract:
Actuellement, nous constatons une augmentation de demande de services vidéo sur les réseaux P2P. Ces réseaux jouent un rôle primordial dans la transmission de contenus multimédia à grande échelle pour des clients hétérogènes. Cependant, le déploiement de services vidéo temps réel sur les réseaux P2P a suscité un grand nombre de défis dû à l’hétérogénéité des terminaux et des réseaux d’accès, aux caractéristiques dynamiques des pairs, et aux autres problèmes hérités des protocoles TCP/IP, à savoir les pertes de paquets, les délais de transfert et la variation de la bande passante de bout-en-bout. Dans ce contexte, l’objectif de cette thèse est d’analyser les différents problèmes et de proposer un mécanisme de transport vidéo temps réel avec le provisionnement de la qualité de Service (QoS). Ainsi, nous proposons trois contributions majeures. Premièrement, il s’agit d’un mécanisme de streaming vidéo adaptatif permettant de sélectionner les meilleurs pair émetteurs. Ce mécanisme permet de structurer les pairs dans des réseaux overlay hybrides avec une prise en charge des caractéristiques sémantiques du contenu et des caractéristiques physiques du lien de transport. Nous présentons ensuite un mécanisme d’ordonnancement de paquets vidéo combiné à une commutation de pairs et/ou de flux pour assurer un transport lisse. Finalement, une architecture de collaboration entre les applications P2P et les fournisseurs de services / réseaux est proposée pour supporter un contrôle d’admission de flux
There is an increasing demand for scalable deployment of real-time multimedia streaming applications over Internet. In this context, Peer-to-Peer (P2P) networks are playing an important role for supporting robust and large-scale transmission of multimedia content to heterogeneous clients. However, the deployment of real-time video streaming applications over P2P networks arises lot of challenges due to heterogeneity of terminals and access networks, dynamicity of peers, and other problems inherited from IP network. Real-time streaming applications are very sensitive to packet loss, jitter / transmission delay, and available end-to-end bandwidth. These elements have key importance in QoS provisioning and need extra consideration for smooth delivery of video streaming applications over P2P networks. Beside the abovementioned issues, P2P applications lack of awareness in constructing their overlay topologies and do not have any explicit interaction with service and network providers. This situation leads to inefficient utilization of network resources and may cause potential violation of peering agreements between providers. The aim of this thesis is to analyze these issues and to propose an adaptive real-time transport mechanism for QoS provisioning of Scalable Video Coding (SVC) applications over P2P networks. Our contributions in this dissertation are threefold. First, we propose a hybrid overlay organization mechanism allowing intelligent organization of sender peers based on network-awareness, media- awareness, and quality-awareness. This overlay organization is further used for an appropriate selection of best sender peers, and the efficient switching of peers to ensure a smooth video delivery when any of the sender peers is no more reliable. Second, we propose a packet video scheduling mechanism to assign different parts of the video content to specific peers. Third, we present a service provider driven P2P network framework that enables effective interaction between service / network providers and P2P applications to perform QoS provisioning mechanism for the video streaming
APA, Harvard, Vancouver, ISO, and other styles
37

Sambra, Andrei Vlad. "Data ownership and interoperability for a decentralized social semantic web." Thesis, Evry, Institut national des télécommunications, 2013. http://www.theses.fr/2013TELE0027/document.

Full text
Abstract:
Assurer l'appropriation des données personnelles et l'interopérabilité des applications Web sociaux décentralisées est actuellement un sujet controversé, surtout en prenant compte des aspects de la vie privée et du contrôle d'accès. Il est important d'améliorer le Web social de telle manière à permettre des modèles d'affaires viables tout en étant capable de fournir une plus grande appropriation des données et l'interopérabilité des données par rappport à la situation actuelle. A cet égard, nous avons concentré notre recherche sur trois thèmes différents: le contrôle d'identité, l'authentifiaction et le contrôle d'accès. Tout d'abord, nous abordons le sujet de l'identité décentralisée en proposant un nouveau standard Web appelé "Web Identity and Discovery" (WebID), qui offre un mécanisme d'identification simple et universel qui est distribué et ouvertement extensible. Ensuite, nous passons à la question de l'authentification où nous proposons WebID-TLS, un protocole d'authentification décentralisé qui permet l'authentification sécurisée, simple et efficace sur le Web en permettant aux personnes de se connecter à l'aide de certificats clients. Nous étendons également WebID-TLS, en offrant des moyens d'effectuer de l'authentification déléguée et de la délégation d'accès. Enfin, nous présentons notre dernière contribution, un service de contrôle d'accès social, qui sert à protéger l'accès aux ressources Linked Data générés par les utilisateurs (par exemple, les données de profil, messages du mur, conversations, etc) par l'application de deux mesures: la "distance de proximité sociale" et "contexte social"
Ensuring personal data ownership and interoperability for decentralized social Web applications is currently a debated topic, especially when taking into consideration the aspects of privacy and access control. Since the user's data are such an important asset of the current business models for most social Websites, companies have no incentive to share data among each other or to offer users real ownership of their own data in terms of control and transparency of data usage. We have concluded therefore that it is important to improve the social Web in such a way that it allows for viable business models while still being able to provide increased data ownership and data interoperability compared to the current situation. To this regard, we have focused our research on three different topics: identity, authentication and access control. First, we tackle the subject of decentralized identity by proposing a new Web standard called "Web Identity and Discovery" (WebID), which offers a simple and universal identification mechanism that is distributed and openly extensible. Next, we move to the topic of authentication where we propose WebID-TLS, a decentralized authentication protocol that enables secure, efficient and user friendly authentication on the Web by allowing people to login using client certificates and without relying on Certification Authorities. We also extend the WebID-TLS protocol, offering delegated authentication and access delegation. Finally we present our last contribution, the Social Access Control Service, which serves to protect the privacy of Linked Data resources generated by users (e.g. pro le data, wall posts, conversations, etc.) by applying two social metrics: the "social proximity distance" and "social contexts"
APA, Harvard, Vancouver, ISO, and other styles
38

Salhab, Nazih. "Resource provisioning and dynamic optimization of Network Slices in an SDN/NFV environment." Thesis, Paris Est, 2020. http://www.theses.fr/2020PESC2019.

Full text
Abstract:
Pour offrir le haut débit mobile amélioré, les communications massives et critiques pour l'Internet des objets, la cinquième génération (5G) des réseaux mobiles est déployée à nos jours, en se basant sur plusieurs catalyseurs: le réseau d'accès radio nuagique (C-RAN), les réseaux programmables (SDN), et la virtualisation des fonctions réseaux (NFV). Le C-RAN décompose la nouvelle génération Node-B (gNB) en: i) tête radio distante (RRH), ii) unité digitale (DU), et iii) unité centrale (CU), appelée aussi unité cloud ou collaborative. Les DU et CU implémentent la base bande (BBU) tout en utilisant les huit options du split du front-haul pour une performance affinée. La RRH implémente la circuiterie extérieure pour la radio. Le SDN permet la programmation du comportement du réseau en découplant le plan de contrôle du plan utilisateur tout en centralisant la gestion des flux en un nœud de contrôle dédié. La NFV, d'autre part, utilise les technologies de virtualisation pour lancer les fonctions réseaux virtualisées (FRV) sur des serveurs conventionnels du marché. SDN et NFV permettent la partition du C-RAN, réseaux de transport et cœur en tant que tranches définies comme des réseaux virtuels et isolés de bout en bout conçus pour couvrir des exigences spécifiques aux différentes cas d’utilisations. L'objectif principal de cette thèse est de développer des algorithmes de provisionnement des ressources (unité de traitement centrale (CPU), mémoire, énergie, et spectre) pour la 5G, tout en garantissant un emplacement optimal des FRV dans une infrastructure nuagique. Pour achever ce but ultime, on adresse l'optimisation des ressources et d'infrastructure dans les trois domaines des réseaux mobiles: le cœur de réseau 5G (5GC), le C-RAN et les contrôleurs SDN. En tant qu’une première contribution, nous formulons la décharge du 5GC en tant qu'une optimisation sous contraintes ciblant plusieurs objectifs (coût de virtualisation, puissance de traitement, et charge du réseau) pour faire les décisions optimales et avec la plus faible latence. On optimise l'utilisation de l'infrastructure réseau en termes de capacité de traitement, consommation d'énergie et de débit, tout en respectant les exigences par tranche (latence, fiabilité, et capacité, etc.). Sachant que l'infrastructure est assujettie à des évènements fréquents tels que l'arrivée et le départ des utilisateurs/dispositifs, les changements continuels du réseau (reconfigurations, et défauts inévitables), nous proposons l'optimisation dynamique moyennant la technique de Branch, Cut and Price (BCP), en discutant les effets de ces objectifs sur plusieurs métriques. Notre 2ème contribution consiste à optimiser le C-RAN par un regroupement dynamique des RRH aux BBU (DU, CU). D’une part, nous proposons ce regroupement pour optimiser le débit en down-link. D’autre part, nous proposons la prédiction du power Head-room (PHR), sur le lien hertzien pour optimiser le débit en up-link. Dans notre troisième contribution, nous adressons l'orchestration des tranches réseaux 5G à travers le contrôleur C-RAN défini par logiciel en utilisant des approches de ML pour: la classification des exigences de performance, la prédiction des ratios de tranchage, le contrôle d'admission, le séquencement, et la gestion adaptative des ressources. En se basant sur des évaluations exhaustives moyennant notre prototype 5G basé sur OpenAirInterface, et en utilisant une pile de performance intégrée, nous montrons que nos propositions dépassent les stratégies connexes en termes de rapidité d'optimisation, des coûts de virtualisation et de débit
To address the enhanced mobile broadband, massive and critical communications for the Internet of things, Fifth Generation (5G) of mobile communications is being deployed, nowadays, relying on multiple enablers, namely: Cloud Radio Access Network (C-RAN), Software-Defined Networking (SDN) and Network Function Virtualization (NFV).C-RAN decomposes the new generation Node-B into: i) Remote Radio Head (RRH), ii) Digital Unit (DU), and iii) Central Unit (CU), also known as Cloud or Collaborative Unit.DUs and CUs are the two blocks that implement the former 4G Baseband Unit (BBU) while leveraging eight options of functional splits of the front-haul for a fine-tuned performance. The RRH implements the radio frequency outdoor circuitry. SDN allows programming network's behavior by decoupling the control plane from the user plane and centralizing the flow management in a dedicated controller node. NFV, on the other hand, uses virtualization technology to run Virtualized Network Functions (VNFs) on commodity servers. SDN and NFV allow the partitioning of the C-RAN, transport and core networks as network slices defined as isolated and virtual end-to-end networks tailored to fulfill diverse requirements requested by a particular application. The main objective of this thesis is to develop resource-provisioning algorithms (Central Processing Unit (CPU), memory, energy, and spectrum) for 5G networks while guaranteeing optimal provisioning of VNFs for a cloud-based infrastructure. To achieve this ultimate goal, we address the optimization of both resources and infrastructure within three network domains: 5G Core Network (5GC), C-RAN and the SDN controllers. We, first formulate the 5GC offloading problem as a constrained-optimization to meet multiple objectives (virtualization cost, processing power and network load) by making optimal decisions with minimum latency. We optimize the usage of the network infrastructure in terms of computing capabilities, power consumption, and bitrate, while meeting the needs per slice (latency, reliability, efficiency, etc.). Knowing that the infrastructure is subject to frequent and massive events such as the arrival/departure of users/devices, continuous network evolution (reconfigurations, and inevitable failures), we propose a dynamic optimization using Branch, Cut and Price, while discussing objectives effects on multiple metrics.Our second contribution consists of optimizing the C-RAN by proposing a dynamic mapping of RRHs to BBUs (DUs and CUs). On first hand, we propose clustering the RRHs in an aim to optimize the downlink throughput. On second hand, we propose the prediction of the Power Headroom (PHR), to optimize the throughput on the uplink.We formulate our RRHs clustering problem as k-dimensional multiple Knapsacks and the prediction of PHR using different Machine Learning (ML) approaches to minimize the interference and maximize the throughput.Finally, we address the orchestration of 5G network slices through the software defined C-RAN controller using ML-based approaches, for all of: classification of performance requirements, forecasting of slicing ratios, admission controlling, scheduling and adaptive resource management.Based on extensive evaluations conducted in our 5G experimental prototype based on OpenAirInterface, and using an integrated performance management stack, we show that our proposals outperform the prominent related strategies in terms of optimization speed, computing cost, and achieved throughput
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography