Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Réseau du Edge.

Thèses sur le sujet « Réseau du Edge »

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 48 meilleures thèses pour votre recherche sur le sujet « Réseau du Edge ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Abderrahim, Mohamed. « Conception d’un système de supervision programmable et reconfigurable pour une infrastructure informatique et réseau répartie ». Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2018. http://www.theses.fr/2018IMTA0119/document.

Texte intégral
Résumé :
Le Cloud offre le calcul, stockage etréseau en tant que services. Pour réduire le coûtde cette offre, les opérateurs ont tendance à s’appuyer sur des infrastructures centralisées et gigantesques. Cependant, cette configuration entrave la satisfaction des exigences de latence et de bande passante des applications de nouvelle génération. L'Edge cherche à relever ce défi en s'appuyant sur des ressources massivement distribuées. Afin de satisfaire les attentes des opérateurs et des utilisateurs du Edge, des services de gestion ayant des capacités similaires à celles qui ont permis le succès du Cloud doivent être conçus. Dans cette thèse, nous nous concentrons sur le service de supervision. Nous proposons un canevas logiciel pour la mise en place d’un service holistique. Ce canevas permet de déterminer une architecture de déploiement pair-à-pair pour les fonctions d'observation, de traitement et d'exposition des mesures. Il vérifie que cette architecture satisfait les exigences fonctionnelles et de qualité de service des utilisateurs. Ces derniers peuvent être exprimés à l'aide d'un langage de description offert par le canevas. Le canevas offre également un langage de description pour unifier la description de l'infrastructure Edge. L’architecture de déploiement est déterminée avec l’objectif de minimiser l'empreinte de calcul et réseau du service de supervision. Pour cela, les fonctions de supervision sont mutualisées entre les différents utilisateurs. Les tests que nous avons faits ont montré la capacité de notre proposition à réduire l'empreinte de supervision avec un gain qui atteint -28% pour le calcul et -24% pour leréseau
Cloud offers compute, storage and network as services. To reduce the offer cost, the operators tend to rely on centralized and massive infrastructures. However, such a configuration hinders the satisfaction of the latency and bandwidth requirements of new generation applications. The Edge aims to rise this challenge by relying on massively distributed resources. To satisfy the operators and the users of Edge, management services similar to the ones that made the success of Cloud should be designed. In this thesis, we focus on the monitoring service. We design a framework to establish a holistic monitoring service. This framework determines a peer-to-peer deployment architecture for the observation, processing, and exposition of measurements. It verifies that this architecture satisfies the functional and quality of service constraints of the users. For this purpose, it relies on a description of users requirement sand a description of the Edge infrastructure.The expression of these two elements can be unified with two languages offered by the Framework. The deployment architecture is determined with the aim of minimizing the compute and network footprint of the monitoring service. For this purpose, the functions are mutualized as much as possible among the different users. The tests we did showed the relevance of our proposal for reducing monitoring footprint with a gain of -28% for the compute and -24% for the network
Styles APA, Harvard, Vancouver, ISO, etc.
2

Minerva, Roberto. « Will the Telco survive to an ever changing world ? Technical considerations leading to disruptive scenarios ». Thesis, Evry, Institut national des télécommunications, 2013. http://www.theses.fr/2013TELE0011/document.

Texte intégral
Résumé :
Le secteur des télécommunications passe par une phase délicate en raison de profondes mutations technologiques, principalement motivées par le développement de l'Internet. Elles ont un impact majeur sur l'industrie des télécommunications dans son ensemble et, par conséquent, sur les futurs déploiements des nouveaux réseaux, plateformes et services. L'évolution de l'Internet a un impact particulièrement fort sur les opérateurs des télécommunications (Telcos). En fait, l'industrie des télécommunications est à la veille de changements majeurs en raison de nombreux facteurs, comme par exemple la banalisation progressive de la connectivité, la domination dans le domaine des services de sociétés du web (Webcos), l'importance croissante de solutions à base de logiciels et la flexibilité qu'elles introduisent (par rapport au système statique des opérateurs télécoms). Cette thèse élabore, propose et compare les scénarios possibles basés sur des solutions et des approches qui sont technologiquement viables. Les scénarios identifiés couvrent un large éventail de possibilités: 1) Telco traditionnel; 2) Telco transporteur de Bits; 3) Telco facilitateur de Plateforme; 4) Telco fournisseur de services; 5) Disparition des Telco. Pour chaque scénario, une plateforme viable (selon le point de vue des opérateurs télécoms) est décrite avec ses avantages potentiels et le portefeuille de services qui pourraient être fournis
The telecommunications industry is going through a difficult phase because of profound technological changes, mainly originated by the development of the Internet. They have a major impact on the telecommunications industry as a whole and, consequently, the future deployment of new networks, platforms and services. The evolution of the Internet has a particularly strong impact on telecommunications operators (Telcos). In fact, the telecommunications industry is on the verge of major changes due to many factors, such as the gradual commoditization of connectivity, the dominance of web services companies (Webcos), the growing importance of software based solutions that introduce flexibility (compared to static system of telecom operators). This thesis develops, proposes and compares plausible future scenarios based on future solutions and approaches that will be technologically feasible and viable. Identified scenarios cover a wide range of possibilities: 1) Traditional Telco; 2) Telco as Bit Carrier; 3) Telco as Platform Provider; 4) Telco as Service Provider; 5) Telco Disappearance. For each scenario, a viable platform (from the point of view of telecom operators) is described highlighting the enabled service portfolio and its potential benefits
Styles APA, Harvard, Vancouver, ISO, etc.
3

Renoust, Benjamin. « Analysis and Visualisation of Edge Entanglement in Multiplex Networks ». Phd thesis, Université Sciences et Technologies - Bordeaux I, 2013. http://tel.archives-ouvertes.fr/tel-00942358.

Texte intégral
Résumé :
When it comes to comprehension of complex phenomena, humans need to understand what interactions lie within them.These interactions are often captured with complex networks. However, the interaction pluralism is often shallowed by traditional network models. We propose a new way to look at these phenomena through the lens of multiplex networks, in which catalysts are drivers of the interaction through substrates. To study the entanglement of a multiplex network is to study how edges intertwine, in other words, how catalysts interact. Our entanglement analysis results in a full set of new objects which completes traditional network approaches: the entanglement homogeneity and intensity of the multiplex network, and the catalyst interaction network, with for each catalyst, an entanglement index. These objects are very suitable for embedment in a visual analytics framework, to enable comprehension of a complex structure. We thus propose of visual setting with coordinated multiple views. We take advantage of mental mapping and visual linking to present simultaneous information of a multiplex network at three different levels of abstraction. We complete brushing and linking with a leapfrog interaction that mimics the back-and-forth process involved in users' comprehension. The method is validated and enriched through multiple applications including assessing group cohesion in document collections, and identification of particular associations in social networks.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Aouadj, Messaoud. « AirNet, le modèle de virtualisation « Edge-Fabric » comme plan de contrôle pour les réseaux programmables ». Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30138/document.

Texte intégral
Résumé :
Les travaux de cette thèse s'inscrivent dans le contexte général des réseaux logiciels, dits "Software-Defined Networking" (SDN). Ce paradigme récent est l'une des initiatives les plus notables pour rendre les réseaux actuels programmables ou, en d'autres termes, plus simple à configurer, à tester, à corriger et à faire évoluer. Dans un écosystème SDN, l'interface nord (Northbound API) est utilisée par l'administrateur réseaux pour définir ses politiques et programmer le plan de contrôle, elle représente donc un enjeu majeur. Idéalement, cette interface nord devrait permettre aux administrateurs de décrire, le plus simplement possible, des services réseaux et leurs interactions, plutôt que de spécifier comment et sur quels équipements physiques ils doivent être déployés. Des travaux existants montrent que cela peut être notamment réalisé grâce à des solutions de virtualisation de réseaux et des langages de programmation dédiés de haut niveau. L'objectif de ce travail de thèse est de proposer une nouvelle interface nord qui, d'une part, exploiterait la virtualisation de réseau et, d'autre part, exposerait ses services sous la forme d'un langage de programmation dédié. Actuellement, plusieurs langages intégrant des solutions de virtualisation de réseau existent. Néanmoins, nous pensons que les modèles d'abstraction qu'ils utilisent pour construire des réseaux virtuels restent inappropriés pour assurer des critères de simplicité, modularité et flexibilité des topologies virtuelles et des programmes de contrôle. Dans ce contexte, nous proposons un nouveau langage de contrôle de réseaux nommé AirNet. Ce dernier intègre un modèle d'abstraction dont la principale caractéristique est d'offrir une séparation nette entre les équipements de bordure (Edge) et de cœur de réseau (Fabric). Cette idée est bien connue et acceptée dans le domaine des architectures réseaux. L'originalité de notre contribution étant de faire remonter ce concept au niveau du plan de contrôle virtuel et non de le restreindre au seul plan physique. Ainsi, des frontières logiques entre les différents types de politiques existeront (fonctions de contrôle et de données vs. fonctions de transport), garantissant ainsi la modularité et la réutilisabilité de tout ou partie du programme de contrôle. De plus, dans l'approche proposée, la définition du réseau virtuel et des politiques peut être totalement dissociée de l'infrastructure physique cible, favorisant ainsi la portabilité des applications de contrôle. Une implémentation du langage AirNet a également été réalisée. Ce prototype inclut en particulier une bibliothèque des primitives et opérateurs du langage, ainsi qu'un hyperviseur qui assure la composition des politiques de contrôle sur un réseau virtuel, et leur transposition (mapping) sur l'infrastructure physique. Afin de s'appuyer sur des contrôleurs SDN existants, l'hyperviseur inclut des modules d'intégration des contrôleurs POX et RYU. Une validation expérimentale a été menée sur différents cas d'étude (filtrage, répartition de charge, authentification dynamique, limitation de bande passante, etc.) dont les résultats attestent de la faisabilité de la solution. Enfin, des mesures de performances ont montré que le surcoût apporté par cette nouvelle couche d'abstraction est parfaitement acceptable
The work of this thesis falls within the general context of software-defined networking (SDN). This new paradigm is one of the most significant initiatives to enable networks programmability or, in other words, to make current networks easier to configure, test, debug and evolve. Within an SDN ecosystem, the Northbound interface is used by network administrators to define policies and to program the control plane, it thus represents a major challenge. Ideally, this northbound interface should allow administrators to describe, as simply as possible, network services and their interactions, rather than specifying how and on what physical device they need to be deployed. Current related works show that this can be partly achieved through virtualization solutions and high-level domain specific languages (DSL). The objective of this thesis is to propose a new Northbound interface which will, on the one hand, rely on network virtualization and, on the other hand, expose its services as a domain specific programming language. Currently, several languages that include network virtualization solutions exist. Nevertheless, we believe that the abstract models they are using to build virtual networks remain inadequate to ensure simplicity, modularity and flexibility of virtual topologies and control programs. In this context, we propose a new network control language named AirNet. Our language is built on top of an abstraction model whose main feature is to provide a clear separation between edge and core network devices. This concept is a well-known and accepted idea within the network designer community. The originality of our contribution is to lift up this concept at the virtual control plane, not limiting it solely at the physical plane. Thus, logical boundaries between different types of policies will exist (control and data functions vs. transport functions), ensuring modularity and reusability of the control program. Moreover, in the proposed approach, the definition of the virtual network and policies is totally dissociated from the target physical infrastructure, promoting the portability of control applications. An implementation of the AirNet language has also been done. This prototype includes in particular a library that implements the primitives and operators of the language, and a hypervisor that achieves the composition of the control policies on the virtual network, and their mapping on the physical infrastructure. In order to rely on existing SDN controllers, the hypervisor includes integration modules for the POX and RYU controllers. An experimental validation has been also conducted on different use cases (filtering, load balancing, dynamic authentication, bandwidth throttling, etc.), whose results demonstrate the feasibility of our solution. Finally, performance measurements have shown that the additional cost brought by this new abstraction layer is perfectly acceptable
Styles APA, Harvard, Vancouver, ISO, etc.
5

Mekki, Mohamed. « Enabling Zero-Touch Cloud Edge Computing Continuum Management ». Electronic Thesis or Diss., Sorbonne université, 2024. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2024SORUS231.pdf.

Texte intégral
Résumé :
La maturation de la provision et de la gestion des infrastructures de cloud computing et d'edge computing a engendré le Cloud Edge Computing Continuum (CECC), facilitant le déploiement et la migration d'applications entre les infrastructures cloud centralisées et les infrastructures edge décentralisées. Cette transition a donné vie à des nouveaux cas d'utilisation dans des secteurs tels que l'Internet Industriel des Objets (IIoT), les véhicules autonomes et la réalité augmentée, tous profitant de cette architecture distribuée. Ces domaines d'application requièrent à la fois la scalabilité des centres de données massifs du cloud traditionnel et la faible latence des infrastructures edge computing. Les progrès technologiques, tels que la virtualisation, la conteneurisation et les réseaux 5G, ont facilité le développement d'applications CECC, passant des architectures monolithiques aux microservices. L'orchestration efficace des applications CECC est essentielle pour garantir la performance et optimiser l'utilisation des ressources. Cette thèse propose des solutions pour la gestion automatisée du CECC, se concentrant sur la collecte de données de supervision, la compréhension du fonctionnement des applications et de l'infrastructure, et la prise de décisions sur le placement la migration et l'adaptation des ressources des applications. Dans la première contribution de cette thèse, nous proposons un framework de supervision de services multi-domaines de bout en bout. De tels services consistent en des applications et des fonctions réseau qui s'étendent sur plusieurs domaines technologiques, chacun présentant ses propres intrications uniques. Le système de supervision proposé utilise une structure unifiée des Key Performance Indicators (KPIs), abstrayant efficacement toutes les complexités sous-jacentes. Des tests approfondis dans différents scénarios valident la scalabilité du framework et sa capacité à superviser un grand nombre de services simultanément. La prochaine étape de la thèse impliquait le profilage des applications, dans lequel nous avons mené une étude expérimentale pour explorer le comportement de différents types d'applications dans des environnements cloud-native. Cette étude met en évidence l'incapacité des propriétaires d'applications à configurer les ressources appropriées pour leurs applications afin de fonctionner de manière optimale sans entraîner de gaspillage des ressources d'infrastructure. Ensuite, nous avons utilisé des techniques de machine learning et d'eXplainable AI (XAI) pour construire des modèles capables de prédire la dégradation des performances des applications, en utilisant des ensembles de données générés à partir de notre étude. Lorsque le modèle prédit un déclin des performances de l'application, le module XAI fournit des explications pour la sortie du modèle, facilitant l'identification de la cause profonde de la dégradation du service. Cette cause profonde est ensuite traitée par le gestionnaire d'application.Le parcours de cette thèse s'est conclu par la proposition d'une architecture pour la gestion du cycle de vie des applications CECC. Cette architecture utilise des profils d'application et d'infrastructure pour déployer et migrer des applications tout en tenant compte de l'empreinte carbone du déploiement CECC.Le principal défi réside dans la représentation concrète du profil d'application de manière à pouvoir spécifier les exigences actuelles et futures de l'application. Ce défi a été relevé en représentant efficacement le profil d'application pour faciliter la dérivation des exigences actuelles et futures de l'application
The maturation of cloud computing and edge computing infrastructure provisioning and management has led to the emergence of Cloud Edge Computing Continuum (CECC). CECC enables seamless deployment and migration of applications between centralized cloud infrastructures and decentralized edge infrastructure. This evolution has driven new use cases across industries, including Industrial Internet of Things (IIoT), autonomous vehicles, and augmented reality, all benefiting from this distributed architecture.These use cases require scalability and storage from massive data centers typical of traditional cloud computing, as well as the low latency and high bandwidth offered by edge computing infrastructures. Several factors enable the development and deployment of applications to fully leverage CECC : advancements in application deployment technologies like virtualization and containerization, a shift in application architecture and development methodology towards microservices architectures, and innovations in networking technologies such as 5G mobile networks. Efficiently orchestrating applications within the CECC framework is crucial for meeting performance requirements and optimizing infrastructure resource utilization. This thesis proposes solutions for zero-touch management of CECC, focusing on automated monitoring, profiling, and decision-making processes. These solutions aim to automate application management, facilitating seamless orchestration and resource optimization.In the first contribution, a novel monitoring system for multi-domain services is proposed, utilizing a unified structure for Key Performance Indicators (KPIs) to abstract underlying technologies. This scalable system monitors end-to-end network slices, including Radio Access Network (RAN), Core Network (CN), and Cloud/Edge domains.The second contribution presents results from an experimental study aiming to detect if a tenant's configuration allows running its service optimally. The study provides insights on detecting and correcting performance degradation due to misconfiguration of service resources.Moving towards decision-making of a CECC manager, the third contribution proposes a Zero-Touch Service Management (ZSM) framework featuring a fine-granular computing resource scaler in a cloud-native environment. The scaler uses AI/ML models to predict microservice performances, with an XAI module conducting root-cause analysis for service degradation. Afterwards, the proposed framework scales only the needed resources (i.e., CPU or memory) to overcome the service degradation. Finally, in the last contribution, an architecture of CECC Application Orchestrator is proposed, leveraging applications and infrastructures profiling for efficient management. These profiles represent current and future applications' requirements, guiding decision-making processes (placement, resources scaling. migration) to minimize carbon footprint and deployment costs
Styles APA, Harvard, Vancouver, ISO, etc.
6

Li, Yue. « Edge computing-based access network selection for heterogeneous wireless networks ». Thesis, Rennes 1, 2017. http://www.theses.fr/2017REN1S042/document.

Texte intégral
Résumé :
Au cours de ces dernières décennies, les réseaux de télécommunications mobiles ont évolué de la 1G à la 4G. La 4G permet la coexistence de différents réseaux d'accès. Ainsi, les utilisateurs ont la capacité de se connecter à un réseau hétérogène, constitué de plusieurs réseaux d'accès. Toutefois, la sélection du réseau approprié n'est pas une tâche facile pour les utilisateurs mobiles puisque les conditions de chaque réseau d'accès changent rapidement. Par ailleurs, en termes d'usage, le streaming vidéo devient le service principal de transfert de données sur les réseaux mobiles, ce qui amène les fournisseurs de contenu et les opérateurs de réseau à coopérer pour garantir la qualité de la diffusion. Dans ce contexte, la thèse propose la conception d'une approche novatrice pour la prise de décision optimale de sélection de réseau et une architecture améliorant les performances des services de streaming adaptatif dans un réseau hétérogène. En premier lieu, nous introduisons un modèle analytique décrivant la procédure de sélection de réseau en ne considérant déjà qu'une seule classe de trafic. Nous concevons ensuite une stratégie de sélection basée sur des fondements de la théorie du contrôle optimal linéaire. Des simulations sous MATLAB sont effectuées pour valider l'efficacité du mécanisme proposé. Sur ce même principe, nous étendons ce modèle avec un modèle analytique général décrivant les procédures de sélection de réseau dans des environnements de réseaux hétérogènes avec de multiples classes de trafic. Le modèle proposé est ensuite utilisé pour dériver un mécanisme adaptatif basé sur la théorie du contrôle, qui permet non seulement d'aider à piloter dynamiquement le trafic vers l'accès réseau le plus approprié mais aussi de bloquer dynamiquement le trafic résiduel lorsque le réseau est congestionné en ajustant les probabilités d'accès optimales. Nous discutons aussi les avantages d'une intégration transparente du mécanisme proposé avec l'ANDSF, solution fonctionnelle normalisée pour la sélection de réseau. Un prototype est également implémenté dans ns-3. En second lieu, nous nous concentrons sur l'amélioration des performances de DASH pour les utilisateurs mobiles dans un environnement de réseau d'accès 4G uniquement. Nous introduisons une nouvelle architecture basée sur l'utilisation de serveurs distribués en périphérie de réseau suivant le standard MEC. Le mécanisme d'adaptation proposé, fonctionnant en tant que service MEC, peut modifier les fichiers de manifeste en temps réel, en réponse à la congestion du réseau et à la demande dynamique de flux de streaming. Ces modifications conduisent ainsi les clients à sélectionner des représentations vidéo de débit / qualité plus appropriées. Nous avons développé une plateforme de test virtualisée pour l'expérimentation de notre proposition. Les résultats ainsi obtenus démontrent ses avantages en terme de QoE comparés aux approches d'adaptation traditionnelles, purement pilotées par les clients, car notre approche améliore non seulement le MOS mais aussi l'équité face à la congestion. Enfin, nous étendons l'architecture proposée basée sur MEC pour supporter le service de streaming adaptatif DASH dans un réseau hétérogène multi-accès afin de maximiser la QoE et l'équité des utilisateurs mobiles. Dans ce scénario, notre mécanisme doit aider les utilisateurs à sélectionner la qualité vidéo et le réseau et nous le formulons comme un problème d'optimisation. Ce problème d'optimisation peut être résolu par l'outil IBM CPLEX, mais cela prend du temps et ne peut être envisagé à grande échelle. Par conséquent, nous introduisons une heuristique pour aborder la solution optimale avec moins de complexité. Ensuite, nous mettons en œuvre une expérimentation sur notre plateforme de tests. Le résultat démontre que, par rapport à l'outil IBM CPLEX, notre algorithme permet d'obtenir des performances similaires sur la QoE globale et l'équité, avec un gain de temps significatif
Telecommunication network has evolved from 1G to 4G in the past decades. One of the typical characteristics of the 4G network is the coexistence of heterogeneous radio access technologies, which offers end-users the capability to connect them and to switch between them with their mobile devices of the new generation. However, selecting the right network is not an easy task for mobile users since access network condition changes rapidly. Moreover, video streaming is becoming the major data service over the mobile network where content providers and network operators should cooperate to guarantee the quality of video delivery. In order to cope with this context, the thesis concerns the design of a novel approach for making an optimal network selection decision and architecture for improving the performance of adaptive streaming in the context of a heterogeneous network. Firstly, we introduce an analytical model (i.e. linear discrete-time system) to describe the network selection procedure considering one traffic class. Then, we consider the design of a selection strategy based on foundations from linear optimal control theory, with the objective to maximize network resource utilization while meeting the constraints of the supported services. Computer simulations with MATLAB are carried out to validate the efficiency of the proposed mechanism. Based on the same principal we extend this model with a general analytical model describing the network selection procedures in heterogeneous network environments with multiple traffic classes. The proposed model was, then, used to derive a scalable mechanism based on control theory, which allows not only to assist in steering dynamically the traffic to the most appropriate network access but also helps in blocking the residual traffic dynamically when the network is congested by adjusting dynamically the access probabilities. We discuss the advantages of a seamless integration with the ANDSF. A prototype is also implemented into ns-3. Simulation results sort out that the proposed scheme prevents the network congestion and demonstrates the effectiveness of the controller design, which can maximize the network resources allocation by converging the network workload to the targeted network occupancy. Thereafter, we focus on enhancing the performance of DASH in a mobile network environment for the users which has one access network. We introduce a novel architecture based on MEC. The proposed adaptation mechanism, running as an MEC service, can modify the manifest files in real time, responding to network congestion and dynamic demand, thus driving clients towards selecting more appropriate quality/bitrate video representations. We have developed a virtualized testbed to run the experiment with our proposed scheme. The simulation results demonstrate its QoE benefits compared to traditional, purely client-driven, bitrate adaptation approaches since our scheme notably improves both on the achieved MOS and on fairness in the face of congestion. Finally, we extend the proposed the MEC-based architecture to support the DASH service in a multi-access heterogeneous network in order to maximize the QoE and fairness of mobile users. In this scenario, our scheme should help users select both video quality and access network and we formulate it as an optimization problem. This optimization problem can be solved by IBM CPLEX tool. However, this tool is time-consuming and not scalable. Therefore, we introduce a heuristic algorithm to make a sub-optimal solution with less complexity. Then we implement a testbed to conduct the experiment and the result demonstrates that our proposed algorithm notably can achieve similar performance on overall achieved QoE and fairness with much more time-saving compared to the IBM CPLEX tool
Styles APA, Harvard, Vancouver, ISO, etc.
7

Morvan, Alexis. « Honeycomb lattices of superconducting microwave resonators : Observation of topological Semenoff edge states ». Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS037/document.

Texte intégral
Résumé :
Cette thèse décrit la réalisation et l’étude de réseaux bidimensionnels de résonateurs supraconducteurs en nid d’abeille. Ce travail constitue un premier pas vers la simulation de systèmes de la matière condensée avec des circuits supraconducteurs. Ces réseaux sont micro-fabriqués et sont constitués de plusieurs centaines de sites. Afin d’observer les modes propres qui y apparaissent dans une gamme de fréquence entre 4 et 8 GHz, nous avons mis au point une technique d’imagerie. Celle-ci utilise la dissipation locale créée par un laser avec lequel nous pouvons adresser chaque site du réseau. Nous avons ainsi pu mesurer la structure de bande et caractériser les états de bord de nos réseaux. En particulier, nous avons observé les états localisés qui apparaissent à l'interface entre deux isolants de Semenoff ayant des masses opposées. Ces états, dits de Semenoff, sont d'origine topologique. Nos observations sont en excellent accord avec des simulations électromagnétiques ab initio
This thesis describes the realization and study of honeycomb lattices of superconducting resonators. This work is a first step towards the simulation of condensed matter systems with superconducting circuits. Our lattices are micro-fabricated and typically contains a few hundred sites. In order to observe the eigen-modes that appear between 4 and 8 GHz, we have developed a mode imaging technique based on the local dissipation introduced by a laser spot that we can move across the lattice. We have been able to measure the band structure and to characterize the edge states of our lattices. In particular, we observe localized states that appear at the interface between two Semenoff insulators with opposite masses. These states, called Semenoff states, have a topological origin. Our observations are in good agreement with ab initio electromagnetic simulations
Styles APA, Harvard, Vancouver, ISO, etc.
8

Toumlilt, Ilyas. « Colony : a Hybrid Consistency System for Highly-Available Collaborative Edge Computing ». Electronic Thesis or Diss., Sorbonne université, 2021. http://www.theses.fr/2021SORUS447.

Texte intégral
Résumé :
La distribution et la réplication des données en périphérie du réseau apportent une réponse immédiate, une autonomie et une disponibilité aux applications de périphérie, telles que les jeux, l’ingénierie coopérative ou le partage d’informations sur le terrain. Cependant, les développeurs d’applications et les utilisateurs exigent les meilleures garanties de cohérence possibles, ainsi qu’un support spécifique pour la collaboration de groupe. Pour relever ce défi, Colony garantit la cohérence Transactional Causal Plus Consistency (TCC+) à échelle planétaire, en complément de l’isolation des instantanés au sein des groupes de périphérie. Pour favoriser le passage à l’échelle, la tolérance aux pannes et la sécurité, sa topologie de communication logique est arborescente, avec des racines répliquées dans le nuage principal, mais avec la possibilité de migrer un nœud ou un groupe. Malgré cette approche hybride, les applications bénéficient de la même sémantique partout dans la topologie. Nos expériences montrent que la mise en cache locale et les groupes collaboratifs améliorent considérablement le débit et le temps de réponse, que les performances ne sont pas affectées en mode hors ligne et que la migration est transparente
Immediate response, autonomy and availability is brought to edge applications, such as gaming, cooperative engineering, or in-the-field information sharing, by distributing and replicating data at the edge. However, application developers and users demand the highest possible consistency guarantees, and specific support for group collaboration. To address this challenge, COLONY guarantees Transactional Causal Plus Consistency (TCC+) globally, dovetailing with Snapshot Isolation within edge groups. To help with scalability, fault tolerance and security, its logical communication topology is tree-like, with replicated roots in the core cloud, but with the flexibility to migrate a node or a group. Despite this hybrid approach, applications enjoy the same semantics everywhere in the topology. Our experiments show that local caching and peer groups improve throughput and response time significantly, performance is not affected in offline mode, and that migration is seamless
Styles APA, Harvard, Vancouver, ISO, etc.
9

Harmassi, Mariem. « Thing-to-thing context-awareness at the edge ». Thesis, La Rochelle, 2019. http://www.theses.fr/2019LAROS037.

Texte intégral
Résumé :
L'Internet des objets (IdO) comprend aujourd'hui une riche offre d'objets connectés, qui permettent de collecter et de partager en continu des données hétérogènes se rapportant à leurs environnements. Ceci a permis l'émergence d'un nouveau type d'applications, qui sont basées sur ces données et permettent de faciliter la vie des citoyens. Ces applications de l'Internet des objets sont dites « sensibles au contexte ». Grâce aux données collectées sur le contexte de l'utilisateur, elles sont en mesure d'adapter leur comportement de manière autonome, sans intervention humaine. Dans cette thèse, nous proposons un nouveau paradigme autour des interactions objet-à-objet, nommé « Interactions objet-à-objet pour la sensibilité au contexte en bordure de réseaux ». Ce dernier, permet de tenir compte d'un nouveau type de contexte, paradoxalement à la notion conventionnelle de « sensibilité au contexte » qui se limite au contexte de l’utilisateur d’une application. Ainsi nous proposons de nous intéresser pour la première fois au contexte des objets en tant que composante même de l’application. Cette thèse vise à doter les objets connectés d’un certain degré d'intelligence, leur permettant de comprendre leur propre environnement et d’en tenir compte dans leurs interactions objet-à-objet. Les contributions majeures de cette thèse se focalisent sur deux modules principaux. Nous proposons, dans un premier temps, un module d’identification de contextes capable de capter les contextes des objets mobiles et de délivrer ce genre d’information de contexte de façon exacte et continue. Sur la base de cette information de contexte assurée par le premier module, nous proposons un deuxième module de collecte de données sensible aux contextes de déploiement des objets connectés. Afin que ceci soit possible, de nombreux verrous restent à lever. Concernant le premier module d’identification de contexte, le premier défi rencontré afin de permettre aux objets connectés de devenir sensibles au contexte est (i) Comment peut-on assurer une identification de contexte exacte pour des objets déployés dans des environnements incontrôlables ? Pour ce faire, nous proposons dans notre premier travail un raisonneur dédié à l'apprentissage et le raisonnement sur le contexte [1]. Le raisonneur proposé est fondé sur une stratégie coopérative entre les différents dispositifs IdO d'un même voisinage. Cette coopération vise à un échange mutuel des données parmi les ressources disponibles d'un même voisinage. La deuxième problématique rencontrée est (ii) Comment peut-on assurer une identification de contexte continue pour des nœuds mobiles appartenant à des réseaux opportunistes ? Nous devons tout d'abord leur permettre de découvrir un maximum de voisins afin d'établir un échange avec. Afin de répondre à cette deuxième problématique nous proposons WELCOME un protocole de découverte des voisinages éco énergétique et à faible latence [2] qui permettra de diminuer considérablement les collisions sur la base d’une découverte de voisinage à faible coût en termes de latence et d’énergie. La troisième problématique, se rapportant au module de collecte de données sensible au contexte, est (iii) Comment peut-on assurer une collecte efficace et précise sur la base du contexte physique de déploiement des capteurs. En effet, d’une part tenir compte de l’information de contexte des capteurs, permet d'éviter toutes transmissions inutiles ou redondante de données. D’autre part, la contextualisation des données implique un partage et donc des transmissions de messages. La question ici (iii) Comment peut-on contextualiser au mieux le plus grand nombre d'objets connectés tout en préservant au mieux leurs ressources énergétiques. Afin de répondre à cette question, nous proposons un Publish-Subscribe à la fois sensible au contexte et éco énergétique basé sur un jeu coalitionnel dynamique qui permet de résoudre ces conflits d’intérêts entre les sources dans un réseau
Internet of Things IoT (IoT) today comprises a plethora of different sensors and diverse connected objects, constantly collecting and sharing heterogeneous sensory data from their environment. This enables the emergence of new applications exploiting the collected data towards facilitating citizens lifestyle. These IoT applications are made context-aware thanks to data collected about user's context, to adapt their behavior autonomously without human intervention. In this Thesis, we propose a novel paradigm that concern Machine to Machine (M2M)/Thing To Thing (T2T) interactions to be aware of each other context named \T2T context-awareness at the edge", it brings conventional context-awareness from the application front end to the application back-end. More precisely, we propose to empower IoT devices with intelligence, allowing them to understand their environment and adapt their behaviors based on, and even act upon, the information captured by the neighboringdevices around, thus creating a collective intelligence. The first challenge we face in order to make IoT devices context-aware is (i) How can we extract such information without deploying any dedicated resources for this task? To do so we propose in our first work a context reasoner [1] based a cooperation among IoT devices located in the same surrounding. Such cooperation aims at mutually exchange data about each other context. To enable IoT devices to see, hear, and smell the physical world for themselves, we need firstly to make them connected to share their observations. For a mobile and energy- constrained device, the second challenge we face is (ii) How to discover as much neighbors as possible in its vicinity while preserving its energy resource? We propose Welcome [2] a Low latency and Energy efficient neighbor discovery scheme that is based on a single-delegate election method. Finally, a Publish-Subscribe that take into account the context at the edge of IoT devices, can greatly reduce the overhead and save the energy by avoiding unnecessary transmission of data that doesn't match application requirements. However, if not thought about properly building such T2T context-awareness could imply an overload of subscriptions to meet context-estimation needs. So our third contribution is (iii) How to make IoT devices context-aware while saving energy. To answer this, We propose an Energy efficient and context-aware Publish-Subscribe [3] that strike a balance between energy-consumption due to context estimation and energy-saving due to context-based filtering near to data sources
Styles APA, Harvard, Vancouver, ISO, etc.
10

Minerva, Roberto. « Will the Telco survive to an ever changing world ? Technical considerations leading to disruptive scenarios ». Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2013. http://www.theses.fr/2013TELE0011.

Texte intégral
Résumé :
Le secteur des télécommunications passe par une phase délicate en raison de profondes mutations technologiques, principalement motivées par le développement de l'Internet. Elles ont un impact majeur sur l'industrie des télécommunications dans son ensemble et, par conséquent, sur les futurs déploiements des nouveaux réseaux, plateformes et services. L'évolution de l'Internet a un impact particulièrement fort sur les opérateurs des télécommunications (Telcos). En fait, l'industrie des télécommunications est à la veille de changements majeurs en raison de nombreux facteurs, comme par exemple la banalisation progressive de la connectivité, la domination dans le domaine des services de sociétés du web (Webcos), l'importance croissante de solutions à base de logiciels et la flexibilité qu'elles introduisent (par rapport au système statique des opérateurs télécoms). Cette thèse élabore, propose et compare les scénarios possibles basés sur des solutions et des approches qui sont technologiquement viables. Les scénarios identifiés couvrent un large éventail de possibilités: 1) Telco traditionnel; 2) Telco transporteur de Bits; 3) Telco facilitateur de Plateforme; 4) Telco fournisseur de services; 5) Disparition des Telco. Pour chaque scénario, une plateforme viable (selon le point de vue des opérateurs télécoms) est décrite avec ses avantages potentiels et le portefeuille de services qui pourraient être fournis
The telecommunications industry is going through a difficult phase because of profound technological changes, mainly originated by the development of the Internet. They have a major impact on the telecommunications industry as a whole and, consequently, the future deployment of new networks, platforms and services. The evolution of the Internet has a particularly strong impact on telecommunications operators (Telcos). In fact, the telecommunications industry is on the verge of major changes due to many factors, such as the gradual commoditization of connectivity, the dominance of web services companies (Webcos), the growing importance of software based solutions that introduce flexibility (compared to static system of telecom operators). This thesis develops, proposes and compares plausible future scenarios based on future solutions and approaches that will be technologically feasible and viable. Identified scenarios cover a wide range of possibilities: 1) Traditional Telco; 2) Telco as Bit Carrier; 3) Telco as Platform Provider; 4) Telco as Service Provider; 5) Telco Disappearance. For each scenario, a viable platform (from the point of view of telecom operators) is described highlighting the enabled service portfolio and its potential benefits
Styles APA, Harvard, Vancouver, ISO, etc.
11

Foroughi, Parisa. « Towards network automation : planning and monitoring ». Electronic Thesis or Diss., Institut polytechnique de Paris, 2022. http://www.theses.fr/2022IPPAT038.

Texte intégral
Résumé :
La gestion de réseau subit des changements radicaux en raison des attentes élevées de l’infrastructure pour supporter de nouveaux services. Les diverses exigences de ces services nécessitent l’intégration de nouvelles technologies habilitantes qui compliquent le processus de surveillance et de planification du réseau. Par conséquent, pour alléger la charge et augmenter la précision de la surveillance et de la planification, des solutions plus automatisées au niveau des éléments/dispositifs sont nécessaires. Dans cette thèse, nous proposons un cadre semi-automatique appelé AI-driven telemetry (ADT) pour collecter, traiter et évaluer l’état des routeurs en utilisant des données de télémétrie en continu. ADT se compose de 4 blocs de construction : le collecteur, le détecteur, l’explicateur et l’exportateur. Nous nous concentrons sur le bloc de détection dans ADT et proposons une technique de détection de changement en ligne multi-variable appelée DESTIN. Notre étude sur le bloc d’explication de la TAD se limite à explorer le potentiel des données d’entrée et à montrer la possibilité d’une description automatique des événements. Ensuite, nous abordons le problème de la planification et du dimensionnement dans les réseaux d’accès radio équipés de serveurs périphériques distribués. Nous proposons un modèle qui satisfait aux exigences de service et utilise les nouvelles technologies habilitantes, c’est-à-dire le découpage en tranches du réseau et les techniques de virtualisation. Nous montrons les avantages de l’utilisation de notre modèle holistique pour automatiser la planification des réseaux d’accès radio en utilisant le recuit simulé et les méthodes gourmandes
Network management is undergoing drastic changes due to the high expectations of the infrastructure to support new services. The diverse requirements of these services, call for the integration of new enabler technologies that complicate the network monitoring and planning process. Therefore, to alleviate the burden and increase the monitoring and planning accuracy, more automated solutions on the element/device level are required. In this thesis, we propose a semi-automated framework called AI-driven telemetry (ADT) for collecting, processing, and assessing the state of routers using streaming telemetry data. ADT consists of 4 building blocks: collector, detector, explainer, and exporter. We concentrate on the detection block in ADT and propose a multi-variate online change detection technique called DESTIN. Our study on the explainer block of ADT is limited to exploring the potential of the input data and showcasing the possibility of the automated event description. Then, we tackle the problem of planning and dimensioning in radio access networks equipped with distributed edge servers. We propose a model that satisfies the service requirements and makes use of novel enabler technologies, i.e. network slicing and virtualization techniques. We showcase the advantages of using our holistic model to automate RAN planning by utilizing simulated annealing and greedy methods
Styles APA, Harvard, Vancouver, ISO, etc.
12

Cuadrado-Cordero, Ismael. « Microclouds : an approach for a network-aware energy-efficient decentralised cloud ». Thesis, Rennes 1, 2017. http://www.theses.fr/2017REN1S003/document.

Texte intégral
Résumé :
L'architecture actuelle du cloud, reposant sur des datacenters centralisés, limite la qualité des services offerts par le cloud du fait de l'éloignement de ces datacenters par rapport aux utilisateurs. En effet, cette architecture est peu adaptée à la tendance actuelle promouvant l'ubiquité du cloud computing. De plus, la consommation énergétique actuelle des data centers, ainsi que du cœur de réseau, représente 3% de la production totale d'énergie, tandis que selon les dernières estimations, seulement 42,3% de la population serait connectée. Dans cette thèse, nous nous intéressons à deux inconvénients majeurs des clouds centralisés: la consommation d'énergie ainsi que la faible qualité de service offerte. D'une part, du fait de son architecture centralisée, le cœur de réseau consomme plus d'énergie afin de connecter les utilisateurs aux datacenters. D'autre part, la distance entre les utilisateurs et les datacenters entraîne une utilisation accrue du réseau mondial à large bande, menant à des expériences utilisateurs de faible qualité, particulièrement pour les applications interactives. Une approche semi-centralisée peut offrir une meilleur qualité d'expérience aux utilisateurs urbains dans des réseaux clouds mobiles. Pour ce faire, cette approche confine le traffic local au plus proche de l'utilisateur, tout en maintenant les caractéristiques centralisées s’exécutant sur les équipements réseaux et utilisateurs. Dans cette thèse, nous proposons une nouvelle architecture de cloud distribué, basée sur des "microclouds". Des "microclouds" sont créés de manière dynamique, afin que les ressources utilisateurs provenant de leurs ordinateurs, téléphones ou équipements réseaux puissent être mises à disposition dans le cloud. De ce fait, les microclouds offrent un système dynamique, passant à l'échelle, tout en évitant d’investir dans de nouvelles infrastructures. Nous proposons également un exemple d'utilisation des microclouds sur un cas typique réel. Par simulation, nous montrons que notre approche permet une économie d'énergie pouvant atteindre 75%, comparée à une approche centralisée standard. En outre, nos résultats indiquent que cette architecture passe à l'échelle en terme du nombre d'utilisateurs mobiles, tout en offrant une bien plus faible latence qu'une architecture centralisée. Pour finir, nous analysons comment inciter les utilisateurs à partager leur ressources dans les clouds mobiles et proposons un nouveau mécanisme d'enchère adapté à l'hétérogénéité et la forte dynamicité de ces systèmes. Nous comparons notre solution aux autres mécanismes d’enchère existants dans des cas d'utilisations typiques au sein des clouds mobiles, et montrons la pertinence de notre solution
The current datacenter-centralized architecture limits the cloud to the location of the datacenters, generally far from the user. This architecture collides with the latest trend of ubiquity of Cloud computing. Also, current estimated energy usage of data centers and core networks adds up to 3% of the global energy production, while according to latest estimations only 42,3% of the population is connected. In the current work, we focused on two drawbacks of datacenter-centralized Clouds: Energy consumption and poor quality of service. On the one hand, due to its centralized nature, energy consumption in networks is affected by the centralized vision of the Cloud. That is, backbone networks increase their energy consumption in order to connect the clients to the datacenters. On the other hand, distance leads to increased utilization of the broadband Wide Area Network and poor user experience, especially for interactive applications. A distributed approach can provide a better Quality of Experience (QoE) in large urban populations in mobile cloud networks. To do so, the cloud should confine local traffic close to the user, running on the users and network devices. In this work, we propose a novel distributed cloud architecture based on microclouds. Microclouds are dynamically created and allow users to contribute resources from their computers, mobile and network devices to the cloud. This way, they provide a dynamic and scalable system without the need of an extra investment in infrastructure. We also provide a description of a realistic mobile cloud use case, and the adaptation of microclouds on it. Through simulations, we show an overall saving up to 75% of energy consumed in standard centralized clouds with our approach. Also, our results indicate that this architecture is scalable with the number of mobile devices and provide a significantly lower latency than regular datacenter-centralized approaches. Finally, we analyze the use of incentives for Mobile Clouds, and propose a new auction system adapted to the high dynamism and heterogeneity of these systems. We compare our solution to other existing auctions systems in a Mobile Cloud use case, and show the suitability of our solution
Styles APA, Harvard, Vancouver, ISO, etc.
13

Khizar, Sadia. « Metrology for 5G edge networks (MEC). Leveraging mobile devices beyond the edge toward task offloading ». Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS069.

Texte intégral
Résumé :
L'omniprésence des dispositifs mobiles équipés d'une connectivité Internet et de systèmes de positionnement, nous pousse à les considérer comme une ressource précieuse à exploiter. Dans cette thèse, nous abordons l'utilisation des dispositifs mobiles sous un nouvel angle. Nous considérons l'extension de la capacité du MEC en utilisant les ressources disponibles des dispositifs mobiles au-delà de la bordure du réseau d'infrastructure. L'objectif est de tirer parti de leurs ressources inexploitées pour traiter les tâches de calculs au profit du MEC de manière distribuée. Pour pouvoir s'appuyer sur des nœuds mobiles, il est fondamental que le MEC soit capable de connaître son environnement d'exploitation. Dans la première partie de la thèse, nous explorons la disponibilité temporelle des ressources au-delà du bord. Nous avons choisi d'étudier la co-localisation des terminaux et d'analyser leurs persistances dans une cellule. Puis, nous nous intéressons à l'allocation des tâches. Nous mettons l'accent sur l'aspect spatio-temporel en quantifiant les ressources qu'une cellule peut fournir pour effectuer une tâche MEC. Nous estimons le potentiel de tâches de calcul effectuées par les terminaux en fonction du temps de présence cumulé dans une cellule donnée et d'un délai d'achèvement donné. Les résultats permettent de déterminer les possibilités de décharger des tâches de calcul sur des dispositifs mobiles. En outre, ils permettent de connaître les emplacements où il est judicieux de délester les tâches et la durée des tâches pouvant être délestées
The pervasiveness of mobile devices equipped with internet connectivity and positioning systems leads us to regard them as a valuable resource to leverage. In this thesis, we tackle the use of mobile devices from a new perspective. We consider the extension of the capacity of the MEC by using the available resources of mobile devices beyond the edge of the infrastructure network. The goal is to leverage their untapped resources to process computation on behalf of the MEC in a distributed way. It is fundamental for the MEC to be aware of its operating environment to rely on mobile nodes. In the first part of the thesis, we have focused on the temporal availability of beyond-the-edge resources. We chose to investigate the co-location of terminals and analyze their persistence in a cell. Then, we turn our attention to task allocation. We shift the focus on the spatio-temporal aspect by quantifying the resources that a cell can provide to perform a MEC task. We estimate the potential amount of computational tasks performed by nodes based on the cumulative presence time in a given cell and a given completion delay. Results provide insight into the possibilities of offloading computing tasks on mobile nodes. Furthermore, it allows knowing the locations where it is advisable to offload tasks and the time duration of tasks offloadable
Styles APA, Harvard, Vancouver, ISO, etc.
14

Jouni, Zalfa. « Analog spike-based neuromorphic computing for low-power smart IoT applications ». Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPAST114.

Texte intégral
Résumé :
Avec l'expansion de l'Internet des objets (IoT) et l'augmentation des appareils connectés et des communications complexes, la demande de technologies de localisation précises et économes en énergie s'est intensifiée. Les techniques traditionnelles de machine learning et d'intelligence artificielle (IA) offrent une haute précision dans la localisation par radiofréquence (RF), mais au prix d'une complexité accrue et d'une consommation d'énergie élevée. Pour relever ces défis, cette thèse explore le potentiel de l'informatique neuromorphique, inspirée par les mécanismes du cerveau, pour permettre une localisation RF basée sur l'IA et économe en énergie. Elle présente un système neuromorphique analogique à base de pointes (RF NeuroAS), avec une version simplifiée entièrement implémentée en technologie BiCMOS 55 nm. Ce système identifie les positions des sources dans une plage de 360 degrés sur un plan bidimensionnel, en maintenant une haute résolution (10 ou 1 degré) même dans des conditions bruyantes. Le cœur de ce système, un réseau de neurones à impulsions basé sur l'analogique (A-SNN), a été formé et testé sur des données simulées (SimLocRF) à partir de MATLAB et des données expérimentales (MeasLocRF) provenant de mesures en chambre anéchoïque, tous deux développés dans cette thèse. Les algorithmes d'apprentissage pour l'A-SNN ont été développés selon deux approches: l'apprentissage profond (DL) et la plasticité dépendante du timing des impulsions (STDP) bio-plausible.RF NeuroAS atteint une précision de localisation de 97,1% avec SimLocRF et de 90,7% avec MeasLoc à une résolution de 10 degrés, tout en maintenant une haute performance avec une faible consommation d'énergie de l'ordre du nanowatt. Le RF NeuroAS simplifié consomme seulement 1.1 nW et fonctionne dans une plage dynamique de 30 dB. L'apprentissage de l'A-SNN, via DL et STDP, a démontré des performances sur les problèmes XOR et MNIST.Le DL dépend de la non-linéarité des fonctions de transfert post-layout des neurones et des synapses de l'A-SNN, tandis que le STDP dépend du bruit aléatoire dans les circuits neuronaux analogiques. Ces résultats marquent des avancées dans les applications IoT économes en énergie grâce à l'informatique neuromorphique, promettant des percées dans l'IoT intelligent à faible consommation d'énergie inspirées par les mécanismes du cerveau
As the Internet of Things (IoT) expands with more connected devices and complex communications, the demand for precise, energy-efficient localization technologies has intensified. Traditional machine learning and artificial intelligence (AI) techniques provide high accuracy in radio-frequency (RF) localization but often at the cost of greater complexity and power usage. To address these challenges, this thesis explores the potential of neuromorphic computing, inspired by brain functionality, to enable energy-efficient AI-based RF localization. It introduces an end-to-end analog spike-based neuromorphic system (RF NeuroAS), with a simplified version fully implemented in BiCMOS 55 nm technology. RF NeuroAS is designed to identify source positions within a 360-degree range on a two-dimensional plane, maintaining high resolution (10 or 1 degree) even in noisy conditions. The core of this system, an analog-based spiking neural network (A-SNN), was trained and tested on a simulated dataset (SimLocRF) from MATLAB and an experimental dataset (MeasLocRF) from anechoic chamber measurements, both developed in this thesis.The learning algorithms for A-SNN were developed through two approaches: software-based deep learning (DL) and bio-plausible spike-timing-dependent plasticity (STDP). RF NeuroAS achieves a localization accuracy of 97.1% with SimLocRF and 90.7% with MeasLoc at a 10-degree resolution, maintaining high performance with low power consumption in the nanowatt range. The simplified RF NeuroAS consumes just over 1.1 nW and operates within a 30 dB dynamic range. A-SNN learning, via DL and STDP, demonstrated performance on XOR and MNIST problems. DL depends on the non-linearity of post-layout transfer functions of A-SNN's neurons and synapses, while STDP depends on the random noise in analog neuron circuits. These findings highlight advancements in energy-efficient IoT through neuromorphic computing, promising low-power smart edge IoT breakthroughs inspired by brain mechanisms
Styles APA, Harvard, Vancouver, ISO, etc.
15

Li, Yifan. « Edge partitioning of large graphs ». Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066346/document.

Texte intégral
Résumé :
Dans cette thèse nous étudions un problème fondamental, le partitionnement de graphe, dans le contexte de la croissance rapide des données, le volume des données continues à augmenter, allant des réseaux sociaux à l'internet des objets. En particulier, afin de vaincre les propriétés intraitables existant dans de nombreuses graphies, par exemple, la distribution des degrés en loi de puissance, nous appliquons un nouveau mode pour coupe de sommet, à la place de la méthode traditionnelle (coupe de bord), ainsi que pour assurer une charge de travail équilibrée et raisonnablement dans le traitement de graphe distribué. En outre, pour réduire le coût de communication inter-partitions, nous proposons une méthode de partition de bord basée sur les blocs, qui peut explorer efficacement les structures graphiques sous-jacentes au niveau local. , afin d'optimiser l'exécution de l'algorithme de graphe. Par cette méthode, le temps d'exécution et des communications généraux peuvent être considérablement réduits par rapport aux approches existantes. Les challenges qui se posent dans les grands graphiques comprennent également leur grande variété. Comme nous le savons, la plupart des applications graphiques au monde réel produisent des ensembles de données hétérogènes, dans lesquels les sommets et / ou les arêtes peuvent avoir des différents types ou des différentes étiquettes. De nombreuses algorithmes de fouille de graphes sont également proposés avec beaucoup d'intérêt pour les attributs d'étiquette. Pour cette raison, notre travail est étendu aux graphes de multicouches en prenant en compte la proximité des arêtes et la distribution des étiquettes lors du processus de partitionnement. En fin de cette thèse, Nous démontré à la ses performances exceptionnelles sur les ensembles de données du monde réel
In this thesis, we mainly focus on a fundamental problem, graph partitioning, in the context of unexpectedly fast growth of data sources, ranging from social networks to internet of things. Particularly, to conquer intractable properties existing in many graphs, e.g. power-law degree distribution, we apply the novel fashion vertex-cut, instead of the traditional edge-cut method, for achieving balanced workload in distributed graph processing. Besides, to reduce the inter-partition communication cost, we present a block-based edge partition method who can efficiently explore the locality underlying graphical structures, to enhance the execution of graph algorithm. With this method, the overhead of both communication and runtime can be decreased greatly, compared to existing approaches. The challenges arising in big graphs also include their high-variety. As we know, most of real life graph applications produce heterogenous datasets, in which the vertices and/or edges are allowed to have different types or labels. A big number of graph mining algorithms are also proposed with much concern for the label attributes. For this reason, our work is extended to multi-layer graphs with taking into account the edges closeness and labels distribution during partitioning process. Its outstanding performance over real-world datasets is demonstrated finally
Styles APA, Harvard, Vancouver, ISO, etc.
16

Huygens, David. « Design of survivable networks with bounded-length paths ». Doctoral thesis, Universite Libre de Bruxelles, 2005. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/211008.

Texte intégral
Résumé :
In this thesis, we consider the k-edge connected L-hop-constrained network design problem. Given a weighted graph G=(N,E), a set D of pairs of terminal nodes, and two integers k,L > 1, it consists in finding in G the minimum cost subgraph containing at least k edge-disjoint paths of at most L edges between each pair in D. This problem is of great interest in today's telecommunication industry, where highly survivable networks need to be constructed.

We first study the particular case where the set of demands D is reduced to a single pair {s,t}. We propose an integer programming formulation for the problem, which consists in the st-cut and trivial inequalities, along with the so-called L-st-path-cut inequalities. We show that these three classes of inequalities completely describe the associated polytope when k=2 and L=2 or 3, and give necessary and sufficient conditions for them to be facet-defining. We also consider the dominant of the associated polytope, and discuss how the previous inequalities can be separated in polynomial time.

We then extend the complete and minimal description obtained above to any number k of required edge-disjoint L-st-paths, but when L=2 only. We devise a cutting plane algorithm to solve the problem, using the previous polynomial separations, and present some computational results.

After that, we consider the case where there is more than one demand in D. We first show that the problem is strongly NP-hard, for all L fixed, even when all the demands in D have one root node in common. For k=2 and L=2,3, we give an integer programming formulation, based on the previous constraints written for all pairs {s,t} in D. We then proceed by giving several new classes of facet-defining inequalities, valid for the problem in general, but more adapted to the rooted case. We propose separation procedures for these inequalities, which are embedded within a Branch-and-Cut algorithm to solve the problem when L=2,3. Extensive computational results from it are given and analyzed for both random and real instances.

Since those results appear less satisfactory in the case of arbitrary demands (non necessarily rooted), we present additional families of valid inequalites in that situation. Again, separation procedures are devised for them, and added to our previous Branch-and-Cut algorithm, in order to see the practical improvement granted by them.

Finally, we study the problem for greater values of L. In particular, when L=4, we propose new families of constraints for the problem of finding a subgraph that contains at least two L-st-paths either node-disjoint, or edge-disjoint. Using these, we obtain an integer programming formulation in the space of the design variables for each case.

------------------------------------------------

Dans cette thèse, nous considérons le problème de conception de réseau k-arete connexe à chemins L-bornés. Etant donné un graphe pondéré G=(N,E), un ensemble D de paires de noeuds terminaux, et deux entiers k,L > 1, ce problème consiste à trouver, dans G, un sous-graphe de cout minimum tel que, entre chaque paire dans D, il existe au moins k chemins arete-disjoints de longueur au plus L. Ce problème est d'un grand intéret dans l'industrie des télécommunications, où des réseaux hautement fiables doivent etre construits.

Nous étudions tout d'abord le cas particulier où l'ensemble des demandes D est réduit à une seule paire de noeuds. Nous proposons une formulation du problème sous forme de programme linéaire en nombres entiers, laquelle consiste en les inégalités triviales et de coupe, ainsi que les inégalités dites de L-chemin-coupe. Nous montrons que ces trois types d'inégalités décrivent complètement le polytope associé lorsque k=2 et L=2,3, et donnons des conditions nécessaires et suffisantes pour que celles-ci en définissent des facettes. Nous considérons également le dominant du polytope associé et discutons de la séparation polynomiale des trois classes précédentes.

Nous étendons alors cette description complète et minimale à tout nombre k de chemins arete-disjoints de longueur au plus 2. De plus, nous proposons un algorithme de plans coupants utilisant les précédentes séparations polynomiales, et en présentons quelques résultats calculatoires, pour tout k>1 et L=2,3.

Nous considérons ensuite le cas où plusieurs demandes se trouvent dans D. Nous montrons d'abord que le problème est fortement NP-dur, pour tout L fixé et ce, meme si les demandes sont toutes enracinées en un noeud. Pour k=2 et L=2,3, nous donnons une formulation du problème sous forme de programme linéaire en nombres entiers. Nous proposons également de nouvelles classes d'inégalités valides, pour lesquelles nous réalisons une étude faciale. Celles-ci sont alors séparées dans le cadre d'un algorithme de coupes et branchements pour résoudre des instances aléatoires et réelles du problème.

Enfin, nous étudions le problème pour de plus grandes valeurs de L. En particulier, lorsque L=4, nous donnons de nouvelles familles de contraintes pour le problème consistant à déterminer un sous-graphe contenant entre deux noeuds fixés au moins deux chemins de longueur au plus 4, que ceux-ci doivent etre arete-disjoints ou noeud-disjoints. Grace à ces dernières, nous parvenons à donner une formulation naturelle du problème dans chacun de ces deux cas.


Doctorat en sciences, Spécialisation Informatique
info:eu-repo/semantics/nonPublished

Styles APA, Harvard, Vancouver, ISO, etc.
17

Li, Yifan. « Edge partitioning of large graphs ». Electronic Thesis or Diss., Paris 6, 2017. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2017PA066346.pdf.

Texte intégral
Résumé :
Dans cette thèse nous étudions un problème fondamental, le partitionnement de graphe, dans le contexte de la croissance rapide des données, le volume des données continues à augmenter, allant des réseaux sociaux à l'internet des objets. En particulier, afin de vaincre les propriétés intraitables existant dans de nombreuses graphies, par exemple, la distribution des degrés en loi de puissance, nous appliquons un nouveau mode pour coupe de sommet, à la place de la méthode traditionnelle (coupe de bord), ainsi que pour assurer une charge de travail équilibrée et raisonnablement dans le traitement de graphe distribué. En outre, pour réduire le coût de communication inter-partitions, nous proposons une méthode de partition de bord basée sur les blocs, qui peut explorer efficacement les structures graphiques sous-jacentes au niveau local. , afin d'optimiser l'exécution de l'algorithme de graphe. Par cette méthode, le temps d'exécution et des communications généraux peuvent être considérablement réduits par rapport aux approches existantes. Les challenges qui se posent dans les grands graphiques comprennent également leur grande variété. Comme nous le savons, la plupart des applications graphiques au monde réel produisent des ensembles de données hétérogènes, dans lesquels les sommets et / ou les arêtes peuvent avoir des différents types ou des différentes étiquettes. De nombreuses algorithmes de fouille de graphes sont également proposés avec beaucoup d'intérêt pour les attributs d'étiquette. Pour cette raison, notre travail est étendu aux graphes de multicouches en prenant en compte la proximité des arêtes et la distribution des étiquettes lors du processus de partitionnement. En fin de cette thèse, Nous démontré à la ses performances exceptionnelles sur les ensembles de données du monde réel
In this thesis, we mainly focus on a fundamental problem, graph partitioning, in the context of unexpectedly fast growth of data sources, ranging from social networks to internet of things. Particularly, to conquer intractable properties existing in many graphs, e.g. power-law degree distribution, we apply the novel fashion vertex-cut, instead of the traditional edge-cut method, for achieving balanced workload in distributed graph processing. Besides, to reduce the inter-partition communication cost, we present a block-based edge partition method who can efficiently explore the locality underlying graphical structures, to enhance the execution of graph algorithm. With this method, the overhead of both communication and runtime can be decreased greatly, compared to existing approaches. The challenges arising in big graphs also include their high-variety. As we know, most of real life graph applications produce heterogenous datasets, in which the vertices and/or edges are allowed to have different types or labels. A big number of graph mining algorithms are also proposed with much concern for the label attributes. For this reason, our work is extended to multi-layer graphs with taking into account the edges closeness and labels distribution during partitioning process. Its outstanding performance over real-world datasets is demonstrated finally
Styles APA, Harvard, Vancouver, ISO, etc.
18

Du, Yifan. « Collaborative crowdsensing at the edge ». Electronic Thesis or Diss., Sorbonne université, 2020. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2020SORUS032.pdf.

Texte intégral
Résumé :
Le crowdsensing mobile permet d’obtenir des données sur l’environnement à un coût relativement faible. De fait, les personnes peuvent collecter et partager des observations spatio-temporelles au moyen de capteurs intégrés dans les appareils intelligents comme les smartphones. En particulier, le crowdsensing opportuniste permet aux citoyens de détecter des phénomènes environnementaux à l’échelle urbaine grâce à une application dédiée s’exécutant en arrière plan. Cependant, le crowdsensing est confronté à différents défis : la pertinence des mesures fournies dépend de l’adéquation entre le contexte de détection et le phénomène analysé ; la collecte incontrôlée de données entraîne une faible qualité de détection ainsi qu’une forte consommation des ressources au niveau des appareils ; le crowdsensing à large échelle induit des coûts importants de communication, de calcul et financiers en raison de la dépendance au cloud pour le traitement des données brutes. Notre thèse vise à rendre le crowdsensing opportuniste comme un moyen fiable d’observation de l’environnement urbain. Pour ce faire, nous préconisons de favoriser la collecte et l’inférence du phénomène physique au plus proche de la source. À cet effet, notre recherche se concentre sur la définition d’un ensemble de protocoles complémentaires, qui mettent en œuvre un crowdsensing collaboratif entre les nœuds mobiles en combinant : L’inférence du contexte physique du crowdsensor, qui caractérise les données recueillies. Nous évaluons un contexte qui ne se limite par à une simple position géographique et nous introduisons une technique d’apprentissage du contexte qui s’effectue au niveau de l’appareil afin de pallier l’impact de l’hétérogénéité des crowdsensors sur la classification. Nous introduisons spécifiquement un algorithme hiérarchique pour l’inférence du contexte qui limite les interactions avec l’usager, tout en augmentant la précision de l’inférence. Le groupement contextuel des crowdsensors de manière à partager la charge et effectuer une captation sélective. Nous introduisons une stratégie de collaboration ad hoc qui vise à affecter différents rôles aux crowdsensors, afin de répartir la charge entre les crowdsensors proches en fonction de leur contexte respectif. L’évaluation de notre solution montre une réduction de la consommation globale des ressources et une meilleure qualité des données, comparée à celle basée sur une architecture cloud. L’agrégation nomade de données pour améliorer les connaissances transférées au cloud. Nous introduisons une solution à l’agrégation des données observées qui distribue l’interpolation sur les crowdsensors. Les résultats de son évaluation montrent des gains importants en termes de communication cellulaire, de calcul sur le cloud et donc de coûts financiers, tandis que la précision globale des données reste comparable à une approche centralisée. En résumé, l’approche collaborative proposée pour le crowdsensing réduit les coûts à la fois sur le terminal et sur le cloud, tout en augmentant la qualité globale des données
Mobile crowdsensing is a powerful mechanism to contribute to the ubiquitous sensing of data at a relatively low cost. With mobile crowdsensing, people provide valuable observations across time and space using sensors embedded in/connected to their smart devices, e.g., smartphones. Particularly, opportunistic crowdsensing empowers citizens to sense objective phenomena at an urban and fine-grained scale, leveraging an application running in the background. Still, crowdsensing faces challenges: The relevance of the provided measurements depends on the adequacy of the sensing context with respect to the phenomenon that is analyzed; The uncontrolled collection of massive data leads to low sensing quality and high resource consumption on devices; Crowdsensing at scale also involves significant communication, computation, and financial costs due to the dependence on the cloud for the post-processing of raw sensing data. This thesis aims to establish opportunistic crowdsensing as a reliable means of environmental monitoring. We advocate enforcing the cost-effective collection of high-quality data and inference of the physical phenomena at the end device. To this end, our research focuses on defining a set of protocols that together implement collaborative crowdsensing at the edge, combining : Inference of the crowdsensor’s physical context characterizing the gathered data: We assess the context beyond geographical position. We introduce an online learning approach running on the device to overcome the diversity of the classification performance due to the heterogeneity of the crowdsensors. We specifically introduce a hierarchical algorithm for context inference that requires little feedback from users, while increasing the inference accuracy per user. Context-aware grouping of crowdsensors to share the workload and support selective sensing: We introduce an ad hoc collaboration strategy, which groups co-located crowdsensors together, and assigns them various roles according to their respective contexts. Evaluation results show that the overall resource consumption due to crowdsensing is reduced, and the data quality is enhanced, compared to the cloudcentric architecture. Data aggregation on the move to enhance the knowledge transferred to the cloud: We introduce a distributed interpolation-mediated aggregation approach running on the end device. We model interpolation as a tensor completion problem and propose tensor-wise aggregation, which is performed when crowdsensors encounter. Evaluation results show significant savings in terms of cellular communication, cloud computing, and, therefore, financial costs, while the overall data accuracy remains comparable to the cloud-centric approach. In summary, the proposed collaborative crowdsensing approach reduces the costs at both the end device and the cloud, while increasing the overall data quality
Styles APA, Harvard, Vancouver, ISO, etc.
19

Le, Xuan-Chien. « Improving performance of non-intrusive load monitoring with low-cost sensor networks ». Thesis, Rennes 1, 2017. http://www.theses.fr/2017REN1S019/document.

Texte intégral
Résumé :
Dans les maisons et bâtiments intelligents, il devient nécessaire de limiter l'intervention humaine sur le système énergétique, afin de fluctuer automatiquement l'énergie consommée par les appareils consommateurs. Pour cela, un système de mesure de la consommation électrique d'équipements est aussi nécessaire et peut être déployé de deux façons : intrusive ou non-intrusive. La première solution consiste à relever la consommation de chaque appareil, ce qui est inenvisageable à une grande échelle pour des raisons pratiques liées à l'entretien et aux coûts. Donc, la solution non-intrusive (NILM pour Non-Intrusive Load Monitoring), qui est capable d'identifier les différents appareils en se basant sur les signatures extraites d'une consommation globale, est plus prometteuse. Le problème le plus difficile des algorithmes NILM est comment discriminer les appareils qui ont la même caractéristique énergétique. Pour surmonter ce problème, dans cette thèse, nous proposons d'utiliser une information externe pour améliorer la performance des algorithmes existants. Les premières informations additionnelles proposées considèrent l'état précédent de chaque appareil comme la probabilité de transition d'état ou la distance de Hamming entre l'état courant et l'état précédent. Ces informations sont utilisées pour sélectionner l'ensemble le plus approprié des dispositifs actifs parmi toutes les combinaisons possibles. Nous résolvons ce problème de minimisation en norme l1 par un algorithme d'exploration exhaustive. Nous proposons également d'utiliser une autre information externe qui est la probabilité de fonctionnement de chaque appareil fournie par un réseau de capteurs sans fil (WSN pour Wireless Sensor Network) déployé dans le bâtiment. Ce système baptisé SmartSense, est différent de la solution intrusive car seul un sous-ensemble de tous les dispositifs est surveillé par les capteurs, ce qui rend le système moins intrusif. Trois approches sont appliquées dans le système SmartSense. La première approche applique une détection de changements de niveau sur le signal global de puissance consommé et les compare avec ceux existants pour identifier les dispositifs correspondants. La deuxième approche vise à résoudre le problème de minimisation en norme l1 avec les algorithmes heuristiques de composition Paréto-algébrique et de programmation dynamique. Les résultats de simulation montrent que la performance des algorithmes proposés augmente significativement avec la probabilité d'opération des dispositifs surveillés par le WSN. Comme il n'y a qu'un sous-ensemble de tous les appareils qui sont surveillés par les capteurs, ceux qui sont sélectionnés doivent satisfaire quelques critères tels qu'un taux d'utilisation élevé ou des confusions dans les signatures sélectionnées avec celles des autres
In smart homes, human intervention in the energy system needs to be eliminated as much as possible and an energy management system is required to automatically fluctuate the power consumption of the electrical devices. To design such system, a load monitoring system is necessary to be deployed in two ways: intrusive or non-intrusive. The intrusive approach requires a high deployment cost and too much technical intervention in the power supply. Therefore, the Non-Intrusive Load Monitoring (NILM) approach, in which the operation of a device can be detected based on the features extracted from the aggregate power consumption, is more promising. The difficulty of any NILM algorithm is the ambiguity among the devices with the same power characteristics. To overcome this challenge, in this thesis, we propose to use an external information to improve the performance of the existing NILM algorithms. The first proposed additional features relate to the previous state of each device such as state transition probability or the Hamming distance between the current state and the previous state. They are used to select the most suitable set of operating devices among all possible combinations when solving the l1-norm minimization problem of NILM by a brute force algorithm. Besides, we also propose to use another external feature that is the operating probability of each device provided by an additional Wireless Sensor Network (WSN). Different from the intrusive load monitoring, in this so-called SmartSense system, only a subset of all devices is monitored by the sensors, which makes the system quite less intrusive. Two approaches are applied in the SmartSense system. The first approach applies an edge detector to detect the step-changes on the power signal and then compare with the existing library to identify the corresponding devices. Meanwhile, the second approach tries to solve the l1-norm minimization problem in NILM with a compositional Pareto-algebraic heuristic and dynamic programming algorithms. The simulation results show that the performance of the proposed algorithms is significantly improved with the operating probability of the monitored devices provided by the WSN. Because only part of the devices are monitored, the selected ones must satisfy some criteria including high using rate and more confusions on the selected patterns with the others
Styles APA, Harvard, Vancouver, ISO, etc.
20

Abernot, Madeleine. « Digital oscillatory neural network implementation on FPGA for edge artificial intelligence applications and learning ». Electronic Thesis or Diss., Université de Montpellier (2022-....), 2023. http://www.theses.fr/2023UMONS074.

Texte intégral
Résumé :
Au cours des dernières décennies, la multiplication des objets embarqués dans de nombreux domaines a considérablement augmenté la quantité de données à traiter et la complexité des tâches à résoudre, motivant l'émergence d'algorithmes probabilistes d'apprentissage tels que l'intelligence artificielle (IA) et les réseaux de neurones artificiels (ANN). Cependant, les systèmes matériels pour le calcul embarqué basés sur l'architecture von Neuman ne sont pas efficace pour traiter cette quantité de données. C'est pourquoi des paradigmes neuromorphiques dotés d'une mémoire distribuée sont étudiés, s'inspirant de la structure et de la représentation de l'information des réseaux de neurones biologiques. Dernièrement, la plupart de la recherche autour des paradigmes neuromorphiques ont exploré les réseaux de neurones à impulsion ou spiking neural networks (SNNs), qui s'inspirent des impulsions utilisées pour transmettre l'information dans les réseaux biologiques. Les SNNs encodent l'information temporellement à l'aide d'impulsions pour assurer un calcul de données continues naturel et à faible énergie. Récemment, les réseaux de neurones oscillatoires (ONN) sont apparu comme un paradigme neuromorphique alternatif pour du calcul temporel, rapide et efficace, à basse consommation. Les ONNs sont des réseaux d'oscillateurs couplés qui émulent les propriétés de calcul collectif des zones du cerveau par le biais d'oscillations. Les récentes implémentations d'ONN combinées à l'émergence de composants compacts à faible consommation d'énergie encouragent le développement des ONNs pour le calcul embarqué. L’état de l’art de l'ONN le configure comme un réseau de Hopfield oscillatoire (OHN) avec une architecture d’oscillateurs entièrement couplés pour effectuer de la reconnaissance de formes avec une précision limitée. Cependant, le grand nombre de synapses de l'architecture limite l’implémentation de larges ONNs et le champs des applications de l'ONN. Cette thèse se concentre pour étudier si et comment l'ONN peut résoudre des applications significatives d'IA embarquée à l'aide d'une preuve de concept de l'ONN implémenté en digital sur FPGA. Tout d'abord, ce travail explore de nouveaux algorithmes d'apprentissages pour OHN, non supervisé et supervisé, pour améliorer la précision et pour intégrer de l'apprentissage continu sur puce. Ensuite, cette thèse étudie de nouvelles architectures pour l'ONN en s'inspirant des architectures en couches des ANNs pour créer dans un premier temps des couches d'OHN en cascade puis des réseaux ONN multi-couche. Les nouveaux algorithmes d'apprentissage et les nouvelles architectures sont démontrées avec l'ONN digital pour des applications d'IA embarquée, telles que pour la robotique avec de l'évitement d'obstacles et pour le traitement d'images avec de la reconnaissance de formes, de la détection de contour, de l'extraction d'amers, ou de la classification
In the last decades, the multiplication of edge devices in many industry domains drastically increased the amount of data to treat and the complexity of tasks to solve, motivating the emergence of probabilistic machine learning algorithms with artificial intelligence (AI) and artificial neural networks (ANNs). However, classical edge hardware systems based on von Neuman architecture cannot efficiently handle this large amount of data. Thus, novel neuromorphic computing paradigms with distributed memory are explored, mimicking the structure and data representation of biological neural networks. Lately, most of the neuromorphic paradigm research has focused on Spiking neural networks (SNNs), taking inspiration from signal transmission through spikes in biological networks. In SNNs, information is transmitted through spikes using the time domain to provide a natural and low-energy continuous data computation. Recently, oscillatory neural networks (ONNs) appeared as an alternative neuromorphic paradigm for low-power, fast, and efficient time-domain computation. ONNs are networks of coupled oscillators emulating the collective computational properties of brain areas through oscillations. The recent ONN implementations combined with the emergence of low-power compact devices for ONN encourage novel attention over ONN for edge computing. State-of-the-art ONN is configured as an oscillatory Hopfield network (OHN) with fully coupled recurrent connections to perform pattern recognition with limited accuracy. However, the large number of OHN synapses limits the scalability of ONN implementation and the ONN application scope. The focus of this thesis is to study if and how ONN can solve meaningful AI edge applications using a proof-of-concept of the ONN paradigm with a digital implementation on FPGA. First, it explores novel learning algorithms for OHN, unsupervised and supervised, to improve accuracy performances and to provide continual on-chip learning. Then, it studies novel ONN architectures, taking inspiration from state-of-the-art layered ANN models, to create cascaded OHNs and multi-layer ONNs. Novel learning algorithms and architectures are demonstrated with the digital design performing edge AI applications, from image processing with pattern recognition, image edge detection, feature extraction, or image classification, to robotics applications with obstacle avoidance
Styles APA, Harvard, Vancouver, ISO, etc.
21

Da, Silva Veith Alexandre. « Quality of Service Aware Mechanisms for (Re)Configuring Data Stream Processing Applications on Highly Distributed Infrastructure ». Thesis, Lyon, 2019. http://www.theses.fr/2019LYSEN050/document.

Texte intégral
Résumé :
Une grande partie de ces données volumineuses ont plus de valeur lorsqu'elles sont analysées rapidement, au fur et à mesure de leur génération. Dans plusieurs scénarios d'application émergents, tels que les villes intelligentes, la surveillance opérationnelle de grandes infrastructures et l'Internet des Objets (Internet of Things), des flux continus de données doivent être traités dans des délais très brefs. Dans plusieurs domaines, ce traitement est nécessaire pour détecter des modèles, identifier des défaillances et pour guider la prise de décision. Les données sont donc souvent rassemblées et analysées par des environnements logiciels conçus pour le traitement de flux continus de données. Ces environnements logiciels pour le traitement de flux de données déploient les applications sous-la forme d'un graphe orienté ou de dataflow. Un dataflow contient une ou plusieurs sources (i.e. capteurs, passerelles ou actionneurs); opérateurs qui effectuent des transformations sur les données (e.g., filtrage et agrégation); et des sinks (i.e., éviers qui consomment les requêtes ou stockent les données). Nous proposons dans cette thèse un ensemble de stratégies pour placer les opérateurs dans une infrastructure massivement distribuée cloud-edge en tenant compte des caractéristiques des ressources et des exigences des applications. En particulier, nous décomposons tout d'abord le graphe d'application en identifiant quelques comportements tels que des forks et des joints, puis nous le plaçons dynamiquement sur l'infrastructure. Des simulations et un prototype prenant en compte plusieurs paramètres d'application démontrent que notre approche peut réduire la latence de bout en bout de plus de 50% et aussi améliorer d'autres métriques de qualité de service. L'espace de recherche de solutions pour la reconfiguration des opérateurs peut être énorme en fonction du nombre d'opérateurs, de flux, de ressources et de liens réseau. De plus, il est important de minimiser le coût de la migration tout en améliorant la latence. Des travaux antérieurs, Reinforcement Learning (RL) et Monte-Carlo Tree Searh (MCTS) ont été utilisés pour résoudre les problèmes liés aux grands nombres d’actions et d’états de recherche. Nous modélisons le problème de reconfiguration d'applications sous la forme d'un processus de décision de Markov (MDP) et étudions l'utilisation des algorithmes RL et MCTS pour concevoir des plans de reconfiguration améliorant plusieurs métriques de qualité de service
A large part of this big data is most valuable when analysed quickly, as it is generated. Under several emerging application scenarios, such as in smart cities, operational monitoring of large infrastructure, and Internet of Things (IoT), continuous data streams must be processed under very short delays. In multiple domains, there is a need for processing data streams to detect patterns, identify failures, and gain insights. Data is often gathered and analysed by Data Stream Processing Engines (DSPEs).A DSPE commonly structures an application as a directed graph or dataflow. A dataflow has one or multiple sources (i.e., gateways or actuators); operators that perform transformations on the data (e.g., filtering); and sinks (i.e., queries that consume or store the data). Most complex operator transformations store information about previously received data as new data is streamed in. Also, a dataflow has stateless operators that consider only the current data. Traditionally, Data Stream Processing (DSP) applications were conceived to run in clusters of homogeneous resources or on the cloud. In a cloud deployment, the whole application is placed on a single cloud provider to benefit from virtually unlimited resources. This approach allows for elastic DSP applications with the ability to allocate additional resources or release idle capacity on demand during runtime to match the application requirements.We introduce a set of strategies to place operators onto cloud and edge while considering characteristics of resources and meeting the requirements of applications. In particular, we first decompose the application graph by identifying behaviours such as forks and joins, and then dynamically split the dataflow graph across edge and cloud. Comprehensive simulations and a real testbed considering multiple application settings demonstrate that our approach can improve the end-to-end latency in over 50% and even other QoS metrics. The solution search space for operator reassignment can be enormous depending on the number of operators, streams, resources and network links. Moreover, it is important to minimise the cost of migration while improving latency. Reinforcement Learning (RL) and Monte-Carlo Tree Search (MCTS) have been used to tackle problems with large search spaces and states, performing at human-level or better in games such as Go. We model the application reconfiguration problem as a Markov Decision Process (MDP) and investigate the use of RL and MCTS algorithms to devise reconfiguring plans that improve QoS metrics
Styles APA, Harvard, Vancouver, ISO, etc.
22

Da, Silva Silvestre Guthemberg. « Designing Adaptive Replication Schemes for Efficient Content Delivery in Edge Networks ». Phd thesis, Université Pierre et Marie Curie - Paris VI, 2013. http://tel.archives-ouvertes.fr/tel-00931562.

Texte intégral
Résumé :
La disponibilité des contenus partagés en ligne devient un élément essentiel pour toute la chaîne de distribution de vidéos. Pour fournir des contenus aux utilisateurs avec une excellente disponibilité et répondre à leurs exigences toujours croissantes, les opérateurs de content delivery networks (CDNs) doivent assurer une haute qualité de services, définie par des métriques comme le taux de transfert ou la latence inclus dans les contrats de Service Level Agreement (SLA). La réplication adaptative se présente comme un mécanisme de stockage très prometteur pour at- teindre cet objectif. Par contre, une question importante reste encore ouverte: comment assurer la mise en place de ces SLAs, tout en évitant le gaspillage de ressources? Le sujet de la thèse porte précisément sur l'étude et l'évaluation de systèmes de réplication de données pour la nouvelle génération de CDNs hybrides, dont une partie des ressources de réseaux et de stockage proviennent de l'équipement des utilisateurs. Pour cela, nous proposons (i) une architecture de gestion de ressources des utilisateurs nommée Caju, et (ii) trois nouveaux systèmes de réplication adaptatifs, AREN, Hermes, et WiseReplica. Des simulations précises avec Caju montrent que nos systèmes de réplication adaptatifs sont très performants et peuvent être facilement étendus à d'autres types d'architecture. Comme perspectives, nous comptons réaliser le développement et l'évaluation d'un prototype proof-of-concept sur PlanetLab.
Styles APA, Harvard, Vancouver, ISO, etc.
23

Liu, Chenguang. « Low level feature detection in SAR images ». Electronic Thesis or Diss., Institut polytechnique de Paris, 2020. http://www.theses.fr/2020IPPAT015.

Texte intégral
Résumé :
Dans cette thèse, nous développons des détecteurs de caractéristiques de bas niveau pour les images radar à synthèse d'ouverture (SAR) afin de faciliter l'utilisation conjointe des données SAR et optiques. Les segments de droite et les bords sont des caractéristiques de bas niveau très importantes dans les images qui peuvent être utilisées pour de nombreuses applications comme l'analyse ou le stockage d'images, ainsi que la détection d'objets. Alors qu'il existe de nombreux détecteurs efficaces pour les structures bas-niveau dans les images optiques, il existe très peu de détecteurs de ce type pour les images SAR, principalement en raison du fort bruit multiplicatif. Dans cette thèse, nous développons un détecteur de segment de droite générique et un détecteur de bords efficace pour les images SAR. Le détecteur de segment de droite proposé, nommé LSDSAR, est basé sur un modèle Markovien a contrario et le principe de Helmholtz, où les segments de droite sont validés en fonction d'une mesure de significativité. Plus précisément, un segment de droite est validé si son nombre attendu d'occurrences dans une image aléatoire sous l'hypothèse du modèle Markovien a contrario est petit. Contrairement aux approches habituelles a contrario, le modèle Markovien a contrario permet un filtrage fort dans l'étape de calcul du gradient, car les dépendances entre les orientations locales des pixels voisins sont autorisées grâce à l'utilisation d'une chaîne de Markov de premier ordre. Le détecteur de segments de droite basé sur le modèle Markovian a contrario proposé LSDSAR, bénéficie de la précision et l'efficacité de la nouvelle définition du modèle de fond, car de nombreux segments de droite vraie dans les images SAR sont détectés avec un contrôle du nombre de faux détections. De plus, très peu de réglages de paramètres sont requis dans les applications pratiques de LSDSAR.Dans la deuxième partie de cette thèse, nous proposons un détecteur de bords basé sur l'apprentissage profond pour les images SAR. Les contributions du détecteur de bords proposé sont doubles: 1) sous l'hypothèse que les images optiques et les images SAR réelles peuvent être divisées en zones constantes par morceaux, nous proposons de simuler un ensemble de données SAR à l'aide d'un ensemble de données optiques; 2) Nous proposons d'appliquer un réseaux de neurones convolutionnel classique, HED, directement sur les champs de magnitude des images. Ceci permet aux images de test SAR d'avoir des statistiques semblables aux images optiques en entrée du réseau. Plus précisément, la distribution du gradient pour toutes les zones homogènes est la même et la distribution du gradient pour deux zones homogènes à travers les frontières ne dépend que du rapport de leur intensité moyenne valeurs. Le détecteur de bords proposé, GRHED permet d'améliorer significativement l'état de l'art, en particulier en présence de fort bruit (images 1-look)
In this thesis we develop low level feature detectors for Synthetic Aperture Radar (SAR) images to facilitate the joint use of SAR and optical data. Line segments and edges are very important low level features in images which can be used for many applications like image analysis, image registration and object detection. Contrarily to the availability of many efficient low level feature detectors dedicated to optical images, there are very few efficient line segment detector and edge detector for SAR images mostly because of the strong multiplicative noise. In this thesis we develop a generic line segment detector and an efficient edge detector for SAR images.The proposed line segment detector which is named as LSDSAR, is based on a Markovian a contrario model and the Helmholtz principle, where line segments are validated according to their meaningfulness. More specifically, a line segment is validated if its expected number of occurences in a random image under the hypothesis of the Markovian a contrario model is small. Contrarily to the usual a contrario approaches, the Markovian a contrario model allows strong filtering in the gradient computation step, since dependencies between local orientations of neighbouring pixels are permitted thanks to the use of a first order Markov chain. The proposed Markovian a contrario model based line segment detector LSDSAR benefit from the accuracy and efficiency of the new definition of the background model, indeed, many true line segments in SAR images are detected with a control of the number of false detections. Moreover, very little parameter tuning is required in the practical applications of LSDSAR. The second work of this thesis is that we propose a deep learning based edge detector for SAR images. The contributions of the proposed edge detector are two fold: 1) under the hypothesis that both optical images and real SAR images can be divided into piecewise constant areas, we propose to simulate a SAR dataset using optical dataset; 2) we propose to train a classical CNN (convolutional neural network) edge detector, HED, directly on the graident fields of images. This, by using an adequate method to compute the gradient, enables SAR images at test time to have statistics similar to the training set as inputs to the network. More precisely, the gradient distribution for all homogeneous areas are the same and the gradient distribution for two homogeneous areas across boundaries depends only on the ratio of their mean intensity values. The proposed method, GRHED, significantly improves the state-of-the-art, especially in very noisy cases such as 1-look images
Styles APA, Harvard, Vancouver, ISO, etc.
24

Ben, ameur Ayoub. « Artificial intelligence for resource allocation in multi-tenant edge computing ». Electronic Thesis or Diss., Institut polytechnique de Paris, 2023. http://www.theses.fr/2023IPPAS019.

Texte intégral
Résumé :
Dans cette thèse, nous considérons le Edge Computing (EC) comme un environnement multi-tenant où les Opérateurs Réseau (NOs) possèdent des ressources en périphérie déployées dans les stations de base, les bureaux centraux et/ou les boîtiers intelligents, les virtualisent, et permettent aux Fournisseurs de Services tiers (SPs) - ou tenants - de distribuer une partie de leurs applications en périphérie afin de répondre aux demandes des utilisateurs. Les SPs aux besoins hétérogènes coexistent en périphérie, allant des Communications Ultra-Fiables à Latence Ultra-Basse (URLLC) pour le contrôle des véhicules ou des robots, à la Communication de Type Machine Massive (mMTC) pour l'Internet des Objets (IoT) nécessitant un grand nombre de dispositifs connectés, en passant par les services multimédias tels que la diffusion vidéo et la Réalité Augmentée/Virtuelle (AR/VR), dont la qualité d'expérience dépend fortement des ressources disponibles. Les SPs orchestrent indépendamment leur ensemble de microservices, exécutés dans des conteneurs, qui peuvent être facilement répliqués, migrés ou arrêtés. Chaque SP peut s'adapter aux ressources allouées par le NO, en décidant s'il doit exécuter des microservices sur les appareils, les nœuds en périphérie ou dans le cloud.L'objectif de cette thèse est de promouvoir l'émergence de déploiements réels du ``véritable" EC dans de vrais réseaux, en montrant l'utilité que les NOs peuvent tirer de l'EC. Nous croyons que cela peut contribuer à encourager l'engagement concret et les investissements des NOs dans l'EC. À cette fin, nous proposons de concevoir de nouvelles stratégies basées sur les données qui allouent efficacement les ressources entre les SPs hétérogènes, en périphérie, appartenant au NO, afin d'optimiser ses objectifs pertinents, tels que la réduction des coûts, la maximisation des revenus et l'amélioration de la Qualité de Service (QoS) perçue par les utilisateurs finaux, en termes de latence, de fiabilité et de débit, tout en répondant aux exigences des SPs.Cette thèse présente une perspective sur la manière dont les NOs, les seuls propriétaires de ressources en périphérie, peuvent extraire de la valeur grâce à la mise en œuvre de l'EC dans un environnement multi-tenant. En promouvant cette vision de l'EC et en la soutenant par des résultats quantitatifs et une analyse approfondie, cette thèse fournit principalement aux NOs des conclusions susceptibles d'influencer les stratégies de décision concernant le déploiement futur de l'EC. Cela pourrait favoriser l'émergence de nouvelles applications à faible latence et à forte intensité de données, telles que la réalité augmentée haute résolution, qui ne sont pas envisageables dans le cadre actuel du Cloud Computing (CC).Une autre contribution de la thèse est qu'elle propose des solutions basées sur des méthodes novatrices exploitant la puissance de l'optimisation basée sur les données. En effet, nous adaptons des techniques de pointe issues de l'Apprentissage par Renforcement (RL) et de la prise de décision séquentielle au problème pratique de l'allocation des ressources en EC. Ce faisant, nous parvenons à réduire le temps d'apprentissage des stratégies adoptées à des échelles compatibles avec la dynamique de l'EC, grâce à la conception soignée de modèles d'estimation intégrés au processus d'apprentissage. Nos stratégies sont conçues de manière à ne pas violer les garanties de confidentialité essentielles pour que les SPs acceptent d'exécuter leurs calculs en périphérie, grâce à l'environnement multi-tenant
We consider in this thesis Edge Computing (EC) as a multi-tenant environment where Network Operators (NOs) own edge resources deployed in base stations, central offices and/or smart boxes, virtualize them and let third party Service Providers (SPs) - or tenants - distribute part of their applications in the edge in order to serve the requests sent by the users. SPs with heterogeneous requirements coexist in the edge, ranging from Ultra-Reliable Low Latency Communications (URLLC) for controlling cars or robots, to massive Machine Type Communication (mMTC) for Internet of Things (IoT) requiring a massive number of connected devices, to media services, such as video streaming and Augmented/Virtual Reality (AR/VR), whose quality of experience is strongly dependant on the available resources. SPs independently orchestrate their set of microservices, running on containers, which can be easily replicated, migrated or stopped. Each SP can adapt to the resources allocated by the NO, deciding whether to run microservices in the devices, in the edge nodes or in the cloud.We aim in this thesis to advance the emergence of real deployments of the“true” EC in real networks, by showingthe utility that NOs can collect thanks to EC. We believe that thiscan contribute to encourage concrete engagement and investments engagement of NOs in EC. For this, we point to design novel data-driven strategiesthat efficiently allocate resources between heterogeneous SPs, at the edge owned by the NO, in order to optimize its relevant objectives, e.g., cost reduction, revenue maximization and better Quality of Service (QoS) perceived by end users, in terms of latency, reliability and throughput, while satisfying the SPs requirements.This thesis presents a perspective on how NOs, the sole owners of resources at the far edge (e.g., at base stations), can extract value through the implementation of EC within a multi-tenant environment.By promoting this vision of EC and by supporting it via quantitativeresults and analysis, this thesis provides, mainly to NOs, findings that can influence decision strategies about the future deployment of EC. This might foster the emergence of novel low-latency and data-intensive applications, such as high resolution augmented reality, which are not feasible in the current Cloud Computing (CC) setting.Another contribution of the thesis it that it provides solutions based on novel methods that harness the power of data-driven optimization.We indeed adapt cutting-edge techniques from Reinforcement Learning (RL) and sequential decision making to the practical problem of resource allocation inEC. In doing so, we succeed in reducing the learning time of the adopted strategies up to scales that are compatible with the EC dynamics, via careful design of estimation models embedded in the learning process. Our strategies are conceived in order not to violate the confidentiality guarantees that are essential for SPs to accept running their computation at the EC, thanks to the multi-tenant setting
Styles APA, Harvard, Vancouver, ISO, etc.
25

Mestoukirdi, Mohamad. « Reliable and Communication-Efficient Federated Learning for Future Intelligent Edge Networks ». Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS432.

Texte intégral
Résumé :
Dans le domaine des futurs réseaux sans fil 6G, l'intégration de la périphérie intelligente grâce à l'avènement de l'IA représente un bond en avant considérable, promettant des avancées révolutionnaires en matière de communication sans fil. Cette intégration favorise une synergie harmonieuse, capitalisant sur le potentiel collectif de ces technologies transformatrices. Au cœur de cette intégration se trouve le rôle de l'apprentissage fédéré, un paradigme d'apprentissage décentralisé qui préserve la confidentialité des données tout en exploitant l'intelligence collective des appareils interconnectés. Dans la première partie de la thèse, nous nous attaquons au problème de l'hétérogénéité statistique dans l'apprentissage fédéré, qui découle des distributions de données divergentes entre les ensembles de données des dispositifs. Plutôt que d'entraîner un modèle unique conventionnel, qui donne souvent de mauvais résultats avec des données non identifiées, nous proposons un ensemble de règles centrées sur l'utilisateur qui produisent des modèles personnalisés adaptés aux objectifs de chaque utilisateur. Pour atténuer la surcharge de communication prohibitive associée à l'apprentissage d'un modèle personnalisé distinct pour chaque utilisateur, les utilisateurs sont répartis en groupes sur la base de la similarité de leurs objectifs. Cela permet l'apprentissage collectif de modèles personnalisés spécifiques à la cohorte. En conséquence, le nombre total de modèles personnalisés formés est réduit. Cette réduction diminue la consommation de ressources sans fil nécessaires à la transmission des mises à jour de modèles sur des canaux sans fil à bande passante limitée. Dans la deuxième partie, nous nous concentrons sur l'intégration des dispositifs à distance de l'IdO dans la périphérie intelligente en exploitant les véhicules aériens sans pilote en tant qu'orchestrateur d'apprentissage fédéré. Alors que des études antérieures ont largement exploré le potentiel des drones en tant que stations de base volantes ou relais dans les réseaux sans fil, leur utilisation pour faciliter l'apprentissage de modèles est encore un domaine de recherche relativement nouveau. Dans ce contexte, nous tirons parti de la mobilité des drones pour contourner les conditions de canal défavorables dans les zones rurales et établir des terrains d'apprentissage pour les dispositifs IoT distants. Cependant, les déploiements de drones posent des défis en termes de planification et de conception de trajectoires. À cette fin, une optimisation conjointe de la trajectoire du drone, de l'ordonnancement du dispositif et de la performance d'apprentissage est formulée et résolue à l'aide de techniques d'optimisation convexe et de la théorie des graphes. Dans la troisième partie de cette thèse, nous jetons un regard critique sur la surcharge de communication imposée par l'apprentissage fédéré sur les réseaux sans fil. Bien que les techniques de compression telles que la quantification et la sparsification des mises à jour de modèles soient largement utilisées, elles permettent souvent d'obtenir une efficacité de communication au prix d'une réduction de la performance du modèle. Pour surmonter cette limitation, nous utilisons des réseaux aléatoires sur-paramétrés pour approximer les réseaux cibles par l'élagage des paramètres plutôt que par l'optimisation directe. Il a été démontré que cette approche ne nécessite pas la transmission de plus d'un seul bit d'information par paramètre du modèle. Nous montrons que les méthodes SoTA ne parviennent pas à tirer parti de tous les avantages possibles en termes d'efficacité de la communication en utilisant cette approche. Nous proposons une fonction de perte régularisée qui prend en compte l'entropie des mises à jour transmises, ce qui se traduit par des améliorations notables de l'efficacité de la communication et de la mémoire lors de l'apprentissage fédéré sur des dispositifs périphériques, sans sacrifier la précision
In the realm of future 6G wireless networks, integrating the intelligent edge through the advent of AI signifies a momentous leap forward, promising revolutionary advancements in wireless communication. This integration fosters a harmonious synergy, capitalizing on the collective potential of these transformative technologies. Central to this integration is the role of federated learning, a decentralized learning paradigm that upholds data privacy while harnessing the collective intelligence of interconnected devices. By embracing federated learning, 6G networks can unlock a myriad of benefits for both wireless networks and edge devices. On one hand, wireless networks gain the ability to exploit data-driven solutions, surpassing the limitations of traditional model-driven approaches. Particularly, leveraging real-time data insights will empower 6G networks to adapt, optimize performance, and enhance network efficiency dynamically. On the other hand, edge devices benefit from personalized experiences and tailored solutions, catered to their specific requirements. Specifically, edge devices will experience improved performance and reduced latency through localized decision-making, real-time processing, and reduced reliance on centralized infrastructure. In the first part of the thesis, we tackle the predicament of statistical heterogeneity in federated learning stemming from divergent data distributions among devices datasets. Rather than training a conventional one-model-fits-all, which often performs poorly with non-IID data, we propose user-centric set of rules that produce personalized models tailored to each user objectives. To mitigate the prohibitive communication overhead associated with training distinct personalized model for each user, users are partitioned into clusters based on their objectives similarity. This enables collective training of cohort-specific personalized models. As a result, the total number of personalized models trained is reduced. This reduction lessens the consumption of wireless resources required to transmit model updates across bandwidth-limited wireless channels. In the second part, our focus shifts towards integrating IoT remote devices into the intelligent edge by leveraging unmanned aerial vehicles as a federated learning orchestrator. While previous studies have extensively explored the potential of UAVs as flying base stations or relays in wireless networks, their utilization in facilitating model training is still a relatively new area of research. In this context, we leverage the UAV mobility to bypass the unfavorable channel conditions in rural areas and establish learning grounds to remote IoT devices. However, UAV deployments poses challenges in terms of scheduling and trajectory design. To this end, a joint optimization of UAV trajectory, device scheduling, and the learning performance is formulated and solved using convex optimization techniques and graph theory. In the third and final part of this thesis, we take a critical look at thecommunication overhead imposed by federated learning on wireless networks. While compression techniques such as quantization and sparsification of model updates are widely used, they often achieve communication efficiency at the cost of reduced model performance. We employ over-parameterized random networks to approximate target networks through parameter pruning rather than direct optimization to overcome this limitation. This approach has been demonstrated to require transmitting no more than a single bit of information per model parameter. We show that SoTA methods fail to capitalize on the full attainable advantages in terms of communication efficiency using this approach. Accordingly, we propose a regularized loss function which considers the entropy of transmitted updates, resulting in notable improvements to communication and memory efficiency during federated training on edge devices without sacrificing accuracy
Styles APA, Harvard, Vancouver, ISO, etc.
26

Yu, Shuai. « Multi-user computation offloading in mobile edge computing ». Electronic Thesis or Diss., Sorbonne université, 2018. http://www.theses.fr/2018SORUS462.

Texte intégral
Résumé :
Mobile Edge Computing (MEC) est un modèle informatique émergent qui étend le cloud et ses services à la périphérie du réseau. Envisager l'exécution d'applications émergentes à forte intensité de ressources dans le réseau MEC, le déchargement de calcul est un paradigme éprouvé réussi pour activer des applications gourmandes en ressources sur les appareils mobiles. De plus, compte tenu de l'émergence de l'application collaborative mobile (MCA), les tâches déchargées peuvent être dupliquées lorsque plusieurs utilisateurs se trouvent à proximité. Cela nous motive à concevoir un schéma de déchargement de calcul collaboratif pour un réseau MEC multi-utilisateurs. Dans ce contexte, nous étudions séparément les schémas de déchargement par calcul collaboratif pour les scénarios de déchargement de MEC, de déchargement de périphérique à périphérique (D2D) et de déchargement hybride, respectivement. Dans le scénario de déchargement de MEC, nous supposons que plusieurs utilisateurs mobiles déchargent des tâches de calcul dupliquées sur les serveurs de périphérie du réseau et partagent les résultats de calcul entre eux. Notre objectif est de développer les stratégies optimales de déchargement collaboratif avec des améliorations de mise en cache afin de minimiser le délai d'exécution global du côté du terminal mobile. À cette fin, nous proposons un déchargement optimal avec un schéma d'amélioration de la mise en cache (OOCS) pour le scénario femto-cloud et le scénario d'informatique mobile, respectivement. Les résultats de la simulation montrent que comparé à six solutions alternatives dans la littérature, notre OOCS mono-utilisateur peut réduire les délais d'exécution jusqu'à 42,83% et 33,28% respectivement pour le femto-cloud mono-utilisateur et l'informatique mobile mono-utilisateur. D'un autre côté, notre système OOCS multi-utilisateur peut encore réduire le délai de 11,71% par rapport à l'OOCS mono-utilisateur grâce à la coopération des utilisateurs. Dans le scénario de déchargement D2D, nous supposons que lorsque des tâches de calcul en double sont traitées sur des utilisateurs mobiles spécifiques et que les résultats de calcul sont partagés via le canal de multidiffusion Device-to-Device (D2D). Notre objectif ici est de trouver une partition réseau optimale pour le déchargement multicast D2D, afin de minimiser la consommation d'énergie globale du côté du terminal mobile. À cette fin, nous proposons d'abord un cadre de déchargement de calcul basé sur la multidiffusion D2D où le problème est modélisé comme un problème d'optimisation combinatoire, puis résolu en utilisant les concepts de correspondance bipartite pondérée maximale et de jeu de coalition. Notez que notre proposition considère la contrainte de délai pour chaque utilisateur mobile ainsi que le niveau de la batterie pour garantir l'équité. Pour évaluer l'efficacité de notre proposition, nous simulons trois composants interactifs typiques. Les résultats de la simulation montrent que notre algorithme peut réduire considérablement la consommation d'énergie et garantir l'équité de la batterie entre plusieurs utilisateurs en même temps. Nous étendons ensuite le déchargement du D2D au déchargement hybride en tenant compte des relations sociales. Dans ce contexte, nous proposons un cadre d'exécution de tâches hybride multicast pour l'informatique mobile, où une foule d'appareils mobiles à la périphérie du réseau s'appuient sur la collaboration D2D assistée par réseau pour l'informatique distribuée sans fil et le partage des résultats. Le cadre est socialement conscient afin de construire des liens D2D efficaces. Un objectif clé de ce cadre est de mettre en place une politique d'attribution de tâches écoénergétique pour les utilisateurs mobiles. Pour ce faire, nous introduisons d'abord le modèle de système de déchargement de calcul hybride social-aware, puis nous formulons le problème d'affectation de tâches économe en énergie en prenant en compte les contraintes nécessaires [...]
Mobile Edge Computing (MEC) is an emerging computing model that extends the cloud and its services to the edge of the network. Consider the execution of emerging resource-intensive applications in MEC network, computation offloading is a proven successful paradigm for enabling resource-intensive applications on mobile devices. Moreover, in view of emerging mobile collaborative application (MCA), the offloaded tasks can be duplicated when multiple users are in the same proximity. This motivates us to design a collaborative computation offloading scheme for multi-user MEC network. In this context, we separately study the collaborative computation offloading schemes for the scenarios of MEC offloading, device-to-device (D2D) offloading and hybrid offloading, respectively. In the MEC offloading scenario, we assume that multiple mobile users offload duplicated computation tasks to the network edge servers, and share the computation results among them. Our goal is to develop the optimal fine-grained collaborative offloading strategies with caching enhancements to minimize the overall execution delay at the mobile terminal side. To this end, we propose an optimal offloading with caching-enhancement scheme (OOCS) for femto-cloud scenario and mobile edge computing scenario, respectively. Simulation results show that compared to six alternative solutions in literature, our single-user OOCS can reduce execution delay up to 42.83% and 33.28% for single-user femto-cloud and single-user mobile edge computing, respectively. On the other hand, our multi-user OOCS can further reduce 11.71% delay compared to single-user OOCS through users' cooperation. In the D2D offloading scenario, we assume that where duplicated computation tasks are processed on specific mobile users and computation results are shared through Device-to-Device (D2D) multicast channel. Our goal here is to find an optimal network partition for D2D multicast offloading, in order to minimize the overall energy consumption at the mobile terminal side. To this end, we first propose a D2D multicast-based computation offloading framework where the problem is modelled as a combinatorial optimization problem, and then solved using the concepts of from maximum weighted bipartite matching and coalitional game. Note that our proposal considers the delay constraint for each mobile user as well as the battery level to guarantee fairness. To gauge the effectiveness of our proposal, we simulate three typical interactive components. Simulation results show that our algorithm can significantly reduce the energy consumption, and guarantee the battery fairness among multiple users at the same time. We then extend the D2D offloading to hybrid offloading with social relationship consideration. In this context, we propose a hybrid multicast-based task execution framework for mobile edge computing, where a crowd of mobile devices at the network edge leverage network-assisted D2D collaboration for wireless distributed computing and outcome sharing. The framework is social-aware in order to build effective D2D links [...]
Styles APA, Harvard, Vancouver, ISO, etc.
27

Garcia, Lorca Federico. « Filtres récursifs temps réel pour la détection de contours : optimisations algorithmiques et architecturales ». Paris 11, 1996. http://www.theses.fr/1996PA112439.

Texte intégral
Résumé :
Dans cette thèse on s'intéresse à deux aspects différents : conceptuel et réalisationel, sur lesquels portent les quatre innovations présentées. Si celles-ci sont illustrées par une application au détecteur de contours de Deriche, elles sont facilement généralisables à d'autres détecteurs qu'ils soient basés sur le calcul de maxima locaux de la dérivée première, ou le calcul des passages par zéro du laplacien. Les filtres à réponse impulsionnelle infinie symétriques ou anti-symétriques peuvent être réalisés sous forme cascade. Le filtre de lissage peut être défini par intégration numérique du filtre dérivateur optimal. Tout filtre détecteur de contours à noyau large peut être considéré comme un filtre de lissage bidimensionnel à noyau large suivi d'un simple filtre Sobel. L’utilisation d'opérateurs blocs série offre le meilleur compromis surface rapidité pour l'intégration en ASICS ou FPGAS. Nous proposons une architecture câblée temps réel optimale en compacité et simplicité de la version récursive du filtre détecteur de contours de Deriche. Nous exposons la méthode qui conduit à notre solution. A travers cette expérience, nous souhaitons transmettre aux concepteurs d'outils de CAO un certain nombre d'idées qui doivent à notre avis être exploitées afin que des outils tels que les graphes flots de données ou les langages synchrones assistent efficacement l'architecte dans les problèmes d'ordonnancement, d'allocation et de repliement temporel du graphe vers l'architecture.
Styles APA, Harvard, Vancouver, ISO, etc.
28

Bouzidi, Halima. « Efficient Deployment of Deep Neural Networks on Hardware Devices for Edge AI ». Electronic Thesis or Diss., Valenciennes, Université Polytechnique Hauts-de-France, 2024. http://www.theses.fr/2024UPHF0006.

Texte intégral
Résumé :
Les réseaux de neurones (RN) sont devenus une force dominante dans le monde de la technologie. Inspirés par le cerveau humain, leur conception complexe leur permet d’apprendre des motifs, de prendre des décisions et même de prévoir des scénarios futurs avec une précision impressionnante. Les RN sont largement déployés dans les systèmes de l'Internet des Objets (IoT pour Internet of Things), renforçant davantage les capacités des dispositifs interconnectés en leur donnant la capacité d'apprendre et de s'auto-adapter dans un contexte temps réel. Cependant, la prolifération des données produites par les capteurs IoT rend difficile leur envoi vers un centre cloud pour le traitement. Par conséquent, le traitement des données plus près de leur origine, en edge, permet de prendre des décisions en temps réel, réduisant ainsi la congestion du réseau.L'intégration des RN à l'edge dans les systèmes IoT permet d'obtenir des solutions plus efficaces et réactives, inaugurant ainsi une nouvelle ère de edge AI. Néanmoins, le déploiement des RN sur des plateformes matérielles à ressources présente une multitude de défis. (i) La complexité inhérente des architectures des RN, qui nécessitent d'importantes capacités de calcul et de stockage. (ii) Le budget énergétique limité caractérisant les dispositifs matériels sur edge qui ne permet pas de supporter des RN complexes, réduisant drastiquement la durée de fonctionnement du système. (iii) Le défi d'assurer une harmonie entre la conception des RN et celle des dispositifs matériels de l’edge. (iv) L'absence de l'adaptabilité à l'environnement d'exécution dynamique et aux complexités des données.Pour pallier ces problèmes, cette thèse vise à établir des méthodes innovantes qui élargissent les cadres traditionnels de conception de RN (NAS pour Neural Architecture Search) en intégrant les caractéristiques contextuelles du matériel et de l’environnement d'exécution. Tout d'abord, nous intégrons les propriétés matérielles au NAS en adaptant les RN aux variations de la fréquence d'horloge. Deuxièmement, nous exploitons l’aspect dynamique au sein des RN d'un point de vue conceptuel, en introduisant un NAS dynamique. Troisièmement, nous explorons le potentiel des RN graphiques (GNN pour Graph Neural Network) en développant un NAS avec calcul distribué sur des multiprocesseurs hétérogènes sur puce (MPSoC pour Multi-Processors Système-on-Chip). Quatrièmement, nous abordons la co-optimisation software et matérielle sur les MPSoCs hétérogènes en proposant une stratégie d'ordonnancement innovante qui exploite l'adaptabilité et le parallélisme des RN. Cinquièmement, nous explorons la perspective de ML4ML (pour Machine Learning for Machine Learning) en introduisant des techniques d'estimation des performances des RN sur les plateformes matérielles sur edge en utilisant des méthodes basés sur ML. Enfin, nous développons un framework NAS évolutif et auto-adaptatif de bout en bout qui apprend progressivement l'importance des paramètres architecturaux du RN pour guider efficacement le processus de recherche du NAS vers l'optimalité.Nos méthodes aident à contribuer à la réalisation d’un framework de conception de bout en bout pour les RN sur les dispositifs matériels sur edge. Elles permettent ainsi de tirer avantage de plusieurs pistes d’optimisation au niveau logiciel et matériel, améliorant les performances et l’efficacité de l’Edge AI
Neural Networks (NN) have become a leading force in today's digital landscape. Inspired by the human brain, their intricate design allows them to recognize patterns, make informed decisions, and even predict forthcoming scenarios with impressive accuracy. NN are widely deployed in Internet of Things (IoT) systems, further elevating interconnected devices' capabilities by empowering them to learn and auto-adapt in real-time contexts. However, the proliferation of data produced by IoT sensors makes it difficult to send them to a centralized cloud for processing. This is where the allure of edge computing becomes captivating. Processing data closer to where it originates -at the edge- reduces latency, makes real-time decisions with less effort, and efficiently manages network congestion.Integrating NN on edge devices for IoT systems enables more efficient and responsive solutions, ushering in a new age of self-sustaining Edge AI. However, Deploying NN on resource-constrained edge devices presents a myriad of challenges: (i) The inherent complexity of neural network architectures, which requires significant computational and memory capabilities. (ii) The limited power budget of IoT devices makes the NN inference prone to rapid energy depletion, drastically reducing system utility. (iii) The hurdle of ensuring harmony between NN and HW designs as they evolve at different rates. (iv) The lack of adaptability to the dynamic runtime environment and the intricacies of input data.Addressing these challenges, this thesis aims to establish innovative methods that extend conventional NN design frameworks, notably Neural Architecture Search (NAS). By integrating HW and runtime contextual features, our methods aspire to enhance NN performances while abstracting the need for the human-in-loop}. Firstly, we incorporate HW properties into the NAS by tailoring the design of NN to clock frequency variations (DVFS) to minimize energy footprint. Secondly, we leverage dynamicity within NN from a design perspective, culminating in a comprehensive Hardware-aware Dynamic NAS with DVFS features. Thirdly, we explore the potential of Graph Neural Networks (GNN) at the edge by developing a novel HW-aware NAS with distributed computing features on heterogeneous MPSoC. Fourthly, we address the SW/HW co-optimization on heterogeneous MPSoCs by proposing an innovative scheduling strategy that leverages NN adaptability and parallelism across computing units. Fifthly, we explore the prospect of ML4ML -- Machine Learning for Machine Learning by introducing techniques to estimate NN performances on edge devices using neural architectural features and ML-based predictors. Finally, we develop an end-to-end self-adaptive evolutionary HW-aware NAS framework that progressively learns the importance of NN parameters to guide the search process toward Pareto optimality effectively.Our methods can contribute to elaborating an end-to-end design framework for neural networks on edge hardware devices. They enable leveraging multiple optimization opportunities at both the software and hardware levels, thus improving the performance and efficiency of Edge AI
Styles APA, Harvard, Vancouver, ISO, etc.
29

Jardel, Fanny. « Codage et traitements distribués pour les réseaux de communication ». Thesis, Paris, ENST, 2016. http://www.theses.fr/2016ENST0001/document.

Texte intégral
Résumé :
Ce travail est dédié à la conception, l’analyse et l’évaluation des performances de nouveaux schémas de codage appropriés aux systèmes de stockage distribué. La première partie de ce travail est consacrée à l’étude des performances des codes spatialement couplés pour les canaux à effacements. Une nouvelle méthode de couplage spatial des ensembles classiques de contrôle de parité à faible densité (LDPC) est proposée. La méthode est inspirée du codage en couches. Les arêtes des ensembles locaux et celles définissant le couplage spatial sont construites séparément. Nous proposons également de saturer le seuil d’un ensemble Root-LDPC par couplage spatial de ses bits de parité dans le but de faire face aux évanouissements quasi-statiques. Le couplage spatial est dans un deuxième temps appliqué à un ensemble Root-LDPC, ayant une double diversité, conçu pour un canal à effacements par blocs à 4 états. Dans la deuxième partie de ce travail, nous considérons les codes produits non-binaires avec des composantes MDS et leur décodage algébrique itératif ligne-colonne sur un canal à effacements. Les effacements indépendants et par blocs sont considérés. Une représentation graphique compacte du code est introduite avec laquelle nous définissions la notion de coloriage à double diversité. Les ensembles d’arrêt sont définis et une caractérisation complète est donnée. La performance des codes produits à composantes MDS, avec et sans coloration, à double diversité est analysée en présence d’effacements indépendants et par blocs. Les résultats numériques montrent aussi une excellente performance en présence d’effacements à probabilité inégale due au coloriage ayant une double diversité
This work is dedicated to the design, analysis, and the performance evaluation of new coding schemes suitable for distributed storage systems. The first part is devoted to spatially coupled codes for erasure channels. A new method of spatial coupling for low-density parity-check ensembles is proposed. The method is inspired from overlapped layered coding. Edges of local ensembles and those defining the spatial coupling are separately built. We also propose to saturate the whole Root-LDPC boundary via spatial coupling of its parity bits to cope with quasi-static fading. Then, spatial coupling is applied on a Root-LDPC ensemble with double diversity designed for a channel with 4 block-erasure states. In the second part of this work, we consider non-binary product codes with MDS components and their iterative row-column algebraic decoding on the erasure channel. Both independent and block erasures are considered. A compact graph representation is introduced on which we define double-diversity edge colorings via the rootcheck concept. Stopping sets are defined and a full characterization is given in the context of MDS components. A differential evolution edge coloring algorithm that produces colorings with a large population of minimal rootcheck order symbols is presented. The performance of MDS-based product codes with and without double-diversity coloring is analyzed in presence of both block and independent erasures. Furthermore, numerical results show excellent performance in presence of unequal erasure probability due to double-diversity colorings
Styles APA, Harvard, Vancouver, ISO, etc.
30

Bouchireb, Khaled. « Amélioration des services vidéo fournis à travers les réseaux radio mobiles ». Phd thesis, Paris, Télécom ParisTech, 2010. https://pastel.hal.science/pastel-00006335.

Texte intégral
Résumé :
Cette thèse est dédiée à l'étude des systèmes de communications pour application aux services vidéo fournis par les réseaux radio mobiles. Ce travail met l'accent sur les systèmes point à multipoints et propose plusieurs améliorations : Dans un premier temps, on définit un système qui combine le décodage robuste aux retransmissions ARQ, et ce de telle façon à réduire le nombre de retransmissions tout en gardant le même niveau de qualité. Contrairement aux systèmes actuels (avec ou sans retransmissions), ce systèmes offre également la possibilité de choisir le compromis débit/qualité via un paramètre du système. Par la suite, on considère les sytèmes de transmission d'une vidéo scalable vers plusieurs terminaux. Des extensions des systèmes Go-Back-N (GBN) Automatic Repeat reQuest (ARQ) et Selective Repeat (SR) ARQ sont étudiées et comparées à un nouveau système. On montre que ce dernier limite les besoins de bufferisation au niveau du terminal récepteur tout en ayant des performances optimales (en termes de quantité de données transmises avec succès sur une période donnée). Finalement, on montre que même sous une contrainte débit on peut utiliser les retransmissions dans les communications point à multipoints à condition de ne pas dépasser une certaine limite sur le nombre d'utilisateurs. Si l'utilisation des retransmissions ARQ est introduite dans les sytèmes de Multicast/Broadcast 3GPP et/ou WiMAX, le système pourra garantir une qualité nominale à un certain nombre d'utilisateurs, ce qui n'est pas le cas des systèmes de Multicast/Broadcast actuels
In this thesis, video communication systems are studied for application to video services provided over wireless mobile networks. This work emphasizes on point-to-multipoint communications and proposes many enhancements to the current systems : First, a scheme combining robust decoding with retransmissions is defined so that the number of retransmissions is reduced and the quality of the received video can be controlled. As opposed to current retransmissionless and retransmission-based schemes, this scheme also offers the possibility to trade throughput for quality and vice versa. Then, the transmission of a two-level scalable video sequence towards several clients is considered. Schemes using the basic Go-back-N (GBN) and Selective Repeat (SR) Automatic Repeat reQuest (ARQ) techniques are studied. A new scheme is also proposed and studied. The new scheme reduces the buffering requirement at the receiver end while keeping the performance optimal (in terms of the amount of data successfully transmitted within a given period of time). The different schemes were shown to be applicable to 2G, 3G and WiMAX systems. Finally, we prove that retransmissions can be used in point-to-multipoint communications up to a given limit on the number of receivers (contrary to the current wireless systems where ARQ is only used sin point-to-point communications). If retransmissions are introduced in the current Multicast/Broadcast services (supported by the 3GPP and mobile WiMAX), the system will guarantee a certain amount of receivers to have the nominal quality whereas the current Multicast/Broadcast services do not garantee any receiver of the nominal quality
Styles APA, Harvard, Vancouver, ISO, etc.
31

Bouchireb, Khaled. « Amélioration des services vidéo fournis à travers les réseaux radio mobiles ». Phd thesis, Télécom ParisTech, 2010. http://pastel.archives-ouvertes.fr/pastel-00006335.

Texte intégral
Résumé :
Cette thèse est dédiée à l'étude des systèmes de communications pour application aux services vidéo fournis par les réseaux radio mobiles. Ce travail met l'accent sur les systèmes point à multipoints et propose plusieurs améliorations : Dans un premier temps, on définit un système qui combine le décodage robuste aux retransmissions ARQ, et ce de telle façon à réduire le nombre de retransmissions tout en gardant le même niveau de qualité. Contrairement aux systèmes actuels (avec ou sans retransmissions), ce systèmes offre également la possibilité de choisir le compromis débit/qualité via un paramètre du système. Par la suite, on considère les sytèmes de transmission d'une vidéo scalable vers plusieurs terminaux. Des extensions des systèmes Go-Back-N (GBN) Automatic Repeat reQuest (ARQ) et Selective Repeat (SR) ARQ sont étudiées et comparées à un nouveau système. On montre que ce dernier limite les besoins de bufferisation au niveau du terminal récepteur tout en ayant des performances optimales (en termes de quantité de données transmises avec succès sur une période donnée). Finalement, on montre que même sous une contrainte débit on peut utiliser les retransmissions dans les communications point à multipoints à condition de ne pas dépasser une certaine limite sur le nombre d'utilisateurs. Si l'utilisation des retransmissions ARQ est introduite dans les sytèmes de Multicast/Broadcast 3GPP et/ou WiMAX, le système pourra garantir une qualité nominale à un certain nombre d'utilisateurs, ce qui n'est pas le cas des systèmes de Multicast/Broadcast actuels.
Styles APA, Harvard, Vancouver, ISO, etc.
32

Oueis, Jessica. « Gestion conjointe de ressources de communication et de calcul pour les réseaux sans fils à base de cloud ». Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAM007/document.

Texte intégral
Résumé :
Cette thèse porte sur le paradigme « Mobile Edge cloud» qui rapproche le cloud des utilisateurs mobiles et qui déploie une architecture de clouds locaux dans les terminaisons du réseau. Les utilisateurs mobiles peuvent désormais décharger leurs tâches de calcul pour qu’elles soient exécutées par les femto-cellules (FCs) dotées de capacités de calcul et de stockage. Nous proposons ainsi un concept de regroupement de FCs dans des clusters de calculs qui participeront aux calculs des tâches déchargées. A cet effet, nous proposons, dans un premier temps, un algorithme de décision de déportation de tâches vers le cloud, nommé SM-POD. Cet algorithme prend en compte les caractéristiques des tâches de calculs, des ressources de l’équipement mobile, et de la qualité des liens de transmission. SM-POD consiste en une série de classifications successives aboutissant à une décision de calcul local, ou de déportation de l’exécution dans le cloud.Dans un deuxième temps, nous abordons le problème de formation de clusters de calcul à mono-utilisateur et à utilisateurs multiples. Nous formulons le problème d’optimisation relatif qui considère l’allocation conjointe des ressources de calculs et de communication, et la distribution de la charge de calcul sur les FCs participant au cluster. Nous proposons également une stratégie d’éparpillement, dans laquelle l’efficacité énergétique du système est améliorée au prix de la latence de calcul. Dans le cas d’utilisateurs multiples, le problème d’optimisation d’allocation conjointe de ressources n’est pas convexe. Afin de le résoudre, nous proposons une reformulation convexe du problème équivalente à la première puis nous proposons deux algorithmes heuristiques dans le but d’avoir un algorithme de formation de cluster à complexité réduite. L’idée principale du premier est l’ordonnancement des tâches de calculs sur les FCs qui les reçoivent. Les ressources de calculs sont ainsi allouées localement au niveau de la FC. Les tâches ne pouvant pas être exécutées sont, quant à elles, envoyées à une unité de contrôle (SCM) responsable de la formation des clusters de calculs et de leur exécution. Le second algorithme proposé est itératif et consiste en une formation de cluster au niveau des FCs ne tenant pas compte de la présence d’autres demandes de calculs dans le réseau. Les propositions de cluster sont envoyées au SCM qui évalue la distribution des charges sur les différentes FCs. Le SCM signale tout abus de charges pour que les FCs redistribuent leur excès dans des cellules moins chargées.Dans la dernière partie de la thèse, nous proposons un nouveau concept de mise en cache des calculs dans l’Edge cloud. Afin de réduire la latence et la consommation énergétique des clusters de calculs, nous proposons la mise en cache de calculs populaires pour empêcher leur réexécution. Ici, notre contribution est double : d’abord, nous proposons un algorithme de mise en cache basé, non seulement sur la popularité des tâches de calculs, mais aussi sur les tailles et les capacités de calculs demandés, et la connectivité des FCs dans le réseau. L’algorithme proposé identifie les tâches aboutissant à des économies d’énergie et de temps plus importantes lorsqu’elles sont téléchargées d’un cache au lieu d’être recalculées. Nous proposons ensuite d’exploiter la relation entre la popularité des tâches et la probabilité de leur mise en cache, pour localiser les emplacements potentiels de leurs copies. La méthode proposée est basée sur ces emplacements, et permet de former des clusters de recherche de taille réduite tout en garantissant de retrouver une copie en cache
Mobile Edge Cloud brings the cloud closer to mobile users by moving the cloud computational efforts from the internet to the mobile edge. We adopt a local mobile edge cloud computing architecture, where small cells are empowered with computational and storage capacities. Mobile users’ offloaded computational tasks are executed at the cloud-enabled small cells. We propose the concept of small cells clustering for mobile edge computing, where small cells cooperate in order to execute offloaded computational tasks. A first contribution of this thesis is the design of a multi-parameter computation offloading decision algorithm, SM-POD. The proposed algorithm consists of a series of low complexity successive and nested classifications of computational tasks at the mobile side, leading to local computation, or offloading to the cloud. To reach the offloading decision, SM-POD jointly considers computational tasks, handsets, and communication channel parameters. In the second part of this thesis, we tackle the problem of small cell clusters set up for mobile edge cloud computing for both single-user and multi-user cases. The clustering problem is formulated as an optimization that jointly optimizes the computational and communication resource allocation, and the computational load distribution on the small cells participating in the computation cluster. We propose a cluster sparsification strategy, where we trade cluster latency for higher system energy efficiency. In the multi-user case, the optimization problem is not convex. In order to compute a clustering solution, we propose a convex reformulation of the problem, and we prove that both problems are equivalent. With the goal of finding a lower complexity clustering solution, we propose two heuristic small cells clustering algorithms. The first algorithm is based on resource allocation on the serving small cells where tasks are received, as a first step. Then, in a second step, unserved tasks are sent to a small cell managing unit (SCM) that sets up computational clusters for the execution of these tasks. The main idea of this algorithm is task scheduling at both serving small cells, and SCM sides for higher resource allocation efficiency. The second proposed heuristic is an iterative approach in which serving small cells compute their desired clusters, without considering the presence of other users, and send their cluster parameters to the SCM. SCM then checks for excess of resource allocation at any of the network small cells. SCM reports any load excess to serving small cells that re-distribute this load on less loaded small cells. In the final part of this thesis, we propose the concept of computation caching for edge cloud computing. With the aim of reducing the edge cloud computing latency and energy consumption, we propose caching popular computational tasks for preventing their re-execution. Our contribution here is two-fold: first, we propose a caching algorithm that is based on requests popularity, computation size, required computational capacity, and small cells connectivity. This algorithm identifies requests that, if cached and downloaded instead of being re-computed, will increase the computation caching energy and latency savings. Second, we propose a method for setting up a search small cells cluster for finding a cached copy of the requests computation. The clustering policy exploits the relationship between tasks popularity and their probability of being cached, in order to identify possible locations of the cached copy. The proposed method reduces the search cluster size while guaranteeing a minimum cache hit probability
Styles APA, Harvard, Vancouver, ISO, etc.
33

Le, Falher Géraud. « Characterizing edges in signed and vector-valued graphs ». Thesis, Lille 1, 2018. http://www.theses.fr/2018LIL1I013/document.

Texte intégral
Résumé :
Nous proposons des méthodes pour caractériser efficacement les arêtes au sein de réseaux complexes. Dans les graphes simples, les nœuds sont liés par une sémantique unique, tels deux utilisateurs amis dans un réseau social. De plus, ces arêtes sont guidées par la similarité entre les nœuds (homophilie). Ainsi, les membres deviennent amis à cause de caractéristiques communes. En revanche, les réseaux complexes sont des graphes où chaque arête possède une sémantique parmi k possibles. Ces arêtes sont de plus basées à la fois sur une homophilie et une hétérophilie partielle. Cette information supplémentaire permet une analyse plus fine de graphes issus d’applications réelles. Cependant, elle peut être coûteuse à acquérir, ou même être indisponible. Nous abordons donc le problème d’inférer la sémantique des arêtes. Nous considérons d'abord les graphes dont les arêtes ont deux sémantiques opposées, et où seul une fraction des étiquettes est visibles. Ces «graphes signés» sont une façon élégante de représenter des interactions polarisées. Nous proposons deux biais d’apprentissage, adaptés respectivement aux graphes signés dirigés ou non, et plusieurs algorithmes utilisant la topologie du graphe pour résoudre un problème de classification binaire. Ensuite, nous traitons les graphes avec k > 2 sémantiques possibles. Dans ce cas, nous ne recevons pas d’étiquette d’arêtes, mais plutôt un vecteur de caractéristiques pour chaque nœud. Face à ce problème non supervisé, nous concevons un critère de qualité exprimant dans quelle mesure une k-partition des arêtes et k vecteurs sémantiques expliquent les arêtes observées. Nous optimisons ce critère sous forme vectorielle et matricielle
We develop methods to efficiently and accurately characterize edges in complex networks. In simple graphs, nodes are connected by a single semantic. For instance, two users are friends in a social networks. Moreover, those connections are typically driven by node similarity, according to homophily. In the previous example, users become friends because of common features. By contrast, complex networks are graphs where every connection has one semantic among k possible ones. Those connections are moreover based on both partial homophily and heterophily of their endpoints. This additional information enable finer analysis of real world graphs. However, it can be expensive to acquire, or is sometimes not known beforehand. We address the problems of inferring edge semantics in various settings. First, we consider graphs where edges have two opposite semantics, and where we observe the label of some edges. These so-called signed graphs are a common way to represent polarized interactions. We propose two learning biases suited for directed and undirected signed graphs respectively. This leads us to design several algorithms leveraging the graph topology to solve a binary classification problem that we call edge sign prediction. Second, we consider graphs with k > 2 available semantics for edge. In that case of multilayer graphs, we are not provided with any edge label, but instead are given one feature vector for each node. Faced with such an unsupervised problem, we devise a quality criterion expressing how well an edge k-partition and k semantical vectors explains the observed connections. We optimize this goodness of explanation criterion in vectorial and matricial forms
Styles APA, Harvard, Vancouver, ISO, etc.
34

Jardel, Fanny. « Codage et traitements distribués pour les réseaux de communication ». Electronic Thesis or Diss., Paris, ENST, 2016. http://www.theses.fr/2016ENST0001.

Texte intégral
Résumé :
Ce travail est dédié à la conception, l’analyse et l’évaluation des performances de nouveaux schémas de codage appropriés aux systèmes de stockage distribué. La première partie de ce travail est consacrée à l’étude des performances des codes spatialement couplés pour les canaux à effacements. Une nouvelle méthode de couplage spatial des ensembles classiques de contrôle de parité à faible densité (LDPC) est proposée. La méthode est inspirée du codage en couches. Les arêtes des ensembles locaux et celles définissant le couplage spatial sont construites séparément. Nous proposons également de saturer le seuil d’un ensemble Root-LDPC par couplage spatial de ses bits de parité dans le but de faire face aux évanouissements quasi-statiques. Le couplage spatial est dans un deuxième temps appliqué à un ensemble Root-LDPC, ayant une double diversité, conçu pour un canal à effacements par blocs à 4 états. Dans la deuxième partie de ce travail, nous considérons les codes produits non-binaires avec des composantes MDS et leur décodage algébrique itératif ligne-colonne sur un canal à effacements. Les effacements indépendants et par blocs sont considérés. Une représentation graphique compacte du code est introduite avec laquelle nous définissions la notion de coloriage à double diversité. Les ensembles d’arrêt sont définis et une caractérisation complète est donnée. La performance des codes produits à composantes MDS, avec et sans coloration, à double diversité est analysée en présence d’effacements indépendants et par blocs. Les résultats numériques montrent aussi une excellente performance en présence d’effacements à probabilité inégale due au coloriage ayant une double diversité
This work is dedicated to the design, analysis, and the performance evaluation of new coding schemes suitable for distributed storage systems. The first part is devoted to spatially coupled codes for erasure channels. A new method of spatial coupling for low-density parity-check ensembles is proposed. The method is inspired from overlapped layered coding. Edges of local ensembles and those defining the spatial coupling are separately built. We also propose to saturate the whole Root-LDPC boundary via spatial coupling of its parity bits to cope with quasi-static fading. Then, spatial coupling is applied on a Root-LDPC ensemble with double diversity designed for a channel with 4 block-erasure states. In the second part of this work, we consider non-binary product codes with MDS components and their iterative row-column algebraic decoding on the erasure channel. Both independent and block erasures are considered. A compact graph representation is introduced on which we define double-diversity edge colorings via the rootcheck concept. Stopping sets are defined and a full characterization is given in the context of MDS components. A differential evolution edge coloring algorithm that produces colorings with a large population of minimal rootcheck order symbols is presented. The performance of MDS-based product codes with and without double-diversity coloring is analyzed in presence of both block and independent erasures. Furthermore, numerical results show excellent performance in presence of unequal erasure probability due to double-diversity colorings
Styles APA, Harvard, Vancouver, ISO, etc.
35

Le, Xuan Sang. « Co-conception Logiciel/FPGA pour Edge-computing : promotion de la conception orientée objet ». Thesis, Brest, 2017. http://www.theses.fr/2017BRES0041/document.

Texte intégral
Résumé :
L’informatique en nuage (cloud computing) est souvent le modèle de calcul le plus référencé pour l’internet des objets (Internet of Things).Ce modèle adopte une architecture où toutes les données de capteur sont stockées et traitées de façon centralisée. Malgré de nombreux avantages, cette architecture souffre d’une faible évolutivité alors même que les données disponibles sur le réseau sont en constante augmentation. Il est à noter que, déjà actuellement, plus de50 % des connexions sur Internet sont inter objets. Cela peut engendrer un problème de fiabilité dans les applications temps réel. Le calcul en périphérie (Edge computing) qui est basé sur une architecture décentralisée, est connue comme une solution pour ce problème émergent en : (1) renforçant l’équipement au bord du réseau et (2) poussant le traitement des données vers le bord.Le calcul en périphérie nécessite des noeuds de capteurs dotés d’une plus grande capacité logicielle et d’une plus grande puissance de traitement, bien que contraints en consommation d’énergie. Les systèmes matériels hybrides constitués de FPGAs et de processeurs offrent un bon compromis pour cette exigence. Les FPGAs sont connus pour permettre des calculs exhibant un parallélisme spatial, aussi que pour leur rapidité, tout en respectant un budget énergétique limité. Coupler un processeur au FPGA pour former un noeud garantit de disposer d’un environnement logiciel flexible pour ce nœud.La conception d’applications pour ce type de systèmes hybrides (réseau/logiciel/matériel) reste toujours une tâche difficile. Elle couvre un vaste domaine d’expertise allant du logiciel de haut niveau au matériel de bas niveau (FPGA). Il en résulte un flux de conception de système complexe, qui implique l’utilisation d’outils issus de différents domaines d’ingénierie. Une solution commune est de proposer un environnement de conception hétérogène qui combine/intègre l’ensemble de ces outils. Cependant, l’hétérogénéité intrinsèque de cette approche peut compromettre la fiabilité du système lors des échanges de données entre les outils.L’objectif de ce travail est de proposer une méthodologie et un environnement de conception homogène pour un tel système. Cela repose sur l’application d’une méthodologie de conception moderne, en particulier la conception orientée objet (OOD), au domaine des systèmes embarqués. Notre choix de OOD est motivé par la productivité avérée de cette méthodologie pour le développement des systèmes logiciels. Dans le cadre de cette thèse, nous visons à utiliser OOD pour développer un environnement de conception homogène pour les systèmes de type Edge Computing. Notre approche aborde trois problèmes de conception: (1) la conception matérielle, où les principes orientés objet et les patrons de conception sont utilisés pour améliorer la réutilisation, l’adaptabilité et l’extensibilité du système matériel. (2) la co-conception matériel/logiciel, pour laquelle nous proposons une utilisation de OOD afin d’abstraire l’intégration et la communication entre matériel et logiciel, ce qui encourage la modularité et la flexibilité du système. (3) la conception d’un intergiciel pour l’Edge Computing. Ainsi il est possible de reposer sur un environnement de développement centralisé des applications distribuées† tandis ce que l’intergiciel facilite l’intégration des nœuds périphériques dans le réseau, et en permet la reconfiguration automatique à distance. Au final, notre solution offre une flexibilité logicielle pour la mise en oeuvre d’algorithmes distribués complexes, et permet la pleine exploitation des performances des FPGAs. Ceux-ci sont placés dans les nœuds, au plus près de l’acquisition des données par les capteurs, pour déployer un premier traitement intensif efficace
Cloud computing is often the most referenced computational model for Internet of Things. This model adopts a centralized architecture where all sensor data is stored and processed in a sole location. Despite of many advantages, this architecture suffers from a low scalability while the available data on the network is continuously increasing. It is worth noting that, currently, more than 50% internet connections are between things. This can lead to the reliability problem in realtime and latency-sensitive applications. Edge-computing which is based on a decentralized architecture, is known as a solution for this emerging problem by: (1) reinforcing the equipment at the edge (things) of the network and (2) pushing the data processing to the edge.Edge-centric computing requires sensors nodes with more software capability and processing power while, like any embedded systems, being constrained by energy consumption. Hybrid hardware systems consisting of FPGA and processor offer a good trade-off for this requirement. FPGAs are known to enable parallel and fast computation within a low energy budget. The coupled processor provides a flexible software environment for edge-centric nodes.Applications design for such hybrid network/software/hardware (SW/HW) system always remains a challenged task. It covers a large domain of system level design from high level software to low-level hardware (FPGA). This result in a complex system design flow and involves the use of tools from different engineering domains. A common solution is to propose a heterogeneous design environment which combining/integrating these tools together. However the heterogeneous nature of this approach can pose the reliability problem when it comes to data exchanges between tools.Our motivation is to propose a homogeneous design methodology and environment for such system. We study the application of a modern design methodology, in particular object-oriented design (OOD), to the field of embedded systems. Our choice of OOD is motivated by the proven productivity of this methodology for the development of software systems. In the context of this thesis, we aim at using OOD to develop a homogeneous design environment for edge-centric systems. Our approach addresses three design concerns: (1) hardware design where object-oriented principles and design patterns are used to improve the reusability, adaptability, and extensibility of the hardware system. (2) hardware / software co-design, for which we propose to use OOD to abstract the SW/HW integration and the communication that encourages the system modularity and flexibility. (3) middleware design for Edge Computing. We rely on a centralized development environment for distributed applications, while the middleware facilitates the integration of the peripheral nodes in the network, and allows automatic remote reconfiguration. Ultimately, our solution offers software flexibility for the implementation of complex distributed algorithms, complemented by the full exploitation of FPGAs performance. These are placed in the nodes, as close as possible to the acquisition of the data by the sensors† in order to deploy a first effective intensive treatment
Styles APA, Harvard, Vancouver, ISO, etc.
36

Lassouaoui, Lilia. « Ordonnancement et routage pour l'augmentation de la durée de vie dans les réseaux de capteurs sans fil ». Thesis, Paris, CNAM, 2018. http://www.theses.fr/2018CNAM1187/document.

Texte intégral
Résumé :
Les réseaux de capteurs sans fil (RCSF) sont très largement utilisés dans divers domaines d'applications civiles et militaires, comme la surveillance de champs de bataille, la détection de phénomène environnementaux, ou encore les bâtiments intelligents. Cependant, les réseaux de capteurs sans fil sont caractérisés par de fortes limitations au niveau de l'énergie disponible et des communications radio. Les travaux réalisés dans cette thèse visent à proposer des solutions garantissant une certaine qualité de service dans le contexte des réseaux de capteurs sans fil. La première partie concerne la couche liaison de données avec l'objectif d'augmenter la durée de vie du réseau. L'accès au médium sans fil est analysé et modélisé sous la forme d'un problème d'ordonnancement des liens de communication, tenant compte des collisions. Nous étudions alors la complexité de ce problème. Une approche distribuée et tolérante aux défaillances avec garantie de performance est proposée (SS-DD2EC) pour résoudre ce problème. La seconde partie de la thèse concerne le routage des messages à l'aide du protocle IPv6 Routing Protocol for Low-Power and Lossy Network (RPL). Tout d'abord, un comparatif entre les différentes métriques de routage existantes pour l'optimisation de l'énergie consommée a été mené. En plus de la durée de vie, les critères de fiabilité et de latence de bout-en-bout sont considérés pour évaluer ces métriques. Enfin, deux nouvelles métriques (R_MinMax et R_Delai) ont été proposées pour RPL permettant d'atteindre des gains significatifs par rapport à l'état de l'art. La première ne tient compte que des critères de consommation d'énergie et de fiabilité, alors que la seconde intègre en plus la latence de bout-en-bout
Wireless sensor networks (RCSF) is a technology that has a wide range of civil or military applications, including battlefield monitoring, environmental monitoring or smart city. However, WSN are characterized by high limitations in terms of energy (battery-operated nodes) and wireless links (low power and lossy links). The work done in this PhD thesis aims to provide solutions that guarantee a certain quality of service in the context of wireless sensor networks. The first part of this work concerns the medium access control layer with the aim of increasing the lifetime of the network. The access to the wireless medium is analyzed and modeled as a link scheduling problem, taking into account collisions. First, a study of the complexity of this problem is carried out, then a distributed and fault-tolerant approach with guaranteed performance is proposed (SS-DD2EC) to solve this problem. The second part is about message routing with the IPv6 Routing Protocol for Low Power and Lossy Network (RPL). First of all, a comparison between the various existing routing metrics for the optimization of the energy consumed has been carried out. In addition of lifetime, the reliability and end-to-end latency criteria are considered for evaluating these metrics. Then, two new RPL metrics (R_MinMax and R_Delai) were proposed, achieving significant gains over the state of the art. The first one only considers the energy consumption and reliability, while the second one takes also into account the end-to-end latency
Styles APA, Harvard, Vancouver, ISO, etc.
37

Dureau, Maxime. « Characterization and simulation of the mechanical forces that control the process of Dorsal Closure during Drosophila melanogaster embryogenesis ». Thesis, Lyon, École normale supérieure, 2015. http://www.theses.fr/2015ENSL0999/document.

Texte intégral
Résumé :
Le travail de thèse présenté ici vise à caractériser et simuler les forces mécaniques impliquées dans le processus de fermeture dorsale chez l’organisme Drosophila melanogaster. Ce processus participe à l’acquisition par l’embryon de sa forme finale. Ainsi, l’objectif du travail présenté ici est d’approfondir nos connaissances sur la mécanique des tissus,ainsi que sur leur rôle dans l’embryogenèse.La fermeture dorsale est un processus similaire à la cicatrisation, dans lequel la fermeture du trou dorsal est réalisée par l'amnioséreuse, qui couvre le trou dorsal, et la rangée la plus dorsale des cellules de l'épiderme: les leading edge cells.Une partie du travail présenté ici étudie aussi les mouvements des cellules du leading edge,dans le but de comprendre l’effet du câble d’actine sur la dynamique de la fermeture dorsale.Un algorithme permettant de détecter les contours des cellules, leur position ainsi que celle de leurs jonctions multiples a été développé, ainsi qu'un interface utilisateur.Différents modèles dynamiques ont ensuite été construits, prenant en compte différents comportements mécaniques, selon l’approche lagrangienne. Les systèmes d’équations ont été résolus numériquement, et leurs prédictions comparées aux données biologiques selon l’approche des moindres carrés. Les résultats ont été validés par le test de la fonction d’auto corrélation.Les résultats présentés dans cette thèse nous permettent de mieux comprendre les processus mécaniques impliqués dans les oscillations des cellules de l’amnioséreuse. Ils nous donnent aussi des indices sur leurs caractéristiques biologiques. Ils nous permettent enfin de mieux appréhender le rôle du cabled’actine dans ce processus
The work presented here aims at characterizing and simulating the mechanical forces involved in the process of Dorsal Closure in the organism Drosophila melanogaster, an embryonic process. In particular, Dorsal Closure participates in the acquisition of the final form of the embryo. Therefore, the work presented here aims at fathoming our knowledge on tissues mechanics, as well as their role in the acquisition of shape. The tissues involved in Dorsal Closure are the epidermis and the amnioserosa. At this stage of development, the epidermis surrounds almost all the embryo. Nevertheless, the amnioserosa still covers a large area of the dorsal side called dorsal hole. Hence, Dorsal Closure aims at shutting this hole and joining the lateral sides of the epidermis, in a process similar to wound healing. In order to fuse the two sides of the epidermis on the dorsal line, the epidermis must be drawn dorsalward. This movement is driven by the amnioserosa on the one hand, and by the dorsalmost row of the epidermis (called Leading Edge cells) on the other hand. The latter first form a transcellular Actin Cable around the dorsal hole. The cable, contracting, will reduce the area of the dorsal hole, covered by the amnioserosa. Second, the Leading Edge cells emit protrusions that will attach to the opposite Leading Edge and drag it toward themselves, untill the two sides of the epidermis fuse. These protrusions have a limited range, hence the dragging and fusion only take place at the ends of the dorsal hole (called canthi), where the distance between the two Leading Edges is small enough. The Amnioserosa also drags the epidermis toward the dorsal line. Its cells produce a contractile network. Interstingly, Amnioserosa cells see the area of their top side (apical side) vary in a periodic way. Although these variations have been widely studied, their role in Dorsal Closure remains unknown. This PhD aims at improving our knowledge of the mechanical concepts involved in these oscillations, and to build a physical model representing these movements. The work presented here also studies the movements of the Leading Edge cells, in order to understand the effect of the Actin Cableon the dynamics of Dorsal Closure. In order to study the cells movements and the role of the tissues involved in Dorsal Closure, an algorithm was developped, allowing to detect the cells edges, their position, as well as those of their vertices (multiple junction between three or four cells) and to track them over time. A user interface was also developped, in order to facilitate the adjustment of the parameters allowing the detection, as well as the correction of possible errors. Various dynamical models were then built following the lagrangian approach. The systems of equations deriving from the Euler-Lagrange equations were numerically solved, and their predictions compared to the biological data extracted thanks to the algorithm presented earlier, following the least square approach. The model validation was performed thanks to the autocorrelation function test. Finally, the Leading Edge dynamics was studied characterising the cellular movements at the interface between the epidermis and the amnioserosa. Wild type embryos dynamics were compared to those of mutated embryos showing specific defects in the Actin Cable formation. The results presented in this manuscript allow a better understanding of the processes involved in in Amnioserosa cells oscicllations. They also give clues on their biological characteristics. Finally, they assess the role of the actin cable in this process similar to wound healing
Styles APA, Harvard, Vancouver, ISO, etc.
38

Aissioui, Abdelkader. « Le chemin vers les architectures futures des services mobiles : du Follow Me Cloud (FMC) au Follow Me edge Cloud (FMeC) ». Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLV095.

Texte intégral
Résumé :
Les travaux décrits dans cette thèse de doctorat visent à traiter les futures architectures de fourniture de services mobiles basés sur le cloud, à travers l'évolution des infrastructures réseau partant de Mobile Cloud Computing (MCC) au Mobile Edge Computing (MEC). Nous nous sommes essentiellement concentrés sur le concept Follow Me Cloud (FMC) comme une nouvelle stratégie de fourniture de services pour une meilleure expérience utilisateur et une utilisation efficace des ressources. Cela permet aux services basés sur le cloud de "suivre" leurs utilisateurs mobiles au cours de leurs déplacements à travers les technologies de réseau d'accès, tout en fournissant le service basé sur le cloud via le point de service le plus optimal au sein de l'infrastructure cloud. Plusieurs contributions sont proposées dans cette thèse, avec des évaluations à la fois en analyse théorique et en simulation scientifique.Premièrement, nous avons proposé une architecture alternative FMC qui permet: (i) d'ouvrir la conception FMC sur les technologies d'accès réseau mobile non-3GPP (ii) d'assurer l'interopérabilité entre différents domaines PMIPv6 permettant au MN une itinérance inter-domaines PMIPv6 avec une mobilité IP transparente ainsi qu'une continuité de session de service.(iii) d'offrir une architecture sans tunnel dans les situations d'itinérance de MN, en évitant ainsi toute surcharge supplémentaire liée aux tunnels dans la gestion de la mobilité. Le schéma proposé exploite la technologie SDN/OpenFlow et le protocole de gestion de la mobilité PMIPv6 en les intégrant dans un unique framework permettant de réaliser la vision FMC.Deuxièmement, pour aborder les problèmes d'évolutivité et de résilience dans les architectures SDN/OpenFlow centralisées de plan de contrôle, nous avons introduit une nouvelle conception d'un contrôleur SDN élastique et distribué adapté pour MCC et plus particulièrement pour les systèmes de gestion FMC. Nous avons illustré comment le nouveau schéma de plan de contrôle est distribué sur une architecture hiérarchique à deux niveaux, un premier niveau avec un seul contrôleur SDN global et un second niveau avec plusieurs contrôleurs SDN locaux. Ensuite, nous avons présenté les éléments constitutifs de notre nouvel framework de plan contrôle, le calcul de l'indicateur de performance (KPI) du système, et nous avons fixé l'objectif clé de notre conception visant à maintenir la valeur KPI du système dans une fenêtre de seuil prédéfinie. Enfin, nous avons démontré comment cet objectif est atteint en adaptant dynamiquement le nombre et l'emplacement des contrôleurs SDN locaux en utilisant la technologie NFV pour provisionner les contrôleurs SDN en tant que instances VNF (fonction réseau virtuelle) dans le cloud.Troisièmement, nous avons introduit le concept FMeC, exploitant les capacités offertes par la combinaison des architectures MEC et FMC dans le but de satisfaire aux exigences des systèmes automobiles 5G. Nous avons commencé par définir les éléments clés du concept FMeC permettant de fournir la technologie FMC en bordure des réseaux mobiles. Ensuite, nous avons présenté une projection de notre solution FMeC sur un cas d'utilisation de conduite automatisée intégrant l'industrie automobile aux infrastructures Telecom en vue de la vision automobile 5G future. Avec une focalisation sur les types de communications V2I/N, nous avons présenté la conception de notre architecture FMeC basée sur les technologies SDN/OpenFlow et les entités de l'infrastructure MEC dont les ressources sont mises en commun pour fournir un cloud de bordure fédéré. Enfin, nous avons présenté notre framework sensible à la mobilité pour le placement des services dans le cloud de bordure, ce dernier est fondé sur un ensemble d'algorithmes de base qui permettent d'atteindre les exigences de QoS de la conduite automatisée en termes de latence ultra-courte au sein du réseau 5G
This Ph.D. thesis aims to deal with the future delivery architectures of mobile cloud-based services, through network infrastructures evolving from Mobile Cloud Computing (MCC) to Mobile Edge Computing (MEC). We mainly focused on Follow Me Cloud (FMC) concept as a new service delivery strategy for improved user experience and efficient resource utilization. That enables cloud-based services to follow their mobile users during their movement across access network technologies and by delivering the cloud-service via the optimal service point inside the cloud infrastructure. Several contributions are proposed in this thesis and evaluated in both theoretical analysis and scientific simulation.First, we proposed an alternative FMC architecture that allows: (i) to open the FMC design on non-3GPP mobile network access technologies (ii) to provide interoperability among different PMIPv6 domains permitting MNs inter-PMIPv6 domain roaming with seamless IP mobility and service session continuity (iii) to offer a tunnel-free architecture in MNs roaming situation, avoiding any additional overhead associated with tunneling in mobility management. This proposed scheme leverage SDN/OpenFlow technology and PMIPv6 mobility management protocol by integrating them within a framework permitting to realize the FMC vision.Second, to address the scalability and resiliency concerns in centralized SDN/OpenFlow control plane architecture, we introduced a new design of an elastic distributed SDN controller tailored for Mobile Cloud Computing (MCC) and more notably for Follow Me Cloud (FMC) management systems. We illustrated how the new control plane scheme is distributed on two-level hierarchical architecture, a first level with a single global SDN controller and a second level with several local SDN controllers. Then, we presented the building blocks of our novel control plane framework, the system Key Performance Indicator (KPI) computation and set the key objective of our design aiming to keep the system KPI value within a predefined threshold window. Last, we proved how this goal is achieved by adapting the number of local SDN controllers and their locations in an elastic manner and deploying them as VNF instances on the cloud thanks to NFV technology.Third, we introduced FMeC concept, leveraging the intertwining of MEC and FMC architectures with the aim of sustaining requirements of the 5G automotive systems. We began by defining FMeC key concept elements permitting to provide FMC technology at the edge of mobile networks. Then, we presented an automated driving use case projection of our FMeC solution integrating automotive with Telco infrastructures towards the future 5G automotive vision. Focusing on the V2I/N communications types, we introduced our FMeC design architecture based on SDN/OpenFlow technologies and MEC infrastructure entities whose resources are pooled together to provide a federated edge clouds. Finally, we presented our mobility-aware framework for edge-cloud service placement based on a set of basic algorithms that permit achieving the automated driving QoS requirements in terms of ultra-short latency within 5G network
Styles APA, Harvard, Vancouver, ISO, etc.
39

Lassouaoui, Lilia. « Ordonnancement et routage pour l'augmentation de la durée de vie dans les réseaux de capteurs sans fil ». Electronic Thesis or Diss., Paris, CNAM, 2018. http://www.theses.fr/2018CNAM1187.

Texte intégral
Résumé :
Les réseaux de capteurs sans fil (RCSF) sont très largement utilisés dans divers domaines d'applications civiles et militaires, comme la surveillance de champs de bataille, la détection de phénomène environnementaux, ou encore les bâtiments intelligents. Cependant, les réseaux de capteurs sans fil sont caractérisés par de fortes limitations au niveau de l'énergie disponible et des communications radio. Les travaux réalisés dans cette thèse visent à proposer des solutions garantissant une certaine qualité de service dans le contexte des réseaux de capteurs sans fil. La première partie concerne la couche liaison de données avec l'objectif d'augmenter la durée de vie du réseau. L'accès au médium sans fil est analysé et modélisé sous la forme d'un problème d'ordonnancement des liens de communication, tenant compte des collisions. Nous étudions alors la complexité de ce problème. Une approche distribuée et tolérante aux défaillances avec garantie de performance est proposée (SS-DD2EC) pour résoudre ce problème. La seconde partie de la thèse concerne le routage des messages à l'aide du protocle IPv6 Routing Protocol for Low-Power and Lossy Network (RPL). Tout d'abord, un comparatif entre les différentes métriques de routage existantes pour l'optimisation de l'énergie consommée a été mené. En plus de la durée de vie, les critères de fiabilité et de latence de bout-en-bout sont considérés pour évaluer ces métriques. Enfin, deux nouvelles métriques (R_MinMax et R_Delai) ont été proposées pour RPL permettant d'atteindre des gains significatifs par rapport à l'état de l'art. La première ne tient compte que des critères de consommation d'énergie et de fiabilité, alors que la seconde intègre en plus la latence de bout-en-bout
Wireless sensor networks (RCSF) is a technology that has a wide range of civil or military applications, including battlefield monitoring, environmental monitoring or smart city. However, WSN are characterized by high limitations in terms of energy (battery-operated nodes) and wireless links (low power and lossy links). The work done in this PhD thesis aims to provide solutions that guarantee a certain quality of service in the context of wireless sensor networks. The first part of this work concerns the medium access control layer with the aim of increasing the lifetime of the network. The access to the wireless medium is analyzed and modeled as a link scheduling problem, taking into account collisions. First, a study of the complexity of this problem is carried out, then a distributed and fault-tolerant approach with guaranteed performance is proposed (SS-DD2EC) to solve this problem. The second part is about message routing with the IPv6 Routing Protocol for Low Power and Lossy Network (RPL). First of all, a comparison between the various existing routing metrics for the optimization of the energy consumed has been carried out. In addition of lifetime, the reliability and end-to-end latency criteria are considered for evaluating these metrics. Then, two new RPL metrics (R_MinMax and R_Delai) were proposed, achieving significant gains over the state of the art. The first one only considers the energy consumption and reliability, while the second one takes also into account the end-to-end latency
Styles APA, Harvard, Vancouver, ISO, etc.
40

Limnios, Stratis. « Graph Degeneracy Studies for Advanced Learning Methods on Graphs and Theoretical Results Edge degeneracy : Algorithmic and structural results Degeneracy Hierarchy Generator and Efficient Connectivity Degeneracy Algorithm A Degeneracy Framework for Graph Similarity Hcore-Init : Neural Network Initialization based on Graph Degeneracy ». Thesis, Institut polytechnique de Paris, 2020. http://www.theses.fr/2020IPPAX038.

Texte intégral
Résumé :
L'extraction de sous-structures significatives a toujours été un élément clé de l’étude des graphes. Dans le cadre de l'apprentissage automatique, supervisé ou non, ainsi que dans l'analyse théorique des graphes, trouver des décompositions spécifiques et des sous-graphes denses est primordial dans de nombreuses applications comme entre autres la biologie ou les réseaux sociaux.Dans cette thèse, nous cherchons à étudier la dégénérescence de graphe, en partant d'un point de vue théorique, et en nous appuyant sur nos résultats pour trouver les décompositions les plus adaptées aux tâches à accomplir. C'est pourquoi, dans la première partie de la thèse, nous travaillons sur des résultats structurels des graphes à arête-admissibilité bornée, prouvant que de tels graphes peuvent être reconstruits en agrégeant des graphes à degré d’arête quasi-borné. Nous fournissons également des garanties de complexité de calcul pour les différentes décompositions de la dégénérescence, c'est-à-dire si elles sont NP-complètes ou polynomiales, selon la longueur des chemins sur lesquels la dégénérescence donnée est définie.Dans la deuxième partie, nous unifions les cadres de dégénérescence et d'admissibilité en fonction du degré et de la connectivité. Dans ces cadres, nous choisissons les plus expressifs, d'une part, et les plus efficaces en termes de calcul d'autre part, à savoir la dégénérescence 1-arête-connectivité pour expérimenter des tâches de dégénérescence standard, telle que la recherche d’influenceurs.Suite aux résultats précédents qui se sont avérés peu performants, nous revenons à l'utilisation du k-core mais en l’intégrant dans un cadre supervisé, i.e. les noyaux de graphes. Ainsi, en fournissant un cadre général appelé core-kernel, nous utilisons la décomposition k-core comme étape de prétraitement pour le noyau et appliquons ce dernier sur chaque sous-graphe obtenu par la décomposition pour comparaison. Nous sommes en mesure d'obtenir des performances à l’état de l’art sur la classification des graphes au prix d’une légère augmentation du coût de calcul.Enfin, nous concevons un nouveau cadre de dégénérescence de degré s’appliquant simultanément pour les hypergraphes et les graphes biparties, dans la mesure où ces derniers sont les graphes d’incidence des hypergraphes. Cette décomposition est ensuite appliquée directement à des architectures de réseaux de neurones pré-entrainés étant donné qu'elles induisent des graphes biparties et utilisent le core d'appartenance des neurones pour réinitialiser les poids du réseaux. Cette méthode est non seulement plus performant que les techniques d'initialisation de l’état de l’art, mais il est également applicable à toute paire de couches de convolution et linéaires, et donc adaptable à tout type d'architecture
Extracting Meaningful substructures from graphs has always been a key part in graph studies. In machine learning frameworks, supervised or unsupervised, as well as in theoretical graph analysis, finding dense subgraphs and specific decompositions is primordial in many social and biological applications among many others.In this thesis we aim at studying graph degeneracy, starting from a theoretical point of view, and building upon our results to find the most suited decompositions for the tasks at hand.Hence the first part of the thesis we work on structural results in graphs with bounded edge admissibility, proving that such graphs can be reconstructed by aggregating graphs with almost-bounded-edge-degree. We also provide computational complexity guarantees for the different degeneracy decompositions, i.e. if they are NP-complete or polynomial, depending on the length of the paths on which the given degeneracy is defined.In the second part we unify the degeneracy and admissibility frameworks based on degree and connectivity. Within those frameworks we pick the most expressive, on the one hand, and computationally efficient on the other hand, namely the 1-edge-connectivity degeneracy, to experiment on standard degeneracy tasks, such as finding influential spreaders.Following the previous results that proved to perform poorly we go back to using the k-core but plugging it in a supervised framework, i.e. graph kernels. Thus providing a general framework named core-kernel, we use the k-core decomposition as a preprocessing step for the kernel and apply the latter on every subgraph obtained by the decomposition for comparison. We are able to achieve state-of-the-art performance on graph classification for a small computational cost trade-off.Finally we design a novel degree degeneracy framework for hypergraphs and simultaneously on bipartite graphs as they are hypergraphs incidence graph. This decomposition is then applied directly to pretrained neural network architectures as they induce bipartite graphs and use the coreness of the neurons to re-initialize the neural network weights. This framework not only outperforms state-of-the-art initialization techniques but is also applicable to any pair of layers convolutional and linear thus being applicable however needed to any type of architecture
Styles APA, Harvard, Vancouver, ISO, etc.
41

Croft, Marie-Ange. « Edme Boursault : de la farce à la fable (1661-1701) ». Thesis, Paris 10, 2014. http://www.theses.fr/2014PA100105/document.

Texte intégral
Résumé :
Entre la mort de Molière et l’avènement de Marivaux, le théâtre connaît de profondes modifications. S’inscrivant dans le sillage des travaux de François Moureau, Christian Biet et Guy Spielmann sur la dramaturgie fin de règne, cette thèse s’intéresse à la manière dont s’est effectué le passage de la comédie classique à la comédie fin de règne. En prenant l’exemple d’Edme Boursault (1638-1701), écrivain mineur du XVIIe siècle, elle entend mettre en lumière une double trajectoire, celle d’un genre et celle d’un auteur. L’étude repose sur l’hypothèse selon laquelle le corpus comique de Boursault, produit entre 1661 et 1701, conserve les marques des mutations esthétiques qui a mené au théâtre fin de règne. Il s’agit donc de comprendre les enjeux qui ont conduit à un renouvellement de l’écriture dramaturgique, mais aussi d’observer la manière dont pouvait se construire une carrière littéraire chez un écrivain mineur de la seconde moitié du XVIIe siècle. Depuis ses premières comédies et farces (Le médecin volant, Le Mort vivant, Le jaloux endormy) jusqu’à ses comédies moralisantes (Les Fables d’Esope, Esope à la Cour), Boursault a su s’adapter aux changements que connaissent la société française et le théâtre, et a mis en œuvre diverses stratégies, tant sociales que littéraires. Par le moyen de l’histoire littéraire, entre sociologie de la littérature, poétique des genres et théorie de la réception, la thèse se penche sur les réseaux de sociabilité de Boursault (salons précieux, cercles littéraires, mécénat) et analyse son théâtre comique, tout en tenant compte des conditions de représentation et de la réception du public. L’étude tend à démontrer que cette évolution dramaturgique s’est faite graduellement, souvent au prix d’une coexistence de deux esthétiques au sein d’une même œuvre. Cherchant à mesurer l’apport de Boursault à la comédie et au comique du XVIIe siècle, la thèse révèle que le passage du classicisme au fin de règne implique chez le dramaturge un changement de stratégie. Entre 1660 et 1700, l’auteur passe en effet d’une stratégie du cursus où ses tendances polygraphiques le placent, à une stratégie du succès misant sur l’innovation et l’originalité. Ce faisant, l’écrivain explore les limites d’un genre qu’il participe à redéfinir, tant sur le plan de la structure et des thématiques que sur celui des personnages et du comique. L’examen du passage de la farce classique à la comédie moralisante, celui du comique burlesque au rire jaune du XVIIIe siècle positionne donc indéniablement Boursault comme un écrivain de transition. Transition entre l’esthétique classique et l’esthétique fin de règne, on s’en doute, mais aussi, en parallèle, entre la poétique classique-fin de règne, et celle des Lumières
Entre la mort de Molière et l’avènement de Marivaux, le théâtre connaît de profondes modifications. S’inscrivant dans le sillage des travaux de François Moureau, Christian Biet et Guy Spielmann sur la dramaturgie fin de règne, cette thèse s’intéresse à la manière dont s’est effectué le passage de la comédie classique à la comédie fin de règne. En prenant l’exemple d’Edme Boursault (1638-1701), écrivain mineur du XVIIe siècle, elle entend mettre en lumière une double trajectoire, celle d’un genre et celle d’un auteur. L’étude repose sur l’hypothèse selon laquelle le corpus comique de Boursault, produit entre 1661 et 1701, conserve les marques des mutations esthétiques qui a mené au théâtre fin de règne. Il s’agit donc de comprendre les enjeux qui ont conduit à un renouvellement de l’écriture dramaturgique, mais aussi d’observer la manière dont pouvait se construire une carrière littéraire chez un écrivain mineur de la seconde moitié du XVIIe siècle. Depuis ses premières comédies et farces (Le médecin volant, Le Mort vivant, Le jaloux endormy) jusqu’à ses comédies moralisantes (Les Fables d’Esope, Esope à la Cour), Boursault a su s’adapter aux changements que connaissent la société française et le théâtre, et a mis en œuvre diverses stratégies, tant sociales que littéraires. Par le moyen de l’histoire littéraire, entre sociologie de la littérature, poétique des genres et théorie de la réception, la thèse se penche sur les réseaux de sociabilité de Boursault (salons précieux, cercles littéraires, mécénat) et analyse son théâtre comique, tout en tenant compte des conditions de représentation et de la réception du public. L’étude tend à démontrer que cette évolution dramaturgique s’est faite graduellement, souvent au prix d’une coexistence de deux esthétiques au sein d’une même œuvre. Cherchant à mesurer l’apport de Boursault à la comédie et au comique du XVIIe siècle, la thèse révèle que le passage du classicisme au fin de règne implique chez le dramaturge un changement de stratégie. Entre 1660 et 1700, l’auteur passe en effet d’une stratégie du cursus où ses tendances polygraphiques le placent, à une stratégie du succès misant sur l’innovation et l’originalité. Ce faisant, l’écrivain explore les limites d’un genre qu’il participe à redéfinir, tant sur le plan de la structure et des thématiques que sur celui des personnages et du comique. L’examen du passage de la farce classique à la comédie moralisante, celui du comique burlesque au rire jaune du XVIIIe siècle positionne donc indéniablement Boursault comme un écrivain de transition. Transition entre l’esthétique classique et l’esthétique fin de règne, on s’en doute, mais aussi, en parallèle, entre la poétique classique-fin de règne, et celle des Lumières
Entre la mort de Molière et l’avènement de Marivaux, le théâtre connaît de profondes modifications. S’inscrivant dans le sillage des travaux de François Moureau, Christian Biet et Guy Spielmann sur la dramaturgie fin de règne, cette thèse s’intéresse à la manière dont s’est effectué le passage de la comédie classique à la comédie fin de règne. En prenant l’exemple d’Edme Boursault (1638-1701), écrivain mineur du XVIIe siècle, elle entend mettre en lumière une double trajectoire, celle d’un genre et celle d’un auteur. L’étude repose sur l’hypothèse selon laquelle le corpus comique de Boursault, produit entre 1661 et 1701, conserve les marques des mutations esthétiques qui a mené au théâtre fin de règne. Il s’agit donc de comprendre les enjeux qui ont conduit à un renouvellement de l’écriture dramaturgique, mais aussi d’observer la manière dont pouvait se construire une carrière littéraire chez un écrivain mineur de la seconde moitié du XVIIe siècle. Depuis ses premières comédies et farces (Le médecin volant, Le Mort vivant, Le jaloux endormy) jusqu’à ses comédies moralisantes (Les Fables d’Esope, Esope à la Cour), Boursault a su s’adapter aux changements que connaissent la société française et le théâtre, et a mis en œuvre diverses stratégies, tant sociales que littéraires. Par le moyen de l’histoire littéraire, entre sociologie de la littérature, poétique des genres et théorie de la réception, la thèse se penche sur les réseaux de sociabilité de Boursault (salons précieux, cercles littéraires, mécénat) et analyse son théâtre comique, tout en tenant compte des conditions de représentation et de la réception du public. L’étude tend à démontrer que cette évolution dramaturgique s’est faite graduellement, souvent au prix d’une coexistence de deux esthétiques au sein d’une même œuvre. Cherchant à mesurer l’apport de Boursault à la comédie et au comique du XVIIe siècle, la thèse révèle que le passage du classicisme au fin de règne implique chez le dramaturge un changement de stratégie. Entre 1660 et 1700, l’auteur passe en effet d’une stratégie du cursus où ses tendances polygraphiques le placent, à une stratégie du succès misant sur l’innovation et l’originalité. Ce faisant, l’écrivain explore les limites d’un genre qu’il participe à redéfinir, tant sur le plan de la structure et des thématiques que sur celui des personnages et du comique. L’examen du passage de la farce classique à la comédie moralisante, celui du comique burlesque au rire jaune du XVIIIe siècle positionne donc indéniablement Boursault comme un écrivain de transition. Transition entre l’esthétique classique et l’esthétique fin de règne, on s’en doute, mais aussi, en parallèle, entre la poétique classique-fin de règne, et celle des Lumières
Styles APA, Harvard, Vancouver, ISO, etc.
42

Drira, Kaouther. « Coloration d’arêtes ℓ-distance et clustering : études et algorithmes auto-stabilisants ». Thesis, Lyon 1, 2010. http://www.theses.fr/2010LYO10335/document.

Texte intégral
Résumé :
La coloration de graphes est un problème central de l’optimisation combinatoire. C’est un domaine très attractif par ses nombreuses applications. Différentes variantes et généralisations du problème de la coloration de graphes ont été proposées et étudiées. La coloration d’arêtes d’un graphe consiste à attribuer une couleur à chaque arête du graphe de sorte que deux arêtes ayant un sommet commun n’ont jamais la même couleur, le tout en utilisant le moins de couleurs possibles. Dans la première partie de cette thèse, nous étudions le problème de la coloration d’arêtes ℓ-distance, qui est une généralisation de la coloration d’arêtes classique. Nous menons une étude combinatoire et algorithmique du paramètre. L’étude porte sur les classes de graphes suivantes : les chaines, les grilles, les hypercubes, les arbres et des graphes puissances. Le paramètre de la coloration d’arêtes ℓ-distance permet de modéliser des problèmes dans des réseaux assez grands. Cependant, avec la multiplication du nombre de nœuds, les réseaux sont de plus en plus vulnérables aux défaillances (ou pannes). Dans la deuxième partie, nous nous intéressons aux algorithmes tolérants aux pannes et en particulier les algorithmes auto-stabilisants. Nous proposons un algorithme auto-stabilisant pour la coloration propre d’arêtes. Notre solution se base sur le résultat de vizing pour utiliser un minimum de couleurs possibles. Par la suite, nous proposons un algorithme auto-stabilisant de clustering destine a des applications dans le domaine de la sécurité dans les réseaux mobiles Ad hoc. La solution que nous proposons est un partitionnement en clusters base sur les relations de confiance qui existent entre nœuds. Nous proposons aussi un algorithme de gestion de clés de groupe dans les réseaux mobiles ad hoc qui s’appuie sur la topologie de clusters préalablement construite. La sécurité de notre protocole est renforcée par son critère de clustering qui surveille en permanence les relations de confiance et expulse les nœuds malveillants de la session de diffusion
Graph coloring is a famous combinatorial optimization problem and is very attractive for its numerous applications. Many variants and generalizations of the graph-coloring problem have been introduced and studied. An edge-coloring assigns a color to each edge so that no two adjacent edges share the same color. In the first part of this thesis, we study the problem of the ℓ-distance-edge-coloring, which is a generalization of the classical edge-coloring. The study focuses on the following classes of graphs : paths, grids, hypercubes, trees and some power graphs. We are conducting a combinatorial and algorithmic study of the parameter. We give a sequential coloring algorithm for each class of graph. The ℓ-distance-edge-coloring is especially considered in large-scale networks. However, with the increasing number of nodes, networks are increasingly vulnerable to faults. In the second part, we focus on fault-tolerant algorithms and in particular self-stabilizing algorithms. We propose a self-stabilizing algorithm for proper edge-coloring. Our solution is based on Vizing’s result to minimize number of colors. Subsequently, we propose a selfstabilizing clustering algorithm for applications in the field of security in mobile ad hoc networks. Our solution is a partitioning into clusters based on trust relationships between nodes. We also propose a group key-management algorithm in mobile ad hoc networks based on the topology of clusters previously built. The security of our protocol is strengthened by its clustering criterion which constantly monitors trust relationships and expels malicious nodes out of the multicast session
Styles APA, Harvard, Vancouver, ISO, etc.
43

Bazin, Cyrille. « L'interface photosphère solaire/chromosphère et couronne : apport des éclipses et des images EUV ». Phd thesis, Aix-Marseille Université, 2013. http://tel.archives-ouvertes.fr/tel-00921889.

Texte intégral
Résumé :
Les régions d'interface du Soleil de la photosphère à la chromosphère et au delà de la basse couronne ont été étudiées depuis longtemps à partir des spectres éclairs obtenus durant les éclipses totales de Soleil. Les éclipses sont les plus adaptées à ce type d'observation, car l'occultation a lieu en dehors de l'atmosphère terrestre et sont exemptes de lumière parasite provenant du " disque occulteur " (c'est-à-dire la Lune), une propriété de grande importance lorsqu'on observe très près du limbe. La résolution temporelle des premiers spectres éclairs ne permettait pas de résoudre les basses couches de la région de transition et étaient dégradés par des effets non-linéaires qui affectaient les films photographiques. Les images Extrême-UV des régions du limbe obtenues récemment dans l'espace sont analysées avec des modèles hydrostatiques à une dimension, comme les modèles VAL, mais cette méthode ne tient pas compte du phénomène d'émergence du champ magnétique, associé au réseau chromosphérique qui est responsable de: i) les spicules et le milieu interspiculaire, ii) les jets coronaux et macrospicules, et iii) l'ovalisation de la chromosphère. Les composants de la région d'interface sont dynamiques et différents types d'ondes et de reconnexions magnétiques sont supposées agir. Un saut de température de 0.01 à 1 MK est observé autour de 2 Mm d'altitude plus loin, et produit plus loin le flot du vent solaire permanent. Le processus de chauffage responsable du saut de température et la source du vent solaire ne sont pas encore compris. Dans cette thèse, nous traitons ces problèmes à partir de spectres éclairs récents réalisés avec les technologies actuelles de détecteurs CCD rapides, images d'éclipse en lumière blanche et des images EUV obtenues avec des instruments de missions spatiales. Nous illustrons les mécanismes des émissions des raies à faible potentiel de première ionisation (FIP) présents dans les basses couches de l'atmosphère solaire. Nous identifions plus précisément les raies associées aux éléments low FIP à la fois à l'intérieur et en dehors des protubérances. Nous caractérisons en détail les enveloppes d'hélium dans les interfaces. Méthodes: 1) technique des spectres éclairs sans fente avec imagerie CCD rapide (éclipses 2006, 2008, 2009, 2010 et 2012). 2) Analyses des spectres du continu entre la myriade de raies d'émission au delà du limbe solaire et construction de courbes de lumière de quelques raies d'émission low FIP et high FIP. 3) Evaluations d'inversions d'intégrales d'Abel pour déduire des échelles de hauteurs et discussion de variations de température et de densité. 4) Analyse d'images EUV obtenues aux mêmes instants depuis AIA/SDO, SWAP, SOT/Hinode des missions spatiales, images en lumière blanche pour discuter des constituants de la couronne. Principaux résultats: i) Le bord du Soleil et la bifurcation de température : le vrai continu à partir du spectre observé aux altitudes de 400 à 600 km au dessus du limbe dans le contexte de de mesures de diamètre solaire et processus d'émission. ii) raies d'émission visibles dans les régions d'interface comprenant les raies He I et surtout la raie He II Pα visible à partir de 800 km au dessus du limbe, produite par photo-ionisation, montrant des enveloppes autour du Soleil et permettant le sondage de l'interface protubérance-couronne. iii) La contribution de structures de petite taille comme les spicules et macrospicules commençant à 1 Mm au dessus du limbe et montrant que les modèles hydrostatiques stratifiés 1D ne sont pas adaptés pour les couches supérieures. Nous montrons que les raies low FIP sont sur-abondantes dans l'interface photosphère-chromosphère, que la couronne solaire est alimentée en permanence par ces éléments. Le titane est un élément abondant dans le milieu interspiculaire, et une analogie sur les gradients de température entre les interfaces photosphère-chromosphère et protubérance-couronne peut être établie.
Styles APA, Harvard, Vancouver, ISO, etc.
44

Mehamel, Sarra. « New intelligent caching and mobility strategies for MEC /ICN based architectures ». Electronic Thesis or Diss., Paris, CNAM, 2020. http://www.theses.fr/2020CNAM1284.

Texte intégral
Résumé :
Le paradigme de MEC (Mobile Edge Computing) consiste à mettre les ressources de calcul et de stockage aux « extrémités » du réseau à proximité des utilisateurs finaux. Le terme « edge » désigne n’importe quel type de station de base de réseau. Les motivations pour l’adoption de ce nouveau concept sont principalement la réduction de la charge au cœur du réseau et la diminution de la latence grâce à la proximité des ressources et ainsi améliorer l’expérience utilisateur. Les serveurs MEC sont de bons candidats pour héberger les applications mobiles et diffuser le contenu Web. La mise en cache à l’extrémité du réseau, ou Edge Caching en anglais, est l’une des technologies les plus émergentes connues comme solution de récupération de contenu au bord du réseau. Elle est aussi considérée comme une technologie permettant la mise en place du concept MEC puisqu’elle présente une opportunité intéressante pour implémenter les services de mise en cache. En particulier, les serveurs MEC sont implémentés directement au niveau des stations de base, ce qui permet la mise en cache à l’extrémité du réseau et assure un déploiement à proximité des utilisateurs finaux. Cependant, l’intégration des serveurs MEC dans les stations de base complexifie le problème de la consommation de l’énergie, particulièrement dans un tel environnement qui est dynamique et sujet à des changements au fil du temps. Par ailleurs, la demande des utilisateurs des appareils mobiles est en constante augmentation ainsi que leur expectation d’une expérience meilleure. Sachant que le cache est d’une taille limitée, il est donc nécessaire et crucial que les mécanismes de mise en cache soient en mesure de faire face à cette situation et de proposer des solutions valables et satisfaisants à long terme. La plupart des études existantes se sont focalisées sur l’allocation de cache, la popularité du contenu ou encore la manière de concevoir le cache. Dans cette thèse, nous présentons une nouvelle stratégie de mise en cache écoénergétique basée sur la logique floue (Fuzzy logic). Notre proposition prend en compte les quatre caractéristiques d’un environnement mobile et introduit une implémentation matérielle en utilisant les FPGA (Field-Programmable Gate Array) pour réduire les besoins globaux en énergie. L’adoption d’une stratégie de mise en cache adéquate sur les serveurs MEC ouvre la possibilité d’utiliser des techniques d’intelligence artificielle (IA) et d’apprentissage automatique (Machine Learning) aux extrémités des réseaux mobiles. L’exploitation des informations de contexte des utilisateurs permet de concevoir une mise en cache intelligente sensible au contexte. La reconnaissance du contexte permet au cache de connaître son environnement, tandis que l’intelligence lui permet de prendre les bonnes décisions en sélectionnant le contenu approprié à mettre en cache afin d’optimiser les performances du caching. Inspiré par le succès de l’apprentissage par renforcement utilisant des agents pour traiter des problèmes de prise de décision, nous avons étendu notre système de mise en cache basé sur la logique floue à un modèle d’apprentissage par renforcement modifié. Le cadre proposé vise à maximiser le taux de réussite du cache (hit rate) et nécessite une prise de conscience multiple sure les conditions de web et l’utilisateur final. La méthode d’apprentissage par renforcement modifiée diffère des autres algorithmes par le taux d’apprentissage qui utilise la méthode du gradient stochastique décent (stochastic gradient decent) en plus de tirer parti de l’apprentissage en utilisant la décision de mise en cache optimale obtenue à partir des règles de la logique floue
Mobile edge computing (MEC) concept proposes to bring the computing and storage resources in close proximity to the end user by placing these resources at the network edge. The motivation is to alleviate the mobile core and to reduce latency for mobile users due to their close proximity to the edge. MEC servers are candidates to host mobile applications and serve web contents. Edge caching is one of the most emerging technologies recognized as a content retrieval solution in the edge of the network. It has been also considered as enabling technology of mobile edge computing that presents an interesting opportunity to perform caching services. Particularly, the MEC servers are implemented directly at the base stations which enable edge caching and ensure deployment in close-proximity to the mobile users. However, the integration of servers in mobile edge computing environment (base stations) complicates the energy saving issue because the power consumed by mobile edge computing servers is costly especially when the load changes dynamically over time. Furthermore, users with mobile devices arise their demands, introducing the challenge of handling such mobile content requests beside the limited caching size. Thus, it is necessary and crucial for caching mechanisms to consider context-aware factors, meanwhile most existing studies focus on cache allocation, content popularity and cache design. In this thesis, we present a novel energy-efficient fuzzy caching strategy for edge devices that takes into consideration four influencing features of mobile environment, while introducing a hardware implementation using Field-Programmable Gate Array (FPGA) to cut the overall energy requirements. Performing an adequate caching strategy on MEC servers opens the possibility of employing artificial intelligence (AI) techniques and machine learning at mobile network edges. Exploiting users context information intelligently makes it possible to design an intelligent context-aware mobile edge caching. Context awareness enables the cache to be aware of its environment, while intelligence enables each cache to make the right decisions of selecting appropriate contents to be cached so that to maximize the caching performance. Inspired by the success of reinforcement learning (RL) that uses agents to deal with decision making problems, we extended our fuzzy-caching system into a modified reinforcement learning model. The proposed framework aims to maximize the cache hit rate and requires a multi awareness. The modified RL differs from other RL algorithms in the learning rate that uses the method of stochastic gradient decent beside taking advantage of learning using the optimal caching decision obtained from fuzzy rules
Styles APA, Harvard, Vancouver, ISO, etc.
45

Cherdo, Yann. « Détection d'anomalie non supervisée sur les séries temporelle à faible coût énergétique utilisant les SNNs ». Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ4018.

Texte intégral
Résumé :
Dans le cadre de la maintenance prédictive du constructeur automobile Renault, cette thèse vise à fournir des solutions à faible coût énergétique pour la détection non supervisée d'anomalies sur des séries temporelles. Avec l'évolution récente de l'automobile, de plus en plus de données sont produites et doivent être traitées par des algorithmes d'apprentissage automatique. Ce traitement peut être effectué dans le cloud ou directement à bord de la voiture. Dans un tel cas, la bande passante du réseau, les coûts des services cloud, la gestion de la confidentialité des données et la perte de données peuvent être économisés. L'intégration d'un modèle d'apprentissage automatique dans une voiture est un défi car elle nécessite des modèles frugaux en raison des contraintes de mémoire et de calcul. Dans ce but, nous étudions l'utilisation de réseaux de neurones impulsionnels (SNN) pour la detection d'anomalies, la prédiction et la classification sur des séries temporelles. Les performances et les coûts énergétiques des modèles d'apprentissage automatique sont évalués dans un scénario Edge à l'aide de modèles matériels génériques qui prennent en compte tous les coûts de calcul et de mémoire. Pour exploiter autant que possible l'activité neuronale parcimonieuse des SNN, nous proposons un modèle avec des connexions peu denses et entraînables qui consomme la moitié de l'énergie de sa version dense. Ce modèle est évalué sur des benchmarks publics de détection d'anomalies, un cas d'utilisation réel de détection d'anomalies sur les voitures de Renault Alpine, les prévisions météorologiques et le dataset Google Speech Command. Nous comparons également ses performances avec d'autres modèles d'apprentissage automatique existants. Nous concluons que, pour certains cas d'utilisation, les modèles SNN peuvent atteindre les performances de l'état de l'art tout en consommant 2 à 8 fois moins d'énergie. Pourtant, d'autres études devraient être entreprises pour évaluer ces modèles une fois embarqués dans une voiture. Inspirés par les neurosciences, nous soutenons que d'autres propriétés bio-inspirées telles que l'attention, l'activité parcimonieuse, la hiérarchie ou la dynamique des assemblées de neurons pourraient être exploités pour obtenir une meilleure efficacité énergétique et de meilleures performances avec des modèles SNN. Enfin, nous terminons cette thèse par un essai à la croisée des neurosciences cognitives, de la philosophie et de l'intelligence artificielle. En plongeant dans les difficultés conceptuelles liées à la conscience et en considérant les mécanismes déterministes de la mémoire, nous soutenons que la conscience et le soi pourraient être constitutivement indépendants de la mémoire. L'objectif de cet essai est de questionner la nature de l'humain par opposition à celle des machines et de l'IA
In the context of the predictive maintenance of the car manufacturer Renault, this thesis aims at providing low-power solutions for unsupervised anomaly detection on time-series. With the recent evolution of cars, more and more data are produced and need to be processed by machine learning algorithms. This processing can be performed in the cloud or directly at the edge inside the car. In such a case, network bandwidth, cloud services costs, data privacy management and data loss can be saved. Embedding a machine learning model inside a car is challenging as it requires frugal models due to memory and processing constraints. To this aim, we study the usage of spiking neural networks (SNNs) for anomaly detection, prediction and classification on time-series. SNNs models' performance and energy costs are evaluated in an edge scenario using generic hardware models that consider all calculation and memory costs. To leverage as much as possible the sparsity of SNNs, we propose a model with trainable sparse connections that consumes half the energy compared to its non-sparse version. This model is evaluated on anomaly detection public benchmarks, a real use-case of anomaly detection from Renault Alpine cars, weather forecasts and the google speech command dataset. We also compare its performance with other existing SNN and non-spiking models. We conclude that, for some use-cases, spiking models can provide state-of-the-art performance while consuming 2 to 8 times less energy. Yet, further studies should be undertaken to evaluate these models once embedded in a car. Inspired by neuroscience, we argue that other bio-inspired properties such as attention, sparsity, hierarchy or neural assemblies dynamics could be exploited to even get better energy efficiency and performance with spiking models. Finally, we end this thesis with an essay dealing with cognitive neuroscience, philosophy and artificial intelligence. Diving into conceptual difficulties linked to consciousness and considering the deterministic mechanisms of memory, we argue that consciousness and the self could be constitutively independent from memory. The aim of this essay is to question the nature of humans by contrast with the ones of machines and AI
Styles APA, Harvard, Vancouver, ISO, etc.
46

Santi, Nina. « Prédiction des besoins pour la gestion de serveurs mobiles en périphérie ». Electronic Thesis or Diss., Université de Lille (2022-....), 2023. http://www.theses.fr/2023ULILB050.

Texte intégral
Résumé :
L'informatique en périphérie est un paradigme émergent au sein de l'Internet des Objets (IoT) et complémentaire à l'informatique en nuage. Ce paradigme propose l'implémentation de serveurs de calcul situés à proximité des utilisateurs, réduisant ainsi la pression et les coûts de l'infrastructure réseau locale. La proximité avec les utilisateurs suscite de nouveaux cas d'utilisation, tels que le déploiement de serveurs mobiles embarqués sur des drones ou des robots, offrant une alternative moins coûteuse, plus éco-énergétique et flexible par rapport aux infrastructures fixes lors d'événements ponctuels ou exceptionnels. Cependant, cette approche soulève également de nouveaux enjeux pour le déploiement et l'allocation de ressources en temps et en espace, souvent dépendants de la batterie.Dans le cadre de cette thèse, nous proposons des outils et des algorithmes de prédiction pour la prise de décision concernant l'allocation de ressources fixes et mobiles, à la fois en termes de temps et d'espace, au sein d'environnements dynamiques. Nous mettons à disposition des jeux de données riches et reproductibles qui reflètent l'hétérogénéité inhérente aux applications de l'Internet des Objets (IoT), tout en présentant un taux de contention et d'interférence élevé. Pour cela, nous utilisons le FIT-IoT Lab, un banc d'essai ouvert dédié à l'IoT, et nous mettons l'ensemble du code à disposition de manière ouverte. De plus, nous avons développé un outil permettant de générer de manière automatisée et reproductible des traces de l'IoT. Nous exploitons ces jeux de données pour entraîner des algorithmes d'apprentissage automatique basés sur des techniques de régression afin de les évaluer dans leur capacité à prédire le débit des applications de l'IoT. Dans une démarche similaire, nous avons également entraîné et analysé un réseau neuronal de type transformateur temporel pour prédire plusieurs métriques de la Qualité de Service (QoS). Afin de tenir compte de la mobilité des ressources, nous générons des traces de l'IoT intégrant des points d'accès mobiles embarqués sur des robots TurtleBot. Ces traces, qui intègrent la mobilité, sont utilisées pour valider et tester un framework d'apprentissage fédéré reposant sur des transformateurs temporels parcimonieux. Enfin, nous proposons un algorithme décentralisé de prédiction de la densité de la population humaine par régions, basé sur l'utilisation d'un filtre à particules. Nous testons et validons cet algorithme à l'aide du simulateur Webots dans un contexte de serveurs embarqués sur des robots, et du simulateur ns-3 pour la partie réseaux
Multi-access Edge computing is an emerging paradigm within the Internet of Things (IoT) that complements Cloud computing. This paradigm proposes the implementation of computing servers located close to users, reducing the pressure and costs of local network infrastructure. This proximity to users is giving rise to new use cases, such as the deployment of mobile servers mounted on drones or robots, offering a cheaper, more energy-efficient and flexible alternative to fixed infrastructures for one-off or exceptional events. However, this approach also raises new challenges for the deployment and allocation of resources in terms of time and space, which are often battery-dependent.In this thesis, we propose predictive tools and algorithms for making decisions about the allocation of fixed and mobile resources, in terms of both time and space, within dynamic environments. We provide rich and reproducible datasets that reflect the heterogeneity inherent in Internet of Things (IoT) applications, while exhibiting a high rate of contention and interference. To achieve this, we are using the FIT-IoT Lab, an open testbed dedicated to the IoT, and we are making all the code available in an open manner. In addition, we have developed a tool for generating IoT traces in an automated and reproducible way. We use these datasets to train machine learning algorithms based on regression techniques to evaluate their ability to predict the throughput of IoT applications. In a similar approach, we have also trained and analysed a neural network of the temporal transformer type to predict several Quality of Service (QoS) metrics. In order to take into account the mobility of resources, we are generating IoT traces integrating mobile access points embedded in TurtleBot robots. These traces, which incorporate mobility, are used to validate and test a federated learning framework based on parsimonious temporal transformers. Finally, we propose a decentralised algorithm for predicting human population density by region, based on the use of a particle filter. We test and validate this algorithm using the Webots simulator in the context of servers embedded in robots, and the ns-3 simulator for the network part
Styles APA, Harvard, Vancouver, ISO, etc.
47

Ntumba, wa Ntumba Patient. « Ordonnancement d'opérateurs continus pour l'analyse de flux de données à la périphérie de l'Internet des Objets ». Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS183.

Texte intégral
Résumé :
Les applications de traitement et d'analyse des flux de données (TAFD) sont largement utilisées pour traiter les quantités toujours plus importantes de flux de données produites par des sources de données hautement distribuées géographiquement, telles que les dispositifs de l'internet des objets (IdO) fixes et mobiles, afin d'extraire des informations précieuses le plus rapidement possible pour une action satisfaisant une limite de temps de réponse. Les applications TAFD sont généralement déployées dans le Cloud pour bénéficier de ressources de calcul pratiquement illimitées à la demande. Cependant, ces solutions de calcul centralisées et distantes peuvent souffrir d'une bande passante réseau limitée et des retards de réseau élevé. De plus, la propagation des données dans le nuage peut compromettre la confidentialité des données sensibles. Pour traiter efficacement ce volume de flux de données, le paradigme émergent du Edge/Fog computing est utilisé comme niveau intermédiaire entre le Cloud et les dispositifs IdO pour traiter les flux de données plus près de leurs sources afin de réduire l'utilisation des ressources réseau et les retards dans le réseau pour atteindre le Cloud. Cependant, le paradigme Edge/Fog computing contient des ressources de calcul limitées, il est donc nécessaire de décider quelle partie de l'application TAFD doit être exécutée au niveau du Edge/Fog tout en satisfaisant à la contrainte de temps de réponse de l'application. De plus, les ressources de calcul et de réseau de l'architecture Edge-Fog-Cloud peuvent être partagées entre plusieurs applications de TAFD (ou autres), ce qui nécessite une utilisation efficiente de ces ressources. Dans cette thèse, nous proposons un nouveau modèle pour évaluer le coût d'utilisation des ressources à travers l'architecture Edge-Fog-Cloud. Notre modèle concerne à la fois les ressources de calcul et de réseau et permet de traiter les compromis inhérents à leur utilisation conjointe. Ce modèle caractérise précisément le coût d'utilisation des ressources en distinguant les ressources abondantes des ressources contraintes et en considérant leur disponibilité dynamique, couvrant ainsi les ressources dédiées à une seule application de TAFD et les ressources partageables. Nous complétons notre modélisation du système par un modèle de temps de réponse pour les applications TAFD qui prend en compte leurs caractéristiques de fenêtrage. En s'appuyant sur ces modèles, nous formulons le problème de l'ordonnancement d'opérateurs continus, qui constituent une application de TAFD, sur une architecture hiérarchique de ressources Edge-Fog-Cloud. Notre problème cible présente deux différentes caractéristiques. Premièrement, il vise à optimiser conjointement le coût d'utilisation des ressources de calcul et de réseau, alors que peu d'approches existantes ont pris en compte les ressources de calcul dans leurs objectifs d'optimisation. Plus précisément, notre objectif est de déployer une application de TAFD de manière à ce qu'elle utilise les ressources disponibles de la manière la plus efficace possible. Cela permet d'économiser des ressources précieuses pour les autres applications de TAFD (ou d'autre type) qui partagent la même architecture de ressources. Deuxièmement, il est soumis à une contrainte de temps réponse, alors que peu de travaux ont traité d'une telle contrainte ; la plupart des approches d'ordonnancement des applications soumises au contrainte de temps de réponse incluent le temps de réponse dans leurs objectifs d'optimisation. Nous introduisons plusieurs algorithmes basés sur des heuristiques qui traitent différentes versions du problème : l'ordonnancement statique tenant compte que des ressources de calcul et réseau, l'ordonnancement statique tenant compte à la fois des ressources et de la contrainte de temps de réponse, et l'ordonnancement dynamique qui prend en compte le déploiement actuel de l'application et des ressources disponibles. Enfin, nous évaluons de [...]
Data stream processing and analytics (DSPA) applications are widely used to process the ever increasing amounts of data streams produced by highly geographically distributed data sources, such as fixed and mobile IoT devices, in order to extract valuable information in a timely manner for actuation. DSPA applications are typically deployed in the Cloud to benefit from practically unlimited computational resources on demand. However, such centralized and distant computing solutions may suffer from limited network bandwidth and high network delay. Additionally, data propagation to the Cloud may compromise the privacy of sensitive data. To effectively handle this volume of data streams, the emerging Edge/Fog computing paradigm is used as the middle-tier between the Cloud and the IoT devices to process data streams closer to their sources and to reduce the network resource usage and network delay to reach the Cloud. However, Edge/Fog computing comes with limited computational resource capacities and requires deciding which part of the DSPA application should be performed in the Edge/Fog layers while satisfying the application response time constraint for timely actuation. Furthermore, the computational and network resources across the Edge-Fog-Cloud architecture can be shareable among multiple DSPA (and other) applications, which calls for efficient resource usage. In this PhD research, we propose a new model for assessing the usage cost of resources across the Edge-Fog-Cloud architecture. Our model addresses both computational and network resources and enables dealing with the trade-offs that are inherent to their joint usage. It precisely characterizes the usage cost of resources by distinguishing between abundant and constrained resources as well as by considering their dynamic availability, hence covering both resources dedicated to a single DSPA application and shareable resources. We complement our system modeling with a response time model for DSPA applications that takes into account their windowing characteristics. Leveraging these models, we formulate the problem of scheduling streaming operators over a hierarchical Edge-Fog-Cloud resource architecture. Our target problem presents two distinctive features. First, it aims at jointly optimizing the resource usage cost for computational and network resources, while few existing approaches have taken computational resources into account in their optimization goals. More precisely, our aim is to schedule a DSPA application in a way that it uses available resources in the most efficient manner. This enables saving valuable resources for other DSPA (and non DSPA) applications that share the same resource architecture. Second, it is subject to a response time constraint, while few works have dealt with such a constraint; most approaches for scheduling time-critical (DSPA) applications include the response time in their optimization goals. To solve our formulated problem, we introduce several heuristic algorithms that deal with different versions of the problem: static resource-aware scheduling that each time calculates a new system deployment from the outset, time-aware and resource-aware scheduling, dynamic scheduling that takes into account the current deployment. Finally, we extensively and comparatively evaluate our algorithms with realistic simulations against several baselines that either we introduce or that originate / are inspired from the existing literature. Our results demonstrate that our solutions advance the current state of the art in scheduling DSPA applications
Styles APA, Harvard, Vancouver, ISO, etc.
48

Naud, Marie-Eve. « Variation des biomarqueurs dans le spectre visible non résolu de la Terre ». Thèse, 2010. http://hdl.handle.net/1866/4968.

Texte intégral
Résumé :
L’évolution rapide des technologies de détection et de caractérisation des exoplanètes depuis le début des années 1990 permet de croire que de nouveaux instruments du type Terrestrial Planet Finder (TPF) pourront prendre les premiers spectres d’exoplanètes semblables à la Terre d’ici une ou deux décennies. Dans ce contexte, l’étude du spectre de la seule planète habitée connue, la Terre, est essentielle pour concevoir ces instruments et analyser leurs résultats. Cette recherche présente les spectres de la Terre dans le visible (390-900 nm), acquis lors de 8 nuits d’observation étalées sur plus d’un an. Ces spectres ont été obtenus en observant la lumière cendrée de la Lune avec le télescope de 1.6 m de l’Observatoire du Mont-Mégantic (OMM). La surface de la Lune réfléchissant de manière diffuse la lumière provenant d’une portion de la Terre, ces spectres sont non résolus spatialement. L’évolution de ces spectres en fonction de la lumière réfléchie à différentes phases de Terre est analogue à celle du spectre d’une exoplanète, dont la phase change selon sa position autour de l’étoile. L'eau, l'oxygène et l'ozone de l’atmosphère, détectés dans tous nos spectres, sont des biomarqueurs dont la présence suggère l’habitabilité de la planète et/ou la présence d’une activité biologique. Le Vegetation Red Edge (VRE), une autre biosignature spectrale, dû aux organismes photosynthétiques à la surface, est caractérisé par l’augmentation de la réflectivité autour de 700 nm. Pour les spectres de 5 nuits, cette augmentation a été évaluée entre -5 et 15% ±~5%, après que les contributions de la diffusion de Rayleigh, des aérosols et d’une large bande moléculaire de l’ozone aient été enlevées. Les valeurs mesurées sont cohérentes avec la présence de végétation dans la phase de la Terre contribuant au spectre, mais s’étendent sur une plage de variations plus large que celles trouvées dans la littérature (0-10%). Cela pourrait s’expliquer par des choix faits lors de la réduction des données et du calcul du VRE, ou encore par la présence d’autres éléments de surface ou de l’atmosphère dont la contribution spectrale autour de 700 nm serait variable.
The rapid evolution of the detection and characterization of exoplanets since the nineties is such that instruments like the Terrestrial Planet Finder (TPF) will surely take the first spectra of exoplanets similar to the Earth in the next decades. The study of the spectrum of the only inhabited planet we know, the Earth, is thus essential to conceive these instruments and to complete pertinent analyses of their results. This research presents the optical spectra (390-900 nm) of the Earth that were secured on 8 observing nights covering more than a year. These spectra were obtained by observing the Earthshine with the 1.6 m telescope at the Observatoire du Mont-Mégantic (OMM). Because the surface of the Moon reflects diffusely the light coming from a portion of the Earth, the observation of Earthshine allow us to get spatially unresolved spectra, like those that will likely be obtained for exoplanets with the first generation of instruments. The variation of the Earth’s spectrum with the changing contributing phase of the Earth is also similar to that of an exoplanet spectrum, which changes with its position around the star. Water, oxygen and ozone of the Earth’s atmosphere, detected in all of our spectra, are biomarkers. They give clues about the habitability and the possible presence of life on a planet. The Vegetation Red Edge (VRE), another spectral biomarker, caused by photosynthetic organisms, is characterized by an increase in reflectivity around 700 nm. For the spectra of 5 nights, this increase was evaluated to be between -5 and 15% ±~5%, after the contributions of Rayleigh and aerosol scattering, as well as of a wide ozone absorption band were removed. These values are consistent with the presence of vegetation in the phase of the Earth contributing to the spectra. However, they cover a larger range than that usually found in the literature (0-10%). A possible explanation could be the few arbitrary choices that were made during data processing and VRE computation or the presence of other surface and atmospheric elements with a spectral signature varying around 700 nm.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie