Auswahl der wissenschaftlichen Literatur zum Thema „Déchargement de calcul“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Inhaltsverzeichnis

Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "Déchargement de calcul" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Dissertationen zum Thema "Déchargement de calcul"

1

Mazouzi, Houssemeddine. „Algorithmes pour le déchargement de tâches sur serveurs de périphérie“. Thesis, Paris 13, 2019. http://www.theses.fr/2019PA131076.

Der volle Inhalt der Quelle
Annotation:
Le déchargement de calculs est l’une des solutions les plus prometteuses pour surmonter le manque d e ressources au niveau des terminaux mobiles. Elle permet l’exécution d’une partie ou de la totalité d’une application mobile dans le cloud. L’objectif est d’améliorer les temps d’exécution et de réduire la consommation énergétique. Malheureusement, le cloud est généralement éloignés des équipements terminaux. Ce qui rend cette approche souffrir de délais importants et fluctuants. Cela est particulièrement problématique pour certaines applications pour lesquelles un temps de réponse réduit est nécessaire. Pour réduire ce délai d’accès, l’une des approches émergentes est de pousser le Cloud vers la bordure du réseau. Cette proximité permet aux applications mobiles de décharger leurs tâches et données vers un Cloud “local” ou “Edge Cloud”.Dans cette thèse, nous nous concentrons sur le déchargement de calculs dans une architecture de type mobiles (Mobile Edge Computing – MEC), composée de plusieurs serveurs de périphérie. Notre objectif est d’explorer de nouvelles stratégies de déchargement efficaces afin d’améliorer les performances des applications tant du point de vue délais de calcul que consommation énergétique, tout en garantissant les contraintes de temps d’exécution des applications. Notre première contribution est une nouvelle stratégie de déchargement sur plusieurs serveurs de périphérie. Nous proposons par la suite une extension de cette stratégie en incluant également le Cloud. Nous évaluons ces stratégies tant du point de vue théorique que pratique avec l’implémentation d’un middleware de déchargement. Finalement, nous proposons une nouvelle approche élastique dans le cas d’applications multitâches caractérisées par un graphe de dépendances entre les tâches
Computation offloading is one of the most promising paradigm to overcome the lack of computational resources in mobile devices. Basically, it allows the execution of part orall of a mobile application in the cloud. The main objective is to reduce both execution time and energy consumption for the mobile terminals. Unfortunately, even if clouds have rich computing and storage resources, they are usually geographically far from mobile applications and may suffer from large delays, which is particularly problematic for mobile applications with small response time requirements. To reduce this long delay, one of the emerging approach is to push the cloud to the network edge. This proximity gives the opportunity to mobile users to offload their tasks to “local” cloud for processing. An Edge Cloud can be seen as small data center acting as a shadow image of larger data centers. This geographical proximity between mobile applications and edge cloud means that the access delay can be greatly reduced, but affects also higher throughput, improved responsiveness and better scalability. In this thesis, we focus on computation offloading in mobile environment (Mobile Edge Computing - MEC), composed of several edge servers. Our goal is to explore new and effective offloading strategies to improve applications performances in both execution time and energy consumption, while ensuring application requirements. Our first contribution is a new offloading strategy in the case of multiple edge servers. Thenwe extend this strategy to include the Cloud. Both strategies have been evaluated theoretically and experimentally by the implementation of an offloading middleware. Finally, we propose a new elastic approach in the case of multitasking applications characterized by a graph of dependencies between tasks
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Isoard, Alexandre. „Extending Polyhedral Techniques towards Parallel Specifications and Approximations“. Thesis, Lyon, 2016. http://www.theses.fr/2016LYSEN011/document.

Der volle Inhalt der Quelle
Annotation:
Les techniques polyédriques permettent d’appliquer des analyses et transformations de code sur des structures multidimensionnelles telles que boucles imbriquées et tableaux. Elles sont en général restreintes aux programmes séquentiels dont le contrôle est affine et statique. Cette thèse consiste à les étendre à des programmes comportant par exemple des tests non analysables ou exprimant du parallélisme. Le premier résultat est l'extension de l’analyse de durée de vie et conflits mémoire, pour les scalaires et les tableaux, à des programmes à spécification parallèle ou approximée. Dans les travaux précédents sur l’allocation mémoire pour laquelle cette analyse est nécessaire, la notion de temps ordonne totalement les instructions entre elles et l’existence de cet ordre est implicite et nécessaire. Nous avons montré qu'il est possible de mener à bien de telles analyses sur un ordre partiel quelconque qui correspondra au parallélisme du programme étudié. Le deuxième résultat est d'étendre les techniques de repliement mémoire, basées sur les réseaux euclidiens, de manière à trouver automatiquement une base adéquate à partir de l'ensemble des conflits mémoire. Cet ensemble est fréquemment non convexe, cas qui était traité de façon insuffisante par les méthodes précédentes. Le dernier résultat applique les deux analyses précédentes au calcul par blocs "pipelinés" et notamment au cas de blocs de taille paramétrique. Cette situation donne lieu à du contrôle non-affine mais peut être traité de manière précise par le choix d’approximations adaptées. Ceci ouvre la voie au transfert efficace de noyaux de calculs vers des accélérateurs tels que GPU, FPGA ou autre circuit spécialisé
Polyhedral techniques enable the application of analysis and code transformations on multi-dimensional structures such as nested loops and arrays. They are usually restricted to sequential programs whose control is both affine and static. This thesis extend them to programs involving for example non-analyzable conditions or expressing parallelism. The first result is the extension of the analysis of live-ranges and memory conflicts, for scalar and arrays, to programs with parallel or approximated specification. In previous work on memory allocation for which this analysis is required, the concept of time provides a total order over the instructions and the existence of this order is an implicit requirement. We showed that it is possible to carry out such analysis on any partial order which match the parallelism of the studied program. The second result is to extend memory folding techniques, based on Euclidean lattices, to automatically find an appropriate basis from the set of memory conflicts. This set is often non convex, case that was inadequately handled by the previous methods. The last result applies both previous analyzes to "pipelined" blocking methods, especially in case of parametric block size. This situation gives rise to non-affine control but can be processed accurately by the choice of suitable approximations. This paves the way for efficient kernel offloading to accelerators such as GPUs, FPGAs or other dedicated circuit
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Yu, Shuai. „Multi-user computation offloading in mobile edge computing“. Electronic Thesis or Diss., Sorbonne université, 2018. http://www.theses.fr/2018SORUS462.

Der volle Inhalt der Quelle
Annotation:
Mobile Edge Computing (MEC) est un modèle informatique émergent qui étend le cloud et ses services à la périphérie du réseau. Envisager l'exécution d'applications émergentes à forte intensité de ressources dans le réseau MEC, le déchargement de calcul est un paradigme éprouvé réussi pour activer des applications gourmandes en ressources sur les appareils mobiles. De plus, compte tenu de l'émergence de l'application collaborative mobile (MCA), les tâches déchargées peuvent être dupliquées lorsque plusieurs utilisateurs se trouvent à proximité. Cela nous motive à concevoir un schéma de déchargement de calcul collaboratif pour un réseau MEC multi-utilisateurs. Dans ce contexte, nous étudions séparément les schémas de déchargement par calcul collaboratif pour les scénarios de déchargement de MEC, de déchargement de périphérique à périphérique (D2D) et de déchargement hybride, respectivement. Dans le scénario de déchargement de MEC, nous supposons que plusieurs utilisateurs mobiles déchargent des tâches de calcul dupliquées sur les serveurs de périphérie du réseau et partagent les résultats de calcul entre eux. Notre objectif est de développer les stratégies optimales de déchargement collaboratif avec des améliorations de mise en cache afin de minimiser le délai d'exécution global du côté du terminal mobile. À cette fin, nous proposons un déchargement optimal avec un schéma d'amélioration de la mise en cache (OOCS) pour le scénario femto-cloud et le scénario d'informatique mobile, respectivement. Les résultats de la simulation montrent que comparé à six solutions alternatives dans la littérature, notre OOCS mono-utilisateur peut réduire les délais d'exécution jusqu'à 42,83% et 33,28% respectivement pour le femto-cloud mono-utilisateur et l'informatique mobile mono-utilisateur. D'un autre côté, notre système OOCS multi-utilisateur peut encore réduire le délai de 11,71% par rapport à l'OOCS mono-utilisateur grâce à la coopération des utilisateurs. Dans le scénario de déchargement D2D, nous supposons que lorsque des tâches de calcul en double sont traitées sur des utilisateurs mobiles spécifiques et que les résultats de calcul sont partagés via le canal de multidiffusion Device-to-Device (D2D). Notre objectif ici est de trouver une partition réseau optimale pour le déchargement multicast D2D, afin de minimiser la consommation d'énergie globale du côté du terminal mobile. À cette fin, nous proposons d'abord un cadre de déchargement de calcul basé sur la multidiffusion D2D où le problème est modélisé comme un problème d'optimisation combinatoire, puis résolu en utilisant les concepts de correspondance bipartite pondérée maximale et de jeu de coalition. Notez que notre proposition considère la contrainte de délai pour chaque utilisateur mobile ainsi que le niveau de la batterie pour garantir l'équité. Pour évaluer l'efficacité de notre proposition, nous simulons trois composants interactifs typiques. Les résultats de la simulation montrent que notre algorithme peut réduire considérablement la consommation d'énergie et garantir l'équité de la batterie entre plusieurs utilisateurs en même temps. Nous étendons ensuite le déchargement du D2D au déchargement hybride en tenant compte des relations sociales. Dans ce contexte, nous proposons un cadre d'exécution de tâches hybride multicast pour l'informatique mobile, où une foule d'appareils mobiles à la périphérie du réseau s'appuient sur la collaboration D2D assistée par réseau pour l'informatique distribuée sans fil et le partage des résultats. Le cadre est socialement conscient afin de construire des liens D2D efficaces. Un objectif clé de ce cadre est de mettre en place une politique d'attribution de tâches écoénergétique pour les utilisateurs mobiles. Pour ce faire, nous introduisons d'abord le modèle de système de déchargement de calcul hybride social-aware, puis nous formulons le problème d'affectation de tâches économe en énergie en prenant en compte les contraintes nécessaires [...]
Mobile Edge Computing (MEC) is an emerging computing model that extends the cloud and its services to the edge of the network. Consider the execution of emerging resource-intensive applications in MEC network, computation offloading is a proven successful paradigm for enabling resource-intensive applications on mobile devices. Moreover, in view of emerging mobile collaborative application (MCA), the offloaded tasks can be duplicated when multiple users are in the same proximity. This motivates us to design a collaborative computation offloading scheme for multi-user MEC network. In this context, we separately study the collaborative computation offloading schemes for the scenarios of MEC offloading, device-to-device (D2D) offloading and hybrid offloading, respectively. In the MEC offloading scenario, we assume that multiple mobile users offload duplicated computation tasks to the network edge servers, and share the computation results among them. Our goal is to develop the optimal fine-grained collaborative offloading strategies with caching enhancements to minimize the overall execution delay at the mobile terminal side. To this end, we propose an optimal offloading with caching-enhancement scheme (OOCS) for femto-cloud scenario and mobile edge computing scenario, respectively. Simulation results show that compared to six alternative solutions in literature, our single-user OOCS can reduce execution delay up to 42.83% and 33.28% for single-user femto-cloud and single-user mobile edge computing, respectively. On the other hand, our multi-user OOCS can further reduce 11.71% delay compared to single-user OOCS through users' cooperation. In the D2D offloading scenario, we assume that where duplicated computation tasks are processed on specific mobile users and computation results are shared through Device-to-Device (D2D) multicast channel. Our goal here is to find an optimal network partition for D2D multicast offloading, in order to minimize the overall energy consumption at the mobile terminal side. To this end, we first propose a D2D multicast-based computation offloading framework where the problem is modelled as a combinatorial optimization problem, and then solved using the concepts of from maximum weighted bipartite matching and coalitional game. Note that our proposal considers the delay constraint for each mobile user as well as the battery level to guarantee fairness. To gauge the effectiveness of our proposal, we simulate three typical interactive components. Simulation results show that our algorithm can significantly reduce the energy consumption, and guarantee the battery fairness among multiple users at the same time. We then extend the D2D offloading to hybrid offloading with social relationship consideration. In this context, we propose a hybrid multicast-based task execution framework for mobile edge computing, where a crowd of mobile devices at the network edge leverage network-assisted D2D collaboration for wireless distributed computing and outcome sharing. The framework is social-aware in order to build effective D2D links [...]
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Djemai, Ibrahim. „Joint offloading-scheduling policies for future generation wireless networks“. Electronic Thesis or Diss., Institut polytechnique de Paris, 2024. http://www.theses.fr/2024IPPAS007.

Der volle Inhalt der Quelle
Annotation:
Les défis posés par le nombre croissant d'appareils connectés, la forte consommation d'énergie et l'impact environnemental dans les réseaux sans fil d'aujourd'hui et de demain retiennent de plus en plus l'attention. De nouvelles technologies telles que le cloud mobile de périphérie (Mobile Edge Computing) ont vu le jour pour rapprocher les services en nuage des appareils et remédier à leurs limitations en matière de calcul. Le fait de doter ces appareils et les nœuds du réseau de capacités de récolte d'énergie (Energy Harvesting) est également prometteur pour permettre de consommer de l'énergie à partir de sources durables et respectueuses de l'environnement. En outre, l'accès multiple non orthogonal (Non-Orthogonal Multiple Access) est une technique essentielle pour améliorer l'efficacité spectral mobile. Avec l'aide des progrès de l'intelligence artificielle, en particulier des modèles d'apprentissage par renforcement (Reinforcement Learning), le travail de thèse porte sur la conception de politiques qui optimisent conjointement l'ordonnancement et la décharge de calcul pour les appareils dotés de capacités EH, les communications compatibles avec le NOMA et l'accès MEC. En outre, lorsque le nombre d'appareils augmente et que la complexité du système s'accroît, le regroupement NOMA est effectué et l'apprentissage fédéré (Federated Learning) est utilisé pour produire des politiques RL de manière distribuée. Les résultats de la thèse valident la performance des politiques RL proposées, ainsi que l'intérêt de l'utilisation de la technique NOMA
The challenges posed by the increasing number of connected devices, high energy consumption, and environmental impact in today's and future wireless networks are gaining more attention. New technologies like Mobile Edge Computing (MEC) have emerged to bring cloud services closer to the devices and address their computation limitations. Enabling these devices and the network nodes with Energy Harvesting (EH) capabilities is also promising to allow for consuming energy from sustainable and environmentally friendly sources. In addition, Non-Orthogonal Multiple Access (NOMA) is a pivotal technique to achieve enhanced mobile broadband. Aided by the advancement of Artificial Intelligence, especially Reinforcement Learning (RL) models, the thesis work revolves around devising policies that jointly optimize scheduling and computational offloading for devices with EH capabilities, NOMA-enabled communications, and MEC access. Moreover, when the number of devices increases and so does the system complexity, NOMA clustering is performed and Federated Learning is used to produce RL policies in a distributed way. The thesis results validate the performance of the proposed RL-based policies, as well as the interest of using NOMA technique
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Buchteile zum Thema "Déchargement de calcul"

1

MOVAHEDI, Zeinab. „Le déchargement intelligent des calculs dans le contexte du Mobile Cloud Computing“. In Gestion et contrôle intelligents des réseaux, 153–78. ISTE Group, 2020. http://dx.doi.org/10.51926/iste.9008.ch6.

Der volle Inhalt der Quelle
Annotation:
Dans le contexte du Mobile Cloud Computing (MCC), le mécanisme de décision de déchargement devrait déterminer le fournisseur de Cloud approprié en considérant la qualité de service (QoS) offerte et le coût des ressources de calcul et de stockage dédiées à une requête d’utilisateur. Ce contexte dynamique multiréseau d’accès et multiCloud nécessite d’enrichir les mécanismes de décision de déchargement par des outils d’intelligence artificielle (IA), permettant une décision multicritère répondant au mieux à des besoins des utilisateurs mobiles en monde réel. Dans un tel contexte, ce chapitre traite des différentes applications d’IA pour optimiser l’efficacité de déchargement de point de vue d’utilisateurs mobiles, fournisseurs du Cloud et fournisseurs des réseaux d’accès.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie