Siga este enlace para ver otros tipos de publicaciones sobre el tema: Mise en cache en périphérie.

Tesis sobre el tema "Mise en cache en périphérie"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 21 mejores tesis para su investigación sobre el tema "Mise en cache en périphérie".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Yu, Shuai. "Multi-user computation offloading in mobile edge computing". Electronic Thesis or Diss., Sorbonne université, 2018. http://www.theses.fr/2018SORUS462.

Texto completo
Resumen
Mobile Edge Computing (MEC) est un modèle informatique émergent qui étend le cloud et ses services à la périphérie du réseau. Envisager l'exécution d'applications émergentes à forte intensité de ressources dans le réseau MEC, le déchargement de calcul est un paradigme éprouvé réussi pour activer des applications gourmandes en ressources sur les appareils mobiles. De plus, compte tenu de l'émergence de l'application collaborative mobile (MCA), les tâches déchargées peuvent être dupliquées lorsque plusieurs utilisateurs se trouvent à proximité. Cela nous motive à concevoir un schéma de déchargement de calcul collaboratif pour un réseau MEC multi-utilisateurs. Dans ce contexte, nous étudions séparément les schémas de déchargement par calcul collaboratif pour les scénarios de déchargement de MEC, de déchargement de périphérique à périphérique (D2D) et de déchargement hybride, respectivement. Dans le scénario de déchargement de MEC, nous supposons que plusieurs utilisateurs mobiles déchargent des tâches de calcul dupliquées sur les serveurs de périphérie du réseau et partagent les résultats de calcul entre eux. Notre objectif est de développer les stratégies optimales de déchargement collaboratif avec des améliorations de mise en cache afin de minimiser le délai d'exécution global du côté du terminal mobile. À cette fin, nous proposons un déchargement optimal avec un schéma d'amélioration de la mise en cache (OOCS) pour le scénario femto-cloud et le scénario d'informatique mobile, respectivement. Les résultats de la simulation montrent que comparé à six solutions alternatives dans la littérature, notre OOCS mono-utilisateur peut réduire les délais d'exécution jusqu'à 42,83% et 33,28% respectivement pour le femto-cloud mono-utilisateur et l'informatique mobile mono-utilisateur. D'un autre côté, notre système OOCS multi-utilisateur peut encore réduire le délai de 11,71% par rapport à l'OOCS mono-utilisateur grâce à la coopération des utilisateurs. Dans le scénario de déchargement D2D, nous supposons que lorsque des tâches de calcul en double sont traitées sur des utilisateurs mobiles spécifiques et que les résultats de calcul sont partagés via le canal de multidiffusion Device-to-Device (D2D). Notre objectif ici est de trouver une partition réseau optimale pour le déchargement multicast D2D, afin de minimiser la consommation d'énergie globale du côté du terminal mobile. À cette fin, nous proposons d'abord un cadre de déchargement de calcul basé sur la multidiffusion D2D où le problème est modélisé comme un problème d'optimisation combinatoire, puis résolu en utilisant les concepts de correspondance bipartite pondérée maximale et de jeu de coalition. Notez que notre proposition considère la contrainte de délai pour chaque utilisateur mobile ainsi que le niveau de la batterie pour garantir l'équité. Pour évaluer l'efficacité de notre proposition, nous simulons trois composants interactifs typiques. Les résultats de la simulation montrent que notre algorithme peut réduire considérablement la consommation d'énergie et garantir l'équité de la batterie entre plusieurs utilisateurs en même temps. Nous étendons ensuite le déchargement du D2D au déchargement hybride en tenant compte des relations sociales. Dans ce contexte, nous proposons un cadre d'exécution de tâches hybride multicast pour l'informatique mobile, où une foule d'appareils mobiles à la périphérie du réseau s'appuient sur la collaboration D2D assistée par réseau pour l'informatique distribuée sans fil et le partage des résultats. Le cadre est socialement conscient afin de construire des liens D2D efficaces. Un objectif clé de ce cadre est de mettre en place une politique d'attribution de tâches écoénergétique pour les utilisateurs mobiles. Pour ce faire, nous introduisons d'abord le modèle de système de déchargement de calcul hybride social-aware, puis nous formulons le problème d'affectation de tâches économe en énergie en prenant en compte les contraintes nécessaires [...]
Mobile Edge Computing (MEC) is an emerging computing model that extends the cloud and its services to the edge of the network. Consider the execution of emerging resource-intensive applications in MEC network, computation offloading is a proven successful paradigm for enabling resource-intensive applications on mobile devices. Moreover, in view of emerging mobile collaborative application (MCA), the offloaded tasks can be duplicated when multiple users are in the same proximity. This motivates us to design a collaborative computation offloading scheme for multi-user MEC network. In this context, we separately study the collaborative computation offloading schemes for the scenarios of MEC offloading, device-to-device (D2D) offloading and hybrid offloading, respectively. In the MEC offloading scenario, we assume that multiple mobile users offload duplicated computation tasks to the network edge servers, and share the computation results among them. Our goal is to develop the optimal fine-grained collaborative offloading strategies with caching enhancements to minimize the overall execution delay at the mobile terminal side. To this end, we propose an optimal offloading with caching-enhancement scheme (OOCS) for femto-cloud scenario and mobile edge computing scenario, respectively. Simulation results show that compared to six alternative solutions in literature, our single-user OOCS can reduce execution delay up to 42.83% and 33.28% for single-user femto-cloud and single-user mobile edge computing, respectively. On the other hand, our multi-user OOCS can further reduce 11.71% delay compared to single-user OOCS through users' cooperation. In the D2D offloading scenario, we assume that where duplicated computation tasks are processed on specific mobile users and computation results are shared through Device-to-Device (D2D) multicast channel. Our goal here is to find an optimal network partition for D2D multicast offloading, in order to minimize the overall energy consumption at the mobile terminal side. To this end, we first propose a D2D multicast-based computation offloading framework where the problem is modelled as a combinatorial optimization problem, and then solved using the concepts of from maximum weighted bipartite matching and coalitional game. Note that our proposal considers the delay constraint for each mobile user as well as the battery level to guarantee fairness. To gauge the effectiveness of our proposal, we simulate three typical interactive components. Simulation results show that our algorithm can significantly reduce the energy consumption, and guarantee the battery fairness among multiple users at the same time. We then extend the D2D offloading to hybrid offloading with social relationship consideration. In this context, we propose a hybrid multicast-based task execution framework for mobile edge computing, where a crowd of mobile devices at the network edge leverage network-assisted D2D collaboration for wireless distributed computing and outcome sharing. The framework is social-aware in order to build effective D2D links [...]
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Langevin, Laprise Marie. "La mise en pratique de l’extension financière à la périphérie. Agencements péruviens". Thesis, Université d'Ottawa / University of Ottawa, 2015. http://hdl.handle.net/10393/32602.

Texto completo
Resumen
Le processus d’extension des marchés financiers à la périphérie de l’économie politique globale, dans des endroits où ils étaient auparavant inexistants, est l’objet de la thèse. En prenant le cas exemplaire de la microfinance et de l’inclusion financière au Pérou, je m’interroge sur la manière dont se construisent ces marchés, sur les processus et sur les mécanismes qui s’activent pour les mettre en pratique. L’inclusion financière vise à ériger des espaces économiques centrés sur la finance dans des lieux vierges, en créant de nouvelles machines technico-sociales capables d’approfondir la pénétration des marchés financiers et d’y insérer les masses d’individus jusque-là laissés en marge. J’affirme qu’il est important de s’intéresser à ce processus créatif parce qu’il vise à enrôler dans l’économie capitaliste à dominance financière un immense réservoir de valeur, certainement périphérique, mais absolument pas accessoire: l’économie informelle. Ma thèse vise à comprendre les motifs, les moyens et les incidences de l’insertion de ce réservoir. Je soutiens que la logique de l’accumulation capitaliste de la finance et celle de la croissance inclusive du développement néolibéral président au projet d’inclusion financière en tant que motivation. J’explique que la microfinance s’étend moyennant une proximité grandissante avec la haute finance: les fournisseurs de services financiers et les clientèles s’alignent autour de son mode de fonctionnement. Je soutiens que l’inclusion financière articule un mécanisme central —la différenciation— pour étendre et rentabiliser la finance périphérique, et que c’est ce mécanisme qui porte à conséquences sur la forme de marché qui est créé: on admet certaines manières de faire la finance et on en rejette d’autres, on insère dans le marché les personnes potentiellement fonctionnelles alors qu’on rejette les plus récalcitrantes, et on applique aux inclus une tarification adaptée. En alliant des institutions, des produits financiers et des consommateurs différenciés, il devient possible d’activer l’inclusion de l’économie informelle dans les circuits financiers dominants, pour pouvoir ensuite s’approprier la valeur qui y est créée. En mobilisant des théories structuralistes et des outils de l’approche de Bourdieu, ma thèse cerne une impulsion, la croissance de la microfinance, qui provient des champs de la finance et du développement et qui est relayée vers les acteurs au moyen de l’habitus et des doxais. Ma thèse dépasse cependant les impératifs verticaux et leur mode de transmission en exploitant l’approche par agencements (assemblages) pour éclairer les moyens d’inclusion financière à l’échelle méso, pour exposer pleinement leurs conséquences et pour comprendre comment on arrive à rallier concrètement des impératifs logiques qui entrent en tension. La thèse analyse deux agencements en profondeur: l’agencement ‘BCP-Edyficar-Mibanco’ entre des institutions phares de microfinance et la plus grande banque commerciale péruvienne; et l’agencement d’une structure de coordination public-privé des pratiques d’extension des marchés financiers, la ‘Stratégie nationale d’inclusion financière’. Avec une approche de l’agencement, dont les tendances au délitement du social et à la négligence des macrocontextes politiques sont corrigées par l’articulation avec les impératifs structuraux et certains éléments de la théorie des champs, ma thèse expose ce qui fait courir les composantes de l’économie politique vers l’inclusion financière, ce qui les rends capables de s’aligner et d’être fonctionnelles autour du même projet et ce qui porte politiquement à conséquences pour l’inclusion et l’exclusion.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Ben, Ammar Hamza. "On models for performance evaluation and cache resources placement in multi-cache networks". Thesis, Rennes 1, 2019. http://www.theses.fr/2019REN1S006/document.

Texto completo
Resumen
Au cours des dernières années, les fournisseurs de contenu ont connu une forte augmentation des demandes de contenus vidéo et de services riches en média. Compte tenu des limites de la mise à l'échelle du réseau et au-delà des réseaux de diffusion de contenu, les fournisseurs de services Internet développent leurs propres systèmes de mise en cache afin d'améliorer la performance du réseau. Ces facteurs expliquent l'enthousiasme à l'égard du concept de réseau centré sur le contenu et de sa fonction de mise en cache en réseau. La quantification analytique de la performance de la mise en cache n'est toutefois pas suffisamment explorée dans la littérature. De plus, la mise en place d'un système de caching efficace au sein d'une infrastructure réseau est très complexe et demeure une problématique ouverte. Pour traiter ces questions, nous présentons d'abord dans cette thèse un modèle générique et précis de cache nommé MACS (Markov chain-based Approximation of Caching Systems) qui peut être adapté très facilement pour représenter différents schémas de mise en cache et qui peut être utilisé pour calculer différentes mesures de performance des réseaux multi-cache. Nous avons ensuite abordé le problème de l'allocation des ressources de cache dans les réseaux avec capacité de caching. Moyennant notre outil analytique MACS, nous présentons une approche permettant de résoudre le compromis entre différentes mesures de performance en utilisant l'optimisation multi-objectif et nous proposons une adaptation de la métaheuristique GRASP pour résoudre le problème d'optimisation
In the last few years, Content Providers (CPs) have experienced a high increase in requests for video contents and rich media services. In view of the network scaling limitations and beyond Content Delivery Networks (CDNs), Internet Service Providers (ISPs) are developing their own caching systems in order to improve the network performance. These factors explain the enthusiasm around the Content-Centric Networking (CCN) concept and its in-network caching feature. The analytical quantification of caching performance is, however, not sufficiently explored in the literature. Moreover, setting up an efficient caching system within a network infrastructure is very complex and remains an open problem. To address these issues, we provide first in this thesis a fairly generic and accurate model of caching nodes named MACS (Markov chain-based Approximation of Caching Systems) that can be adapted very easily to represent different caching schemes and which can be used to compute different performance metrics of multi-cache networks. We tackled after that the problem of cache resources allocation in cache-enabled networks. By means of our analytical tool MACS, we present an approach that solves the trade-off between different performance metrics using multi-objective optimization and we propose an adaptation of the metaheuristic GRASP to solve the optimization problem
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Zhao, Hui. "High performance cache-aided downlink systems : novel algorithms and analysis". Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS366.

Texto completo
Resumen
La thèse aborde d'abord le pire goulot d'étranglement de la mise en cache codée sans fil, qui est connue pour diminuer considérablement les gains de multidiffusion assistée par cache. Nous présentons un nouveau schéma, appelé mise en cache codée agrégée, qui peut récupérer entièrement les gains de mise en cache codée en capitalisant sur les informations partagées apportées par la contrainte de taille de fichier effectivement inévitable. La thèse passe ensuite à des scénarios avec des émetteurs avec des réseaux multi-antennes. En particulier, nous considérons maintenant le scénario multi-utilisateurs assisté par cache multi-antennes, où l'émetteur multi-antennes délivre des flux de mise en cache codés, pouvant ainsi servir plusieurs utilisateurs à la fois, avec des chaînes de radio fréquences (RF) réduites. Ce faisant, la mise en cache codée peut aider un simple formateur de faisceau analogique (une seule chaîne RF), entraînant ainsi des économies considérables d'énergie et de matériel. Enfin, après avoir supprimé la limitation de la chaîne RF, la thèse étudie les performances de la technique de mise en cache codée par vecteur et révèle que cette technique peut atteindre, sous plusieurs hypothèses réalistes, une augmentation multiplicative du taux de somme par rapport à la contrepartie optimisée multi-antennes sans cache. En particulier, pour un système MIMO de liaison descendante déjà optimisé pour exploiter à la fois les gains de multiplexage et de formation de faisceaux, notre analyse répond à une question simple: quelle est l'augmentation de débit multiplicative obtenue en introduisant des caches côté récepteur de taille raisonnable ?
The thesis first addresses the worst-user bottleneck of wireless coded caching, which is known to severely diminish cache-aided multicasting gains. We present a novel scheme, called aggregated coded caching, which can fully recover the coded caching gains by capitalizing on the shared side information brought about by the effectively unavoidable file-size constraint. The thesis then transitions to scenarios with transmitters with multi-antenna arrays. In particular, we now consider the multi-antenna cache-aided multi-user scenario, where the multi-antenna transmitter delivers coded caching streams, thus being able to serve multiple users at a time, with a reduced radio frequency (RF) chains. By doing so, coded caching can assist a simple analog beamformer (only a single RF chain), thus incurring considerable power and hardware savings. Finally, after removing the RF-chain limitation, the thesis studies the performance of the vector coded caching technique, and reveals that this technique can achieve, under several realistic assumptions, a multiplicative sum-rate boost over the optimized cacheless multi-antenna counterpart. In particular, for a given downlink MIMO system already optimized to exploit both multiplexing and beamforming gains, our analysis answers a simple question: What is the multiplicative throughput boost obtained from introducing reasonably-sized receiver-side caches?
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Meddeb, Maroua. "Information-Centric Networking, A natural design for IoT applications?" Thesis, Toulouse, INSA, 2017. http://www.theses.fr/2017ISAT0013/document.

Texto completo
Resumen
L'Internet des Objets (IdO) est généralement perçu comme l'extension de l'Internet actuel à notre monde physique. Il interconnecte un grand nombre de capteurs / actionneurs, référencés comme des objets, sur Internet. Face aux importants défis imposés par l'hétérogénéité des dispositifs et l'énorme trafic généré, la pile protocolaire actuelle TCP / IP va atteindre ses limites. Le réseau centré sur l'information (ICN) a récemment reçu beaucoup d'attention comme une nouvelle architecture Internet qui a un grand potentiel pour être adoptée dans un système IdO. Le paradigme ICN forme la future architecture Internet qui s’est contrée sur les données elles-mêmes plutôt que sur leurs emplacements dans le réseau. Il s'agit d'un passage d'un modèle de communication centrée sur l'hôte vers un système centré sur le contenu en se basant sur des noms de contenu uniques et indépendants de la localisation, la mise en cache dans le réseau et le routage basé sur les noms. Grâce à ses avantages pertinents, l'ICN peut être un framework viable pour soutenir l’IdO, interconnectant des milliards d'objets contraints hétérogènes. En effet, ICN permet l'accès facile aux données et réduit à la fois le délai de récupération et la charge des requêtes sur les producteurs de données. Parmi plusieurs architectures ICN, le réseau de données nommées (NDN) est considéré comme l'architecture ICN appropriée pour les systèmes IdO. Néanmoins, de nouveaux problèmes ont apparu et s'opposent aux ambitions visées dans l'utilisation de la philosophie ICN dans les environnements IdO. En fait, nous avons identifié trois défis majeurs. Étant donné que les périphériques IdO sont habituellement limités en termes de ressources avec des limitations sévères de l'énergie, de la mémoire et de la puissance de traitement, les techniques de mise en cache en réseau doivent être optimisées. En outre, les données IdO sont transitoires et sont régulièrement mises à jour par les producteurs, ce qui impose des exigences strictes pour maintenir la cohérence des données mises en cache. Enfin, dans un scénario IdO, les objets sont souvent mobiles et nécessitent des stratégies pour maintenir leurs accessibilités. Dans cette thèse, nous proposons une stratégie de mise en cache optimale qui considère les contraintes des périphériques. Ensuite, nous présentons un nouveau mécanisme de cohérence de cache pour surveiller la validité des contenus mis en cache dans un environnement IdO. En outre, pour améliorer l'efficacité de la mise en cache, nous proposons également une politique de remplacement du cache qui vise à augmenter les performances du système et à maintenir la validité des données. Enfin, nous introduisons un nouveau routage basé sur les noms pour les réseaux NDN / IdO afin de prendre en charge la mobilité des producteurs.Nous simulons et comparons nos propositions à plusieurs propositions pertinentes sous un réseau IdO de trafic réel. Nos contributions présentent de bonnes performances du système en termes de taux de réduction du chemin parcouru par les requêtes, de taux de réduction du nombre des requêtes satisfaites par les serveur, du délai de la réponse et de perte des paquets, de plus, la stratégie de mise en cache offre un faible coût de cache et finalement la validité du contenu est considérablement améliorée grâce au mécanisme de cohérence
The Internet of Things (IoT) is commonly perceived as the extension of the current Internet to our physical world. It interconnects an unprecedented number of sensors/actuators, referred as things, to the Internet. Facing the important challenges imposed by devices heterogeneity and the tremendous generated traffic, the current Internet protocol suite has reached its limits. The Information-Centric Networking (ICN) has recently received a lot of attention as a potential Internet architecture to be adopted in an IoT ecosystem. The ICN paradigm is shaping the foreseen future Internet architecture by focusing on the data itself rather than its hosting location. It is a shift from a host-centric! communication model to a content-centric one supporting among! others unique and location-independent content names, in-network caching and name-based routing. By leveraging the easy data access, and reducing both the retrieval delay and the load on the data producer, the ICN can be a viable framework to support the IoT, interconnecting billions of heterogeneous constrained objects. Among several ICN architectures, the Named Data Networking (NDN) is considered as a suitable ICN architecture for IoT systems. Nevertheless, new issues have emerged slowing down the ambitions besides using the ICN paradigm in IoT environments. In fact, we have identified three major challenges. Since IoT devices are usually resource-constrained with harsh limitations on energy, memory and processing power, the adopted in-network caching techniques should be optimized. Furthermore, IoT data are transient and frequently updated by the producer which imposes stringent requirements to maintain cached data freshness. Finally, in IoT scenario, devices are ! frequently mobile and IoT applications require keeping data continuity. In this thesis, we propose a caching strategy that considers devices constraints. Then, we introduce a novel cache freshness mechanism to monitor the validity of cached contents in an IoT environment. Furthermore, to improve caching efficiency, we also propose a cache replacement policy that targets to raise the system performances and maintain data freshness. Finally, we introduce a novel name-based routing for NDN/IoT networks to support the producer mobility. We simulate and compare our proposals to several relevant schemes under a real traffic IoT network. Our schemes exhibit good system performances in terms of hop reduction ratio, server hit reduction ratio, response latency and packet loss, yet it provides a low cache cost and significantly improves the content validity
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Busseuil, Rémi. "Exploration d'architecture d'accélérateurs à mémoire distribuée". Thesis, Montpellier 2, 2012. http://www.theses.fr/2012MON20218/document.

Texto completo
Resumen
Bien que le développement actuel d'accélérateurs se concentre principalement sur la création de puces Multiprocesseurs (MPSoC) hétérogènes, c'est-à-dire composés de processeurs spécialisées, de nombreux acteurs de la microélectronique s'intéressent au développement d'un autre type de MPSoC, constitué d'une grille de processeurs identiques. Ces MPSoC homogènes, bien que composés de processeurs énergétiquement moins efficaces, possèdent une programmabilité et une flexibilité plus importante que les MPSoC hétérogènes, ce qui favorise notamment l'adaptation du système à la charge demandée, et offre un espace de solutions de configuration potentiellement plus vaste et plus simple à contrôler. C'est dans ce contexte que s'inscrit cette thèse, en exposant la création d'une architecture MPSoC homogène scalable (c'est-à-dire dont la mise à l'échelle des performances est linéaire), ainsi que le développement de différents systèmes d'adaptation et de programmation sur celle-ci.Cette architecture, constituée d'une grille de processeurs de type MicroBlaze, possédant chacun sa propre mémoire, au sein d'un Réseau sur Puce 2D, a été développée conjointement avec un système d'exploitation temps réel (RTOS) spécialisé et modulaire. Grâce à la création d'une pile de communication complexe, plusieurs mécanismes d'adaptation ont été mis en œuvre : une migration de tâche « avec redirection de données », permettant de diminuer l'impact de cette migration avec des applications de type flux de données, ainsi qu'un mécanisme dit « d'exécution distante ». Ce dernier consiste non plus à migrer le code instruction d'une mémoire à une autre, mais de conserver le code dans sa mémoire initiale et de le faire exécuter par un processeur distinct. Les différentes expériences réalisées avec ce mécanisme ont permis de souligner la meilleure réactivité de celui-ci face à la migration de tâche, tout en possédant des performances d'adaptation plus faible.Ce dernier mécanisme a conduit naturellement à la création d'un modèle de programmation de type « mémoire partagée » au sein de l'architecture. La mise en place de ce dernier nécessitait la création d'un mécanisme de cohérence mémoire, qui a été réalisé de façon matérielle/logicielle et scalable par l'intermédiaire du développement de la librairie PThread. Les performances ainsi obtenues mettent en évidence les avantages d'un MPSoC homogène tout en utilisant une programmation « classique » de type multiprocesseur
Although the accelerators market is dominated by heterogeneous MultiProcessor Systems-on-Chip (MPSoC), i.e. with different specialized processors, a growing interest is put on another type of MPSoC, composed by an array of identical processors. Even if these processors achieved lower performance to power ratio, the better flexibility and programmability of these homogeneous MPSoC allow an easier adaptation to the load, and offer a wider space of configurations. In this context, this thesis exposes the development of a scalable homogeneous MPSoC – i.e. with linear performance scaling – and different kind of adaptive mechanisms and programming model on it.This architecture is based on an array of MicroBlaze-like processors, each having its own memory, and connected through a 2D NoC. A modular RTOS was build on top of it. Thanks to a complex communication stack, different adaptive mechanisms were made: a “redirected data” task migration mechanism, reducing the impact of the migration mechanism for data-flow applications, and a “remote execution” mechanism. Instead of migrate the instruction code from a memory to another, this last consists in only migrate the execution, keeping the code in its initial memory. The different experiments shows faster reactivity but lower performance of this mechanism compared to migration.This development naturally led to the creation of a shared memory programming model. To achieve this, a scalable hardware/software memory consistency and cache coherency mechanism has been made, through the PThread library development. Experiments show the advantage of using NoC based homogeneous MPSoC with a brand programming model
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Kamel, Boumédiène. "La responsabilite professionnelle pour les dommages causes par les produits industriels. Techniques legales et jurisprudentielles de mise en oeuvre de la responsabilite". Rennes 1, 1986. http://www.theses.fr/1986REN11030.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Jaber, Ghada. "A content-centric approach for wireless sensor networks". Thesis, Toulouse 3, 2018. http://www.theses.fr/2018TOU30196.

Texto completo
Resumen
Les réseaux de capteurs sans fil constituent une partie essentielle de la couche " perception " de l'Internet des objets (IoT ou Internet of Things), et reconnectent le monde numérique créée par les réseaux informatiques classiques au monde physique. Ils font émerger sans cesse de nouvelles applications grâce à un nombre important d'éléments, qui collectent des données de l'environnement, les traitent et les disséminent. Aujourd'hui, circulent dans l'IoT des volumes de données importants, très variés et souvent générés de façon continue mettant plus l'accent sur l'information et non sur sa source. Cette indifférence sur la source est renforcée par les déploiements interchangeables et redondants des réseaux de capteurs. Dans cette thèse, nous nous attachons à l'intégration des principes et mécanismes des réseaux orientés contenus dans les réseaux de capteurs sans fil afin d'améliorer le fonctionnement et les performances de ces derniers. Nous nous sommes intéressés, dans un premier temps, à la pertinence temporelle des données dans les réseaux de capteurs centrés sur les contenus. En effet, nous avons opté pour la prise en considération de la durée de vie (ou fraîcheur) des contenus et proposé deux approches (une réactive et l'autre proactive) pour leur mise à jour. Dans la seconde partie de la thèse, nous avons proposé un mécanisme fondé sur le contrôle du duty-cycle afin d'atténuer l'impact de l'inondation principalement utilisée pour disséminer les intérêts envoyés par les utilisateurs et les contenus correspondant. Pour cela, nous avons cherché à maintenir un sous-ensemble suffisant de nœuds nécessaires à la satisfaction des intérêts reçus par le réseau. Le défi principal était de réduire la consommation d'énergie grâce à un mécanisme d'endormissement/réveil des nœuds capteurs tout en gardant un bon taux de satisfaction des requêtes. Enfin, pour améliorer la mise en cache des contenus dans un réseau de capteurs, nous avons étudié les stratégies existantes et recensé les paramètres impactant leur performance. Nous avons ensuite proposé une stratégie plaçant les contenus sur des nœuds en fonction de leur degré et leur distance de la source. Une compagne de simulations et des comparaisons avec d'autres solutions, montrent que les mécanismes proposés garantissent de bonnes performances en termes de latence, de consommation d'énergie et de taux de satisfaction des intérêts
Wireless sensor networks are an essential part of the Internet of Things (IoT) "perception" layer. IoT connects the digital world created by conventional computer networks to the physical world. They continually bring new applications to life through a large number of elements that collect, process and disseminate environmental data. Today, moves accross the IoT a large and varied volume of data. Data is generated in a continuous way with a greater emphasis on information and not on its source. This indifference to the source is reinforced by the interchangeable and redundant deployments of the sensor networks. In this thesis, we focus on integrating the principles and mechanisms of content-oriented networks in wireless sensor networks to improve the operation and performance of these networks. Hence, we first focused on the temporal relevance of data in content-centric sensor networks. Indeed, we considered the content lifetime (or freshness) and we proposed two approaches (one reactive and the other proactive) for their update. In the second part of the thesis, we proposed a mechanism based on the control of the duty-cycle to overcome the impact of the flooding mainly used to disseminate the interests sent by the users and the corresponding contents. For this purpose, we tried to maintain a sufficient subset of nodes necessary to satisfy the interests received by the network. The main challenge was to reduce energy consumption thanks to a mechanism controlling the node activity while keeping a good interest satisfaction rate. Finally, to improve the content caching in a sensor network, we have studied the existing strategies and identified the parameters impacting their performance. We then proposed a strategy placing the contents according to the degree of the nodes and their distance from the source. An exhaustive comparative study with other solutions show that the proposed mechanisms guarantee good performance in terms of latency, energy consumption and interest satisfaction rate
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Boughida, Malik. "Factorisation du rendu de Monte-Carlo fondée sur les échantillons et le débruitage bayésien". Thesis, Paris, ENST, 2017. http://www.theses.fr/2017ENST0013/document.

Texto completo
Resumen
Le rendu de Monte-Carlo par lancer de rayons est connu depuis longtemps pour être une classe d’algorithmes de choix lorsqu’il s’agit de générer des images de synthèse photo-réalistes. Toutefois, sa nature fondamentalement aléatoire induit un bruit caractéristique dans les images produites. Dans cette thèse, nous mettons en œuvre des algorithmes fondés sur les échantillons de Monte-Carlo et l’inférence bayésienne pour factoriser le calcul du rendu, par le partage d’information entre pixels voisins ou la mise en cache de données précédemment calculées. Dans le cadre du rendu à temps long, en nous fondant sur une technique récente de débruitage en traitement d’images, appelée Non-local Bayes, nous avons développé un algorithme de débruitage collaboratif par patchs, baptisé Bayesian Collaborative Denoising. Celui-ci est conçu pour être adapté aux spécificités du bruit des rendus de Monte-Carlo et aux données supplémentaires qu’on peut obtenir par des statistiques sur les échantillons. Dans un deuxième temps, pour factoriser les calculs de rendus de Monte-Carlo en temps interactif dans un contexte de scène dynamique, nous proposons un algorithme de rendu complet fondé sur le path tracing, appelé Dynamic Bayesian Caching. Une partition des pixels permet un regroupement intelligent des échantillons. Ils sont alors en nombre suffisant pour pouvoir calculer des statistiques sur eux. Ces statistiques sont comparées avec celles stockées en cache pour déterminer si elles doivent remplacer ou enrichir les données existantes. Finalement un débruitage bayésien, inspiré des travaux de la première partie, est appliqué pour améliorer la qualité de l’image
Monte Carlo ray tracing is known to be a particularly well-suited class of algorithms for photorealistic rendering. However, its fundamentally random nature breeds noise in the generated images. In this thesis, we develop new algorithms based on Monte Carlo samples and Bayesian inference in order to factorize rendering computations, by sharing information across pixels or by caching previous results. In the context of offline rendering, we build upon a recent denoising technique from the image processing community, called Non-local Bayes, to develop a new patch-based collaborative denoising algorithm, named Bayesian Collaborative Denoising. It is designed to be adapted to the specificities of Monte Carlo noise, and uses the additionnal input data that we can get by gathering per-pixel sample statistics. In a second step, to factorize computations of interactive Monte Carlo rendering, we propose a new algorithm based on path tracing, called Dynamic Bayesian Caching. A clustering of pixels enables a smart grouping of many samples. Hence we can compute meaningful statistics on them. These statistics are compared with the ones that are stored in a cache to decide whether the former should replace or be merged with the latter. Finally, a Bayesian denoising, inspired from the works of the first part, is applied to enhance image quality
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Boughida, Malik. "Factorisation du rendu de Monte-Carlo fondée sur les échantillons et le débruitage bayésien". Electronic Thesis or Diss., Paris, ENST, 2017. http://www.theses.fr/2017ENST0013.

Texto completo
Resumen
Le rendu de Monte-Carlo par lancer de rayons est connu depuis longtemps pour être une classe d’algorithmes de choix lorsqu’il s’agit de générer des images de synthèse photo-réalistes. Toutefois, sa nature fondamentalement aléatoire induit un bruit caractéristique dans les images produites. Dans cette thèse, nous mettons en œuvre des algorithmes fondés sur les échantillons de Monte-Carlo et l’inférence bayésienne pour factoriser le calcul du rendu, par le partage d’information entre pixels voisins ou la mise en cache de données précédemment calculées. Dans le cadre du rendu à temps long, en nous fondant sur une technique récente de débruitage en traitement d’images, appelée Non-local Bayes, nous avons développé un algorithme de débruitage collaboratif par patchs, baptisé Bayesian Collaborative Denoising. Celui-ci est conçu pour être adapté aux spécificités du bruit des rendus de Monte-Carlo et aux données supplémentaires qu’on peut obtenir par des statistiques sur les échantillons. Dans un deuxième temps, pour factoriser les calculs de rendus de Monte-Carlo en temps interactif dans un contexte de scène dynamique, nous proposons un algorithme de rendu complet fondé sur le path tracing, appelé Dynamic Bayesian Caching. Une partition des pixels permet un regroupement intelligent des échantillons. Ils sont alors en nombre suffisant pour pouvoir calculer des statistiques sur eux. Ces statistiques sont comparées avec celles stockées en cache pour déterminer si elles doivent remplacer ou enrichir les données existantes. Finalement un débruitage bayésien, inspiré des travaux de la première partie, est appliqué pour améliorer la qualité de l’image
Monte Carlo ray tracing is known to be a particularly well-suited class of algorithms for photorealistic rendering. However, its fundamentally random nature breeds noise in the generated images. In this thesis, we develop new algorithms based on Monte Carlo samples and Bayesian inference in order to factorize rendering computations, by sharing information across pixels or by caching previous results. In the context of offline rendering, we build upon a recent denoising technique from the image processing community, called Non-local Bayes, to develop a new patch-based collaborative denoising algorithm, named Bayesian Collaborative Denoising. It is designed to be adapted to the specificities of Monte Carlo noise, and uses the additionnal input data that we can get by gathering per-pixel sample statistics. In a second step, to factorize computations of interactive Monte Carlo rendering, we propose a new algorithm based on path tracing, called Dynamic Bayesian Caching. A clustering of pixels enables a smart grouping of many samples. Hence we can compute meaningful statistics on them. These statistics are compared with the ones that are stored in a cache to decide whether the former should replace or be merged with the latter. Finally, a Bayesian denoising, inspired from the works of the first part, is applied to enhance image quality
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Hajri, Salah Eddine. "L’amélioration des performances des systèmes sans fil 5G par groupements adaptatifs des utilisateurs". Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLC029/document.

Texto completo
Resumen
5G est prévu pour s'attaquer, en plus d'une augmentation considérable du volume de trafic, la tâche de connecter des milliards d'appareils avec des exigences de service hétérogènes. Afin de relever les défis de la 5G, nous préconisons une utilisation plus efficace des informations disponibles, avec plus de sensibilisation par rapport aux services et aux utilisateurs, et une expansion de l'intelligence du RAN. En particulier, nous nous concentrons sur deux activateurs clés de la 5G, à savoir le MIMO massif et la mise en cache proactive. Dans le troisième chapitre, nous nous concentrons sur la problématique de l'acquisition de CSI dans MIMO massif en TDD. Pour ce faire, nous proposons de nouveaux schémas de regroupement spatial tels que, dans chaque groupe, une couverture maximale de la base spatiale du signal avec un chevauchement minimal entre les signatures spatiales des utilisateurs est obtenue. Ce dernier permet d'augmenter la densité de connexion tout en améliorant l'efficacité spectrale. MIMO massif en TDD est également au centre du quatrième chapitre. Dans ce cas, en se basant sur les différents taux de vieillissement des canaux sans fil, la périodicité d'estimation de CSI est supplémentaire. Nous le faisons en proposant un exploité comme un degré de liberté supplémentaire. Nous le faisons en proposant une adaptation dynamique de la trame TDD en fonction des temps de cohérence des canaux hétérogènes. Les stations de bases MIMO massif sont capables d'apprendre la meilleure politique d’estimation sur le uplink pour de longues périodes. Comme les changements de canaux résultent principalement de la mobilité de l'appareil, la connaissance de l'emplacement est également incluse dans le processus d'apprentissage. Le problème de planification qui en a résulté a été modélisé comme un POMDP à deux échelles temporelles et des algorithmes efficaces à faible complexité ont été fournis pour le résoudre. Le cinquième chapitre met l'accent sur la mise en cache proactive. Nous nous concentrons sur l'amélioration de l'efficacité énergétique des réseaux dotes de mise en cache en exploitant la corrélation dans les modèles de trafic en plus de la répartition spatiale des demandes. Nous proposons un cadre qui établit un compromis optimal entre la complexité et la véracité dans la modélisation du comportement des utilisateurs grâce à la classification adaptative basée sur la popularité du contenu. Il simplifie également le problème du placement de contenu, ce qui se traduit par un cadre d'allocation de contenu rapidement adaptable et économe en énergie
5G is envisioned to tackle, in addition to a considerable increase in traffic volume, the task of connecting billions of devices with heterogeneous service requirements. In order to address the challenges of 5G, we advocate a more efficient use of the available information, with more service and user awareness, and an expansion of the RAN intelligence. In particular, we focus on two key enablers of 5G, namely massive MIMO and proactive caching. In the third chapter, we focus on addressing the bottleneck of CSI acquisition in TDD Massive MIMO. In order to do so, we propose novel spatial grouping schemes such that, in each group, maximum coverage of the signal’s spatial basis with minimum overlapping between user spatial signatures is achieved. The latter enables to increase connection density while improving spectral efficiency. TDD Massive MIMO is also the focus of the fourth chapter. Therein, based on the different rates of wireless channels aging, CSI estimation periodicity is exploited as an additional DoF. We do so by proposing a dynamic adaptation of the TDD frame based on the heterogeneous channels coherence times. The Massive MIMO BSs are enabled to learn the best uplink training policy for long periods. Since channel changes result primarily from device mobility, location awareness is also included in the learning process. The resulting planning problem was modeled as a two-time scale POMDP and efficient low complexity algorithms were provided to solve it. The fifth chapter focuses on proactive caching. We focus on improving the energy efficiency of cache-enabled networks by exploiting the correlation in traffic patterns in addition to the spatial repartition of requests. We propose a framework that strikes the optimal trade-off between complexity and truthfulness in user behavior modeling through adaptive content popularity-based clustering. It also simplifies the problem of content placement, which results in a rapidly adaptable and energy efficient content allocation framework
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Abousabea, Emad Mohamed Abd Elrahman. "Optimization algorithms for video service delivery". Thesis, Evry, Institut national des télécommunications, 2012. http://www.theses.fr/2012TELE0030/document.

Texto completo
Resumen
L'objectif de cette thèse est de fournir des algorithmes d'optimisation pour l'accès aux services vidéo qu’ils soient non-gérés (Internet TV) ou gérés (IPTV). Nous étudions des statistiques récentes concernant les services vidéo non-gérés comme YouTube et nous proposons des techniques d'optimisation appropriées qui pourraient améliorer l'accès aux fichiers vidéos et réduire le coût de cet accès. En outre, l’analyse des coûts joue un rôle important dans les décisions qui concernent la mise en cache des fichiers vidéos et celles liées au choix des périodes temporelles d'hébergement de ces fichiers sur les serveurs. En ce qui concerne les services vidéo gérés appelés IPTV, nous avons mené des expériences sur une architecture ouverte IPTV-collaboration entre différents opérateurs. Ce modèle est analysé selon un critère de coût d’investissement et d'exploitation à l'intérieur de la sphère domestique. En outre, nous avons introduit une solution d’optimisation dynamique de l'arbre « minimum spanning tree » (MST) pour le service IPTV multicast. Lors d’un accès nomade, les arbres statiques pourraient être incapables de fournir le service de manière efficace vu que l'utilisation de la bande passante augmente aux côté des points de streaming (racines de la topologie). Finalement, nous étudions des mesures de sécurité fiables en streaming vidéo basées sur la méthodologie de la chaîne de hachage et nous proposons un nouvel algorithme hybride. Nous effectuons des comparaisons entre les différentes manières utilisées dans la réalisation de la fiabilité des chaînes de hachage basées sur les classifications génériques
The aim of this thesis is to provide optimization algorithms for accessing video services either in unmanaged or managed ways. We study recent statistics about unmanaged video services like YouTube and propose suitable optimization techniques that could enhance files accessing and reduce their access costs. Moreover, this cost analysis plays an important role in decision making about video files caching and hosting periods on the servers. Under managed video services called IPTV, we conducted experiments for an open-IPTV collaborative architecture between different operators. This model is analyzed in terms of CAPEX and OPEX costs inside the domestic sphere. Moreover, we introduced a dynamic way for optimizing the Minimum Spanning Tree (MST) for multicast IPTV service. In nomadic access, the static trees could be unable to provide the service in an efficient manner as the utilization of bandwidth increases towards the streaming points (roots of topologies). Finally, we study reliable security measures in video streaming based on hash chain methodology and propose a new algorithm. Then, we conduct comparisons between different ways used in achieving reliability of hash chains based on generic classifications
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Giannakas, Theodoros. "Joint modeling and optimization of caching and recommendation systems". Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS317.

Texto completo
Resumen
La mise en cache du contenu au plus près des utilisateurs a été proposée comme un scénario gagnant-gagnant afin d'offrir de meilleurs tarifs aux utilisateurs tout en économisant sur les coûts des opérateurs. Néanmoins, la mise en cache peut réussir si les fichiers mis en cache parviennent à attirer un grand nombre de demandes. À cette fin, nous profitons du fait qu'Internet est de plus en plus axé sur le divertissement et proposons de lier les systèmes de recommandation et la mise en cache afin d'augmenter le taux de réussite. Nous modélisons un utilisateur qui demande plusieurs contenus à partir d'un réseau équipé d'un cache. Nous proposons un cadre de modélisation pour un tel utilisateur qui est basé sur des chaînes de Markov et s'écarte de l'IRM. Nous explorons différentes versions du problème et dérivons des solutions optimales et sous-optimales selon le cas que nous examinons. Enfin, nous examinons la variation du problème de mise en cache prenant en compte la recommandation et proposons des algorithmes pratiques assortis de garanties de performances. Pour les premiers, les résultats indiquent qu'il y a des gains élevés pour les opérateurs et que les schémas myopes sans vision sont fortement sous-optimaux. Alors que pour ce dernier, nous concluons que les décisions de mise en cache peuvent considérablement s'améliorer en tenant compte des recommandations sous-jacentes
Caching content closer to the users has been proposed as a win-win scenario in order to offer better rates to the users while saving costs from the operators. Nonetheless, caching can be successful if the cached files manage to attract a lot of requests. To this end, we take advantage of the fact that the internet is becoming more entertainment oriented and propose to bind recommendation systems and caching in order to increase the hit rate. We model a user who requests multiple contents from a network which is equipped with a cache. We propose a modeling framework for such a user which is based on Markov chains and depart from the IRM. We delve into different versions of the problem and derive optimal and suboptimal solutions according to the case we examine. Finally we examine the variation of the Recommendation aware caching problem and propose practical algorithms that come with performance guarantees. For the former, the results indicate that there are high gains for the operators and that myopic schemes without a vision, are heavily suboptimal. While for the latter, we conclude that the caching decisions can significantly improve when taking into consideration the underlying recommendations
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Kamel, Sarah. "Sécurité pour les réseaux sans fil". Thesis, Paris, ENST, 2017. http://www.theses.fr/2017ENST0011/document.

Texto completo
Resumen
Aujourd’hui, le renforcement de la sécurité des systèmes de communications devient une nécessité, par anticipation du développement des ordinateurs quantiques et des nouvelles attaques qui en découleront. Cette thèse explore deux techniques complémentaires permettant d’assurer la confidentialité des données transmises sur des liens sans-fils. Dans la première partie de ce travail, nous nous intéressons au schéma de cryptographie à clé publique basée sur des réseaux de points, qui représente une des techniques les plus prometteuses pour la cryptographie post-quantique. En particulier, nous considérons le cryptosystème Goldreich-Goldwasser-Halevi (GGH), pour lequel nous proposons un nouveau schéma utilisant les GLD. Dans la seconde partie de ce travail, nous étudions la sécurité des canaux de diffusion multi-utilisateur, ayant accès à des mémoires de caches, en présence d'un espion. Nous considérons deux contraintes de sécurité: la contrainte de sécurité individuelle et la contrainte de sécurité jointe. Nous dérivons des bornes supérieure et inférieure pour le compromis sécurisé capacité-mémoire en considérant différentes distributions de cache. Afin d'obtenir la borne inférieure, nous proposons plusieurs schémas de codage combinant codage wiretap, codage basé sur la superposition et codage piggyback. Nous prouvons qu'il est plus avantageux d'allouer la mémoire de cache aux récepteurs les plus faibles
Today, there is a real need to strengthen the communication security to anticipate the development of quantum computing and the eventual attacks arising from it. This work explores two complementary techniques that provide confidentiality to data transmitted over wireless networks. In the first part, we focus on lattice-based public-key cryptography, which is one of the most promising techniques for the post-quantum cryptography systems. In particular, we focus on the Goldreich-Goldwasser-Halevi (GGH) cryptosystem, for which we propose a new scheme using GLD lattices. In the second part of this work, we study the security of multi-user cache-aided wiretap broadcast channels (BCs) against an external eavesdropper under two secrecy constraints: individual secrecy constraint and joint secrecy constraint. We compute upper and lower bounds on secure capacity-memory tradeoff considering different cache distributions. To obtain the lower bound, we propose different coding schemes that combine wiretap coding, superposition coding and piggyback coding. We prove that allocation of the cache memory to the weaker receivers is the most beneficial cache distribution scenario
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Abousabea, Emad Mohamed Abd Elrahman. "Optimization algorithms for video service delivery". Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2012. http://www.theses.fr/2012TELE0030.

Texto completo
Resumen
L'objectif de cette thèse est de fournir des algorithmes d'optimisation pour l'accès aux services vidéo qu’ils soient non-gérés (Internet TV) ou gérés (IPTV). Nous étudions des statistiques récentes concernant les services vidéo non-gérés comme YouTube et nous proposons des techniques d'optimisation appropriées qui pourraient améliorer l'accès aux fichiers vidéos et réduire le coût de cet accès. En outre, l’analyse des coûts joue un rôle important dans les décisions qui concernent la mise en cache des fichiers vidéos et celles liées au choix des périodes temporelles d'hébergement de ces fichiers sur les serveurs. En ce qui concerne les services vidéo gérés appelés IPTV, nous avons mené des expériences sur une architecture ouverte IPTV-collaboration entre différents opérateurs. Ce modèle est analysé selon un critère de coût d’investissement et d'exploitation à l'intérieur de la sphère domestique. En outre, nous avons introduit une solution d’optimisation dynamique de l'arbre « minimum spanning tree » (MST) pour le service IPTV multicast. Lors d’un accès nomade, les arbres statiques pourraient être incapables de fournir le service de manière efficace vu que l'utilisation de la bande passante augmente aux côté des points de streaming (racines de la topologie). Finalement, nous étudions des mesures de sécurité fiables en streaming vidéo basées sur la méthodologie de la chaîne de hachage et nous proposons un nouvel algorithme hybride. Nous effectuons des comparaisons entre les différentes manières utilisées dans la réalisation de la fiabilité des chaînes de hachage basées sur les classifications génériques
The aim of this thesis is to provide optimization algorithms for accessing video services either in unmanaged or managed ways. We study recent statistics about unmanaged video services like YouTube and propose suitable optimization techniques that could enhance files accessing and reduce their access costs. Moreover, this cost analysis plays an important role in decision making about video files caching and hosting periods on the servers. Under managed video services called IPTV, we conducted experiments for an open-IPTV collaborative architecture between different operators. This model is analyzed in terms of CAPEX and OPEX costs inside the domestic sphere. Moreover, we introduced a dynamic way for optimizing the Minimum Spanning Tree (MST) for multicast IPTV service. In nomadic access, the static trees could be unable to provide the service in an efficient manner as the utilization of bandwidth increases towards the streaming points (roots of topologies). Finally, we study reliable security measures in video streaming based on hash chain methodology and propose a new algorithm. Then, we conduct comparisons between different ways used in achieving reliability of hash chains based on generic classifications
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Tsigkari, Dimitra. "Algorithms and Cooperation Models in Caching and Recommendation Systems". Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS210.

Texto completo
Resumen
Dans le contexte des services de streaming vidéo à la demande, la mise en cache et la politique de recommandation ont un impact sur la satisfaction des utilisateurs, ainsi que des implications financières pour le fournisseur de contenu (CP) et le fournisseur du réseau de diffusion de contenu (CDN). Bien que la mise en cache et les recommandations soient traditionnellement décidées indépendamment les unes des autres, l'idée de concevoir ensemble ces décisions pourrait minimiser les coûts de distribution et le trafic Internet. Cette thèse suit cette direction d'exploitation de la codépendance de la mise en cache et des recommandations. Dans un premier temps, nous étudions le problème de l'optimisation simultanée de la mise en cache et des recommandations dans le but de maximiser l'expérience globale des utilisateurs. Cette optimisation simultanée est possible pour les CPs qui possèdent leur propre CDN dans les architectures d’aujourd’hui et du futur. Bien que nous montrions que ce problème est NP-difficile, notre analyse nous permet de fournir un algorithme d'approximation. Nous étudions ensuite le cas où les recommandations et la mise en cache sont décidées par deux entités distinctes (le CP et le CDN, respectivement) qui veulent maximiser leurs profits individuels. Sur la base d'outils de la théorie des jeux et de la théorie de l'optimisation, nous proposons un nouveau mécanisme de coopération entre les deux entités sur la base de recommandations. Cette coopération leur permet de concevoir une politique de recommandation qui favorise les contenus en cache et qui assure une répartition équitable des gains qui en résultent
In the context of on-demand video streaming services, both the caching allocation and the recommendation policy have an impact on the user satisfaction, and financial implications for the Content Provider (CP) and the Content Delivery Network (CDN). Although caching and recommendations are traditionally decided independently of each other, the idea of co-designing these decisions can lead to lower delivery costs and to less traffic at the backbone Internet. This thesis follows this direction of exploiting the interplay of caching and recommendations in the setting of streaming services. It approaches the subject through the perspective of the users, and then from a network-economical point of view. First, we study the problem of jointly optimizing caching and recommendations with the goal of maximizing the overall experience of the users. This joint optimization is possible for CPs that simultaneously act as CDN owners in today’s or future architectures. Although we show that this problem is NP-hard, through a careful analysis, we provide the first approximation algorithm for the joint problem. We then study the case where recommendations and caching are decided by two separate entities (the CP and the CDN, respectively) who want to maximize their individual profits. Based on tools from game theory and optimization theory, we propose a novel cooperation mechanism between the two entities on the grounds of recommendations. This cooperation allows them to design a cache-friendly recommendation policy that ensures a fair split of the resulting gains
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Poliakov, Vitalii. "Amélioration de la qualité d'expérience vidéo en combinant streaming adaptif, caching réseau et multipath". Thesis, Université Côte d'Azur (ComUE), 2018. http://www.theses.fr/2018AZUR4203/document.

Texto completo
Resumen
Le trafic vidéo s’est considérablement accru et est prévu de doubler pour représenter 82% du trafic Internet d’ici 2021. Une telle croissance surcharge les fournisseurs de services Internet (ISP), nuisant à la Qualité d’Expérience (QoE) perçue par les utilisateurs. Cette thèse vise à améliorer la QoE des utilisateurs de streaming vidéo sans hypothèse de changement d’infrastructure physique des opérateurs. Pour cela, nous combinons les technologies de caching réseau, de streaming HTTP adaptatif (HAS), et de transport multipath. Nous explorons d’abord l’interaction entre HAS et caching, pour montrer que les algorithmes d’adaptation de qualité vidéo ont besoin de savoir qu’il y a un cache et ce qui y est stocké, et proposons des algorithmes bénéficiant de cette connaissance. Concluant sur la difficulté d’obtenir la connaissance de l’état du cache, nous étudions ensuite un système de distribution vidéo à large échelle, où les caches sont représentés par un réseau de distribution du contenu (CDN). Un CDN déploie des caches à l’intérieur des réseaux des ISP, et dispose de ses propres serveurs externes. L’originalité du problème vient de l’hypothèse que nous faisons que l’utilisateur est simultanément connecté à 2 ISP. Ceci lui permet d’accéder en multipath aux serveurs externes aux ISP (pouvant ainsi accroître le débit mais chargeant plus les ISP), ou streamer le contenu depuis un cache plus proche mais avec un seul chemin. Ce désaccord entre les objectifs du CDN et de l’ISP conduit à des performances sous-optimales. Nous développons un schéma de collaboration entre ISP et CDN qui permet de nous rapprocher de l’optimal dans certains cas, et discutons l’implémentation pratique
Video traffic volume grew considerably in recent years and is forecasted to reach 82% of the total Internet traffic by 2021, doubling its net volume as compared to today. Such growth overloads Internet Service Providers' networks (ISPs), which negatively impacts users' Quality of Experience (QoE). This thesis attempts to tackle the problem of improving users' video QoE without relying on network upgrades. For this, we have chosen to combine such technologies as in-network caching, HTTP Adaptive Streaming (HAS), and multipath data transport. We start with exploration of interaction between HAS and caching; we confirm the need of cache-awareness in quality adaptation algorithms and propose such an extension to a state-of-the-art optimisation-based algorithm. Concluding on the difficulty of achieving cache-awareness, we take a step back to study a video delivery system on a large scale, where in-network caches are represented by Content Delivery Networks (CDNs). They deploy caches inside ISPs and dispose of their own outside video servers. As a novelty, we consider users to have a simultaneous connectivity to several ISP networks. This allows video clients either to access outside multipath servers with aggregate bandwidth (which may increase their QoE, but will also bring more traffic into ISP), or stream their content from a closer cache through only single connectivity (bringing less traffic into ISP). This disagreement in ISP and CDN objectives leads to suboptimal system performance. In response to this, we develop a collaboration scheme between two actors, performance of which can approach optimal boundary for certain settings, and discuss its practical implementation
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Kamel, Sarah. "Sécurité pour les réseaux sans fil". Electronic Thesis or Diss., Paris, ENST, 2017. http://www.theses.fr/2017ENST0011.

Texto completo
Resumen
Aujourd’hui, le renforcement de la sécurité des systèmes de communications devient une nécessité, par anticipation du développement des ordinateurs quantiques et des nouvelles attaques qui en découleront. Cette thèse explore deux techniques complémentaires permettant d’assurer la confidentialité des données transmises sur des liens sans-fils. Dans la première partie de ce travail, nous nous intéressons au schéma de cryptographie à clé publique basée sur des réseaux de points, qui représente une des techniques les plus prometteuses pour la cryptographie post-quantique. En particulier, nous considérons le cryptosystème Goldreich-Goldwasser-Halevi (GGH), pour lequel nous proposons un nouveau schéma utilisant les GLD. Dans la seconde partie de ce travail, nous étudions la sécurité des canaux de diffusion multi-utilisateur, ayant accès à des mémoires de caches, en présence d'un espion. Nous considérons deux contraintes de sécurité: la contrainte de sécurité individuelle et la contrainte de sécurité jointe. Nous dérivons des bornes supérieure et inférieure pour le compromis sécurisé capacité-mémoire en considérant différentes distributions de cache. Afin d'obtenir la borne inférieure, nous proposons plusieurs schémas de codage combinant codage wiretap, codage basé sur la superposition et codage piggyback. Nous prouvons qu'il est plus avantageux d'allouer la mémoire de cache aux récepteurs les plus faibles
Today, there is a real need to strengthen the communication security to anticipate the development of quantum computing and the eventual attacks arising from it. This work explores two complementary techniques that provide confidentiality to data transmitted over wireless networks. In the first part, we focus on lattice-based public-key cryptography, which is one of the most promising techniques for the post-quantum cryptography systems. In particular, we focus on the Goldreich-Goldwasser-Halevi (GGH) cryptosystem, for which we propose a new scheme using GLD lattices. In the second part of this work, we study the security of multi-user cache-aided wiretap broadcast channels (BCs) against an external eavesdropper under two secrecy constraints: individual secrecy constraint and joint secrecy constraint. We compute upper and lower bounds on secure capacity-memory tradeoff considering different cache distributions. To obtain the lower bound, we propose different coding schemes that combine wiretap coding, superposition coding and piggyback coding. We prove that allocation of the cache memory to the weaker receivers is the most beneficial cache distribution scenario
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Mehamel, Sarra. "New intelligent caching and mobility strategies for MEC /ICN based architectures". Electronic Thesis or Diss., Paris, CNAM, 2020. http://www.theses.fr/2020CNAM1284.

Texto completo
Resumen
Le paradigme de MEC (Mobile Edge Computing) consiste à mettre les ressources de calcul et de stockage aux « extrémités » du réseau à proximité des utilisateurs finaux. Le terme « edge » désigne n’importe quel type de station de base de réseau. Les motivations pour l’adoption de ce nouveau concept sont principalement la réduction de la charge au cœur du réseau et la diminution de la latence grâce à la proximité des ressources et ainsi améliorer l’expérience utilisateur. Les serveurs MEC sont de bons candidats pour héberger les applications mobiles et diffuser le contenu Web. La mise en cache à l’extrémité du réseau, ou Edge Caching en anglais, est l’une des technologies les plus émergentes connues comme solution de récupération de contenu au bord du réseau. Elle est aussi considérée comme une technologie permettant la mise en place du concept MEC puisqu’elle présente une opportunité intéressante pour implémenter les services de mise en cache. En particulier, les serveurs MEC sont implémentés directement au niveau des stations de base, ce qui permet la mise en cache à l’extrémité du réseau et assure un déploiement à proximité des utilisateurs finaux. Cependant, l’intégration des serveurs MEC dans les stations de base complexifie le problème de la consommation de l’énergie, particulièrement dans un tel environnement qui est dynamique et sujet à des changements au fil du temps. Par ailleurs, la demande des utilisateurs des appareils mobiles est en constante augmentation ainsi que leur expectation d’une expérience meilleure. Sachant que le cache est d’une taille limitée, il est donc nécessaire et crucial que les mécanismes de mise en cache soient en mesure de faire face à cette situation et de proposer des solutions valables et satisfaisants à long terme. La plupart des études existantes se sont focalisées sur l’allocation de cache, la popularité du contenu ou encore la manière de concevoir le cache. Dans cette thèse, nous présentons une nouvelle stratégie de mise en cache écoénergétique basée sur la logique floue (Fuzzy logic). Notre proposition prend en compte les quatre caractéristiques d’un environnement mobile et introduit une implémentation matérielle en utilisant les FPGA (Field-Programmable Gate Array) pour réduire les besoins globaux en énergie. L’adoption d’une stratégie de mise en cache adéquate sur les serveurs MEC ouvre la possibilité d’utiliser des techniques d’intelligence artificielle (IA) et d’apprentissage automatique (Machine Learning) aux extrémités des réseaux mobiles. L’exploitation des informations de contexte des utilisateurs permet de concevoir une mise en cache intelligente sensible au contexte. La reconnaissance du contexte permet au cache de connaître son environnement, tandis que l’intelligence lui permet de prendre les bonnes décisions en sélectionnant le contenu approprié à mettre en cache afin d’optimiser les performances du caching. Inspiré par le succès de l’apprentissage par renforcement utilisant des agents pour traiter des problèmes de prise de décision, nous avons étendu notre système de mise en cache basé sur la logique floue à un modèle d’apprentissage par renforcement modifié. Le cadre proposé vise à maximiser le taux de réussite du cache (hit rate) et nécessite une prise de conscience multiple sure les conditions de web et l’utilisateur final. La méthode d’apprentissage par renforcement modifiée diffère des autres algorithmes par le taux d’apprentissage qui utilise la méthode du gradient stochastique décent (stochastic gradient decent) en plus de tirer parti de l’apprentissage en utilisant la décision de mise en cache optimale obtenue à partir des règles de la logique floue
Mobile edge computing (MEC) concept proposes to bring the computing and storage resources in close proximity to the end user by placing these resources at the network edge. The motivation is to alleviate the mobile core and to reduce latency for mobile users due to their close proximity to the edge. MEC servers are candidates to host mobile applications and serve web contents. Edge caching is one of the most emerging technologies recognized as a content retrieval solution in the edge of the network. It has been also considered as enabling technology of mobile edge computing that presents an interesting opportunity to perform caching services. Particularly, the MEC servers are implemented directly at the base stations which enable edge caching and ensure deployment in close-proximity to the mobile users. However, the integration of servers in mobile edge computing environment (base stations) complicates the energy saving issue because the power consumed by mobile edge computing servers is costly especially when the load changes dynamically over time. Furthermore, users with mobile devices arise their demands, introducing the challenge of handling such mobile content requests beside the limited caching size. Thus, it is necessary and crucial for caching mechanisms to consider context-aware factors, meanwhile most existing studies focus on cache allocation, content popularity and cache design. In this thesis, we present a novel energy-efficient fuzzy caching strategy for edge devices that takes into consideration four influencing features of mobile environment, while introducing a hardware implementation using Field-Programmable Gate Array (FPGA) to cut the overall energy requirements. Performing an adequate caching strategy on MEC servers opens the possibility of employing artificial intelligence (AI) techniques and machine learning at mobile network edges. Exploiting users context information intelligently makes it possible to design an intelligent context-aware mobile edge caching. Context awareness enables the cache to be aware of its environment, while intelligence enables each cache to make the right decisions of selecting appropriate contents to be cached so that to maximize the caching performance. Inspired by the success of reinforcement learning (RL) that uses agents to deal with decision making problems, we extended our fuzzy-caching system into a modified reinforcement learning model. The proposed framework aims to maximize the cache hit rate and requires a multi awareness. The modified RL differs from other RL algorithms in the learning rate that uses the method of stochastic gradient decent beside taking advantage of learning using the optimal caching decision obtained from fuzzy rules
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Modrzejewski, Remigiusz. "Distribution et Stockage de Contenus dans les Réseaux". Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-00917032.

Texto completo
Resumen
Dans cette thèse, nous étudions divers problèmes dont l'objectif est de gérer la croissance d'internet plus efficacement. En effet celle-ci est très vive : 41% pour le pic en 2012. Afin de répondre aux défis posés par cette évolution aux divers acteurs du réseau, des protocoles de gestion et de communication plus intelligents sont nécessaires. Les protocoles de l'Internet furent conçus, point à point. Or, la part de la diffusion de média dans le trafic est prépondérante et en hausse tendancielle, et des projections indiquent qu'en 2016 80-90% du trafic sera engendré par de la diffusion vidéo. Cette divergence entraîne des inefficacités car les données parcourent plusieurs fois le réseau. Dans cette thèse, nous étudions comment tempérer cette inefficacité. Nos contributions sont organisées selon les couches et les phases de déploiement du réseau. Nous étudions le placement de caches lors de la conception du réseau. Ensuite, pour la gestion d'un réseau, nous regardons quand placer des appareils en veille, en utilisant un mécanisme de cache et en coopération avec des réseaux de distribution. Puis, au niveau de la couche application, nous étudions un problème de maintenance d'arbres équilibrés pour la diffusion de média. Enfin, nous analysons la probabilité de survie de données dans un système de sauvegarde distribuée. Notre travail se fonde à la fois sur des méthodes théoriques (Chaînes de Markov, Programmation Linéaire), mais aussi sur des outils empiriques tels que la simulation et l'expérimentation.
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Wasselin, Mélanie. "Statut des travailleurs au sein de l’entreprise et protections juridiques en matière de mise à pied au Québec : une comparaison des secteurs syndiqués et non syndiqués chez le Centre de finition Laurent Beaudoin de Bombardier". Thesis, 2020. http://hdl.handle.net/1866/24413.

Texto completo
Resumen
Les entreprises cherchent sans cesse à accroître leur flexibilité afin de s’ajuster aux variations imprévisibles du marché. Or, cette recherche a une propension à générer des restructurations internes et externes, et par le fait même, à répartir la main d’œuvre au cœur ou à la périphérie des entreprises. Les travailleurs permanents et qualifiés se retrouvent plus souvent au cœur de celles-ci et seraient généralement syndiqués. Par comparaison, les travailleurs temporaires qualifiés ou non, issus de la sous-traitance, se situent plus en périphérie, et seraient moins souvent syndiqués. De plus, cette recherche de flexibilité accroît le recours aux mises à pied pour des motifs économiques. Même si le droit du travail autorise les employeurs à recourir aux mises à pied, il protège aussi les travailleurs à l’aide de deux sources distinctes de protection. La première, de nature législative, s’applique en matière de rapport individuel de travail et dicte les normes protectrices minimales des travailleurs. La seconde, de nature conventionnelle, concerne les rapports collectifs de travail. En matière de mise à pied, le droit du travail aurait-il tendance à puiser dans les conventions collectives sa fonction protectrice à l’égard des travailleurs ? La loi aurait-elle plutôt comme effet de faciliter l’activité économique et la recherche de flexibilité des entreprises ? Les travailleurs syndiqués au cœur seraient alors avantagés par rapport aux travailleurs non syndiqués de la périphérie. Ce mémoire tente de répondre à la question de recherche suivante : Quelle est la protection offerte par le droit du travail québécois en matière de mise à pied selon le statut (cœur ou périphérie) des travailleurs et selon qu’ils soient syndiqués ou non ? Une analyse qualitative d’un établissement de Bombardier, le Centre de finition Laurent Beaudoin (CFLB), et de deux de ses sous-traitants, un non spécialisé, syndiqué, Aramark Québec Inc, et un autre spécialisé et non syndiqué, Elisen Technologies Inc, permettra de répondre à cette question. L’étude des conventions collectives des travailleurs du CFLB et d’Aramark, basée sur les années 2009 à 2019, combinée à une recherche des offres d’emplois du CFLB au cours des quatre derniers mois de l’année 2019, nous permettra d’abord de définir quels sont les travailleurs syndiqués et non syndiqués œuvrant au CFLB, ainsi que de les situer au cœur ou à la périphérie du CFLB. Par la suite, les protections issues des conventions collectives en matière de mise à pied sont comparées avec celles issues de la législation, selon le statut cœur-périphérie que détiennent les travailleurs œuvrant au CFLB. Dans un premier temps, ce mémoire cherche donc à comparer les protections en matière de mise à pied des travailleurs du cœur du CFLB, avec celles des travailleurs situés à la périphérie du CFLB afin de savoir si un écart peut être constaté entre le statut (cœur-périphérie) des travailleurs. Dans un second temps, il mesure les protections en matière de mise à pied entre les travailleurs syndiqués et non syndiqués, dans l’intention d’y voir une distinction en termes d’avantages. Finalement, ce mémoire s’interroge sur la différence possible entre les recours utilisés par les travailleurs, dérivant de la loi ou des conventions collectives. Les résultats démontrent que les protections en matière de mise à pied sont plus généreuses pour les travailleurs du cœur, plutôt que pour les travailleurs situés en périphérie seulement en présence du statut de syndicalisation. Les travailleurs syndiqués ont aussi de meilleures protections que les travailleurs non syndiqués. Le fait que les recours en matière de mise à pied, menés par la loi ou la convention collective, présenteraient une différence n’a pas pu être démontré en raison de l’inexistence de l’emploi de ces recours par les travailleurs du CFLB, ce qui montre également la limite de notre recherche quant au fait d’étudier un seul établissement.
Companies are continuously seeking to increase their flexibility to adjust to unpredictable market changes. However, this quest is generating both internal and external restructuring and is likely to lead to the distribution of the workforce according to the core-periphery continuum. Permanent and skilled workers are more often found at “core” positions inside companies and would generally be unionized. On the contrary, skilled or unskilled temporary workers, coming from subcontractors, are more often found at a peripherical position and would be less often unionized. Also, this quest of flexibility increases the use of temporary layoffs for economic reasons, if required by the situation. Even if labour law allows employers to rely on temporary layoffs, it also protects workers through two distinct sources of protection. The first, which is a legislative matter, applies to the individual employment relationship and dictates the minimum protective standards for workers. The second, which is more like a convention, concerns collective labour relations. Concerning temporary layoffs, does labour law tend to draw workers protection from collective agreements? Would the law tend to facilitate economic growth and companies seek for flexibility? Would unionized workers at the core then have an advantage over non-unionized workers at the periphery? This paper aims to answer to the following research question: what protection the Quebec labour law can provide concerning temporary layoffs to core or non-core workers, depending if they are unionized or not? A qualitative analysis of a Bombarbier plant (Centre de finition Laurent Beaudoin CFLB) and of two of its subcontractors, one non-specialized, unionized, Aramark Quebec Inc, and the other one specialized, non-uniozed, Elisan Technologies Inc., will help answer this question. A study of the 2009-2019 collective agreements of CFLB and Aramark and an analysis of the CFLB job offers in the last four months of 2019, will enable us to understand who are the unionized and non-unionized workers working for CFLB, and to categorize them in the core or peripherical CFLB continuum. Then, we will compare temporary lay-offs protections coming for collective agreements to the protections in the law, keeping in mind the core-periphery levels. This paper is seeking to compare temporary layoffs protections between core CFLB workers and ‘peripherized’ CFLB workers in order to understand if there is a protection gap between those workers. Then, we will try to assess the differences between unionized and non-unionized workers concerning temporary layoffs: is there any difference between the two in term of protection? We will also examine the possible difference of legal remedy usable by workers depending whether it comes from a collective agreement or from the law. The results show a core worker is more protected in case of a temporary layoff than a ‘peripherized’ worker only if the core worker is unionized. Unionized workers also have a better level of protection than non-unionized workers. The presence of a difference in the conclusion of a legal remedy drawed on collective agreements or Quebec labour law is still unclear. Indeed, no legal remedy have been initiated by CFLB workers. This also shows the limitation of our research work in studying a single company (CFLB).
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía