Academic literature on the topic 'Informatique en périphérie'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Informatique en périphérie.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Dissertations / Theses on the topic "Informatique en périphérie"

1

Mazouzi, Houssemeddine. "Algorithmes pour le déchargement de tâches sur serveurs de périphérie." Thesis, Paris 13, 2019. http://www.theses.fr/2019PA131076.

Full text
Abstract:
Le déchargement de calculs est l’une des solutions les plus prometteuses pour surmonter le manque d e ressources au niveau des terminaux mobiles. Elle permet l’exécution d’une partie ou de la totalité d’une application mobile dans le cloud. L’objectif est d’améliorer les temps d’exécution et de réduire la consommation énergétique. Malheureusement, le cloud est généralement éloignés des équipements terminaux. Ce qui rend cette approche souffrir de délais importants et fluctuants. Cela est particulièrement problématique pour certaines applications pour lesquelles un temps de réponse réduit est nécessaire. Pour réduire ce délai d’accès, l’une des approches émergentes est de pousser le Cloud vers la bordure du réseau. Cette proximité permet aux applications mobiles de décharger leurs tâches et données vers un Cloud “local” ou “Edge Cloud”.Dans cette thèse, nous nous concentrons sur le déchargement de calculs dans une architecture de type mobiles (Mobile Edge Computing – MEC), composée de plusieurs serveurs de périphérie. Notre objectif est d’explorer de nouvelles stratégies de déchargement efficaces afin d’améliorer les performances des applications tant du point de vue délais de calcul que consommation énergétique, tout en garantissant les contraintes de temps d’exécution des applications. Notre première contribution est une nouvelle stratégie de déchargement sur plusieurs serveurs de périphérie. Nous proposons par la suite une extension de cette stratégie en incluant également le Cloud. Nous évaluons ces stratégies tant du point de vue théorique que pratique avec l’implémentation d’un middleware de déchargement. Finalement, nous proposons une nouvelle approche élastique dans le cas d’applications multitâches caractérisées par un graphe de dépendances entre les tâches
Computation offloading is one of the most promising paradigm to overcome the lack of computational resources in mobile devices. Basically, it allows the execution of part orall of a mobile application in the cloud. The main objective is to reduce both execution time and energy consumption for the mobile terminals. Unfortunately, even if clouds have rich computing and storage resources, they are usually geographically far from mobile applications and may suffer from large delays, which is particularly problematic for mobile applications with small response time requirements. To reduce this long delay, one of the emerging approach is to push the cloud to the network edge. This proximity gives the opportunity to mobile users to offload their tasks to “local” cloud for processing. An Edge Cloud can be seen as small data center acting as a shadow image of larger data centers. This geographical proximity between mobile applications and edge cloud means that the access delay can be greatly reduced, but affects also higher throughput, improved responsiveness and better scalability. In this thesis, we focus on computation offloading in mobile environment (Mobile Edge Computing - MEC), composed of several edge servers. Our goal is to explore new and effective offloading strategies to improve applications performances in both execution time and energy consumption, while ensuring application requirements. Our first contribution is a new offloading strategy in the case of multiple edge servers. Thenwe extend this strategy to include the Cloud. Both strategies have been evaluated theoretically and experimentally by the implementation of an offloading middleware. Finally, we propose a new elastic approach in the case of multitasking applications characterized by a graph of dependencies between tasks
APA, Harvard, Vancouver, ISO, and other styles
2

Santi, Nina. "Prédiction des besoins pour la gestion de serveurs mobiles en périphérie." Electronic Thesis or Diss., Université de Lille (2022-....), 2023. http://www.theses.fr/2023ULILB050.

Full text
Abstract:
L'informatique en périphérie est un paradigme émergent au sein de l'Internet des Objets (IoT) et complémentaire à l'informatique en nuage. Ce paradigme propose l'implémentation de serveurs de calcul situés à proximité des utilisateurs, réduisant ainsi la pression et les coûts de l'infrastructure réseau locale. La proximité avec les utilisateurs suscite de nouveaux cas d'utilisation, tels que le déploiement de serveurs mobiles embarqués sur des drones ou des robots, offrant une alternative moins coûteuse, plus éco-énergétique et flexible par rapport aux infrastructures fixes lors d'événements ponctuels ou exceptionnels. Cependant, cette approche soulève également de nouveaux enjeux pour le déploiement et l'allocation de ressources en temps et en espace, souvent dépendants de la batterie.Dans le cadre de cette thèse, nous proposons des outils et des algorithmes de prédiction pour la prise de décision concernant l'allocation de ressources fixes et mobiles, à la fois en termes de temps et d'espace, au sein d'environnements dynamiques. Nous mettons à disposition des jeux de données riches et reproductibles qui reflètent l'hétérogénéité inhérente aux applications de l'Internet des Objets (IoT), tout en présentant un taux de contention et d'interférence élevé. Pour cela, nous utilisons le FIT-IoT Lab, un banc d'essai ouvert dédié à l'IoT, et nous mettons l'ensemble du code à disposition de manière ouverte. De plus, nous avons développé un outil permettant de générer de manière automatisée et reproductible des traces de l'IoT. Nous exploitons ces jeux de données pour entraîner des algorithmes d'apprentissage automatique basés sur des techniques de régression afin de les évaluer dans leur capacité à prédire le débit des applications de l'IoT. Dans une démarche similaire, nous avons également entraîné et analysé un réseau neuronal de type transformateur temporel pour prédire plusieurs métriques de la Qualité de Service (QoS). Afin de tenir compte de la mobilité des ressources, nous générons des traces de l'IoT intégrant des points d'accès mobiles embarqués sur des robots TurtleBot. Ces traces, qui intègrent la mobilité, sont utilisées pour valider et tester un framework d'apprentissage fédéré reposant sur des transformateurs temporels parcimonieux. Enfin, nous proposons un algorithme décentralisé de prédiction de la densité de la population humaine par régions, basé sur l'utilisation d'un filtre à particules. Nous testons et validons cet algorithme à l'aide du simulateur Webots dans un contexte de serveurs embarqués sur des robots, et du simulateur ns-3 pour la partie réseaux
Multi-access Edge computing is an emerging paradigm within the Internet of Things (IoT) that complements Cloud computing. This paradigm proposes the implementation of computing servers located close to users, reducing the pressure and costs of local network infrastructure. This proximity to users is giving rise to new use cases, such as the deployment of mobile servers mounted on drones or robots, offering a cheaper, more energy-efficient and flexible alternative to fixed infrastructures for one-off or exceptional events. However, this approach also raises new challenges for the deployment and allocation of resources in terms of time and space, which are often battery-dependent.In this thesis, we propose predictive tools and algorithms for making decisions about the allocation of fixed and mobile resources, in terms of both time and space, within dynamic environments. We provide rich and reproducible datasets that reflect the heterogeneity inherent in Internet of Things (IoT) applications, while exhibiting a high rate of contention and interference. To achieve this, we are using the FIT-IoT Lab, an open testbed dedicated to the IoT, and we are making all the code available in an open manner. In addition, we have developed a tool for generating IoT traces in an automated and reproducible way. We use these datasets to train machine learning algorithms based on regression techniques to evaluate their ability to predict the throughput of IoT applications. In a similar approach, we have also trained and analysed a neural network of the temporal transformer type to predict several Quality of Service (QoS) metrics. In order to take into account the mobility of resources, we are generating IoT traces integrating mobile access points embedded in TurtleBot robots. These traces, which incorporate mobility, are used to validate and test a federated learning framework based on parsimonious temporal transformers. Finally, we propose a decentralised algorithm for predicting human population density by region, based on the use of a particle filter. We test and validate this algorithm using the Webots simulator in the context of servers embedded in robots, and the ns-3 simulator for the network part
APA, Harvard, Vancouver, ISO, and other styles
3

Ntumba, wa Ntumba Patient. "Ordonnancement d'opérateurs continus pour l'analyse de flux de données à la périphérie de l'Internet des Objets." Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS183.

Full text
Abstract:
Les applications de traitement et d'analyse des flux de données (TAFD) sont largement utilisées pour traiter les quantités toujours plus importantes de flux de données produites par des sources de données hautement distribuées géographiquement, telles que les dispositifs de l'internet des objets (IdO) fixes et mobiles, afin d'extraire des informations précieuses le plus rapidement possible pour une action satisfaisant une limite de temps de réponse. Les applications TAFD sont généralement déployées dans le Cloud pour bénéficier de ressources de calcul pratiquement illimitées à la demande. Cependant, ces solutions de calcul centralisées et distantes peuvent souffrir d'une bande passante réseau limitée et des retards de réseau élevé. De plus, la propagation des données dans le nuage peut compromettre la confidentialité des données sensibles. Pour traiter efficacement ce volume de flux de données, le paradigme émergent du Edge/Fog computing est utilisé comme niveau intermédiaire entre le Cloud et les dispositifs IdO pour traiter les flux de données plus près de leurs sources afin de réduire l'utilisation des ressources réseau et les retards dans le réseau pour atteindre le Cloud. Cependant, le paradigme Edge/Fog computing contient des ressources de calcul limitées, il est donc nécessaire de décider quelle partie de l'application TAFD doit être exécutée au niveau du Edge/Fog tout en satisfaisant à la contrainte de temps de réponse de l'application. De plus, les ressources de calcul et de réseau de l'architecture Edge-Fog-Cloud peuvent être partagées entre plusieurs applications de TAFD (ou autres), ce qui nécessite une utilisation efficiente de ces ressources. Dans cette thèse, nous proposons un nouveau modèle pour évaluer le coût d'utilisation des ressources à travers l'architecture Edge-Fog-Cloud. Notre modèle concerne à la fois les ressources de calcul et de réseau et permet de traiter les compromis inhérents à leur utilisation conjointe. Ce modèle caractérise précisément le coût d'utilisation des ressources en distinguant les ressources abondantes des ressources contraintes et en considérant leur disponibilité dynamique, couvrant ainsi les ressources dédiées à une seule application de TAFD et les ressources partageables. Nous complétons notre modélisation du système par un modèle de temps de réponse pour les applications TAFD qui prend en compte leurs caractéristiques de fenêtrage. En s'appuyant sur ces modèles, nous formulons le problème de l'ordonnancement d'opérateurs continus, qui constituent une application de TAFD, sur une architecture hiérarchique de ressources Edge-Fog-Cloud. Notre problème cible présente deux différentes caractéristiques. Premièrement, il vise à optimiser conjointement le coût d'utilisation des ressources de calcul et de réseau, alors que peu d'approches existantes ont pris en compte les ressources de calcul dans leurs objectifs d'optimisation. Plus précisément, notre objectif est de déployer une application de TAFD de manière à ce qu'elle utilise les ressources disponibles de la manière la plus efficace possible. Cela permet d'économiser des ressources précieuses pour les autres applications de TAFD (ou d'autre type) qui partagent la même architecture de ressources. Deuxièmement, il est soumis à une contrainte de temps réponse, alors que peu de travaux ont traité d'une telle contrainte ; la plupart des approches d'ordonnancement des applications soumises au contrainte de temps de réponse incluent le temps de réponse dans leurs objectifs d'optimisation. Nous introduisons plusieurs algorithmes basés sur des heuristiques qui traitent différentes versions du problème : l'ordonnancement statique tenant compte que des ressources de calcul et réseau, l'ordonnancement statique tenant compte à la fois des ressources et de la contrainte de temps de réponse, et l'ordonnancement dynamique qui prend en compte le déploiement actuel de l'application et des ressources disponibles. Enfin, nous évaluons de [...]
Data stream processing and analytics (DSPA) applications are widely used to process the ever increasing amounts of data streams produced by highly geographically distributed data sources, such as fixed and mobile IoT devices, in order to extract valuable information in a timely manner for actuation. DSPA applications are typically deployed in the Cloud to benefit from practically unlimited computational resources on demand. However, such centralized and distant computing solutions may suffer from limited network bandwidth and high network delay. Additionally, data propagation to the Cloud may compromise the privacy of sensitive data. To effectively handle this volume of data streams, the emerging Edge/Fog computing paradigm is used as the middle-tier between the Cloud and the IoT devices to process data streams closer to their sources and to reduce the network resource usage and network delay to reach the Cloud. However, Edge/Fog computing comes with limited computational resource capacities and requires deciding which part of the DSPA application should be performed in the Edge/Fog layers while satisfying the application response time constraint for timely actuation. Furthermore, the computational and network resources across the Edge-Fog-Cloud architecture can be shareable among multiple DSPA (and other) applications, which calls for efficient resource usage. In this PhD research, we propose a new model for assessing the usage cost of resources across the Edge-Fog-Cloud architecture. Our model addresses both computational and network resources and enables dealing with the trade-offs that are inherent to their joint usage. It precisely characterizes the usage cost of resources by distinguishing between abundant and constrained resources as well as by considering their dynamic availability, hence covering both resources dedicated to a single DSPA application and shareable resources. We complement our system modeling with a response time model for DSPA applications that takes into account their windowing characteristics. Leveraging these models, we formulate the problem of scheduling streaming operators over a hierarchical Edge-Fog-Cloud resource architecture. Our target problem presents two distinctive features. First, it aims at jointly optimizing the resource usage cost for computational and network resources, while few existing approaches have taken computational resources into account in their optimization goals. More precisely, our aim is to schedule a DSPA application in a way that it uses available resources in the most efficient manner. This enables saving valuable resources for other DSPA (and non DSPA) applications that share the same resource architecture. Second, it is subject to a response time constraint, while few works have dealt with such a constraint; most approaches for scheduling time-critical (DSPA) applications include the response time in their optimization goals. To solve our formulated problem, we introduce several heuristic algorithms that deal with different versions of the problem: static resource-aware scheduling that each time calculates a new system deployment from the outset, time-aware and resource-aware scheduling, dynamic scheduling that takes into account the current deployment. Finally, we extensively and comparatively evaluate our algorithms with realistic simulations against several baselines that either we introduce or that originate / are inspired from the existing literature. Our results demonstrate that our solutions advance the current state of the art in scheduling DSPA applications
APA, Harvard, Vancouver, ISO, and other styles
4

Aguiari, Davide. "Exploring Computing Continuum in IoT Systems : sensing, communicating and processing at the Network Edge." Electronic Thesis or Diss., Sorbonne université, 2021. http://www.theses.fr/2021SORUS131.

Full text
Abstract:
L'Internet des objets (IoT), ne comprenant à l'origine que quelques dispositifs de détection simple, atteint aujourd’hui 34 milliards d’objets connectés d'ici fin 2020. Ces objets ne peuvent plus être définis comme de simples capteurs de surveillance. Les capacités de l'IoT ont été améliorées ces dernières années tandis-que que les capacités de calcul et de stockage de masse sont devenus des marchandises. Aux débuts de l'IoT, le traitement et le stockage étaient généralement effectués dans le cloud. Les nouvelles architectures IoT sont capables d'exécuter des tâches complexes directement sur l'appareil, permettant ainsi le concept d'un continuum de calcul étendu. Les scénarios critiques et temps réel, comme par exemple la détection de véhicules autonomes, la surveillance de zone ou le sauvetage en cas de catastrophe, nécessitent que l’ensemble des acteurs impliqués soient coordonnés et collaborent sans interaction humaine vers un objectif commun, partageant des données et des ressources, même dans les zones couvertes par des réseaux intermittents. Cela pose de nouveaux problèmes dans les systèmes distribués, la gestion des ressources, l'orchestration des appareils et le traitement des données. Ce travail propose un nouveau cadre de communication et d'orchestration, à savoir le C-Continuum, conçu dans des architectures IoT hétérogènes à travers plusieurs scénarios d'application. Ce travail se concentre pour gérer les ressources sur deux macro-scénarios clés de durabilité : (a) la détection et la sensibilisation à l'environnement, et (b) le soutien à la mobilité électrique. Dans le premier cas, un mécanisme de mesure de la qualité de l'air sur une longue période avec différentes applications à l'échelle mondiale (3 continents et 4 pays) est introduit. Le système a été développé en interne depuis la conception du capteur jusqu'aux opérations de mist-computing effectuées par les nœuds. Dans le deuxième scénario une technique pour transmettre de grandes quantités de données, entre un véhicule en mouvement et un centre de contrôle est proposé. Ces données sont de haute granularité temporelle relatives et permettent conjointement d'allouer des tâches sur demande dans le continuum de calcul
As Internet of Things (IoT), originally comprising of only a few simple sensing devices, reaches 34 billion units by the end of 2020, they cannot be defined as merely monitoring sensors anymore. IoT capabilities have been improved in recent years as relatively large internal computation and storage capacity are becoming a commodity. In the early days of IoT, processing and storage were typically performed in cloud. New IoT architectures are able to perform complex tasks directly on-device, thus enabling the concept of an extended computational continuum. Real-time critical scenarios e.g. autonomous vehicles sensing, area surveying or disaster rescue and recovery require all the actors involved to be coordinated and collaborate without human interaction to a common goal, sharing data and resources, even in intermittent networks covered areas. This poses new problems in distributed systems, resource management, device orchestration,as well as data processing. This work proposes a new orchestration and communication framework, namely CContinuum, designed to manage resources in heterogeneous IoT architectures across multiple application scenarios. This work focuses on two key sustainability macroscenarios: (a) environmental sensing and awareness, and (b) electric mobility support. In the first case a mechanism to measure air quality over a long period of time for different applications at global scale (3 continents 4 countries) is introduced. The system has been developed in-house from the sensor design to the mist-computing operations performed by the nodes. In the second scenario, a technique to transmit large amounts of fine-time granularity battery data from a moving vehicle to a control center is proposed jointly with the ability of allocating tasks on demand within the computing continuum
APA, Harvard, Vancouver, ISO, and other styles
5

Yu, Shuai. "Multi-user computation offloading in mobile edge computing." Electronic Thesis or Diss., Sorbonne université, 2018. http://www.theses.fr/2018SORUS462.

Full text
Abstract:
Mobile Edge Computing (MEC) est un modèle informatique émergent qui étend le cloud et ses services à la périphérie du réseau. Envisager l'exécution d'applications émergentes à forte intensité de ressources dans le réseau MEC, le déchargement de calcul est un paradigme éprouvé réussi pour activer des applications gourmandes en ressources sur les appareils mobiles. De plus, compte tenu de l'émergence de l'application collaborative mobile (MCA), les tâches déchargées peuvent être dupliquées lorsque plusieurs utilisateurs se trouvent à proximité. Cela nous motive à concevoir un schéma de déchargement de calcul collaboratif pour un réseau MEC multi-utilisateurs. Dans ce contexte, nous étudions séparément les schémas de déchargement par calcul collaboratif pour les scénarios de déchargement de MEC, de déchargement de périphérique à périphérique (D2D) et de déchargement hybride, respectivement. Dans le scénario de déchargement de MEC, nous supposons que plusieurs utilisateurs mobiles déchargent des tâches de calcul dupliquées sur les serveurs de périphérie du réseau et partagent les résultats de calcul entre eux. Notre objectif est de développer les stratégies optimales de déchargement collaboratif avec des améliorations de mise en cache afin de minimiser le délai d'exécution global du côté du terminal mobile. À cette fin, nous proposons un déchargement optimal avec un schéma d'amélioration de la mise en cache (OOCS) pour le scénario femto-cloud et le scénario d'informatique mobile, respectivement. Les résultats de la simulation montrent que comparé à six solutions alternatives dans la littérature, notre OOCS mono-utilisateur peut réduire les délais d'exécution jusqu'à 42,83% et 33,28% respectivement pour le femto-cloud mono-utilisateur et l'informatique mobile mono-utilisateur. D'un autre côté, notre système OOCS multi-utilisateur peut encore réduire le délai de 11,71% par rapport à l'OOCS mono-utilisateur grâce à la coopération des utilisateurs. Dans le scénario de déchargement D2D, nous supposons que lorsque des tâches de calcul en double sont traitées sur des utilisateurs mobiles spécifiques et que les résultats de calcul sont partagés via le canal de multidiffusion Device-to-Device (D2D). Notre objectif ici est de trouver une partition réseau optimale pour le déchargement multicast D2D, afin de minimiser la consommation d'énergie globale du côté du terminal mobile. À cette fin, nous proposons d'abord un cadre de déchargement de calcul basé sur la multidiffusion D2D où le problème est modélisé comme un problème d'optimisation combinatoire, puis résolu en utilisant les concepts de correspondance bipartite pondérée maximale et de jeu de coalition. Notez que notre proposition considère la contrainte de délai pour chaque utilisateur mobile ainsi que le niveau de la batterie pour garantir l'équité. Pour évaluer l'efficacité de notre proposition, nous simulons trois composants interactifs typiques. Les résultats de la simulation montrent que notre algorithme peut réduire considérablement la consommation d'énergie et garantir l'équité de la batterie entre plusieurs utilisateurs en même temps. Nous étendons ensuite le déchargement du D2D au déchargement hybride en tenant compte des relations sociales. Dans ce contexte, nous proposons un cadre d'exécution de tâches hybride multicast pour l'informatique mobile, où une foule d'appareils mobiles à la périphérie du réseau s'appuient sur la collaboration D2D assistée par réseau pour l'informatique distribuée sans fil et le partage des résultats. Le cadre est socialement conscient afin de construire des liens D2D efficaces. Un objectif clé de ce cadre est de mettre en place une politique d'attribution de tâches écoénergétique pour les utilisateurs mobiles. Pour ce faire, nous introduisons d'abord le modèle de système de déchargement de calcul hybride social-aware, puis nous formulons le problème d'affectation de tâches économe en énergie en prenant en compte les contraintes nécessaires [...]
Mobile Edge Computing (MEC) is an emerging computing model that extends the cloud and its services to the edge of the network. Consider the execution of emerging resource-intensive applications in MEC network, computation offloading is a proven successful paradigm for enabling resource-intensive applications on mobile devices. Moreover, in view of emerging mobile collaborative application (MCA), the offloaded tasks can be duplicated when multiple users are in the same proximity. This motivates us to design a collaborative computation offloading scheme for multi-user MEC network. In this context, we separately study the collaborative computation offloading schemes for the scenarios of MEC offloading, device-to-device (D2D) offloading and hybrid offloading, respectively. In the MEC offloading scenario, we assume that multiple mobile users offload duplicated computation tasks to the network edge servers, and share the computation results among them. Our goal is to develop the optimal fine-grained collaborative offloading strategies with caching enhancements to minimize the overall execution delay at the mobile terminal side. To this end, we propose an optimal offloading with caching-enhancement scheme (OOCS) for femto-cloud scenario and mobile edge computing scenario, respectively. Simulation results show that compared to six alternative solutions in literature, our single-user OOCS can reduce execution delay up to 42.83% and 33.28% for single-user femto-cloud and single-user mobile edge computing, respectively. On the other hand, our multi-user OOCS can further reduce 11.71% delay compared to single-user OOCS through users' cooperation. In the D2D offloading scenario, we assume that where duplicated computation tasks are processed on specific mobile users and computation results are shared through Device-to-Device (D2D) multicast channel. Our goal here is to find an optimal network partition for D2D multicast offloading, in order to minimize the overall energy consumption at the mobile terminal side. To this end, we first propose a D2D multicast-based computation offloading framework where the problem is modelled as a combinatorial optimization problem, and then solved using the concepts of from maximum weighted bipartite matching and coalitional game. Note that our proposal considers the delay constraint for each mobile user as well as the battery level to guarantee fairness. To gauge the effectiveness of our proposal, we simulate three typical interactive components. Simulation results show that our algorithm can significantly reduce the energy consumption, and guarantee the battery fairness among multiple users at the same time. We then extend the D2D offloading to hybrid offloading with social relationship consideration. In this context, we propose a hybrid multicast-based task execution framework for mobile edge computing, where a crowd of mobile devices at the network edge leverage network-assisted D2D collaboration for wireless distributed computing and outcome sharing. The framework is social-aware in order to build effective D2D links [...]
APA, Harvard, Vancouver, ISO, and other styles
6

De, Souza Felipe Rodrigo. "Scheduling Solutions for Data Stream Processing Applications on Cloud-Edge Infrastructure." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEN082.

Full text
Abstract:
L’évolution des technologies ont conduit à une forte connexion entre les applications et le matériel produisant des quantités de données en perpétuelle augmentation. Ces données sont utilisées par les entreprises, les organisations et les individus pour prendre des décisions quotidiennes. Pour que les données collectées soient réellement utiles il convient de les traiter à temps et donc suffisamment rapidement. La vitesse à laquelle les informations sont extraites depuis les données générées par un système ou un environnement surveillé a un impact sur la capacité des entités (entreprises, organisations ou individus) à réagir aux changements. Une solution pour le traitement des données dans un délais réduit consiste à utiliser des applications de traitement de flux de données.Les applications de traitement de flux de données peuvent être modélisées sous forme de graphes orientés, où les sommets sont des sources de données, des opérateurs ou des récepteurs de données(i.e., data sinks), et les arêtes représentent les flux de données entre les opérateurs. Une source de données est un composant d’application responsable de la génération des données. Les opérateurs reçoivent un flux de données, appliquent une transformation ou effectuent une fonction définie par l’utilisateur sur le flux de données entrant et produisent un nouveau flux de sortie, jusqu’à ce que ce dernier atteigne un récepteur de données,où les données sont alors stockées, visualisées ou envoyées à une autre application. Habituellement, les applications de traitement de flux de données sont conçues pour fonctionner sur des infrastructures cloud ou sur une grappe homogène de ressources (i.e., cluster) en raison du nombre de ressources que ces infrastructures peuvent fournir et de la bonne connectivité de leur réseau. Dans les scénarios où les données utilisées par l’application de traitement du flux de données sont produites dans le cloud lui-même alors le déploiement de l’ensemble de l’application sur le cloud est une approche pertinente. Cependant, à l’heure où l’Internet des objets devient de plus en plus omniprésent, il existe un nombre croissant de scénarios où les applications de traitement de flux de données consomment des flux de données générés à la périphérie du réseau (via les nombreux appareils et capteurs répartis géographiquement). Dans de tels la bonne connectivité de leur réseau. Dans les scénarios où les données utilisées par l’application de traitement du flux de données sont produites dans le cloud lui-même alors le déploiement de l’ensemble de l’application sur le cloud est une approche pertinente.Cependant, à l’heure où l’Internet des objets devient de plus en plus omniprésent, il existe un nombre croissant de scénarios où les applications de traitement de flux de données consomment des flux de données générés à la périphérie du réseau (via les nombreux appareils et capteurs répartis géographiquement). Dans de tels scénarios, l’envoi de toutes les données via Internet pour être traitées sur un cloud distant, loin de la périphérie du réseau d’où proviennent les données, conduirait à générer un trafic réseau considérable. Cela augmente ainsi de façon significative la latence de bout en bout pour l’application; c’est-à-dire, le délai entre le moment où les données sont collectées et la fin du traitement. L’informatique de périphérie (edge computing) est devenu un paradigme pour alléger les tâches de traitement du cloud vers des ressources situées plus près des sources de données. Bien que l’utilisation combinée de ces ressources soit parfois appelée fog computing, la communauté scientifique ne semble pas avoir atteint un consensus sur la terminologie. Nous appelons la combinaison de ressources cloud et de ressources périphériques une infrastructure cloud-edge
Technology has evolved to a point where applications and devicesare highly connected and produce ever-increasing amounts of dataused by organizations and individuals to make daily decisions. Forthe collected data to become information that can be used indecision making, it requires processing. The speed at whichinformation is extracted from data generated by a monitored systemTechnology has evolved to a point where applications and devicesare highly connected and produce ever-increasing amounts of dataused by organizations and individuals to make daily decisions. Forthe collected data to become information that can be used indecision making, it requires processing. The speed at whichinformation is extracted from data generated by a monitored systemor environment affects how fast organizations and individuals canreact to changes. One way to process the data under short delays isthrough Data Stream Processing (DSP) applications. DSPapplications can be structured as directed graphs, where the vertexesare data sources, operators, and data sinks, and the edges arestreams of data that flow throughout the graph. A data source is anapplication component responsible for data ingestion. Operatorsreceive a data stream, apply some transformation or user-definedfunction over the data stream and produce a new output stream,until the latter reaches a data sink, where the data is stored,visualized or provided to another application
APA, Harvard, Vancouver, ISO, and other styles
7

Rasse, Alban. "Une Approche Orientée Modèles pour la Spécification, la Vérification et l’Implantation des Systèmes Logiciels Critiques." Mulhouse, 2006. https://www.learning-center.uha.fr/opac/resource/une-approche-orientee-modeles-pour-la-specification-la-verification-et-limplantation-des-systemes-lo/BUS3944436.

Full text
Abstract:
La conception des applications logicielles est une tâche délicate qui requiert la prise en compte d'un ensemble d’aspects (concurrence, communication, comportement hybride,…) et l’intégration d’un ensemble d’activités particulières. Le travail présenté dans ce manuscrit, tire partie de l'Ingénierie Dirigée par les Modèles (IDM), d'UML, des méthodes formelles, des systèmes multi-agents et des frameworks afin de proposer un processus de conception intégrant des aspects de spécification, de vérification et d'implantation. Il se fonde sur la réalisation de trois modèles adaptés à chacune de ces activités : le modèle de spécification, le modèle de vérification et le modèle d'implantation (Figure 1). Dans ce contexte, l’Ingénierie Dirigée par les Modèles offre les concepts (métamodélisation et transformations de modèles) nécessaires à l’intégration et à la manipulation de ces trois modèles au sein de l'approche proposée. En outre, les transformations de modèles permettent de réaliser la projection d'un modèle source vers différents domaines afin de profiter de leurs avantages respectifs; à partir du modèle de spécification, il est alors possible d'obtenir les modèles de vérification et d'implantation. Le modèle de spécification permet de représenter une abstraction des systèmes logiciels réactifs concurrents ; il est décrit à l’aide d’un Langage Spécifique de Domaine (ou DSL) inspiré des ADL et des diagrammes de composants d’UML 2. 0. Il repose sur l'utilisation d'agents concurrents, qui communiquent à l'aide d'actions partagées et d'objets partagés ; leur comportement est conforme à une sémantique d’exécution hybride (événementiel asynchrone et continu synchrone). Le modèle de vérification permet au concepteur d’utiliser des méthodes et des techniques de vérification qui garantissent que le modèle obtenu durant la phase de spécification est conforme au comportement souhaité. En effet, dans le cas de systèmes critiques, les aspects de vivacité et de sûreté de fonctionnement sont primordiaux. Pour garantir ces aspects, nous proposons de recourir à des spécifications formelles et à des techniques formelles de vérification en modélisant le modèle de vérification à l’aide d’une algèbre de processus nommée Finite State Processes (ou FSP) pouvant être exploitée par l'outil de model-checking LTSA. Le modèle d’implantation est exprimé à l'aide de classes et de configurations d’objets; il repose sur l’utilisation d’un framework Java qui fournit un ensemble de concepts et une sémantique d’exécution proches de ceux utilisés dans le modèle de spécification. Ce faisant il permet de réduire l’écart sémantique entre la réalisation et la conception précédemment vérifiée.
APA, Harvard, Vancouver, ISO, and other styles
8

Morgan, Benoît. "Protection des systèmes informatiques vis-à-vis des malveillances : un hyperviseur de sécurité assisté par le matériel." Thesis, Toulouse, INSA, 2016. http://www.theses.fr/2016ISAT0026/document.

Full text
Abstract:
L'utilisation des systèmes informatiques est aujourd'hui en pleine évolution. Le modèle classique qui consiste à associer à chaque utilisateur une machine physique qu'il possède et dont il va exploiter les ressources devient de plus en plus obsolète. Aujourd'hui, les ressources informatiques que l'on utilise peuvent être distribuées n'importe où dans l'Internet et les postes de travail du quotidien ne sont plus systématiquement des machines réelles. Cette constatation met en avant deux phénomènes importants qui sont à l'origine de l'évolution de notre utilisation de l'informatique : le Cloud computing et la virtualisation. Le Cloud computing (ou informatique en nuage en français) permet à un utilisateur d'exploiter des ressources informatiques, de granularités potentiellement très différentes, pendant une durée variable, qui sont à disposition dans un nuage de ressources. L'utilisation de ces ressources est ensuite facturée à l'utilisateur. Ce modèle peut être bien sûr avantageux pour une entreprise qui peut s'appuyer sur des ressources informatiques potentiellement illimitées, qu'elle n'a pas nécessairement à administrer et gérer elle-même. Elle peut ainsi en tirer un gain de productivité et un gain financier. Du point de vue du propriétaire des machines physiques, le gain financier lié à la location des puissances de calcul est accentué par une maximisation de l'exploitation de ces machines par différents clients.L'informatique en nuage doit donc pouvoir s'adapter à la demande et facilement se reconfigurer. Une manière d'atteindre ces objectifs nécessite notamment l'utilisation de machines virtuelles et des techniques de virtualisation associées. Même si la virtualisation de ressources informatiques n'est pas née avec le Cloud, l'avènement du Cloud a considérablement augmenté son utilisation. L'ensemble des fournisseurs d'informatique en nuage s'appuient aujourd'hui sur des machines virtuelles, qui sont beaucoup plus facilement déployables et migrables que des machines réelles.Ainsi, s'il est indéniable que l'utilisation de la virtualisation apporte un véritable intérêt pour l'informatique d'aujourd'hui, il est par ailleurs évident que sa mise en œuvre ajoute une complexité aux systèmes informatiques, complexité à la fois logicielle (gestionnaire de machines virtuelles) et matérielle (nouveaux mécanismes d'assistance à la virtualisation intégrés dans les processeurs). A partir de ce constat, il est légitime de se poser la question de la sécurité informatique dans ce contexte où l'architecture des processeurs devient de plus en plus complexe, avec des modes de plus en plus privilégiés. Etant donné la complexité des systèmes informatiques, l'exploitation de vulnérabilités présentes dans les couches privilégiées ne risque-t-elle pas d'être très sérieuse pour le système global ? Étant donné la présence de plusieurs machines virtuelles, qui ne se font pas mutuellement confiance, au sein d'une même machine physique, est-il possible que l'exploitation d'une vulnérabilité soit réalisée par une machine virtuelle compromise ? N'est-il pas nécessaire d'envisager de nouvelles architectures de sécurité prenant en compte ces risques ?C'est à ces questions que cette thèse propose de répondre. En particulier, nous présentons un panorama des différents problèmes de sécurité dans des environnements virtualisés et des architectures matérielles actuelles. A partir de ce panorama, nous proposons dans nos travaux une architecture originale permettant de s'assurer de l'intégrité d'un logiciel s'exécutant sur un système informatique, quel que soit son niveau de privilège. Cette architecture est basée sur une utilisation mixte de logiciel (un hyperviseur de sécurité développé par nos soins, s'exécutant sur le processeur) et de matériel (un périphérique de confiance, autonome, que nous avons également développé)
Computer system are nowadays evolving quickly. The classical model which consists in associating a physical machine to every users is becoming obsolete. Today, computer resources we are using can be distributed any place on the Internet and usual workstations are not systematically a physical machine anymore. This fact is enlightening two important phenomenons which are leading the evolution of the usage we make of computers: the Cloud computing and hardware virtualization. The cloud computing enable users to exploit computers resources, with a fine grained granularity, with a non-predefined amount of time, which are available into a cloud of resources. The resource usage is then financially charged to the user. This model can be obviously profitable for a company which wants to lean on a potentially unlimited amount of resources, without administrating and managing it. A company can thereby increase its productivity and furthermore save money. From the physical machine owner point of view, the financial gain related to the leasing of computing power is multiplied by the optimization of machine usage by different clients. The cloud computing must be able to adapt quickly to a fluctuating demand a being able to reconfigure itself quickly. One way to reach these goals is dependant of the usage of virtual machines and the associated virtualization techniques. Even if computer resource virtualization has not been introduced by the cloud, the arrival of the cloud it substantially increased its usage. Nowadays, each cloud provider is using virtual machines, which are much more deployable and movable than physical machines. Virtualization of computer resources was before essentially based on software techniques. But the increasing usage of virtual machines, in particular in the cloud computing, leads the microprocessor manufacturers to include virtualization hardware assistance mechanisms. Theses hardware extensions enable on the one hand to make virtualization process easier et on the other hand earn performances. Thus, some technologies have been created, such as Intel VT-x and VT-d or AMD-V by AMD and virtualization extensions by ARM. Besides, virtualization process needs the implementation of extra functionalities, to be able to manage the different virtual machine, schedule them, isolate and share hardware resources like memory and peripherals. These different functionalities are in general handled by a virtual machine manager, whose work can be more or less eased by the characteristics of the processor on which it is executing.In general, these technologies are introducing new execution modes on the processors, more and more privileged and complex.Thus, even if we can see that virtualization is a real interest for modern computer science, it is either clear that its implementation is adding complexity to computer systems, at the same time software and hardwarecomplexity. From this observation, it is legitimate do ask the question about computer security in this context where the architecture of processors is becoming more and more complex, with more and more privileged execution modes. Given the presence of multiple virtual machine, which do not trust each other, in the same physical machine, is it possible that the exploitation of one vulnerability be carried out by a compromised virtual machine ? Isn't it necessary to consider new security architectures taking these risks into account?This thesis is trying to answer to these questions. In particular, we are introducing state of the art security issues in virtualized environment of modern architectures. Starting from this work, we are proposing an originalarchitecture ensuring the integrity of a software being executed on a computer system, regardless its privilege level. This architecture is both using software, a security hypervisor, and hardware, a trusted peripheral, we have both designed and implemented
APA, Harvard, Vancouver, ISO, and other styles
9

Pisano, Jean-Baptiste. "Histoire, histoires et outil informatique : l'application Tabellion pour l'étude du Sartenais : une région périphérique de la France bourgeoise, d'après les actes notariés : dynamique interne, permanences, et mutations socio-économiques." Nice, 1995. http://www.theses.fr/1995NICE2043.

Full text
Abstract:
La description d'un outil informatique spécifique, l'application tabellion, dirige la réflexion sur les problèmes que pose l'utilisation de l'informatique pour la recherche historique, l'outil aide à l'analyse des 2 152 actes notariés, des trois notaires de la ville de Sartène de 1813 à 1831. L’articulation des niveaux d'analyse et des procédures, nous installe au cœur de l'ensemble cohérent formé par les registres notariés. Ils reflètent d'une logique liée a un état économique et relationnel, qui peut se révéler comme significatifs des réalités du pouvoir politique. Les minutes démontrent là leur potentiel dans l'élaboration de l'histoire sociale d'une communauté et la reconstruction des modèles d'action individuelle et de groupe qui la caractérisent. Dans un système agro-pastoral prégnant, la terre, et ses modalités de redistribution, en perpétuelle reprise occupent une fonction centrale dans l'organisation de la reproduction sociale. Les baux ruraux, rappellent dans leur pratiques des usages qui se rattachent a une phase de transition tardive du féodalisme au capitalisme. Dots et testaments prennent tout leur sens confrontes aux autres venant à compenser les déséquilibres créés
APA, Harvard, Vancouver, ISO, and other styles
10

Vittoria, Claude. "Études et principes de conception d'une machine langage Java : le processeur bytecode." Rennes 1, 2008. ftp://ftp.irisa.fr/techreports/theses/2008/vittoria.pdf.

Full text
Abstract:
La démocratisation d'Internet facilite aujourd'hui le téléchargement des applications. Mais en contrepartie, le risque de corruption de ces applications à des fins malveillantes peut mettre en péril l'intégrité du système qui les exécute et la sécurité des données. Le langage Java apporte des propriétés telles que la vérification de l'intégrité du code, et la sûreté d'exécution des applications pour palier à ces risques. Nous avons cherché à utiliser le langage Java pour construire une plateforme minimale dédiée à son exécution : le processeur bytecode. Nous avons isolé les éléments manquants au sein d'une JVM pour écrire un système d'exploitation, tel l'impossibilité de manipuler nativement des ressources matérielles, ainsi que les fonctionnalités déjà présentes, nécessaires au fonctionnement d'un système d'exploitation, et donc dépendantes d'une implémentation spécifique, comme la gestion de flots d'exécution
Nowadays the democratization of the Internet facilitates the downloading of applications. However, the risk of corruption of these applications with malicious intents could affect the integrity of the system that executes them and data security. The Java language provides properties such as checking the integrity of the code, and safety enforcement applications to prevent these risks. We tried to use the Java language to build a minimum platform dedicated to enforce the bytecode processor. We isolated the missing elements in a JVM to write an operating system, such as the inability to handle natively material resources, as well as the features already provided and required by an operating system, and therefore dependent on a specific implementation, such as managing workflows
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Informatique en périphérie"

1

Hazzah, Karen. Writing Windows VxDs and device drivers. Lawrence, Kan: R & D Publications, 1995.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
2

Writing Windows VxDs and Device Drivers. 2nd ed. Lawrence: R&D Books, 1997.

Find full text
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography