Academic literature on the topic 'Informatique de périphérie/de brouillard'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Informatique de périphérie/de brouillard.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Dissertations / Theses on the topic "Informatique de périphérie/de brouillard"

1

Mazouzi, Houssemeddine. "Algorithmes pour le déchargement de tâches sur serveurs de périphérie." Thesis, Paris 13, 2019. http://www.theses.fr/2019PA131076.

Full text
Abstract:
Le déchargement de calculs est l’une des solutions les plus prometteuses pour surmonter le manque d e ressources au niveau des terminaux mobiles. Elle permet l’exécution d’une partie ou de la totalité d’une application mobile dans le cloud. L’objectif est d’améliorer les temps d’exécution et de réduire la consommation énergétique. Malheureusement, le cloud est généralement éloignés des équipements terminaux. Ce qui rend cette approche souffrir de délais importants et fluctuants. Cela est particulièrement problématique pour certaines applications pour lesquelles un temps de réponse réduit est nécessaire. Pour réduire ce délai d’accès, l’une des approches émergentes est de pousser le Cloud vers la bordure du réseau. Cette proximité permet aux applications mobiles de décharger leurs tâches et données vers un Cloud “local” ou “Edge Cloud”.Dans cette thèse, nous nous concentrons sur le déchargement de calculs dans une architecture de type mobiles (Mobile Edge Computing – MEC), composée de plusieurs serveurs de périphérie. Notre objectif est d’explorer de nouvelles stratégies de déchargement efficaces afin d’améliorer les performances des applications tant du point de vue délais de calcul que consommation énergétique, tout en garantissant les contraintes de temps d’exécution des applications. Notre première contribution est une nouvelle stratégie de déchargement sur plusieurs serveurs de périphérie. Nous proposons par la suite une extension de cette stratégie en incluant également le Cloud. Nous évaluons ces stratégies tant du point de vue théorique que pratique avec l’implémentation d’un middleware de déchargement. Finalement, nous proposons une nouvelle approche élastique dans le cas d’applications multitâches caractérisées par un graphe de dépendances entre les tâches
Computation offloading is one of the most promising paradigm to overcome the lack of computational resources in mobile devices. Basically, it allows the execution of part orall of a mobile application in the cloud. The main objective is to reduce both execution time and energy consumption for the mobile terminals. Unfortunately, even if clouds have rich computing and storage resources, they are usually geographically far from mobile applications and may suffer from large delays, which is particularly problematic for mobile applications with small response time requirements. To reduce this long delay, one of the emerging approach is to push the cloud to the network edge. This proximity gives the opportunity to mobile users to offload their tasks to “local” cloud for processing. An Edge Cloud can be seen as small data center acting as a shadow image of larger data centers. This geographical proximity between mobile applications and edge cloud means that the access delay can be greatly reduced, but affects also higher throughput, improved responsiveness and better scalability. In this thesis, we focus on computation offloading in mobile environment (Mobile Edge Computing - MEC), composed of several edge servers. Our goal is to explore new and effective offloading strategies to improve applications performances in both execution time and energy consumption, while ensuring application requirements. Our first contribution is a new offloading strategy in the case of multiple edge servers. Thenwe extend this strategy to include the Cloud. Both strategies have been evaluated theoretically and experimentally by the implementation of an offloading middleware. Finally, we propose a new elastic approach in the case of multitasking applications characterized by a graph of dependencies between tasks
APA, Harvard, Vancouver, ISO, and other styles
2

Confais, Bastien. "Conception d'un système de partage de données adapté à un environnement de Fog Computing." Thesis, Nantes, 2018. http://www.theses.fr/2018NANT4015/document.

Full text
Abstract:
L’informatique utilitaire a évolué au fil des années pour aboutir à ce que nous appelons aujourd’hui le Cloud Computing. Pourtant, ces infrastructures ne sont pas adaptées pour répondre aux besoins de l’Internet des Objets ayant des besoins de calculs à faible latence malgré des ressources limitées. C’est pourquoi, en 2012, Cisco a proposé le paradigme de Fog Computing, consistant à répartir des serveurs sur de nombreux sites placés près des utilisateurs. Dans cette thèse, nous cherchons à créer une solution de stockage unifiée entre les différents sites de Fog. Notre première contribution consiste à évaluer si les solutions de stockage existantes peuvent être utilisées dans un tel environnement. Nous montrons que la solution de stockage InterPlanetary FileSystem (IPFS) reposant sur un protocole similaire à BitTorrent et une table de hachage distribuée (DHT) pour localiser les données est la plus prometteuse. Toutefois, le trafic réseau inter-sites généré impacte négativement les temps de lecture. Notre seconde contribution consiste à coupler IPFS au système de fichiers distribué RozoFS pour limiter ces échanges inter-sites dans le cas d’accès à des données stockées sur le site local. Enfin, notre dernier axe de recherche vise à localiser les données grâce à un protocole reposant sur un arbre des plus courts chemins, de façon à confiner le trafic réseau et à privilégier les nœuds atteignables avec une faible latence. Grâce à de nombreuses expérimentations sur la plateforme Grid’5000, nous montrons que le couplage à un système de fichiers réduit en moyenne de 34% les temps d’accès et que notre protocole de localisation permet un gain de 20% du temps de localisation des données
Utility Computing has evolved for many years leading to the infrastructure we know today as Cloud Computing. Nevertheless, these infrastructures are unable to satisfy the needs of the Internet of Things which requires low latency computing despite limited resources. In 2012, Cisco proposed a paradigm called Fog Computing, consisting of deploying a huge number of small servers, spread on many sites located at the edge of the network, close to the end devices. In this thesis, we try to create a seamless storage solution between the different Fog sites. Our first contribution consists in comparing existing storage solution and check if they can be used in a such environment. We show that InterPlanetary FileSystem (IPFS), an object store relying on a BitTorrent like protocol and a Distributed Hash Table is a promising solution. Nevertheless, the amount of network traffic exchanged between the sites to locate the data is important and has a non-negligible impact on the overall performance. Our second contribution consists in coupling IPFS with RozoFS, a distributed filesystem deployed on each site to limit the use of the DHT when accessed data are stored on the local site. Finally, we proposed to replace the distributed hash table by a location mechanism relying on a shortest path tree built on the physical topology, in order to contain the network traffic and to first request nodes at a close location, reachable with a low latency. By performing many experiments on the Grid’5000 testbed, we show that the coupling of IPFS with a Scale-Out NAS reduces by 34 % in average the access times and that our protocol to locate the objects reduces by 20 % the time to locate the data
APA, Harvard, Vancouver, ISO, and other styles
3

Halmaoui, Houssam. "Restauration d'images par temps de brouillard et de pluie : applications aux aides à la conduite." Phd thesis, Université d'Evry-Val d'Essonne, 2012. http://tel.archives-ouvertes.fr/tel-00830869.

Full text
Abstract:
Les systèmes d'aide à la conduite (ADAS) ont pour objectif d'assister le conducteur et en particulier d'améliorer la sécurité routière. Pour cela, différents capteurs sont généralement embarqués dans les véhicules afin, par exemple, d'avertir le conducteur en cas de danger présent sur la route. L'utilisation de capteurs de type caméra est une solution économiquement avantageuse et de nombreux ADAS à base de caméra voient le jour. Malheureusement, les performances de tels systèmes se dégradent en présence de conditions météorologiques défavorables, notamment en présence de brouillard ou de pluie, ce qui obligerait à les désactiver temporairement par crainte de résultats erronés. Hors, c'est précisément dans ces conditions difficiles que le conducteur aurait potentiellement le plus besoin d'être assisté. Une fois les conditions météorologiques détectées et caractérisées par vision embarquée, nous proposons dans cette thèse de restaurer l'image dégradée à la sortie du capteur afin de fournir aux ADAS un signal de meilleure qualité et donc d'étendre la gamme de fonctionnement de ces systèmes. Dans l'état de l'art, il existe plusieurs approches traitant la restauration d'images, parmi lesquelles certaines sont dédiées à nos problématiques de brouillard ou de pluie, et d'autres sont plus générales : débruitage, rehaussement du contraste ou de la couleur, "inpainting"... Nous proposons dans cette thèse de combiner les deux familles d'approches. Dans le cas du brouillard notre contribution est de tirer profit de deux types d'approches (physique et signal) afin de proposer une nouvelle méthode automatique et adaptée au cas d'images routières. Nous avons évalué notre méthode à l'aide de critères ad hoc (courbes ROC, contraste visibles à 5 %, évaluation sur ADAS) appliqués sur des bases de données d'images de synthèse et réelles. Dans le cas de la pluie, une fois les gouttes présentes sur le pare-brise détectées, nous reconstituons les parties masquées de l'image à l'aide d'une méthode d'"inpainting" fondée sur les équations aux dérivées partielles. Les paramètres de la méthode ont été optimisés sur des images routières. Enfin, nous montrons qu'il est possible grâce à cette approche de construire trois types d'applications : prétraitement, traitement et assistance. Dans chaque famille, nous avons proposé et évalué une application spécifique : détection des panneaux dans le brouillard ; détection de l'espace navigable dans le brouillard ; affichage de l'image restaurée au conducteur.
APA, Harvard, Vancouver, ISO, and other styles
4

De, Souza Felipe Rodrigo. "Scheduling Solutions for Data Stream Processing Applications on Cloud-Edge Infrastructure." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEN082.

Full text
Abstract:
L’évolution des technologies ont conduit à une forte connexion entre les applications et le matériel produisant des quantités de données en perpétuelle augmentation. Ces données sont utilisées par les entreprises, les organisations et les individus pour prendre des décisions quotidiennes. Pour que les données collectées soient réellement utiles il convient de les traiter à temps et donc suffisamment rapidement. La vitesse à laquelle les informations sont extraites depuis les données générées par un système ou un environnement surveillé a un impact sur la capacité des entités (entreprises, organisations ou individus) à réagir aux changements. Une solution pour le traitement des données dans un délais réduit consiste à utiliser des applications de traitement de flux de données.Les applications de traitement de flux de données peuvent être modélisées sous forme de graphes orientés, où les sommets sont des sources de données, des opérateurs ou des récepteurs de données(i.e., data sinks), et les arêtes représentent les flux de données entre les opérateurs. Une source de données est un composant d’application responsable de la génération des données. Les opérateurs reçoivent un flux de données, appliquent une transformation ou effectuent une fonction définie par l’utilisateur sur le flux de données entrant et produisent un nouveau flux de sortie, jusqu’à ce que ce dernier atteigne un récepteur de données,où les données sont alors stockées, visualisées ou envoyées à une autre application. Habituellement, les applications de traitement de flux de données sont conçues pour fonctionner sur des infrastructures cloud ou sur une grappe homogène de ressources (i.e., cluster) en raison du nombre de ressources que ces infrastructures peuvent fournir et de la bonne connectivité de leur réseau. Dans les scénarios où les données utilisées par l’application de traitement du flux de données sont produites dans le cloud lui-même alors le déploiement de l’ensemble de l’application sur le cloud est une approche pertinente. Cependant, à l’heure où l’Internet des objets devient de plus en plus omniprésent, il existe un nombre croissant de scénarios où les applications de traitement de flux de données consomment des flux de données générés à la périphérie du réseau (via les nombreux appareils et capteurs répartis géographiquement). Dans de tels la bonne connectivité de leur réseau. Dans les scénarios où les données utilisées par l’application de traitement du flux de données sont produites dans le cloud lui-même alors le déploiement de l’ensemble de l’application sur le cloud est une approche pertinente.Cependant, à l’heure où l’Internet des objets devient de plus en plus omniprésent, il existe un nombre croissant de scénarios où les applications de traitement de flux de données consomment des flux de données générés à la périphérie du réseau (via les nombreux appareils et capteurs répartis géographiquement). Dans de tels scénarios, l’envoi de toutes les données via Internet pour être traitées sur un cloud distant, loin de la périphérie du réseau d’où proviennent les données, conduirait à générer un trafic réseau considérable. Cela augmente ainsi de façon significative la latence de bout en bout pour l’application; c’est-à-dire, le délai entre le moment où les données sont collectées et la fin du traitement. L’informatique de périphérie (edge computing) est devenu un paradigme pour alléger les tâches de traitement du cloud vers des ressources situées plus près des sources de données. Bien que l’utilisation combinée de ces ressources soit parfois appelée fog computing, la communauté scientifique ne semble pas avoir atteint un consensus sur la terminologie. Nous appelons la combinaison de ressources cloud et de ressources périphériques une infrastructure cloud-edge
Technology has evolved to a point where applications and devicesare highly connected and produce ever-increasing amounts of dataused by organizations and individuals to make daily decisions. Forthe collected data to become information that can be used indecision making, it requires processing. The speed at whichinformation is extracted from data generated by a monitored systemTechnology has evolved to a point where applications and devicesare highly connected and produce ever-increasing amounts of dataused by organizations and individuals to make daily decisions. Forthe collected data to become information that can be used indecision making, it requires processing. The speed at whichinformation is extracted from data generated by a monitored systemor environment affects how fast organizations and individuals canreact to changes. One way to process the data under short delays isthrough Data Stream Processing (DSP) applications. DSPapplications can be structured as directed graphs, where the vertexesare data sources, operators, and data sinks, and the edges arestreams of data that flow throughout the graph. A data source is anapplication component responsible for data ingestion. Operatorsreceive a data stream, apply some transformation or user-definedfunction over the data stream and produce a new output stream,until the latter reaches a data sink, where the data is stored,visualized or provided to another application
APA, Harvard, Vancouver, ISO, and other styles
5

Birhanie, Habtamu. "Resource Allocation in Vehicular Fog Computing for an Optimal Use of EVs Electric Vehicles Energy." Thesis, Bourgogne Franche-Comté, 2019. http://www.theses.fr/2019UBFCK042.

Full text
Abstract:
Résumé : Les progrès technologiques ont permis aux véhicules électriques d’avoir des capacités à la fois de calcul, de communication, de stockage et de perception. Néanmoins, la plupart du temps, ces véhicules électriques sont en stationnement, ce qui engendre une sous utilisation de leurs capacités embarquées. Ainsi, une meilleure gestion et une mise en commun de ces ressources sous-utilisées deviennent fortement recommandées. Les ressources agrégées seraient utiles pour des applications de sécurité routière, des applications liées au confort ou pourraient même être utilisées en tant que centre de calcul distribué. En outre, les véhicules en stationnement pourraient également être utilisés comme plate-forme de fourniture de services. Par conséquent, l’utilisation de ressources abondantes agrégées pour le déploiement de différentes applications mobiles locales a conduit au développement du concept d’informatique en brouillard véhiculaire (an anglais, Vehicular Fog Computing - VFC). Grâce à ce dernier, les véhicules dans les aires de stationnement, les centres commerciaux ou les aéroports vont agir en tant que nœuds fog. Dans un autre contexte, les applications mobiles sont devenues de plus en plus populaires, complexes et gourmandes en ressources. Certaines applications mobiles nécessitent des capacités de calcul intensives et une consommation d'énergie élevée qui transcendent les capacités limitées des appareils mobiles. Tout au long de ce travail, nous abordons les verrous liés au déploiement efficace d’un système VFC agrégeant les ressources inutilisées des véhicules électriques en stationnement pour être utilisées comme nœuds fogs répondants aux demandes de calcul des utilisateurs mobiles à proximité. Notre travail commence par un état de l'art sur les véhicules électriques et l'allocation de ressources dans le système VFC. En outre, nous évaluons le potentiel des ressources agrégées dans les véhicules électriques pour répondre aux demandes d'applications d'utilisateurs mobiles locaux en prenant en compte l'état de santé de la batterie (en anglais, State of Health - SOH) et son état de charge (en anglais, State of Charge - SOC). Notre objectif est de choisir des VEs ayant un état de santé et de charge satisfaisants pour faire partie du VFC tout en permettant aux propriétaires de ces véhicules de disposer d’une quantité d’énergie suffisante pour leur mobilité. Nous abordons, par la suite, le problème d’allocation de ressources avec une nouvelle solution basée sur le processus de décision Markovien (en anglais, Markov Decision Process - MDP) qui vise à optimiser l’utilisation de l’énergie des véhicules électriques pour répondre à la fois à aux demandes de calcul et de mobilité des utilisateurs. Enfin, nous proposons une approche basée sur un jeu stochastique pour montrer la dynamique de la demande de calcul des utilisateurs mobiles et la disponibilité des ressources des véhicules électriques
Abstract: Technological advancements made it possible for Electric vehicles (EVs) to have onboard computation, communication, storage, and sensing capabilities. Nevertheless, most of the time these EVs spend their time in parking lots, which makes onboard devices cruelly underutilized. Thus, a better management and pooling these underutilized resources together would be strongly recommended. The new aggregated resources would be useful for traffic safety applications, comfort related applications or can be used as a distributed data center. Moreover, parked vehicles might also be used as a service delivery platform to serve users. Therefore, the use of aggregated abundant resources for the deployment of different local mobile applications leads to the development of a new architecture called Vehicular Fog Computing (VFC). Through VFC, abundant resources of vehicles in the parking area, on the mall or in the airport, can act as fog nodes. In another context, mobile applications have become more popular, complex and resource intensive. Some sophisticated embedded applications require intensive computation capabilities and high-energy consumption that transcend the limited capabilities of mobile devices. Throughout this work, we tackle the problem of achieving an effective deployment of a VFC system by aggregating unused resources of parked EVs, which would be eventually used as fog nodes to serve nearby mobile users’ computation demands. At first, we present a state of the art on EVs and resource allocation in VFC. In addition, we assess the potential of aggregated resources in EVs for serving local mobile users’ applications demands by considering the battery State of Health (SOH) and State of Charge (SOC). Here, the objective is to choose EVs with a good condition of SOH and SOC so that owners secure tolerable amount of energy for mobility. Then, we address the problem of resource allocation scheme with a new solution based on Markov Decision Process (MDP) that aims to optimize the use of EVs energy for both computing users’ demands and mobility. Hence, the novelty of this contribution is to take into consideration the amount of aggregated EVs resource for serving users’ demands. Finally, we propose a stochastic theoretical game approach to show the dynamics of both mobile users’ computation demands and the availability of EVs resources
APA, Harvard, Vancouver, ISO, and other styles
6

Panigrahi, Swapnesh. "Real-time imaging through fog over long distance." Thesis, Rennes 1, 2016. http://www.theses.fr/2016REN1S041/document.

Full text
Abstract:
L'imagerie à travers les milieux turbides comme le brouillard, les tissus, les colloïdes, etc. répond à plusieurs besoins de la vie courante. L'imagerie à travers de tels milieux diffusants est un défi auquel peuvent répondre les nouveaux systèmes d'imagerie, la théorie de l'information et l'étude des lois de transport de la lumière dans les milieux aléatoires. La thèse est divisée en deux parties adressant deux modalités d'imagerie différentes, à savoir : l'imagerie de contraste polarimétrique et l'imagerie modulée en intensité. Dans les deux cas, des systèmes d'imagerie en temps réel sont proposés et mis au point. Leurs performances sont évaluées à la fois théoriquement et expérimentalement. Dans la première partie de la thèse, une caméra polarimétrique à deux canaux instantanés conçue autour d'un prisme de Wollaston est utilisée pour imager de manière optimale une source de lumière polarisée noyée dans un brouillard. Une expérience en situation réelle a été mise en place à proximité du campus de Beaulieu à Rennes. La source est placée sur une tour de télécommunication située à plus d'un kilomètre du système imageant. Les données acquises dans diverses conditions météorologiques montrent que l'efficacité de cette caméra polarimétrique dépend de la corrélation du bruit de fond dans les deux images initiales. Ceci a été confirmé grâce à une analyse fondée sur la théorie de l'information qui montre que le contraste polarimétriques maximal est obtenu par une combinaison linéaire des deux canaux polarimétriques dont la pondération dépendant de la corrélation du bruit de fond dans les deux canaux. Un système de détection, intégrant cette représentation polarimétrique optimale, a été développé pour explorer de bout en bout les capacités offertes par l'imagerie polarimétrique à deux canaux à travers le brouillard. Ces études trouvent des applications directes dans le transport par temps dégradé, y compris pour l'aide à l'atterrissage d'aéronefs. Dans la même logique, la deuxième partie de la thèse porte sur l'apport de la modulation d'intensité plein champ pour imager les photons balistiques dans les milieux diffusants. En utilisant de concert la théorie de la diffusion et la théorie de l'information, nous avons pu montrer que, pour un budget de photons donné, il existait une fréquence de modulation minimale pour laquelle le filtrage de photons balistique devient efficace. Cette fréquence dépend des propriétés de diffusion du milieu intermédiaire et se trouve être dans la gamme du MHz en situation réelle. L'imagerie en temps réel à de telles fréquences étant un vrai défi, nous avons proposé un système de démodulation plein champ inédit basé sur l'utilisation d'un cristal électro-optique. Ce système d'imagerie, dont nous avons breveté le principe, est en mesure de démoduler avec une caméra standard une scène en temps réel et en plein champ à des fréquences de plusieurs MHz (voire GHz) sans synchronisation de phase. Un prototype de ce système a été développé permettant de confirmer qu'il était robuste, portable et rentable. Le travail présenté dans cette thèse ouvre la voie à la mise en œuvre de systèmes d'imagerie de pointe fonctionnant dans des situations réelles, allant de l'imagerie biomédicale, à la sécurité
Imaging through turbid media like fog, tissues, colloids etc. has various applications in real-life situations. The problem of imaging through such scattering media presents a challenge that can be addressed by using novel imaging schemes, information theory and laws of light transport through random scattering media. The thesis is divided into two parts corresponding to two different imaging modalities, namely, polarimetric contrast imaging and intensity modulated light imaging. In both the cases, advanced imaging systems, capable of imaging in real-time are used and their performances are evaluated both theoretically and experimentally. In the first part of the thesis, a two-channel, snapshot polarimetric camera, based on a Wollaston prism is used to attain optimal imaging of polarized light source through fog. An original outdoor experiment is setup in the vicinity of the campus Beaulieu in Rennes, France, where a source is placed on a telecommunication tower more than a kilometer away from the imaging system. Data acquired in various weather conditions show that the efficiency of the two-channel polarimetric camera depends on the background noise correlation in the two images. Further, this was confirmed using an information theoretical analysis, which showed that a polarimetric contrast maximizing image representation is a linear combination of the two polarimetric images whose weights depend on the background noise correlation. Based on the derived optimal polarimetric representation, a detection scheme was presented, leading to an end-to-end study of two-channel polarimetric imaging through fog that may be useful in transport applications like aircraft landing/taxiing in degraded weather. The second part of the thesis deals with intensity modulated light and its potential for ballistic photon imaging through scattering media. First, using the diffusion theory of photon transport and information theory, it was shown that for a given photon budget, ballistic imaging can be achieved for a minimum modulation frequency that depends on the scattering properties of the intervening medium. In real-life situation, the minimum frequency can be in the range of MHz. Real-time imaging at these frequencies is a challenge. Hence, a novel demodulation camera system based on electro-optics was proposed and patented. The imaging system is capable of real-time, full-field demodulation at frequencies of several MHz (potentially, in GHz as well), without requiring a phase synchronized source. A prototype of the imaging system was developed and shown that a demodulation camera based on the proposed design is robust, portable and cost-effective. Finally, the work presented in this thesis pave way for implementation of advanced imaging systems in real-life situations, varying from biomedical imaging to transport safety
APA, Harvard, Vancouver, ISO, and other styles
7

Dahmane, Khouloud. "Analyse d'images par méthode de Deep Learning appliquée au contexte routier en conditions météorologiques dégradées." Thesis, Université Clermont Auvergne‎ (2017-2020), 2020. http://www.theses.fr/2020CLFAC020.

Full text
Abstract:
De nos jours, les systèmes de vision sont de plus en plus utilisés dans le contexte routier. Ils permettent ainsi d'assurer la sécurité et faciliter la mobilité. Ces systèmes de vision sont généralement affectés par la dégradation des conditions météorologiques en présence de brouillard ou de pluie forte, phénomènes limitant la visibilité et réduisant ainsi la qualité des images. Afin d'optimiser les performances des systèmes de vision, il est nécessaire de disposer d'un système de détection fiable de ces conditions météorologiques défavorables.Il existe des capteurs météorologiques dédiés à la mesure physique, mais ils sont coûteux. Ce problème peut être résolu en utilisant les caméras qui sont déjà installées sur les routes. Ces dernières peuvent remplir simultanément deux fonctions : l'acquisition d'images pour les applications de surveillance et la mesure physique des conditions météorologiques au lieu des capteurs dédiés. Suite au grand succès des réseaux de neurones convolutifs (CNN) dans la classification et la reconnaissance d'images, nous avons utilisé une méthode d'apprentissage profond pour étudier le problème de la classification météorologique. L'objectif de notre étude est de chercher dans un premier temps à mettre au point un classifieur du temps, qui permet de discriminer entre temps « normal », brouillard et pluie. Dans un deuxième temps, une fois la classe connue, nous cherchons à développer un modèle de mesure de la distance de visibilité météorologique du brouillard. Rappelons que l'utilisation des CNN exige l'utilisation de bases de données d'apprentissage et de test. Pour cela, deux bases de données ont été utilisées, "Cerema-AWP database" (https://ceremadlcfmds.wixsite.com/cerema-databases), et la base "Cerema-AWH database", en cours d'acquisition depuis 2017 sur le site de la Fageole sur l'autoroute A75. Chaque image des deux bases est labellisée automatiquement grâce aux données météorologiques relevées sur le site permettant de caractériser diverses gammes de pluie et de brouillard. La base Cerema-AWH, qui a été mise en place dans le cadre de nos travaux, contient cinq sous-bases : conditions normales de jour, brouillard fort, brouillard faible, pluie forte et pluie faible. Les intensités de pluie varient de 0 mm/h à 70 mm/h et les visibilités météorologiques de brouillard varient entre 50m et 1800m. Parmi les réseaux de neurones connus et qui ont montré leur performance dans le domaine de la reconnaissance et la classification, nous pouvons citer LeNet, ResNet-152, Inception-v4 et DenseNet-121. Nous avons appliqué ces réseaux dans notre système de classification des conditions météorologiques dégradées. En premier lieu, une étude justificative de l'usage des réseaux de neurones convolutifs est effectuée. Elle étudie la nature de la donnée d'entrée et les hyperparamètres optimaux qu'il faut utiliser pour aboutir aux meilleurs résultats. Ensuite, une analyse des différentes composantes d'un réseau de neurones est menée en construisant une architecture instrumentale de réseau de neurones. La classification des conditions météorologiques avec les réseaux de neurones profonds a atteint un score de 83% pour une classification de cinq classes et 99% pour une classification de trois classes.Ensuite, une analyse sur les données d'entrée et de sortie a été faite permettant d'étudier l'impact du changement de scènes et celui du nombre de données d'entrée et du nombre de classes météorologiques sur le résultat de classification.Enfin, une méthode de transfert de bases de données a été appliquée. Cette méthode permet d'étudier la portabilité du système de classification des conditions météorologiques d'un site à un autre. Un score de classification de 63% a été obtenu en faisant un transfert entre une base publique et la base Cerema-AWH. (...)
Nowadays, vision systems are becoming more and more used in the road context. They ensure safety and facilitate mobility. These vision systems are generally affected by the degradation of weather conditions, like heavy fog or strong rain, phenomena limiting the visibility and thus reducing the quality of the images. In order to optimize the performance of the vision systems, it is necessary to have a reliable detection system for these adverse weather conditions.There are meteorological sensors dedicated to physical measurement, but they are expensive. Since cameras are already installed on the road, they can simultaneously perform two functions: image acquisition for surveillance applications and physical measurement of weather conditions instead of dedicated sensors. Following the great success of convolutional neural networks (CNN) in classification and image recognition, we used a deep learning method to study the problem of meteorological classification. The objective of our study is to first seek to develop a classifier of time, which discriminates between "normal" conditions, fog and rain. In a second step, once the class is known, we seek to develop a model for measuring meteorological visibility.The use of CNN requires the use of train and test databases. For this, two databases were used, "Cerema-AWP database" (https://ceremadlcfmds.wixsite.com/cerema-databases), and the "Cerema-AWH database", which has been acquired since 2017 on the Fageole site on the highway A75. Each image of the two bases is labeled automatically thanks to meteorological data collected on the site to characterize various levels of precipitation for rain and fog.The Cerema-AWH base, which was set up as part of our work, contains 5 sub-bases: normal day conditions, heavy fog, light fog, heavy rain and light rain. Rainfall intensities range from 0 mm/h to 70mm/h and fog weather visibilities range from 50m to 1800m. Among the known neural networks that have demonstrated their performance in the field of recognition and classification, we can cite LeNet, ResNet-152, Inception-v4 and DenseNet-121. We have applied these networks in our adverse weather classification system. We start by the study of the use of convolutional neural networks. The nature of the input data and the optimal hyper-parameters that must be used to achieve the best results. An analysis of the different components of a neural network is done by constructing an instrumental neural network architecture. The conclusions drawn from this analysis show that we must use deep neural networks. This type of network is able to classify five meteorological classes of Cerema-AWH base with a classification score of 83% and three meteorological classes with a score of 99%Then, an analysis of the input and output data was made to study the impact of scenes change, the input's data and the meteorological classes number on the classification result.Finally, a database transfer method is developed. We study the portability from one site to another of our adverse weather conditions classification system. A classification score of 63% by making a transfer between a public database and Cerema-AWH database is obtained.After the classification, the second step of our study is to measure the meteorological visibility of the fog. For this, we use a neural network that generates continuous values. Two fog variants were tested: light and heavy fog combined and heavy fog (road fog) only. The evaluation of the result is done using a correlation coefficient R² between the real values and the predicted values. We compare this coefficient with the correlation coefficient between the two sensors used to measure the weather visibility on site. Among the results obtained and more specifically for road fog, the correlation coefficient reaches a value of 0.74 which is close to the physical sensors value (0.76)
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography