Dissertations / Theses on the topic 'Intelligence artificielle – Consommation d'énergie'

To see the other types of publications on this topic, follow the link: Intelligence artificielle – Consommation d'énergie.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 23 dissertations / theses for your research on the topic 'Intelligence artificielle – Consommation d'énergie.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Ihsane, Imane. "Prévision à court terme et gestion des consommations d'énergie électrique dans l'habitat." Thesis, Nantes, 2020. http://www.theses.fr/2020NANT4019.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, un modèle de prévision à court-terme de la demande électrique basé sur les réseaux de neurones artificiels, a été développé. Tout d’abord, un soin particulier a été porté à la sélection des variables d’entrées pertinentes de ce modèle. Ensuite, il a été utilisé pour reproduire les courbes de charge à l’échelle d’un habitat individuel et à l’échelle d’une région. La comparaison entre ces deux niveaux d’agrégation a souligné les limites des indicateurs d’évaluation de la qualité de la prévision. A l’issue de cela, des nouveaux indicateurs adaptés aux profils de charges résidentiels, ont été créés. Notamment pour la détection des erreurs sur les périodes de pointe. Les travaux de thèse exposent également une démarche de gestion de la demande des charges électrique. La particularité de cette stratégie développée réside dans la participation du consommateur à la réduction de la pointe de la consommation électrique et au profit des tarifs avantageux d’électricité en heures creuses, ce qui fait de lui un consom’acteur. Un accent sera également mis sur le confort du consommateur. Le principe consiste à établir une allocation des ordres de priorités aux charges électriques. En fonction de celles-ci et en fonction d’une puissance de consigne à respecter, l’algorithme accorde une satisfaction (ou non) aux demandes d’activation des charges. Faute de puissance exploitable suffisante, les demandes non satisfaites, en particulier, issues des chauffages, peuvent impacter le confort thermique de l’usager. Afin de remédier à ce problème, la méthodologie de gestion a été améliorée en lui associant la prévision à court-terme de la consommation des charges. Cette prévision permet d’identifier les chauffages dont l’activation va être interrompue dans un horizon futur et anticipe leur activation sous contraintes liées à la puissance et aux ordres de priorité. Les résultats obtenus sont prometteurs et permettent de valider l’efficacité des méthodologies proposées
In this thesis, a short-term forecasting model of electricity demand based on artificial neural networks was developed. First of all, particular care was taken in the selection of the relevant input variables of this model. Then it was used to reproduce the load curves at the scale of an individual housing and at scale of a region. The comparaison between these two levels of aggregation highlighted the limitations of the indicators for assessing the quality of the forecast. As a result, new indicators adapted to residential load profiles were created. In particular for error detection during peak periods. The thesis work also presents an approach to managing the demand for electrical loads. The particularity of this strategy lies in the consumer’s participation in reducing peak electricity consumption and in benefiting from advantageous off-peak electricity rates, which makes him an active consumer. Emphasis will also be placed on consumer comfort. The principle consists in establishing an allocation of priorities to electrical loads. Depending on these and on a setpoint power to be respected, the algorithm grants a satisfaction (or not) to the requests for activation of the loads. In the absence of sufficient usable power, unmet demand, in particular from heating systems, can impact the thermal comfort of the user. In order to remedy this problem, the management methodology has been improved by combining it with the short-term forecasting of load consumption. This forecast identifies the heaters whose activation will be interrupted in the future and anticipates their activation under power and priority constraints. The results obtained are promising and validate the effectiveness of the proposed methodologies
2

Chaib, Draa Ismat Yahia. "Optimisation de la consommation d'énergie des systèmes mobiles par l'analyse des besoins de l'utilisateur." Thesis, Valenciennes, 2018. http://www.theses.fr/2018VALE0030/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
De nos jours, l’omniprésence des systèmes mobiles ne fait qu’accroitre et ces derniers deviennent indispensables pour nombreux d’entre nous. Les constructeurs de ces plateformes mobiles inondent le marché avec des produits de plus en plus performants et contenant un grand nombre d’applications énergivores. Le revers de la médaille de cette popularité est la consommation d’énergie. En effet, les caractéristiques des systèmes mobiles actuels ne font qu’accentuer le besoin d’une refonte des techniques d’optimisations de la consommation d’énergie. Dans une époque où les consciences s’élèvent pour un monde plus «green», de nombreuses solutions sont proposées pour répondre à la problématique de la consommation d’énergie des systèmes mobiles. Cependant, dans les solutions existantes, le comportement de l’utilisateur et ses besoins sont rarement considérés. Cette omission est paradoxale car c’est le comportement de l’utilisateur final qui détermine la consommation d’énergie du système. D’autre part, l’utilisation des données qui émanent des différents capteurs embarqués et du système d’exploitation peut être bénéfique pour mettre en place des politiques efficientes de gestion de puissance. Exploité à bon escient, l’important flux d’informations disponible est susceptible de servir à la caractérisation du comportement de l’utilisateur, ses habitudes et ses besoins en matière de configuration hardware. En assimilant ces informations et en les traitant, nous pouvons proposer des optimisations d’énergie sans altérer la satisfaction de l’utilisateur. Dans cette thèse nous proposons le modèle CPA pour Collect – Process – Adjust. Ce modèle permet de collecter des données émanant de différentes sources, les traiter et en générer des politiques d’optimisations d’énergie. Les travaux de cette thèse ont été réalisés en coopération avec Intel. L’objectif de cette collaboration est la conception et la réalisation de solutions permettant d’améliorer la gestion d’énergie proposée par le système d’exploitation
Optimizing energy consumption in modern mobile handled devices plays a crucial role as lowering the power consumption impacts battery life and systemreliability. Recent mobile platforms have an increasing number of sensors and processing components. Added to the popularity of power-hungry applications, battery life in mobile devices is an important issue. However, the utilization pattern of large amount of data from the various sensors can be beneficial to detect the changing device context, the user needs and the running application requirements in terms of hardware resources. When these information are used properly, an efficient control of power knobs can be implemented to reduce the energy consumption. This thesis has been achieved in collaboration with Intel Portland
3

Paudel, Subodh. "Methodology to estimate building energy consumption using artificial intelligence." Thesis, Nantes, Ecole des Mines, 2016. http://www.theses.fr/2016EMNA0237/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les normes de construction pour des bâtiments de plus en plus économes en énergie (BBC) nécessitent une attention particulière. Ces normes reposent sur l’amélioration des performances thermiques de l’enveloppe du bâtiment associé à un effet capacitif des murs augmentant la constante de temps du bâtiment. La prévision de la demande en énergie de bâtiments BBC est plutôt complexe. Ce travail aborde cette question par la mise en œuvre d’intelligence artificielle(IA). Deux approches de mise en œuvre ont été proposées : « all data » et « relevant data ». L’approche « all data » utilise la totalité de la base de données. L’approche « relevant data » consiste à extraire de la base de données un jeu de données représentant le mieux possible les prévisions météorologiques en incluant les phénomènes inertiels. Pour cette extraction, quatre modes de sélection ont été étudiés : le degré jour (HDD), une modification du degré jour (mHDD) et des techniques de reconnaissance de chemin : distance de Fréchet (FD) et déformation temporelle dynamique (DTW). Quatre techniques IA sont mises en œuvre : réseau de neurones (ANN), machine à support de vecteurs (SVM), arbre de décision (DT) et technique de forêt aléatoire (RF). Dans un premier temps, six bâtiments ont été numériquement simulés (de consommation entre 86 kWh/m².an à 25 kWh/m².an) : l’approche « relevant data » reposant sur le couple (DTW, SVM) donne les prévisions avec le moins d’erreur. L’approche « relevant data » (DTW, SVM) sur les mesures du bâtiment de l’Ecole des Mines de Nantes reste performante
High-energy efficiency building standards (as Low energy building LEB) to improve building consumption have drawn significant attention. Building standards is basically focused on improving thermal performance of envelope and high heat capacity thus creating a higher thermal inertia. However, LEB concept introduces alarge time constant as well as large heat capacity resulting in a slower rate of heat transfer between interior of building and outdoor environment. Therefore, it is challenging to estimate and predict thermal energy demand for such LEBs. This work focuses on artificial intelligence (AI) models to predict energy consumptionof LEBs. We consider two kinds of AI modeling approaches: “all data” and “relevant data”. The “all data” uses all available data and “relevant data” uses a small representative day dataset and addresses the complexity of building non-linear dynamics by introducing past day climatic impacts behavior. This extraction is based on either simple physical understanding: Heating Degree Day (HDD), modified HDD or pattern recognition methods: Frechet Distance and Dynamic Time Warping (DTW). Four AI techniques have been considered: Artificial Neural Network (ANN), Support Vector Machine (SVM), Boosted Ensemble Decision Tree (BEDT) and Random forest (RF). In a first part, numerical simulations for six buildings (heat demand in the range [25 – 85 kWh/m².yr]) have been performed. The approach “relevant data” with (DTW, SVM) shows the best results. Real data of the building “Ecole des Mines de Nantes” proves the approach is still relevant
4

Ouni, Bassem. "Caractérisation, modélisation et estimation de la consommation d'énergie à haut-niveau des OS embarqués." Phd thesis, Université Nice Sophia Antipolis, 2013. http://tel.archives-ouvertes.fr/tel-01059814.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La consommation énergétique est devenue un problème majeur dans la conception des systèmes aussi bien d'un point de vue de la fiabilité des circuits que de l'autonomie d'un équipement embarqué. Cette thèse vise à caractériser et modéliser le coût énergétique du système d'exploitation (OS) embarqué en vue d'explorer des solutions faibles consommation. La première contribution consiste à définir une approche globale de modélisation de la consommation des services de base de l'OS: la stimulation de l'exécution de ces services, tels que le changement de contexte, l'ordonnancement et la communication interprocessus, est effectuée à travers des programmes de test adéquats. Sur la base de mesures de la consommation d'énergie sur la carte OMAP35x EVM, des paramètres pertinents soit matériels soit logiciels ont été identifiés pour en déduire des modèles de consommation. Dans une seconde étape, la prise en compte de ces paramètres doit intervenir au plus haut niveau de la conception. L'objectif sera d'exploiter les fonctionnalités offertes par un langage de modélisation et d'analyse architecturale AADL tout en modélisant les aspects logiciel et matériel en vue d'estimer la consommation d'énergie. Ensuite, les modèles énergétiques de l'OS ont été intégrés dans un simulateur multiprocesseur de politique d'ordonnancement STORM afin d'identifier la consommation de l'OS et ceci pour des politiques d'ordonnancement mettant en œuvre des techniques de réduction de la consommation tel que le DVFS et le DPM. Enfin, la définition et vérification de certaines contraintes temps-réel et énergétiques ont été effectuées avec des langages de spécification de contraintes (QAML, RDAL).
5

Rioual, Yohann. "RL-based Energy Management for Autonomous Cyber Physical Systems." Thesis, Lorient, 2019. http://www.theses.fr/2019LORIS533.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La gestion d'énergie d'un système cyber physique est une tâche difficile à cause de la complexité des architectures matérielles et l'utilisation d'OS. En outre, ces systèmes sont déployés dans des environnements qui évoluent et où leur capacité de recharge en énergie varie. Avec le temps, leur consommation en énergie est modifiée du fait du vieillissement des composants. Les modèles de consommation conçus en laboratoire ne peuvent pas prendre en compte tous les scénarios de déploiement possible ainsi que le vieillissement du système. Une approche qui se développe est l'utilisation d'apprentissage par renforcement dans lequel nous n'avons plus connaissance du modèle de consommation du système ; mais grâce à cette approche, ce dernier est capable d'adapter son fonctionnement pendant son déploiement en fonction de l'évolution de son environnement. Plusieurs approches existent en apprentissage par renforcement. La première partie de cette thèse est consacrée à la proposition de lignes directrices pour aider à la sélection de l’approche la plus appropriée pour une application et une cible donnée. La deuxième partie se concentre sur la conception de la récompense que l’on donne à notre système et qui va influencer son comportement dans son environnement. Deux fonctions de récompense capables d’ajuster la performance du système en fonction de l’énergie disponible y sont présentées. La troisième et dernière partie explore l’utilisation de plusieurs agents pour contrôler indépendamment les différents modules de notre système. Cette approche permet un contrôle plus précis de la consommation en énergie, réduisant l’utilisation de mémoire par rapport à une approche avec un agent unique
The energy management of a cyber physical system is a difficult task because of the complexity of hardware architectures and the use of OS. In addition, these systems are deployed in changing environments where their energy harvesting capacity varies. Over time, their energy consumption is modified due to the ageing of the components. Consumption models designed in the laboratory cannot take into account all possible deployment scenarios and system aging. One approach that is developing is the use of reinforcement learning in which we no longer know the system's consumption model; but thanks to this approach, the system is still able to adapt its operation during its deployment according to the evolution of its environment. Several approaches exist in reinforcement learning. The first part of this thesis is devoted to proposing guidelines to help for selecting the most appropriate approach for a given application and target. The second part of this thesis focuses on the design of the reward we give to our system that will influence its behaviour in its environment. Two reward functions able to adjust the system’s performance according to the energy available are presented. The third and last part of this thesis explores the use of several agents to independently control the different modules of our system. This approach allows a more precise control of energy consumption, reducing memory usage compared to a single agent approach
6

Cherdo, Yann. "Détection d'anomalie non supervisée sur les séries temporelle à faible coût énergétique utilisant les SNNs." Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ4018.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le cadre de la maintenance prédictive du constructeur automobile Renault, cette thèse vise à fournir des solutions à faible coût énergétique pour la détection non supervisée d'anomalies sur des séries temporelles. Avec l'évolution récente de l'automobile, de plus en plus de données sont produites et doivent être traitées par des algorithmes d'apprentissage automatique. Ce traitement peut être effectué dans le cloud ou directement à bord de la voiture. Dans un tel cas, la bande passante du réseau, les coûts des services cloud, la gestion de la confidentialité des données et la perte de données peuvent être économisés. L'intégration d'un modèle d'apprentissage automatique dans une voiture est un défi car elle nécessite des modèles frugaux en raison des contraintes de mémoire et de calcul. Dans ce but, nous étudions l'utilisation de réseaux de neurones impulsionnels (SNN) pour la detection d'anomalies, la prédiction et la classification sur des séries temporelles. Les performances et les coûts énergétiques des modèles d'apprentissage automatique sont évalués dans un scénario Edge à l'aide de modèles matériels génériques qui prennent en compte tous les coûts de calcul et de mémoire. Pour exploiter autant que possible l'activité neuronale parcimonieuse des SNN, nous proposons un modèle avec des connexions peu denses et entraînables qui consomme la moitié de l'énergie de sa version dense. Ce modèle est évalué sur des benchmarks publics de détection d'anomalies, un cas d'utilisation réel de détection d'anomalies sur les voitures de Renault Alpine, les prévisions météorologiques et le dataset Google Speech Command. Nous comparons également ses performances avec d'autres modèles d'apprentissage automatique existants. Nous concluons que, pour certains cas d'utilisation, les modèles SNN peuvent atteindre les performances de l'état de l'art tout en consommant 2 à 8 fois moins d'énergie. Pourtant, d'autres études devraient être entreprises pour évaluer ces modèles une fois embarqués dans une voiture. Inspirés par les neurosciences, nous soutenons que d'autres propriétés bio-inspirées telles que l'attention, l'activité parcimonieuse, la hiérarchie ou la dynamique des assemblées de neurons pourraient être exploités pour obtenir une meilleure efficacité énergétique et de meilleures performances avec des modèles SNN. Enfin, nous terminons cette thèse par un essai à la croisée des neurosciences cognitives, de la philosophie et de l'intelligence artificielle. En plongeant dans les difficultés conceptuelles liées à la conscience et en considérant les mécanismes déterministes de la mémoire, nous soutenons que la conscience et le soi pourraient être constitutivement indépendants de la mémoire. L'objectif de cet essai est de questionner la nature de l'humain par opposition à celle des machines et de l'IA
In the context of the predictive maintenance of the car manufacturer Renault, this thesis aims at providing low-power solutions for unsupervised anomaly detection on time-series. With the recent evolution of cars, more and more data are produced and need to be processed by machine learning algorithms. This processing can be performed in the cloud or directly at the edge inside the car. In such a case, network bandwidth, cloud services costs, data privacy management and data loss can be saved. Embedding a machine learning model inside a car is challenging as it requires frugal models due to memory and processing constraints. To this aim, we study the usage of spiking neural networks (SNNs) for anomaly detection, prediction and classification on time-series. SNNs models' performance and energy costs are evaluated in an edge scenario using generic hardware models that consider all calculation and memory costs. To leverage as much as possible the sparsity of SNNs, we propose a model with trainable sparse connections that consumes half the energy compared to its non-sparse version. This model is evaluated on anomaly detection public benchmarks, a real use-case of anomaly detection from Renault Alpine cars, weather forecasts and the google speech command dataset. We also compare its performance with other existing SNN and non-spiking models. We conclude that, for some use-cases, spiking models can provide state-of-the-art performance while consuming 2 to 8 times less energy. Yet, further studies should be undertaken to evaluate these models once embedded in a car. Inspired by neuroscience, we argue that other bio-inspired properties such as attention, sparsity, hierarchy or neural assemblies dynamics could be exploited to even get better energy efficiency and performance with spiking models. Finally, we end this thesis with an essay dealing with cognitive neuroscience, philosophy and artificial intelligence. Diving into conceptual difficulties linked to consciousness and considering the deterministic mechanisms of memory, we argue that consciousness and the self could be constitutively independent from memory. The aim of this essay is to question the nature of humans by contrast with the ones of machines and AI
7

Herzog, Christina. "Contributions à la modélisation avec un système multi agent du transfert technologique en Green IT." Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30178/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Depuis 5 à 10 ans, les recherches sont nombreuses sur la réduction de l'énergie en l'informatique (principalement sur la réduction de l'électricité). Plusieurs études ont en effet alerté les intervenants et les organismes environnementaux sur l'urgence du problème de la consommation d'énergie des infrastructures à grande échelle, comme les centres de données, l'informatique en nuage ??ou simplement les sociétés exploitant des serveurs et de nombreux équipements IT. Cette prise de conscience est passée d'un problème peu important à une contrainte majeure sur le fonctionnement de ces infrastructures. Dans certains cas, les coûts d'exploitation surpassent les coûts d'investissement, et de nouvelles méthodologies sont nécessaires pour réduire les coûts et l'impact écologique. De nouveaux matériels sont développés par les fabricants d'équipements pour diminuer ces coûts. Seules quelques techniques de base sont offertes aux niveaux logiciels et intergiciels, par les éditeurs. Mais dans les laboratoires, certaines techniques ont prouvé leur efficacité sur des données synthétiques, des tâches dédiées ou des applications sélectionnées, pour être en mesure d'économiser de l'énergie au cours de la vie d'une infrastructure, dans plusieurs contexte, depuis le Cloud au HPC. Malheureusement, le transfert (ou même la connaissance de l'existence) de ces techniques aux industries est limité à des partenaires de projets, des entreprises innovantes ou de grands centres de recherche privés, capables d'investir du temps (et donc de l'argent) sur ce sujet. Dans ma thèse, je m'intéresse sur les raisons de la faible adoption de plusieurs résultats de la recherche, des plus simples aux plus élaborés et je modélise les liens et les interactions entre les acteurs du transfert technologique. Le champ cible a été limité au Green IT (ou informatique éco-responsable), mais la méthodologie et les modèles développés peuvent être étendus à d'autres domaines. L'idée est d'identifier ce qui manque et comment augmenter la vitesse du transfert des connaissances scientifiques. La méthodologie est basée sur le cheminement suivant: d'abord, identifier les acteurs impliqués dans le processus de transfert technologique, comprendre leurs motivations, leurs moyens d'actions et leurs limites. Après une étude de l'état de l'art dans le domaine de la diffusion de l'innovation et de la gestion de l'innovation, cette phase a consisté à la production et l'analyse d'une enquête dédiée ciblant des chercheurs et des entreprises, de tailles et de chiffre d'affaire différentes, restreinte à ceux qui travaillent dans le Green IT. Identifier chaque acteur ne suffit pas, car ils interagissent, et par conséquent, leurs liens et le potentiel de ces liens pour le transfert technologique ont également été étudiés avec soin dans une deuxième phase afin d'identifier les plus importants, avec la même méthodologie que l'identification des acteurs. A partir de ces deux phases, un système multi-agents (SMA) a été conçu
Over the past 5 to 10 years, research is numerous on energy reduction in IT (mainly electricity reduction). Several studies indeed alerted the stakeholders and environmental agencies on the urgency of the problem of the energy consumption of large scale infrastructures, like data centres, clouds or simply companies running servers and lots of IT equipment. This awareness moved from a non-so-important issue to major constraints on the operation of these infrastructures. In some cases, the operational costs reach the investment costs, urging new methodologies to appear in order to reduce costs and ecological impact. As of today, new hardware are developed by equipment manufacturers to decrease these costs. Only few and basic techniques are offered at the software and middleware levels out-of-the-box: But in laboratories, some techniques have proven on synthetic data, dedicated workflows or selected applications, to be able to save energy during the lifetime of an infrastructure, in several contexts, from Cloud to HPC in particular. Unfortunately, the transfer (or even the knowledge of the existence) of these techniques to industries is limited to project partners, innovative companies or large private research centres, able to invest time (thus money) on this topic. In my thesis, I investigate the reasons restraining the large adoption of several research results, from the simpler ones to more elaborated ones and I model the ties and interactions between the actors of the technological transfer. The target field has been restricted to Green IT but the methodology and the developed models can be extended to other domains as well. The idea is to identify, on the scale of technical maturity for wider adoption, what is missing and how to increase the speed of the transfer of scientific knowledge. The methodology is based on the following path: First, identifying the actors involved in the process of technology transfer, and understanding their motivations, their means of actions and their limitations. After a study of the state of the art in the domain of innovation diffusion and innovation management, this phase involved the production and the analysis of a dedicated survey targeting researchers and companies, from different size and turnover, restricted to those working in the Green IT field. Identifying each actor is not sufficient since they all interact; therefore their links and the potential of these links for technology transfer have also been studied carefully in a second phase so as to identify the most important ones, with the same methodology with the actors' identification. From these two phases, a multi-agent system (MAS) has been designed
8

Lesel, Jonathan. "Optimisation de la consommation énergétique d'une ligne de métro automatique prenant en compte les aléas de trafic à l'aide d'outils d'intelligence artificielle." Thesis, Paris, ENSAM, 2016. http://www.theses.fr/2016ENAM0018/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En 2014, dans le cadre du Plan Climat, les pays membres de l’Union Européenne, se sont engagés à réduire de près de 27% leur consommation d’énergie. L’un des axes d’études concerne l’augmentation de l’efficacité énergétique des transports urbains. Cette thèse a pour objectif de proposer une méthodologie afin de réduire la consommation énergétique de lignes de métro automatique tout en intégrant les perturbations de trafic qui se produisent dans des conditions normales d’exploitation. Le principe retenu dans ces travaux est de maximiser la réutilisation de l’énergie générée lors du freinage des trains, par les autres trains présents sur la ligne. Une première partie est dédiée à la modélisation électrique d’une ligne de métro automatique et à la présentation de méthodes permettant de calculer les flux de puissances entre les trains et les sous-stations d’alimentation. Ensuite, des algorithmes d’optimisation sont introduits pour effectuer l’optimisation des paramètres d’exploitation les plus influents dans une configuration idéale n’intégrant pas les aléas de trafic. Enfin, une méthodologie basée sur un apprentissage des données de simulation est développée dans le but de réaliser l’optimisation énergétique de la consommation en temps réel et en intégrant les perturbations de trafic. Cette dernière partie aura ainsi pour objectif de fournir une aide à la décision dans le choix des temps d’arrêts que doivent effectuer chaque train en station afin de maximiser la récupération de l’énergie issue du freinage
In 2014, as part of the Climate Plan, EU member countries have committed to reduce by 27% their energy consumption. One of the main focal areas consists in increasing the energy efficiency of urban transports. This thesis aims to propose a methodology to reduce the energy consumption of automatic metro lines while integrating traffic disruptions that occur under normal operating conditions. The principle adopted in this work is to maximize the reuse of electrical energy generated during braking of the train, by other trains running on the line. First part is dedicated to the electrical modeling of an automatic metro line and development of methods to calculate power flows between trains and power substations. Then, optimization algorithms are introduced to perform optimization of the most influential operating parameters in an ideal configuration ignoring traffic fluctuations. Finally, a methodology based on learning simulation data is developed in order to achieve optimization of energy consumption integrating traffic disruptions in real time. This last part will thus purchase the objective to provide a decision support to determine optimal dwell times to be carried out by trains in each station, so as to maximize braking energy recovery
9

Ali, Sadaqat. "Energy management of multi-source DC microgrid systems for residential applications." Electronic Thesis or Diss., Université de Lorraine, 2023. http://www.theses.fr/2023LORR0159.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Comparé au réseau électrique alternatif (AC), le réseau électrique en courant continu (DC) a démontré de nombreux avantages tels que son interface naturelle avec les RES, les systèmes de stockage d'énergie et les charges en courant continu, une efficacité supérieure avec moins d'étapes de conversion, et un contrôle plus simple sans effet de peau et sans considérations sur le flux de puissance réactive. Le micro-réseaux DC reste une technologie relativement nouvelle, et ses architectures de réseau, stratégies de contrôle, techniques de stabilisation méritent d'énormes efforts de recherche. Dans ce contexte, cette thèse porte sur les problèmes de gestion de l'énergie d'un réseau électrique en courant continu (DC) multi-source dédié aux applications résidentielles. Le réseau électrique en courant continu (DC) est composé de générateurs distribués (panneaux solaires), d'un système de stockage d'énergie hybride (HESS) avec des batteries et un supercondensateur (SC), et de charges en courant continu, interconnectées via des convertisseurs de puissance DC/DC. L'objectif principal de cette recherche est de développer une stratégie avancée de gestion de l'énergie (EMS) d'améliorer l'efficacité opérationnelle du système tout en renforçant sa fiabilité et sa durabilité. Une plateforme de simulation hiérarchique de réseau électrique DC a été développée sous MATLAB/Simulink. Elle est composée de deux couches avec des échelles de temps différentes : une couche de contrôle de niveau local (échelle de temps de quelques secondes à quelques minutes en raison des comportements de commutation des convertisseurs) pour les contrôles des composants locaux, et une couche de contrôle de niveau système (avec une échelle de temps de quelques jours à quelques mois avec un test accéléré) pour la validation à long terme de l'EMS et son évaluation de performance. Dans la couche de contrôle de niveau local, les panneaux solaires, les batteries et le supercondensateur ont été modélisés et contrôlés séparément. Différents modes de contrôle tels que le contrôle de courant, le contrôle de tension et le contrôle du point de puissance maximale (MPPT) ont été mis en œuvre. Un filtre passe-bas (LPF) a été appliqué pour diviser la puissance totale du HESS : basse et haute fréquence pour les batteries et le supercondensateur. Différentes fréquences de coupure du LPF pour le partage de puissance a également été étudiée. Un EMS hybride bi-niveau combiné et un dimensionnement automatique ont été proposés et validés. Il couvre principalement cinq scénarios d'exploitation, notamment la réduction de la production des panneaux solaires, la réduction de la charge et trois scénarios via le contrôle du HESS associé à la rétention du contrôle de l'état de charge (SOC) du supercondensateur. Une fonction objective prenant en compte à la fois le coût en capital (CAPEX) et les coûts d'exploitation (OPEX) a été conçue pour l'évaluation des performances de l'EMS. L'interaction entre l'HESS et l'EMS a été étudiée conjointement sur la base d'un ensemble de données ouvertes de profils de consommation électrique résidentielle couvrant à la fois l'été et l'hiver. Finalement, une plateforme expérimentale de réseau électrique à courant continu (DC) multi-source a été développée pour valider en temps réel l'EMS. Elle est composée de quatre batteries lithium-ion, d'un supercondensateur, d'une alimentation électrique à courant continu programmable, d'une charge à courant continu programmable, de convertisseurs DC/DC correspondants et d'un contrôleur en temps réel (dSPACE/Microlabbox). Des tests accélérés ont été réalisés pour vérifier l'EMS proposé dans différents scénarios d'exploitation en intégrant des panneaux solaires réels et les profils de consommation de charge. Les plateformes de simulation hiérarchique de réseau électrique en courant continu (DC) et expérimentale, peuvent être utilisées de manière générale pour vérifier et évaluer divers EMS
Compared to the alternating current (AC) electrical grid, the direct current (DC) electrical grid has demonstrated numerous advantages, such as its natural interface with renewable energy sources (RES), energy storage systems, and DC loads. It offers superior efficiency with fewer conversion steps, simpler control without skin effect or reactive power considerations. DC microgrids remain a relatively new technology, and their network architectures, control strategies, and stabilization techniques require significant research efforts. In this context, this thesis focuses on energy management issues in a multi-source DC electrical grid dedicated to residential applications. The DC electrical grid consists of distributed generators (solar panels), a hybrid energy storage system (HESS) with batteries and a supercapacitor (SC), and DC loads interconnected via DC/DC power converters. The primary objective of this research is to develop an advanced energy management strategy (EMS) to enhance the operational efficiency of the system while improving its reliability and sustainability. A hierarchical simulation platform of the DC electrical grid has been developed using MATLAB/Simulink. It comprises two layers with different time scales: a local control layer (time scale of a few seconds to minutes due to converter switching behavior) for controlling local components, and a system-level control layer (time scale of a few days to months with accelerated testing) for long-term validation and performance evaluation of the EMS. In the local control layer, solar panels, batteries, and the supercapacitor have been modeled and controlled separately. Various control modes, such as current control, voltage control, and maximum power point tracking (MPPT), have been implemented. A low-pass filter (LPF) has been applied to divide the total HESS power into low and high frequencies for the batteries and supercapacitor. Different LPF cutoff frequencies for power sharing have also been studied. A combined hybrid bi-level EMS and automatic sizing have been proposed and validated. It mainly covers five operational scenarios, including solar panel production reduction, load reduction, and three scenarios involving HESS control combined with supercapacitor state of charge (SOC) control retention. An objective function that considers both capital expenditure (CAPEX) and operating costs (OPEX) has been designed for EMS performance evaluation. The interaction between the HESS and EMS has been jointly studied based on an open dataset of residential electrical consumption profiles covering both summer and winter seasons. Finally, an experimental platform of a multi-source DC electrical grid has been developed to validate the EMS in real-time. It comprises four lithium-ion batteries, a supercapacitor, a programmable DC power supply, a programmable DC load, corresponding DC/DC converters, and a real-time controller (dSPACE/Microlabbox). Accelerated tests have been conducted to verify the proposed EMS in different operational scenarios by integrating real solar panels and load consumption profiles. The hierarchical simulation and experimental DC electrical grid platforms can be generally used to verify and evaluate various EMS
10

Bouabdallaoui, Yassine. "Introduction de l'intelligence artificielle dans le secteur de la construction : études de cas du Facility Management." Electronic Thesis or Diss., Centrale Lille Institut, 2021. http://www.theses.fr/2021CLIL0022.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’industrie du Facility Management (FM) a connu une évolution rapide au cours des dernières décennies, ce qui a entraîne une forte expansion des activités qui y sont liées. Les organisations de FM sont passées du rôle traditionnel de fournisseur de services de maintenance à des activités complexes et interconnectées impliquant des personnes, des processus et des technologies. En conséquence de cette croissance exponentielle, les industriels de la FM sont confrontés à des défis croissants et variés allant des défis environnementaux aux défis contractuels et économiques. Le récent développement de l'Intelligence artificielle (IA) et de l’apprentissage machine a offert aux universitaires comme aux industriels un nouveau ensemble d'outils pour innover et relever les nouveaux défis de la digitalisation et de la donnée.L'IA a permis le développement des solutions multiples telles que l'automatisation et la personnalisation des services. Le secteur du Facility Management peut bénéficier de ces nouvelles techniques pour mieux gérer ses actifs et améliorer ses processus. Cependant, l'intégration de l'IA dans l'écosystème du FM est une tâche difficile qui nécessite de réduire l'écart entre les problématiques métiers et les technologies de données. Pour développer le véritable potentiel de l'analyse des données et de l'IA dans l'industrie du FM, un travail important est nécessaire pour surmonter les problèmes de qualité et de gestion des données dans le secteur du FM. L'objectif global de cette thèse est de conceptualiser la compréhension théorique et pratique de la mise en œuvre de l'intelligence artificielle et des technologies d’apprentissage machine dans les activités de Facility Management pour mieux exploiter les bâtiments. Les promesses de la mise en œuvre de l'IA ont été présentées ainsi que les défis et les obstacles qui limitent le développement de l'IA dans le secteur du Facility Management. Pour résoudre ces problématiques, un cadre de travail a été proposé pour améliorer la gestion des données et tirer parti de l'IA dans ce secteur d’activité. Plusieurs études de cas ont été sélectionnées pour aborder ce cadre de travail. Les études de cas sélectionnées couvraient les applications de maintenance prévisionnelle, d'assistant virtuel et d’automatisation de la gestion des demandes d’interventions. Les résultats de ce travail ont démontré le potentiel de l'IA pour relever les défis du FM tels que la gestion de la maintenance et la gestion des déchets. Cependant, de nombreux obstacles limitant le développement de l'IA dans le secteur du FM ont été identifiés, notamment des problèmes de disponibilité des données et de passage à grande échelle
The industry of Facility Management (FM) has known a rapid advancement through the last decades which leads to a largeexpansion of FM activities. The FM organisations have evolved from the traditional role of providing maintenance services toinclude complex and interconnected activities involving people, processes and technologies. As a consequence of thisexponential growth, facility managers are dealing with growing and varied challenges ranging from energy efficiency andenvironmental challenges to service customisation and customer satisfaction. The development of Artificial Intelligence (AI)is offering academics and practitioners a new set of tools to address these challenges. AI is enabling multiple solutions suchas automation, improving predictability and forecasting and offering services customisation. The Facility Managementindustry can benefit from these new techniques to better manage their assets and improve their processes. However, theintegration of AI into the FM ecosystem is a challenging task that needs to overcome the gap between the business driversand the AI. To unlock the full potential of data analytics and AI in the FM industry, significant work is needed to overcomethe issues of data quality and data management in the FM sector. The overall aim of this thesis is to conceptualise thetheoretical and practical understanding and implementation of artificial intelligence and data-driven technologies into FacilityManagement activities to leverage data and optimise facilities usage. Promises of AI implementations were presented alongwith the challenges and the barriers limiting the development of AI in the FM sector. To resolve these issues, a frameworkwas proposed to improve data management and leverage AI in FM. Multiple case studies were selected to address thisframework. The selected case studies covered predictive maintenance, virtual assistant and natural language processingapplications. The results of this work demonstrated the potential of AI to address FM challenges such in maintenancemanagement and waste management. However, multiple barriers limiting the development of AI in the FM sector wereidentified including data availability issues
11

Bonte, Mathieu. "Influence du comportement de l'occupant sur la performance énergétique du bâtiment : modélisation par intelligence artificielle et mesures in situ." Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2495/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le contexte de crise énergétique actuel, les concepteurs de bâtiments tentent de concevoir des habitats très performants d'un point de vue énergétique. Toutefois, de plus en plus de retours d'expérience montrent que les performances énergétiques réelles sont très différentes de celles prévues à l'origine lors des calculs de conception. Une des raisons principales avancées par la communauté scientifique est la mauvaise ou la non prise en compte du rôle actif des occupants. Les travaux présentés ici ont pour objectif de caractériser le comportement de l'occupant et son influence sur la performance énergétique. Différentes méthodologies sont utilisées : le plan d'expériences, une étude expérimentale in situ et la modélisation du comportement par intelligence artificielle dans le logiciel TRNSys
Building sector plays a major role in global warming. In France, it is responsible of about 40% of energy consumption et about 33% of carbon emissions. In this context, building designers try to improve building energy performance. To do so, they often use building energy modeling (BEM) software to predict future energy use. For several years now, researchers have observed a difference between actual and predicted energy performance. Some reasons are pointed out such as uncertainties on physical properties of building materials and lack of precision of fluid dynamics models. One of the main causes could come from bad assessments in the modeling of occupant behavior. Occupant is often considered as passive in building simulation hypothesis. However, numerous of papers show that he act on the building he is in, and on personal characteristics. The work presented here intend to characterize occupant behavior and its influence on energy use. In the first part of the manuscript we assess the individual impact of several actions using design of experiments (DOE) methodology. Actions like operations on windows, blind or thermostat are investigated separately. We show that two opposite extreme behaviors (economic and wasteful) could lead to significant difference in building energy use. Moreover, a factor two-to-one in total energy use is observed between passive and active behaviors. In the second part we focused on an experimental approach. Thermal and visual environment of 4 offices have been monitored during a year and online questionnaires about comfort and behavior have been submitted to office occupants. Tank to a statistical analysis we estimates probabilities of acting on windows, blinds and clothing insulation against physical variables or thermal sensation. Final part of the thesis deals with the development of an occupant behavior model called OASys (Occupant Actions System) and running under TRNSys software. The model is based on an artificial intelligence algorithm and is intended to predict occupant interactions with thermostat, clothing insulation, windows, blinds and lighting system based on thermal and visual sensation. Results from OASys are compared to results from literature through various case studies for partial validation. They also confirm the significant impact of occupant behavior on building energy performance
12

Sardouk, Ahmad. "Agrégation de données dans les réseaux de capteurs sans fil à base d'agents coopératifs." Troyes, 2010. http://www.theses.fr/2010TROY0013.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’objectif principal d’un réseau de capteurs sans fil est de recueillir les informations d’un environnement à travers un grand nombre de nœuds qui ont une durée de vie limitée définie par leur batterie. Les nœuds qui n’ont plus de batterie peuvent créer de sérieux problèmes de perte d'information et de partitionnement du réseau. Par conséquent, il est important de minimiser la consommation d'énergie de chaque nœud et de mieux gérer la consommation des nœuds dont la position est jugée critique, pour prolonger la durée de vie du réseau. Etant donné que la communication est la première source de consommation d’énergie, nous proposons une solution d’agrégation de données basée sur un système multi-agents pour réduire la quantité d’informations communiquée et donc réduire la consommation d’énergie des nœuds. Nous proposons d’implémenter dans chaque nœud un agent qui est responsable de gérer intelligemment le nœud, traiter les informations en local et juger de leur importance. Les différents agents implémentés coopèrent pour éliminer les informations redondantes et non utiles et pour créer un message résumant toutes les informations importantes du réseau. L’agent gérera la consommation de chaque nœud par rapport à sa position, la densité du réseau dans sa zone de couverture, l’énergie dont il dispose et l’importance de l’information courante que possède le nœud. Cette gestion a pour but d’équilibrer la consommation d’énergie des nœuds et de maximiser la durée de vie des nœuds en position critique pour éviter le partitionnement du réseau
The main role of Wireless Sensor Network is to collect information from the environment by a high number of Sensor Nodes (SNs). The SNs have a lifetime limited by their batteries. Hence, SNs that ran out of battery will be out of the network and may create serious network partitioning and information loss problems. Thus, in order to maximize the WSN lifetime, it is important to minimize the power consumption of each SN and better manage the consumption of nodes that are in critical positions of the network. As the radio communication is the main power consumer, we propose a multi-agent based data aggregation solution, which reduces the amount of communicated information and hence reduces the power consumption of the SNs. We propose to implement in each node an agent that manages optimally the SN, processes locally its information and estimates their importance. The implemented agents cooperate together to eliminate the inter-SN redundancy and the useless information and to create a message summarizing the network’s important information. The agent manages the power consumption of each node according to its position in the network, the nodes density in its coverage zone, its residual battery and the importance of its current information. This management aims to balance the power consumption of the SNs and to maximize the life-time of SNs in critical positions to avoid the network partitioning
13

Sanoussi, Hamadou. "Énergie et économie : analyse de la relation consommation d'électricité et production de richesse dans une perspective d'intelligence économique." Thesis, Lyon 3, 2014. http://www.theses.fr/2014LYO30004.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’objet de la thèse consiste à analyser la relation entre la consommation d’électricité et le produit intérieur brut dans une démarche d’intelligence économique. Plus précisément il s’agit d’analyser l’évolution de l’intensité électrique de l’activité économique sur la période de 2003 à 2012 dans les pays développés du G7 et estimer leurs demandes électriques entre 2013 et 2022.Une première partie cherche à explorer les aspects théoriques et pratiques de l’intelligence économique afin de la comprendre et l’appliquer. Une deuxième partie est consacrée à l’analyse empirique. Nous sommes parvenus aux résultats suivants :Premièrement, les courbes d’intensité électrique de deux pays : le Canada et le Etats – Unis dominent celles des autres pays développés, ainsi, les économies de ces deux pays de l’Amérique du nord sont plus énergivores que celles du Japon et des pays de l’Union européenne. Ensuite, l’évolution temporelle de la consommation d’électricité par unité de PIB sur dix années (2003 – 2012) a globalement diminué dans cinq pays: le Canada (-12%) ; le Royaume – Uni (-5, 3%) ; les Etats – Unis (-5%) ; la France (- 4%) ; l’Allemagne (-3%). Par contre, elle s’est détériorée au Japon (+5%) et en Italie (+6%). L’effet de « structure » est négatif dans tout l’échantillon, il traduit donc t une tertiarisation généralisée. Par contre l’effet « d’efficacité électrique » est contrasté. Il est négatif au Canada et aux Etats – Unis et positif dans le reste du groupe.Deuxièmement, les estimations indiquent une croissance généralisée de la demande électrique de 2013 - 2022 dans l’ensemble des pays du G7. Par ailleurs, les coefficients élasticité électricité /PIB sont inférieurs à l’unité dans tous les pays, excepté l’Italie. Cela signifie que la demande d’électricité moyen annuel de ces pays devrait croître moins vite que leurs PIB. Enfin, les principales perspectives de recherche qui apparaissent à l'issue de cette thèse concernent la transposition de notre modèle d’analyse (l’intelligence énergétique) aux autres formes d’énergie à savoir : le pétrole, le gaz, le charbon et les renouvelables .Finalement, ce modèle peut servir d’instrument de politique économique, énergétique et environnementale aux acteurs économiques et politiques (Etats, entreprises, ONG, OIG.)
The subject of this thesis consists of an analysis of the relationship between electricity consumption and Gross Domestic Product from the perspective of Competitive Intelligence. More specifically, it analyzes the evolution of the electrical intensity of economic activity from 2003 to 2012 in the developed countries of the G7, and then estimates their electricity needs from 2013 to 2022. Part one attempt to explore theoretical and practical aspects of Competitive Intelligence to understand and apply them, while part two is devoted to the empirical analysis itself.Concerning the latter, our results are as follows:First, the electrical intensity curves of two countries—Canada and the United States—dominate those of other developed countries; thus, the economies of these two North American countries are more energy-hungry than those of Japan and the countries of the European Union. The overall temporal evolution of electricity consumption per GDP unit over a ten-year period (2003-1012) has gone down in five countries: Canada (-12%), the United Kingdom (-5.3%), the United States (-5%), France (-4%), and Germany (-3%). On the other hand, this evolution has gone the other direction in Japan (+5%) and Italy (+6%). The effect of “structure” is negative across all analyzed data, suggesting general “tertiarisation”. However, the effect of “electricity efficiency” is mixed: it is negative in the United States and Canada, but positive for the rest of group.Second, estimations indicate an overall growth in electricity demand across all G7 countries from 2013 to 2022. Additionally, electrical elasticity coefficients/GDP units are down in all countries except Italy. This tells us that the average annual demand for electricity in these countries should increase at a slower rate than their respective GDPs.Lastly, the primary research perspectives that appear at the beginning of this thesis concern the transposition of our model of analysis (energetic intelligence) onto other forms of energy such as oil, natural gas, coal, and renewable energy sources. In the end, this model could be useful to economic and political authorities (governments, private companies, NGOs, IGOs, etc.) as an instrument of economic, energy, and environmental policy
14

Bedecarrats, Thomas. "Etude et intégration d’un circuit analogique, basse consommation et à faible surface d'empreinte, de neurone impulsionnel basé sur l’utilisation du BIMOS en technologie 28 nm FD-SOI." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAT045.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Avec la fin annoncée de la loi de Moore, les acteurs de la microélectronique cherchent de nouveaux paradigmes sur lesquels s’appuyer pour alimenter les développements futurs de notre société de l’information. En s’inspirant des systèmes nerveux biologiques, l’ingénierie neuromorphique offre des perspectives nouvelles qui révolutionnent d’ores et déjà l’intelligence artificielle. Pour que leurs performances permettent leur généralisation, les processeurs neuronaux se doivent d’intégrer des circuits de neurones les plus petits et les moins énergivores possible afin que les réseaux de neurones artificiels qu’ils implémentent atteignent une taille critique. Dans ce travail, nous montrons qu’il est possible de réduire le nombre de composants nécessaires à la conception d’un circuit analogique de neurone impulsionnel par la fonctionnalisation des courants de génération parasites dans un transistor BIMOS intégré en technologie 28 nm FD-SOI et dimensionné aux tailles minimales autorisées par la technologie. Après une caractérisation systématique des ces courants par des mesures quasi-statiques du FD-SOI BIMOS à température ambiante sous différentes polarisations, une modélisation compacte de ce composant adaptée à partir du modèle CEA-LETI UTSOI est proposée. Le circuit analogique de neurone impulsionnel à fuite, intégration et déclenchement basé sur le BIMOS (« BIMOS-based leaky, integrate-and-fire spiking neuron » : BB-LIF SN) est ensuite décrit. L’influence des différentes dimensions caractéristiques et polarisations de contrôle sur son fonctionnement observée lors des mesures sur des démonstrateurs fabriqués sur silicium est expliquée en détail. Un modèle analytique simple de ses limites de fonctionnement est proposé. La cohérence entre les résultats de mesures, ceux de simulations compactes et les prédictions du modèle analytique simple atteste la pertinence des analyses proposées. Dans sa version la plus aboutie, le BB-LIF SN occupe une surface de 15 µm², consomme environ 2 pJ/spike, fonctionne à des fréquences de déclenchement comprises entre 3 et 75 kHz pour des courant synaptique compris entre 600 pA et 25 nA sous une tension d’alimentation de 3 V
While Moore’s law reaches its limits, microelectronics actors are looking for new paradigms to ensure future developments of our information society. Inspired by biologic nervous systems, neuromorphic engineering is providing new perspectives which have already enabled breakthroughs in artificial intelligence. To achieve sufficient performances to allow their spread, neural processors have to integrate neuron circuits as small and as low power(ed) as possible so that artificial neural networks they implement reach a critical size. In this work, we show that it is possible to reduce the number of components necessary to design an analogue spiking neuron circuit thanks to the functionalisation of parasitic generation currents in a BIMOS transistor integrated in 28 nm FD-SOI technology and sized with the minimum dimensions allowed by this technology. After a systematic characterization of the FD-SOI BIMOS currents under several biases through quasi-static measurements at room temperature, a compact model of this component, adapted from the CEA-LETI UTSOI one, is proposed. The BIMOS-based leaky, integrate-and-fire spiking neuron (BB-LIF SN) circuit is described. Influence of the different design and bias parameters on its behaviour observed during measurements performed on a demonstrator fabricated in silicon is explained in detail. A simple analytic model of its operating boundaries is proposed. The coherence between measurement and compact simulation results and predictions coming from the simple analytic model attests to the relevance of the proposed analysis. In its most successful achievement, the BB-LIF SN circuit is 15 µm², consumes around 2 pJ/spike, triggers at a rate between 3 and 75 kHz for 600 pA to 25 nA synaptic currents under a 3 V power supply
15

Causo, Matteo. "Neuro-Inspired Energy-Efficient Computing Platforms." Thesis, Lille 1, 2017. http://www.theses.fr/2017LIL10004/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les Big Data mettent en évidence tous les défauts du paradigme de l'informatique classique. Au contraire, le Neuro-Inspiré traite les Big Data comme ressources pour progresser. Dans cette thèse, nous adoptons les principes de Hierarchical Temporal Memory (HTM) comme références neuroscientifiques et nous élaborons sur la façon dont le Bayesian Machine Learning (BML) mène les approches dans le Neuro-Inspiré à s’unifier et à atteindre nos objectives: (i) la simplification et l'amélioration des algorithmes de BML et (ii) l'approche au Neuro-Inspiré avec une prospective Ultra-Low-Power. Donc, nous nous efforçons d'apporter le traitement intelligent proche aux sources de données et de populariser le BML sur l'électronique strictement limitées tels que les appareils portables, mettable et implantables. Cependant, les algorithmes de BML ont besoin d’être optimisés. En fait, leur mise en œuvre en HW est ni efficaces, ni réalisables en raison de la mémoire, la puissance de calcul requises. Nous proposons un algorithme moins complexe, en ligne, distribué et non paramétrique et montrons de meilleurs résultats par rapport aux solutions de l’état de l’art. En fait, nous gagnons deux ordres de grandeur de réduction en complexité au niveau algorithmique et un autre ordre de grandeur grâce à des techniques traditionnelles d'optimisation HW. En particulier, nous concevons une preuve de concept sur une plateforme FPGA pour l'analyse en temps réel d’un flux de données. Enfin, nous démontrons d’être en mesure de résumer les ultimes découvertes du domaine du BML sur un algorithme généralement valide qui peut être mis en œuvre en HW et optimisé pour des applications avec des ressources limitées
Big Data highlights all the flaws of the conventional computing paradigm. Neuro-Inspired computing and other data-centric paradigms rather address Big Data to as resources to progress. In this dissertation, we adopt Hierarchical Temporal Memory (HTM) principles and theory as neuroscientific references and we elaborate on how Bayesian Machine Learning (BML) leads apparently totally different Neuro-Inspired approaches to unify and meet our main objectives: (i) simplifying and enhancing BML algorithms and (ii) approaching Neuro-Inspired computing with an Ultra-Low-Power prospective. In this way, we aim to bring intelligence close to data sources and to popularize BML over strictly constrained electronics such as portable, wearable and implantable devices. Nevertheless, BML algorithms demand for optimizations. In fact, their naïve HW implementation results neither effective nor feasible because of the required memory, computing power and overall complexity. We propose a less complex on-line, distributed nonparametric algorithm and show better results with respect to the state-of-the-art solutions. In fact, we gain two orders of magnitude in complexity reduction with only algorithm level considerations and manipulations. A further order of magnitude in complexity reduction results through traditional HW optimization techniques. In particular, we conceive a proof-of-concept on a FPGA platform for real-time stream analytics. Finally, we demonstrate we are able to summarize the ultimate findings in Machine Learning into a generally valid algorithm that can be implemented in HW and optimized for strictly constrained applications
16

Abderrahmane, Nassim. "Impact du codage impulsionnel sur l’efficacité énergétique des architectures neuromorphiques." Thesis, Université Côte d'Azur, 2020. http://www.theses.fr/2020COAZ4082.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le contexte actuel, l’Intelligence Artificielle (IA) est largement répandue et s’applique à de nombreux domaines tels que les transports, la médecine et les véhicules autonomes. Parmi les algorithmes d'IA, on retrouve principalement les réseaux de neurones, qui peuvent être répartis en deux familles : d'une part, les Réseaux de Neurones Impulsionnels (SNNs) qui sont issus du domaine des neurosciences ; d'autre part, les Réseaux de Neurones Analogiques (ANNs) qui sont issus du domaine de l'apprentissage machine. Les ANNs connaissent un succès inédit grâce à des résultats inégalés dans de nombreux secteurs tels que la classification d'images et la reconnaissance d'objets. Cependant, leur déploiement nécessite des capacités de calcul considérables et ne conviennent pas à des systèmes très contraints. Afin de pallier ces limites, de nombreux chercheurs s'intéressent à un calcul bio-inspiré, qui serait la parfaite alternative aux calculateurs conventionnels basés sur l'architecture de Von Neumann. Ce paradigme répond aux exigences de performance de calcul, mais pas aux exigences d'efficacité énergétique. Il faut donc concevoir des circuits matériels neuromorphiques adaptés aux calculs parallèles et distribués. Dans ce contexte, nous avons établi un certain nombre de critères en termes de précision et de coût matériel pour différencier les SNNs et ANNs. Dans le cas de topologies simples, nous avons montré que les SNNs sont plus efficaces en termes de coût matériel que les ANNs, et ce, avec des précisions de prédiction quasiment similaires. Ainsi, dans ce travail, notre objectif est de concevoir une architecture neuromorphique basée sur les SNNs. Dans cette perspective, nous avons mis en place un flot de conception composé de trois niveaux, qui permet la réalisation d’une architecture neuromorphique dédiée et adaptée aux applications d’IA embarquée.Dans un contexte d'efficacité énergétique, nous avons réalisé une étude approfondie sur divers paradigmes de codage neuronal utilisés avec les SNNs. Par ailleurs, nous avons proposé de nouvelles versions dérivées du codage fréquentiel, visant à se rapprocher de l'activité produite avec le codage temporel, qui se caractérise par un nombre réduit d'impulsions (spikes) se propageant dans le SNN. En faisant cela, nous sommes en mesure de réduire le nombre de spikes, ce qui se traduit par un SNN avec moins d'événements à traiter, et ainsi, réduire la consommation énergétique sous-jacente. Pour cela, deux techniques nouvelles ont été proposées : "First Spike", qui se caractérise par l'utilisation d’un seul spike au maximum par donnée ; "Spike Select", qui permet de réguler et de minimiser l'activité globale du SNN.Dans la partie d’exploration RTL, nous avons comparé de manière quantitative un certain nombre d’architectures de SNN avec différents niveaux de parallélisme et multiplexage de calculs. En effet, le codage "Spike Select" engendre une régulation de la distribution des spikes, avec la majorité générée dans la première couche et peu d'entre eux propagés dans les couches profondes. Nous avons constaté que cette distribution bénéficie d’une architecture hybride comportant une première couche parallèle et les autres multiplexées. Par conséquent, la combinaison du "Spike Select" et de l'architecture hybride serait une solution efficace, avec un compromis efficace entre coût matériel, consommation et latence.Enfin, en se basant sur les choix architecturaux et neuronaux issus de l'exploration précédente, nous avons élaboré une architecture évènementielle dédiée aux SNNs mais suffisamment programmable pour supporter différents types et tailles de réseaux de neurones. L'architecture supporte les couches les plus utilisées : convolution, pooling et entièrement connectées. En utilisant cette architecture, nous serons bientôt en mesure de comparer les ANNs et les SNNs sur des applications réalistes et enfin conclure sur l'utilisation des SNNs pour l'IA embarquée
Nowadays, Artificial Intelligence (AI) is a widespread concept applied to many fields such as transportation, medicine and autonomous vehicles. The main AI algorithms are artificial neural networks, which can be divided into two families: Spiking Neural Networks (SNNs), which are bio-inspired models resulting from neuroscience, and Analog Neural Networks (ANNs), which result from machine learning. The ANNs are experiencing unprecedented success in research and industrial fields, due to their recent successes in many application contexts such as image classification and object recognition. However, they require considerable computational capacity for their deployment which is not adequate to very constrained systems such as 'embedded systems'. To overcome these limitations, many researchers are interested in brain-inspired computing, which would be the perfect alternative to conventional computers based on the Von Neumann architecture (CPU/GPU). This paradigm meets computing performance but not energy efficiency requirements. Hence, it is necessary to design neuromorphic hardware circuits adaptable to parallel and distributed computing. In this context, we have set criteria in terms of accuracy and hardware implementation cost to differentiate the two neural families (SNNs and ANNs). In the case of simple network topologies, we conducted a study that has shown that the spiking models have significant gains in terms of hardware cost when compared to the analog networks, with almost similar prediction accuracies. Therefore, the objective of this thesis is to design a generic neuromorphic architecture that is based on spiking neural networks. To this end, we have set up a three-level design flow for exploring and implementing neuromorphic architectures.In an energy efficiency context, a thorough exploration of different neural coding paradigms for neural data representation in SNNs has been carried out. Moreover, new derivative versions of rate-based coding have been proposed that aim to get closer to the activity produced by temporal coding, which is characterized by a reduced number of spikes propagating in the network. In this way, the number of spikes can be reduced so that the number of events to be processed in the SNNs gets smaller. The aim in doing this approach is to reduce the hardware architecture's energy consumption. The proposed coding approaches are: First Spike, which is characterized using at most one single spike to present an input data, and Spike Select, which allows to regulate and minimize the overall spiking activity in the SNN.In the RTL design exploration, we quantitatively compared three SNN architectural models having different levels of computing parallelism and multiplexing. Using Spike Select coding results in a distribution regulation of the spiking data, with most of them generated within the first layer and few of them propagate into the deep layers. Such distribution benefits from a so-called 'hybrid architecture' that includes a fully-parallel part for the first layer and multiplexed parts to the other layers. Therefore, combining the Spike Select and the Hybrid Architecture would be an effective solution for embedded AI applications, with an efficient hardware and latency trade-off.Finally, based on the architectural and neural choices resulting from the previous exploration, we have designed a final event-based architecture dedicated to SNNs supporting different neural network types and sizes. The architecture supports the most used layers: convolutional, pooling and fully-connected. Using this architecture, we will be able to compare analog and spiking neural networks on realistic applications and to finally conclude about the use of SNNs for Embedded Artificial Intelligence
17

Sa'ad, Aisha. "Developing integrated maintenance strategies for renewable energy sources based on analytical methods and artificial intelligence (AI) : comparisons and case study." Electronic Thesis or Diss., Université de Lorraine, 2023. http://www.theses.fr/2023LORR0080.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Au cours de ces récentes années, le développement des énergies renouvelables, en particulier l'énergie solaire et l'énergie éolienne, a attiré comme méthode alternative de production d'énergie, l'attention du monde entier avec une croissance exceptionnelle de sa production. Selon le rapport de Global Energy, l'énergie solaire mondiale devrait avoir atteint une capacité cumulée de 1 TW, tandis que l'énergie éolienne devrait avoir été multipliée par 3 ou 4 mégas par rapport à la production en 2020. Cette augmentation des énergies solaire et éolienne implique des investissements financiers très importants. Cependant, avec cet énorme potentiel d'investissement et l'augmentation significative de la capacité de production, il y a une responsabilité supplémentaire, souvent négligée : la gestion des centrales électriques pour assurer le coût total du cycle de vie le plus bas (Life Cycle Cost). Comme tout système de production standard, les composants de production d'énergie renouvelable (solaire et éolienne dans notre cas) sont sujets à des défaillances aléatoires qui interrompent la production et l'approvisionnement de la demande. La maintenance est identifiée comme une cause majeure d'accidents, on peut noter le manque de savoir-faire technique dans l'exploitation d'un équipement ou l'absence d'un bon plan de routine de maintenance. Dans le cadre des efforts visant à améliorer l'efficacité et la performance des centrales électriques à énergie renouvelable, nous proposons des modèles pour optimiser la production d'énergie et la maintenance dans nos études de cas sélectionnées (centrale solaire de Sokoto et parc éolien de Katsina au Nigéria). À cet égard, nous avons développé de nouvelles politiques de maintenance intégrées à la production d'énergie des systèmes d'énergie solaire et éolienne. La stratégie de maintenance préventive adoptée dans cette thèse est une stratégie de maintenance parfaite sur les composants sélectionnés pour la maintenance et une maintenance sélective imparfaite sur le système (solaire PV et éolienne). Le manque de batterie en cas de sous-production et les pertes de maintenance sont des défis considérés dans cette étude. La méthodologie que nous avons développée consiste à résoudre le problème d'optimisation de la production d'énergie et de la maintenance en utilisant la méthode théorique ainsi que la méthode d'apprentissage automatique (ANN et SVM) afin de satisfaire une demande aléatoire d'énergie pendant un horizon fini. Nous avons également étudié l'influence des conditions environnementales et opérationnelles des systèmes, puis validé les modèles par des exemples numériques et des études de sensibilité prouvant la robustesse des modèles développés
The development of renewable energy, especially solar and wind energy, over the recent years has gained global attention as an alternative method of generating energy experiencing exceptional growth in its production. In The Global Energy report, global solar energy is expected to have reached a cumulative capacity of 1TW while the wind energy is expected to have multiplied up to 3 to 4 times from mega production in the year 2020. This increase in the solar and wind power implies very significant financial investments. However, with this huge investment potential and significant increase in generation capacity, there is an additional, often overlooked responsibility: managing the power plants to ensure the lowest total life cycle cost (Life Cycle Cost). Like any standard production system, renewable energy (solar and wind energy in our case) generation components are subject to random failure, which interrupts production and supply of demand. Maintenance is identified as a major cause of accidents, lack of technical know-how of an equipment and the absence of a good maintenance routine plan. As part of the efforts to improve the efficiency and performance of renewable energy power plants, we propose models to optimize the power production and maintenance of our selected case studies (Sokoto solar plant and Katsina wind farm). In this regard, we developed new integrated maintenance policies integrated with production of the energy production from solar and wind energy systems. The preventive maintenance strategy adopted in this thesis is perfect maintenance strategy on the selected components for maintenance and an imperfect selective maintenance on the system (solar PV and wind turbine). Battery shortage in case of under-production and maintenance losses are challenges considered in this study. The methodology we developed entails solving the problem of energy production and maintenance optimization by using the theoretical method as well as machine learning method (ANN and SVM) in order to satisfy a random demand of energy during a finite horizon. We also studied the influence of environmental and operational condition of the systems and then validated the models by numerical examples and sensitivity studies proving the robustness of the developed models
18

Lamy, François. "Étudier le polyusage récréationnel de drogues à travers une simulation multi-agents ontologique." Thesis, Lille 1, 2013. http://www.theses.fr/2013LIL12027/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse examine la carrière des polyusagers récréationnels de drogues à travers une perspective pluridisciplinaire. Cette perspective rend compte de la complexité du phénomène en intégrant des éléments de neurologie dans une approche sociologique. Ces éléments théoriques sont intégrés dans un modèle multi-agents visant à tester cette approche et à étendre ses résultats. Afin d‘informer ce modèle, trente-huit entretiens compréhensifs ont été réalisés auprès de polyusagers socialement intégrés. Après une première phase où la consommation de drogues est orientée vers l'intégration au groupe de pairs et à l'apprentissage des techniques de consommation, les usagers tendent à instrumentaliser les drogues pour faciliter leur adaptation aux normes contemporaines et gérer les contraintes sociales. La polyconsommation semble être le paroxysme de l‘instrumentalisation des psychotropes et peut revêtir quatre formes permettant aux usagers récréationnels de faire varier à dessein leurs états physiques et psychologiques. La dernière phase de la carrière est caractérisée par un accroissement des techniques de contrôle permettant aux individus de concilier leurs usages avec l'accroissement de leurs obligations sociales. Le statut d'usager "contrôleur" est défini en opposition avec le stéréotype de l'usager dépendant, participant à l'étiquetage de ces derniers en tant que déviant. Les résultats de l'enquête empirique ont été formalisés à l'aide de diagrammes visuels avant d‘être implémentés dans la plateforme NetLogo. Le modèle créé, baptisé SimUse, fut vérifié à travers plusieurs scénarios évaluant l‘adéquation entre les algorithmes implémentés et les données empiriques recueillies
This thesis investigates the career of recreational polydrug users through a pluridisciplinary perspective. This perspective captures the complexity of this phenomenon by integrating data from neurology with a sociological approach. These theoretical elements are integrated into a multi-agent model aiming to test this approach and extend its results. To inform the model, thirty-eight qualitative interviews were conducted with socially-integrated polyusers. After a first phase where drug consumption is oriented toward peers group integration and during which consumption techniques are learnt, the users tend to instrument drugs to facilitate their adaptation to modern social norms and manage social constrains. The polyconsumption appears to be the climax of this psychoactive substances instrumenting and could take four forms permitting the users to make vary their physical and psychological states at will. The last phase of the career is characterized by an increase in control techniques allowing individuals to conciliate their consumptions with the increase of their daily obligations. The status of controller user is defined by opposition to the stereotype of the dependant user, which participates to the labeling of these latter as deviant users. These empirical results have been formalized through visual diagrams before being implemented into the NetLogo platform. The model created, called SimUse, was verified by the means of several scenarios assessing the consistency between the implemented algorithms and collected empirical data
19

García, Durán Alberto. "Learning representations in multi-relational graphs : algorithms and applications." Thesis, Compiègne, 2016. http://www.theses.fr/2016COMP2271/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Internet offre une énorme quantité d’informations à portée de main et dans une telle variété de sujets, que tout le monde est en mesure d’accéder à une énorme variété de connaissances. Une telle grande quantité d’information pourrait apporter un saut en avant dans de nombreux domaines (moteurs de recherche, réponses aux questions, tâches NLP liées) si elle est bien utilisée. De cette façon, un enjeu crucial de la communauté d’intelligence artificielle a été de recueillir, d’organiser et de faire un usage intelligent de cette quantité croissante de connaissances disponibles. Heureusement, depuis un certain temps déjà des efforts importants ont été faits dans la collecte et l’organisation des connaissances, et beaucoup d’informations structurées peuvent être trouvées dans des dépôts appelés Bases des Connaissances (BCs). Freebase, Entity Graph Facebook ou Knowledge Graph de Google sont de bons exemples de BCs. Un grand problème des BCs c’est qu’ils sont loin d’êtres complets. Par exemple, dans Freebase seulement environ 30% des gens ont des informations sur leur nationalité. Cette thèse présente plusieurs méthodes pour ajouter de nouveaux liens entre les entités existantes de la BC basée sur l’apprentissage des représentations qui optimisent une fonction d’énergie définie. Ces modèles peuvent également être utilisés pour attribuer des probabilités à triples extraites du Web. On propose également une nouvelle application pour faire usage de cette information structurée pour générer des informations non structurées (spécifiquement des questions en langage naturel). On pense par rapport à ce problème comme un modèle de traduction automatique, où on n’a pas de langage correct comme entrée, mais un langage structuré. Nous adaptons le RNN codeur-décodeur à ces paramètres pour rendre possible cette traduction
Internet provides a huge amount of information at hand in such a variety of topics, that now everyone is able to access to any kind of knowledge. Such a big quantity of information could bring a leap forward in many areas if used properly. This way, a crucial challenge of the Artificial Intelligence community has been to gather, organize and make intelligent use of this growing amount of available knowledge. Fortunately, important efforts have been made in gathering and organizing knowledge for some time now, and a lot of structured information can be found in repositories called Knowledge Bases (KBs). A main issue with KBs is that they are far from being complete. This thesis proposes several methods to add new links between the existing entities of the KB based on the learning of representations that optimize some defined energy function. We also propose a novel application to make use of this structured information to generate questions in natural language
20

Hedayat, Sara. "Conception et fabrication de neurones artificiels pour le traitement bioinspiré de l'information." Thesis, Lille 1, 2018. http://www.theses.fr/2018LIL1I039/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Actuellement, les technologies du traitement d'information ont atteint leurs limites et il devient donc urgent de proposer de nouveaux paradigmes capables de réduire la consommation d'énergie tout en augmentant la capacité de calcul des ordinateurs. Le cerveau humain est un fascinant et puissant organe, avec ses 300 milliards de cellule, il est capable d’effectuer des taches cognitives en consommant 20W. Dans ce contexte nous avons investiguer un nouveau paradigme appelé "neuromorphic computing" ou le traitement bio-inspiré de l'information.L'objectif de cette thèse est de concevoir et de fabriquer un neurone artificiel a très faible consommation utilisant les récentes avancées scientifiques dans les neurosciences et les nanotechnologies. Premièrement, on a investigué le fonctionnement d'un neurone vivant, sa membrane neuronale et nous avons exploré 3 différents modèles de membranes connues sous le nom de Hodgkin Huxley, Wei et Morris Lecar. Deuxièmement, en se basant sur le modèle de Morris Lecar, nous avons réalisé des neurones artificiels analogiques à spike avec différentes constantes de temps. Puis ils ont été fabriqués avec la technologie 65nm CMOS. Par la suite, nous les avons caractérisés et obtenu des performances dépassant l’état de l’art en terme de surface occupée, puissance dissipée et efficacité énergétique. Finalement, on a analysé et comparé le bruit dans ces neurones artificiels avec le bruit dans des neurones biologiques et on a démontré expérimentalement le phénomène de résonance stochastique. Ces neurones artificiels peuvent être extrêmement utiles pour une large variété d’application allant du traitement de données à l’application médicale
Current computing technology has now reached its limits and it becomes thus urgent to propose new paradigms for information processing capable of reducing the energy consumption while improving the computing performances. Moreover, the human brain, is a fascinating and powerful organ with remarkable performances in areas as varied as learning, creativity, fault tolerance. Furthermore, with its total 300 billion cells, is able to perform complex cognitive tasks by consuming only around 20W. In this context, we investigated a new paradigm called neuromorphic or bio-inspired information processing.More precisely, the purpose of this thesis was to design and fabricate an ultra-low power artificial neuron using recent advances in neuroscience and nanotechnology. First, we investigated the functionalities of living neurons, their neuronal membrane and explored different membrane models known as Hodgkin Huxley, Wei and Morris Lecar models. Second, based on the Morris Lecar model, we designed analog spiking artificial neurons with different time constants and these neurons were fabricated using 65nm CMOS technology. Then we characterized these artificial neurons and obtained state of the art performances in terms of area, dissipated power and energy efficiency. Finally we investigated the noise within these artificial neurons, compared it with the biological sources of noise in a living neuron and experimentally demonstrated the stochastic resonance phenomenon. These artificial neurons can be extremely useful for a large variety of applications, ranging from data analysis (image and video processing) to medical aspect (neuronal implants)
21

Atouati, Samed. "Du texte aux chiffres : La NLP pour la prédiction des actifs financiers." Electronic Thesis or Diss., Institut polytechnique de Paris, 2022. http://www.theses.fr/2022IPPAT026.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’objectif de la thèse est d’étudier à quel point les données en langage naturel peuvent être utiles pour mieux comprendre les relations entre le sentiment public et les entreprises, ainsi qu’entre ce sentiment et les changements de prix sur les marchés. Pour ce faire, nous étudions des données NLP provenant de différentes sources : Twitter, les rapports des entreprises et Reddit. Nous obtenons des résultats prometteurs pour certaines sources, tandis que d’autres n’ont qu’une utilité limitée en ce qui concerne l’évolution des cours des actifs. Elles restent cependant pertinentes pour comprendre les réactions du public aux scandales d’entreprises
The goal of the thesis is to investigate whether natural language data can be useful in better understanding the relationships between the public and the companies, as well as the public and the stock market price changes. In order to do so, we investigate natural language data derived from various sources: Twitter, company filings, and Reddit. We show case promising results for some sources, while others happen to have limited use as far as stock price changes go. Although they remain relevant for understanding public’s reactions to company scandals
22

Meguenani, Anis. "Safe control of robotic manipulators in dynamic contexts." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066420/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de cette thèse est d'explorer de nouvelles approches pour le développement de systèmes robotiques capables de partager en toute sécurité leur espace de travail avec des opérateurs humains. Dans ce contexte, le travail présenté est axé principalement sur la problématique de commande. Les questions suivantes sont abordées:- pour des lois de contrôle réactives, c'est-à-dire des problèmes de commande où la tâche à exécuter n'est pas connue à l'avance mais découverte en temps réel, comment est-il possible de garantir à chaque pâs de temps l'existence d'une solution au problème de contrôle? Cette solution devrait permettre au robot d'accomplir au mieux sa tâche préscrite et en même temps de strictement respecter les contraintes existantes, parmi lesquelles, les contraintes liées aux limitations physiques des actionneurs de ses articulations.- Comment intégrer l'opérateur humain dans la boucle de contrôle du robot de manière à ce que le contact physique puisse être engagé et désengagé en toute sécurité? Concernant le premier point, notre travail se présente comme la continuité de résultats antérieurs développés par Sébastien Rubrecht lors de sa thèse de doctorat. Sébastien Rubrecht a introduit le concept d'incompatibilité des contraintes pour des robots contrôlés de manière réactive au niveau cinématique. Le problème de l'incompatibilité des contraintes apparaît par exemple lorsque la formulation de la contrainte sur une position articulaire d'un robot ne tient pas compte de la quantité de décélération produite par son actionneur. Dans ce cas, si la contrainte de position articulaire est activée tardivement, le système peut se retrouver dans une situation où il n'a pas suffisamment de temps pour faire face à la limite de position articulaire imposée considérant ses capacités dynamiques limités
The intended goal of this thesis is to bring new insights for developing robotic systems capable of safely sharing their workspace with human-operators. Within this context, the presented work focuses on the control problem. The following questions are tackled:-for reactive control laws, i.e., control problems where the task to be performed is not known in advance but discovered on-line, how is it possible to guarantee for every time-step the existence of a solution to the control problem? This solution should allow the robot to accomplish at best its prescribed task and at the same time to strictly comply with existing constraints, among which, constraints related to the physical limitations of its actuators and joints.-How to integrate the human-operator in the control loop of the robot so that physical contact can safely be engaged and de-engaged? Regarding the first point, our work arises as the continuity of previous results developed by Sébastien Rubrecht during his PhD thesis. Sébastien Rubrecht introduced the concept of constraints incompatibility for robots reactively controlled at the kinematic-level. The problem of constraints incompatibility appears for example when the formulation of the constraint on an articular position of a robot does not account for the amount of deceleration producible by its actuator. In such case, if the articular position constraint is activated tardively, the system may not have sufficient time to cope with the imposed joint position limit considering its bounded dynamic capabilities
23

Bou, Tayeh Gaby. "Towards smart firefighting using the internet of things and machine learning." Thesis, Bourgogne Franche-Comté, 2020. http://www.theses.fr/2020UBFCD015.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’objectif de cette de thèse est d’étudier à la fois des solutions matérielles et logicielles pour améliorer les conditions de travail des sapeurs-pompiers. Il s’agit de développer un système intelligent basé sur l’internet des objets pour surveiller l'état de santé des pompiers et aider à les localiser lors des interventions. Dans la première partie de la thèse, nous avons étudié et proposé plusieurs approches permettant de réduire la consommation d’énergie du système afin de maximiser sa durée de vie. La première approche présente un modèle de prédiction basé sur la corrélation temporelle entre les mesures collectées par le même capteur. Il permet de réduire la quantité de données collectées et transmises au centre de contrôle. Ce modèle est exécuté à la fois par le capteur et le centre et qui s'auto-adapte en fonction de l’écart constaté entre les mesures réelles collectées et les mesures prédites. Une deuxième version de cette approche a été étudiée pour prendre en considération la perte de message et la synchronisation entre le capteur et le centre de contrôle. D’un autre côté et pour réduire davantage la consommation d’énergie, nous avons couplé l’approche de prédiction avec un algorithme de collecte de données adaptatif permettant de réduire l’activité du capteur et le taux d’échantillonnage. Toutes ces approches ont été testées via des simulations et de l’implémentation réelle. Les résultats obtenus montrent l’efficacité de ces approches en termes de réduction de la consommation d’énergie tout en gardant l’intégrité de données. La deuxième partie de cette thèse est dédiée au traitement des données issues des interventions des sapeurs-pompiers. Nous avons étudié plusieurs méthodes de clustérisation permettant un prétraitement de données avant l’extraction des connaissances. D’un autre côté, nous avons appliqué des méthodes d'apprentissage profond sur un grand ensemble de données concernant 200.000 interventions qui ont eu lieu pendant une période de 6 ans dans le département du Doubs, en France. Le but de cette partie était de prédire le nombre d’interventions futures en fonction de variables explicatives externes, pour aider les pompiers à bien gérer leurs ressources
In this thesis, we present a multilevel scheme consisting of both hardware and software solutions to improve the daily operational life of firefighters. As a core part of this scheme, we design and develop a smart system of wearable IoT devices used for state assessment and localization of firefighters during interventions. To ensure a maximum lifetime for this system, we propose multiple data-driven energy management techniques for resource constraint IoT devices. The first one is an algorithm that reduces the amount of data transmitted between the sensor and the destination (Sink). This latter exploits the temporal correlation of collected sensor measurements to build a simple yet robust model that can forecast future observations. Then, we coupled this approach with a mechanism that can identify lost packets, force synchronization, and reconstruct missing data. Furthermore, knowing that the sensing activity does also require a significant amount of energy, we extended the previous algorithm and added an additional adaptive sampling layer. Finally, we also proposed a decentralized data reduction approach for cluster-based sensor networks. All the previous algorithms have been tested and validated in terms of energy efficiency using custom-built simulators and through implementation on real sensor devices. The results were promising as we were able to demonstrate that our proposals can significantly improve the lifetime of the network. The last part of this thesis focusses on building data-centric decision-making tools to improve the efficiency of interventions. Since sensor data clustering is an important pre-processing phase and a stepstone towards knowledge extraction, we review recent clustering techniques for massive data management in IoT and compared them using real data for a gas leak detection sensor network. Furthermore, with our hands on a large dataset containing information on 200,000 interventions that happened during a period of 6 years in the region of Doubs, France. We study the possibility of using Machine Learning to predict the number of future interventions and help firefighters better manage their mobile resources according to the frequency of events

To the bibliography