Dissertationen zum Thema „Capteur « low cost »“

Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Capteur « low cost ».

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-22 Dissertationen für die Forschung zum Thema "Capteur « low cost »" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Woo, Heechul. „The selective low cost gas sensor based on functionalized graphene“. Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLX050/document.

Der volle Inhalt der Quelle
Annotation:
Les progrès récents dans les nanomatériaux présentent un fort potentiel pour la réalisation de capteurs de gaz avec de nombreux avantages tels que : la grande sensibilité de détection de molécule unique, le faible coût et la faible consommation d'énergie. Le graphène, isolé en 2004, est l'un des meilleurs candidats prometteurs pour le développement de futurs nanocapteurs en raison de sa structure à deux dimensions, sa conductivité élevée et sa grande surface spécifique. Chaque atome de la monocouche de graphène peut être considéré comme un atome de surface, capable d'interagir même avec une seule molécule de l'espèce gazeuse ou de vapeur cible, ce qui conduit finalement à un capteur ultrasensible.Dans cette thèse, des composants à base de graphène ont été fabriqués et caractérisés. Les films de graphène ont été synthétisés par dépôt chimique à phase vapeur (CVD) sur des substrats de verre. La spectroscopie Raman a été utilisée pour analyser la qualité et le nombre de couches de graphène. La microscope à force atomique (AFM) et la microscopie électronique à balayage (MEB) ont été également réalisées pour analyser la qualité du graphène. Après la caractérisation de couches de graphène, des dispositifs résistifs à base de graphène ont été fabriquées : quatre électrodes identiques ont été évaporées thermiquement et directement sur le film de graphène comme des électrodes métalliques. La caractérisation électrique a été réalisée à l'aide de Keithley-4200.La réponse de dispositif Intrinsèque a été étudiée sous différents conditions (pression, humidité, exposition à la lumière). Le dispositif a été fonctionnalisé de manière non covalente avec le complexe organométallique (Ru (II) trisbipyridine) et son effet sous exposition à la lumière a été étudié. La réponse de dispositif était reproductible même après de nombreux cycles en présence et en absence de la lumière. Les approches théoriques et expérimentales ainsi que les résultats obtenus au cours de cette thèse ouvrent un moyen de comprendre et de fabriquer des futurs dispositifs de détection de gaz à base du graphène fonctionnalisé de manière non covalente
Recent advances in nanomaterials provided a strong potential to create a gas sensor with many advantages such as high sensitivity of single molecule detection, low cost, and low power consumption. Graphene, isolated in 2004, is one of the best promising candidate for the future development of nanosensors applications because of its atom-thick, two-dimensional structures, high conductivity, and large specific surface areas. Every atom of a monolayer graphene can be considered as a surface atom, capable of interacting even with a single molecule of the target gas or vapor species, which eventually results in the ultrasensitive sensor response.In this thesis work, graphene films were synthesized by Chemical Vapor Deposition (CVD) on the glass substrate. Raman spectroscopy was used to analyze the quality and number of layers of graphene. Atomic Force Microscope (AFM) and Scanning Electron Microscopy (SEM) were also performed to analyze the quality of graphene. After the characterization of graphene films, graphene based resistive devices (four identical electrodes are thermally evaporated directly onto the graphene film as metal electrodes) were fabricated. The electrical characterization has been carried out using Keithley-4200.Intrinsic device response was studied with different external condition changes (pressure, humidity, light illumination). The device was non-covalently functionalized with organometallic complex (Ru(II) trisbipyridine) and the its light exposure response was studied. The observed device response was reproducible and similar after many cycles of on and off operations. The theoretical and experimental approaches and the results obtained during the thesis are opening up a way to understand and fabricate future gas sensing devices based on the non-covalentely functionalized graphene
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Rivera, Martinez Rodrigo Andres. „Validation and deployment of greenhouse gas sensors (CH4) for the characterization of industrial and urban sources“. Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASJ020.

Der volle Inhalt der Quelle
Annotation:
Cette thèse a pour objectif la reconstruction des concentrations de méthane (CH4) atmosphérique à partir des signaux bruts (tension électrique) de capteurs d'oxyde de métal (MOS) à bas coût afin de surveiller les émissions de CH4 sur des sites industriels. Notre stratégie se base essentiellement sur la colocalisation des mesures des capteurs à bas coût avec des instruments de référence de haute précision. Les données de concentration de CH4 des instruments de haute précision sont utilisées comme variable cible pour être reconstruites à partir des mesures brutes de tension électrique issue des capteurs MOS et d'autres prédicteurs. La reconstruction est accomplie avec des modèles d'apprentissage automatique et paramétriques. Il est appliqué aux problèmes très complexes dont la reconstruction des : 1) faibles variations de CH4 dans l'air ambiant du laboratoire, 2) variations rapides et de grandes amplitudes de CH4 sous forme de pics générés artificiellement sur un bac d'essai en laboratoire reproduisant des signaux typiquement observés lors de fuites réelles sur le terrain, et 3) variations rapides et de grandes amplitudes de CH4 mesurées sur le terrain durant une expérience de largage contrôlé de CH4 dans l'atmosphère. La première expérience de laboratoire a révélé une forte influence de la vapeur d'eau sur les mesures des capteurs MOS, ainsi que les bonnes performances du modèle de perceptron multicouches (MLP) pour reconstruire le signal CH4 à partir du signal brut du capteur (Chapitre 2). Les résultats de la deuxième expérience (Chapitre 3) ont montré l'importance du choix du type de capteur pour reconstruire le signal de concentration CH4 avec une précision de 1 ppm (RMSE). Nous avons ainsi mis en avant que les capteurs TGS 2611-C00 ont permis une reconstruction plus précise des pics de CH4 que les capteurs TGS 2611-E00. Une stratégie parcimonieuse d'apprentissage du modèle nous a permis de restreindre l'ensemble des données nécessaires à l'apprentissage de 70% à 25% des données totales sans dégradation des performances pour la reconstruction de pics de CH4. Les performances sur les estimations des flux d'émissions de CH4 lors des largages contrôlés dans l'atmosphère en utilisant les concentrations de CH4 reconstruites à partir des mesures issus des capteurs MOS et une inversion avec un modèle gaussien (Chapitre 4) ont été similaires à celles obtenues à partir des données des instruments de référence à haute précision, avec une erreur moyenne d'estimation des flux d'émission de 25% sur 11 largages et une erreur moyenne de localisation des sources d'émission de 9.5 m. Les résultats de cette thèse constituent une base pour explorer les techniques avancées d'apprentissage automatique pour la reconstruction du signal de concentrations de CH4 à partir du signal brut des capteurs MOS et étudier les informations requises par les modèles d'inversion afin d'offrir les meilleures estimations des flux d'émission et localisation des fuites de CH4
This PhD aims at reconstructing atmospheric CH4 concentrations from voltage signals recorded by low-cost Metal Oxide Sensors (MOS) for the purpose of monitoring CH4 leaks from an industrial facility. Our strategy is based on the collocation of measurements by low-cost sensors and expensive very high accuracy instruments. The CH4 concentrations data from the high accuracy reference instrument are then used as a target variable to be reconstructed using MOS voltage and other predictors. The reconstruction is performed with both machine learning models and parametric models. It is applied to increasingly complex problems, including the reconstruction of: 1) smooth variations of ambient room air CH4 in a laboratory, 2) fast and large variations of CH4 during concentration spikes generated on a test bench in a laboratory with a typical signature similar to that observed for real world leaks, and 3) fast and large variations of CH4 observed in the field during a dedicated controlled release experiment. The first laboratory experiments revealed a high influence of H2O in MOS sensors, and the reconstruction with a Multilayer perceptron model showed good agreement between the references and the reconstructed room air concentrations (Chapter 2). The results of the second experiment (Chapter 3) showed the importance of the selection of the sensor's type in order to produce reconstructions of CH4 concentration with a 1 ppm accuracy (RMSE). We also discovered that the TGS 2611-C00 sensors provided a more accurate reconstruction of CH4 spikes than the TGS 2611-E00 ones. A parsimonious model training strategy allowed us to restrict the training set from 70% to 25% of the data without a degradation in the reconstruction of the CH4 spikes. Emission of controlled releases from reconstructed CH4 concentrations measured by MOS sensors and the inversion of a Gaussian atmospheric model (Chapter 4) were similar to those inverted from high accuracy reference data, with an average emission rate estimation error of 25% over 11 controlled releases and a location error of 9.5 m. The results of this PhD are the basis to explore advanced techniques based on machine learning to produce accurate estimates of CH4 concentrations, and study the information required by inversion modelling that produced best estimates of the emission rate and location of CH4 leaks
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Picard, Charles-Florian. „Développement de méthodes et d’outils associant la modélisation numérique et des mesures in situ afin de concilier la qualité de l’air intérieur et l’efficacité énergétique“. Thesis, La Rochelle, 2019. http://www.theses.fr/2019LAROS014.

Der volle Inhalt der Quelle
Annotation:
Connaître la Qualité de l’Air Intérieur (QAI) d’une ambiance est nécessaire pour répondre aux enjeux sanitaires et socio-économiques, liés à l’occupation des bâtiments, qui intéressent aussi bien le domaine public que le domaine privé. Les moyens de mesures de référence, généralement contraignants et coûteux, ne peuvent apporter, à eux seuls, une réponse aux besoins d’information QAI à grande échelle. Cette thèse s’intéresse à l’emploi de deux méthodes alternatives dans ce contexte, qui sont la modélisation et la mesure à bas coût, avec pour objectifs de lever certains freins à leur déploiement. Dans un premier temps, ce manuscrit décrit les développements numériques effectués afin d’enrichir une bibliothèque QAI de modélisation nodale, initiée à EDF R&D. Ceux-ci concernent principalement la modélisation de l’humidité et du dépôt particulaire au sein des ambiances intérieures. Afin d’évaluer la pertinence des choix effectués, ils ont fait l’objet d’un travail de validation par confrontation à des solutions analytiques, à des données expérimentales et à d’autres outils de modélisation. Une des problématiques majeures de ce type de modélisation est le choix des données d’entrée. Celui-ci peut avoir un impact important sur les résultats fournis par la modélisation et la question de leur représentativité se pose. La modélisation de différents cas d’étude monozones ou multizones, des secteurs résidentiel et tertiaire, a mis en évidence les avantages et les limites de l’outil développé vis-à-vis de la qualité des prédictions des concentrations en polluants gazeux et particulaires. Une analyse de sensibilité a permis d’identifier les paramètres clefs responsables de l’incertitude du modèle pour différentes configurations. Dans un second temps, une méthode innovante de mesure des particules, associant plusieurs compteurs de particules à bas coût avec un fonctionnement en nappe, a été développée. Celle-ci a permis de s’attaquer aux problématiques de fiabilité des données et de limite de détection de ces capteurs à bas coût. La conception de prototypes et l’application de la méthode au sein de différentes ambiances ont donné des résultats encourageants. Plusieurs pistes sont alors proposées afin de généraliser et de valider la robustesse de l’approche
Indoor Air Quality (IAQ) knowledge is necessary to address the sanitary and socio-economic issues of this field, in both public and private domains. Laboratory-grade measuring devices are generally burdensome and expensive. Alone, they cannot provide a full response to large-scale IAQ information needs. This work focuses on the use of two alternative methods in this context, which are IAQ modeling and the use of low-cost sensors, with the purpose of removing certain barriers to their deployment. As a first step, this manuscript describes the numerical developments made in order to enrich a library of models for nodal modeling of IAQ, initiated by EDF R&D. The main additions include the modeling of humidity and indoor particle deposition. In order to evaluate the relevance of the choices made, a validation work has been carried out by confronting the IAQ library results with analytical solutions, experimental data and other modeling tools. One of the major issues of this type of modeling method is the complex choice of input data. This step can have a significant impact on the results provided and there is a need to assess their influence. The modeling of various mono-zone or multi-zone case studies, from the residential and tertiary sectors, has highlighted the advantages and the limitations of the developed tool regarding the quality of the predictions of the concentrations of gaseous and particulate pollutants. A sensitivity analysis was carried out to identify the key parameters responsible for model uncertainty in a few configurations. As a second step, an innovative method of particulate matter measurement has been developed, associating several low-cost particle sensors. This approach allowed to tackle the issues of reliability of this kind of sensors and the limitations of their detection capabilities. The design of prototypes and their use in different indoor environments have given promising results. Several developments are then proposed in order to generalize and validate the robustness of this approach
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Ozyalcin, Anil E. „SOLITONS: A COMPACT, LOW-COST, AND WIRELESS BODY MOTION CAPTURE SYSTEM“. The Ohio State University, 2015. http://rave.ohiolink.edu/etdc/view?acc_num=osu1437440750.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Chang, An S. M. Massachusetts Institute of Technology. „Low-cost air particulate monitor based on particle capture and imaging“. Thesis, Massachusetts Institute of Technology, 2018. https://hdl.handle.net/1721.1/122506.

Der volle Inhalt der Quelle
Annotation:
Thesis: S.M., Massachusetts Institute of Technology, Department of Mechanical Engineering, 2018
Cataloged from PDF version of thesis.
Includes bibliographical references (pages 72-74).
Particulate Matter (PM) pollution continues to be an important global environmental issue and raises increasing concerns for public health. The strong correlation between personal health impact and actual local exposure creates a huge demand for air particulate sensors meant for small-scale measurement. However, today's air particulate monitoring technologies suffer from high cost, high power requirements, or large size, which presents an opportunity to create low-cost, compact, and low-power sensors that are desired for block-level, household, automobile, or even personal-level monitoring. In this thesis, the basic concept components of a novel PM monitoring method based on capture and imaging are developed and validated. Two capture techniques, electrostatic precipitation (ESP) and fiber-filtration, are demonstrated and verified with corresponding imaging results. Particulates captured either on flat substrate or aligned fibers are illuminated by LED light source with a glancing angle, or with the help of waveguides. Light scattered from the particles is detected by a CMOS camera module, yielding the particle size distribution and also revealing the morphology and properties of particulates. The results suggest that, with proper data analysis, this approach has the potential to monitor the real-time PM level of the sampled air and also classify between different particle sources. A detection limit of 200 nm is demonstrated and two kinds of pollens are notably distinguished from solid dust particulates. Additional, assorted replenishment schemes are designed to ensure a long, maintenance-free operational life.
by An Chang.
S.M.
S.M. Massachusetts Institute of Technology, Department of Mechanical Engineering
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Salkinder, Jason. „Design of a low-cost high speed data capture card for the Hubble Sphere Hydrogen Survey“. Master's thesis, University of Cape Town, 2008. http://hdl.handle.net/11427/14699.

Der volle Inhalt der Quelle
Annotation:
Includes bibliographical references (leaves 101-105).
This thesis describes the design and implementation of a low-cost high speed data capture card for the Hubble Sphere Hydrogen Survey (HSHS). The Hubble Space Hydrogen Survey was initiated in an effort to build a low-cost cylindrical radio telescope for an all sky redshift survey with the observational goal to produce a 3-dimensional mapping of the bulk Hubble Sphere using Hydrogen 21cm emissions. This dissertation ï¬ rst investigates the system design to see how each of the user speciï¬ cations set by the planning team could be achieved in terms of design decisions, component selection and schematic capture. The final design. AstroGIG, satisï¬ es the user speciï¬ cations by capturing data up to a full power bandwidth of 1.7GHz with an instantaneous bandwidth of ≤ 250MHz white maximizing the dynamic range. AstroGIG buffers, processes, stores and ï¬ nally transmits the data through a 4-lane PCI-Express interface to a standard PC where the majority of the processing is performed. The system implementation is then described where issues relating to the process of transforming schematics into a physical PCB, and HSHS integration are discussed. The design is veriï¬ ed through Hyperlynx simulations to give a high degree of certainty that physical implementation and production would be successful. Results from tests on the actual hardware characterizing the overall system performance are presented. Conclusions are drawn based on these results and suggestions for future work and design improvements are recommended.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Le, Xuan-Chien. „Improving performance of non-intrusive load monitoring with low-cost sensor networks“. Thesis, Rennes 1, 2017. http://www.theses.fr/2017REN1S019/document.

Der volle Inhalt der Quelle
Annotation:
Dans les maisons et bâtiments intelligents, il devient nécessaire de limiter l'intervention humaine sur le système énergétique, afin de fluctuer automatiquement l'énergie consommée par les appareils consommateurs. Pour cela, un système de mesure de la consommation électrique d'équipements est aussi nécessaire et peut être déployé de deux façons : intrusive ou non-intrusive. La première solution consiste à relever la consommation de chaque appareil, ce qui est inenvisageable à une grande échelle pour des raisons pratiques liées à l'entretien et aux coûts. Donc, la solution non-intrusive (NILM pour Non-Intrusive Load Monitoring), qui est capable d'identifier les différents appareils en se basant sur les signatures extraites d'une consommation globale, est plus prometteuse. Le problème le plus difficile des algorithmes NILM est comment discriminer les appareils qui ont la même caractéristique énergétique. Pour surmonter ce problème, dans cette thèse, nous proposons d'utiliser une information externe pour améliorer la performance des algorithmes existants. Les premières informations additionnelles proposées considèrent l'état précédent de chaque appareil comme la probabilité de transition d'état ou la distance de Hamming entre l'état courant et l'état précédent. Ces informations sont utilisées pour sélectionner l'ensemble le plus approprié des dispositifs actifs parmi toutes les combinaisons possibles. Nous résolvons ce problème de minimisation en norme l1 par un algorithme d'exploration exhaustive. Nous proposons également d'utiliser une autre information externe qui est la probabilité de fonctionnement de chaque appareil fournie par un réseau de capteurs sans fil (WSN pour Wireless Sensor Network) déployé dans le bâtiment. Ce système baptisé SmartSense, est différent de la solution intrusive car seul un sous-ensemble de tous les dispositifs est surveillé par les capteurs, ce qui rend le système moins intrusif. Trois approches sont appliquées dans le système SmartSense. La première approche applique une détection de changements de niveau sur le signal global de puissance consommé et les compare avec ceux existants pour identifier les dispositifs correspondants. La deuxième approche vise à résoudre le problème de minimisation en norme l1 avec les algorithmes heuristiques de composition Paréto-algébrique et de programmation dynamique. Les résultats de simulation montrent que la performance des algorithmes proposés augmente significativement avec la probabilité d'opération des dispositifs surveillés par le WSN. Comme il n'y a qu'un sous-ensemble de tous les appareils qui sont surveillés par les capteurs, ceux qui sont sélectionnés doivent satisfaire quelques critères tels qu'un taux d'utilisation élevé ou des confusions dans les signatures sélectionnées avec celles des autres
In smart homes, human intervention in the energy system needs to be eliminated as much as possible and an energy management system is required to automatically fluctuate the power consumption of the electrical devices. To design such system, a load monitoring system is necessary to be deployed in two ways: intrusive or non-intrusive. The intrusive approach requires a high deployment cost and too much technical intervention in the power supply. Therefore, the Non-Intrusive Load Monitoring (NILM) approach, in which the operation of a device can be detected based on the features extracted from the aggregate power consumption, is more promising. The difficulty of any NILM algorithm is the ambiguity among the devices with the same power characteristics. To overcome this challenge, in this thesis, we propose to use an external information to improve the performance of the existing NILM algorithms. The first proposed additional features relate to the previous state of each device such as state transition probability or the Hamming distance between the current state and the previous state. They are used to select the most suitable set of operating devices among all possible combinations when solving the l1-norm minimization problem of NILM by a brute force algorithm. Besides, we also propose to use another external feature that is the operating probability of each device provided by an additional Wireless Sensor Network (WSN). Different from the intrusive load monitoring, in this so-called SmartSense system, only a subset of all devices is monitored by the sensors, which makes the system quite less intrusive. Two approaches are applied in the SmartSense system. The first approach applies an edge detector to detect the step-changes on the power signal and then compare with the existing library to identify the corresponding devices. Meanwhile, the second approach tries to solve the l1-norm minimization problem in NILM with a compositional Pareto-algebraic heuristic and dynamic programming algorithms. The simulation results show that the performance of the proposed algorithms is significantly improved with the operating probability of the monitored devices provided by the WSN. Because only part of the devices are monitored, the selected ones must satisfy some criteria including high using rate and more confusions on the selected patterns with the others
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Barrau, Florian. „Etude d'une solution de localisation dans un réseau de capteurs sans fils“. Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM4767.

Der volle Inhalt der Quelle
Annotation:
Le repérage (localisation topologique) des capteurs dans un réseau sans fil ouvre la porte à de nombreuses applications. Les techniques actuelles basées sur la puissance du signal reçu restent peu fiable compte-tenu de la stabilité des mesures dans le circuit. Des techniques plus précises inspirées des radars ont été proposées mais cela nécessite un type de radio adaptée qui s'avère trop couteuse, autant en termes d'implémentation qu'en termes de consommation électrique. Cependant, une des difficultés majeure de l'adaptation de ces techniques de localisation aux réseaux de capteurs sans fil reste leur inadéquation avec leur faible coût de réalisation et la faible consommation électrique requise pour ces dispositifs autonomes. En particulier, les étages radio et de génération d'horloge des modems ZigBee introduisent une grande incertitude sur la fiabilité des mesures. Les algorithmes digitaux très complexes demandent à être tout particulièrement étudiés et améliorés afin de ne pas dépasser un budget de consommation extrêmement réduit tout en tentant d'atteindre une complexité d'implémentation aussi faible que possible.Les travaux de cette thèse se concentrent sur 2 principaux objectifs: l'élaboration d'un circuit digital étant capable de calculer de temps d'arrivée en temps réel, et l'élaboration de prototypes permettant le positionnement d'un noeud. La principale contrainte, est l'utilisation d'un seul canal ZigBee de la norme 802.15.4. Ce travail a permi d'appréhender les problèmes liés à la mesure de distance et envisager l'adaptation de ces techniques aux contraintes spécifiques des réseaux de capteurs sans fil et du type de radio utilisée
Tracking sensors in a wireless network leads to many applications. However, current techniques based on the received signal strength are unreliable given the stability of measurements. More accurate techniques inspired from radars have been proposed but they require an expensive radio. However, one of the most difficult aspects regarding the localization in a wireless sensor network remains their inadequacy with their low-cost and low-power characteristics. For example, clock generation of ZigBee modems introduce strong uncertainties regarding the reliability of measurements. Demanding digital algorithms must be carefully studied and improved in order not to exceed requirements defined by industrials. In other words, the purpose is to design an implementation as cheap as possible while keeping a minimum accuracy. The work of this thesis focuses on two main objectives: the development of a digital circuit capable of calculating time of arrivals, and the development of prototypes for a future positioning feature. The main constraint is the use of a single channel from the ZigBee 802.15.4 standard. This work enabled to understand issues regarding the distance measurements and adapt them given wireless sensor network constraints
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Atchuthan, Dinesh. „Towards new sensing capabilities for legged locomotion using real-time state estimation with low-cost IMUs“. Thesis, Toulouse 3, 2018. http://www.theses.fr/2018TOU30316/document.

Der volle Inhalt der Quelle
Annotation:
L'estimation en robotique est un sujet important affecté par les compromis entre certains critères majeurs parmi lesquels nous pouvons citer le temps de calcul et la précision. L'importance de ces deux critères dépend de l'application. Si le temps de calcul n'est pas important pour les méthodes hors ligne, il devient critique lorsque l'application doit s'exécuter en temps réel. De même, les exigences de précision dépendent des applications. Les estimateurs EKF sont largement utilisés pour satisfaire les contraintes en temps réel tout en obtenant une estimation avec des précisions acceptables. Les centrales inertielles (Inertial Measurement Unit - IMU) demeurent des capteurs répandus dnas les problèmes d'estimation de trajectoire. Ces capteurs ont par ailleurs la particularité de fournir des données à une fréquence élevée. La principale contribution de cette thèses est une présentation claire de la méthode de préintégration donnant lieu à une meilleure utilisation des centrales inertielles. Nous appliquons cette méthode aux problèmes d'estimation dans les cas de la navigation piétonne et celle des robots humanoïdes. Nous souhaitons par ailleurs montrer que l'estimation en temps réel à l'aide d'une centrale inertielle à faible coût est possible avec des méthodes d'optimisation tout en formulant les problèmes à l'aide d'un modèle graphique bien que ces méthodes soient réputées pour leurs coûts élevés en terme de calculs. Nous étudions également la calibration des centrales inertielles, une étape qui demeure critique pour leurs utilisations. Les travaux réalisés au cours de cette thèse ont été pensés en gardant comme perspective à moyen terme le SLAM visuel-inertiel. De plus, ce travail aborde une autre question concernant les robots à jambes. Contrairement à leur architecture habituelle, pourrions-nous utiliser plusieurs centrales inertielles à faible coût sur le robot pour obtenir des informations précieuses sur le mouvement en cours d'exécution ?
Estimation in robotics is an important subject affected by trade-offs between some major critera from which we can cite the computation time and the accuracy. The importance of these two criteria are application-dependent. If the computation time is not important for off-line methods, it becomes critical when the application has to run on real-time. Similarly, accuracy requirements are dependant on the applications. EKF estimators are widely used to satisfy real-time constraints while achieving acceptable accuracies. One sensor widely used in trajectory estimation problems remains the inertial measurement units (IMUs) providing data at a high rate. The main contribution of this thesis is a clear presentation of the preintegration theory yielding in a better use IMUs. We apply this method for estimation problems in both pedestrian and humanoid robots navigation to show that real-time estimation using a low- cost IMU is possible with smoothing methods while formulating the problems with a factor graph. We also investigate the calibration of the IMUs as it is a critical part of those sensors. All the development made during this thesis was thought with a visual-inertial SLAM background as a mid-term perspective. Firthermore, this work tries to rise another question when it comes to legged robots. In opposition to their usual architecture, could we use multiple low- cost IMUs on the robot to get valuable information about the motion being executed?
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Craig, Michael T. „Economic and Environmental Costs, Benefits, and Trade-offs of Low-carbon Technologies in the Electric Power Sector“. Research Showcase @ CMU, 2017. http://repository.cmu.edu/dissertations/1099.

Der volle Inhalt der Quelle
Annotation:
Motivated by the role of decarbonizing the electric power sector to mitigate climate change, I assess the economic and environmental merits of three key technologies for decarbonizing the electric power sector across four chapters in this thesis. These chapters explore how adding flexibility to power plants equipped with carbon capture and sequestration (CCS) affects system costs and carbon dioxide (CO2) emissions, how grid-scale electricity storage affects system CO2 emissions as a power system decarbonizes, and how distributed solar photovoltaic (distributed PV) electricity generation suppresses wholesale electricity prices. In each chapter, I address these questions through a combination of power system optimization, statistics, and techno-economic analysis, and tie my findings to policy implications. In Chapter 2, I compare the cost-effectiveness of “flexible” CCS retrofits to other compliance strategies with the U.S. Clean Power Plan (CPP) and a hypothetical stronger CPP. Relative to “normal” CCS, “flexible” CCS retrofits include solvent storage that allows the generator to temporarily eliminate the CCS parasitic load and increase the generator’s net efficiency, capacity, and ramp rate. Using a unit commitment and economic dispatch (UCED) model, I find that flexible CCS achieves more cost-effective emissions reductions than normal CCS under the CPP and stronger CPP, but that flexible CCS is less cost-effective than other compliance strategies under both reduction targets. In Chapter 3, I conduct a detailed comparison of how flexible versus normal CCS retrofits affect total system costs and CO2 emissions under a moderate and strong CO2 emission limit. Given that a key benefit of flexible CCS relative to normal CCS is increased reserve provision, I break total system costs into generation, reserve, and CCS capital costs. Using a UCED model, I find that flexible CCS retrofits reduce total system costs relative to normal CCS retrofits under both emission limits. Furthermore, 40-80% of these cost reductions come from reserve cost reductions. Accounting for costs and CO2 emissions, though, flexible CCS poses a trade-off to policymakers under the moderate emission limit, as flexible CCS increases system CO2 emissions relative to normal CCS. No such trade-off exists under the stronger emission limit, as flexible CCS reduces system CO2 emissions and costs relative to normal CCS. In Chapter 4, I quantify how storage affects operational CO2 emissions as a power system decarbonizes under a moderate and strong CO2 emission limit through 2045. In so doing, I aim to better understand how storage transitions from increasing CO2 emissions in historic U.S. systems to enabling deeply decarbonized systems. Additionally, under each target I compare how storage affects CO2 emissions when participating in only energy, only reserve, and energy and reserve markets. Using a capacity expansion (CE) model to forecast fleet changes through 2045 and a UCED model to quantify how storage affects system CO2 emissions, I find that storage quickly transitions from increasing to decreasing CO2 emissions under the moderate and strong emission limits. Whether storage provides only energy, only reserves, or energy and reserves drives large differences in the magnitude, but not the direction, of the effect of storage on CO2 emissions. In Chapter 5, I quantify a benefit of distributed photovoltaic (PV) generation often overlooked by value of solar studies, namely the market price response. By displacing high-cost marginal generators, distributed PV generation reduces wholesale electricity prices, which in turn reduces utilities’ energy procurement costs. Using 2013 through 2015 data from California including a database of all distributed PV systems in the three California investor owned utilities, we estimate historic hourly distributed PV generation in California, then link that generation to reduced wholesale electricity prices via linear regression. From 2013 through 2015, we find that distributed PV suppressed historic median hourly LMPs by up to $2.7-3.1/MWh, yielding avoided costs of up to $650-730 million. These avoided costs are smaller than but on the order of other avoided costs commonly included in value of solar studies, so merit inclusion in future studies to properly value distributed PV.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Jiang, Kun. „Real-time estimation and diagnosis of vehicle's dynamics states with low-cost sensors in different driving condition“. Thesis, Compiègne, 2016. http://www.theses.fr/2016COMP2292/document.

Der volle Inhalt der Quelle
Annotation:
Le développement des systèmes intelligents pour contrôler la stabilité du véhicule et éviter les accidents routier est au cœur de la recherche automobile. L'expansion de ces systèmes intelligents à l'application réelle exige une estimation précise de la dynamique du véhicule dans des environnements diverses (dévers et pente). Cette exigence implique principalement trois problèmes : ⅰ), extraire des informations non mesurées à partir des capteurs faible coût; ⅱ), rester robuste et précis face aux les perturbations incertaines causées par les erreurs de mesure ou de la méconnaissance de l'environnement; ⅲ), estimer l'état du véhicule et prévoir le risque d'accident en temps réel. L’originalité de cette thèse par rapport à l’existant, consiste dans le développement des nouveaux algorithmes, basés sur des nouveaux modèles du véhicule et des différentes techniques d'observation d'état, pour estimer des variables ou des paramètres incertains de la dynamique du véhicule en temps réel. La première étape de notre étude est le développement de nouveaux modèles pour mieux décrire le comportement du véhicule dans des différentes situations. Pour minimiser les erreurs de modèle, un système d'estimation composé de quatre observateurs est proposé pour estimer les forces verticales, longitudinales et latérales par pneu, ainsi que l'angle de dérive. Trois techniques d'observation non linéaires (EKF, UKF et PF) sont appliquées pour tenir compte des non-linéarités du modèle. Pour valider la performance de nos observateurs, nous avons implémenté en C++ des modules temps-réel qui, embarqué sur le véhicule, estiment la dynamique du véhicule pendant le mouvement
Enhancing road safety by developing active safety system is the general purpose of this thesis. A challenging task in the development of active safety system is to get accurate information about immeasurable vehicle dynamics states. More specifically, we need to estimate the vertical load, the lateral frictional force and longitudinal frictional force at each wheel, and also the sideslip angle at center of gravity. These states are the key parameters that could optimize the control of vehicle's stability. The estimation of vertical load at each tire enables the evaluation of the risk of rollover. Estimation of tire lateral forces could help the control system reduce the lateral slip and prevent the situation like spinning and drift out. Tire longitudinal forces can also greatly influence the performance of vehicle. The sideslip angle is one of the most important parameter to control the lateral dynamics of vehicle. However, in the current market, very few safety systems are based on tire forces, due to the lack of cost-effective method to get these information. For all the above reasons, we would like to develop a perception system to monitor these vehicle dynamics states by using only low-cost sensor. In order to achieve this objective, we propose to develop novel observers to estimate unmeasured states. However, construction of an observer which could provide satisfactory performance at all condition is never simple. It requires : 1, accurate and efficient models; 2, a robust estimation algorithm; 3, considering the parameter variation and sensor errors. As motivated by these requirements, this dissertation is organized to present our contribution in three aspects : vehicle dynamics modelization, observer design and adaptive estimation. In the aspect of modeling, we propose several new models to describe vehicle dynamics. The existent models are obtained by simplifying the vehicle motion as a planar motion. In the proposed models, we described the vehicle motion as a 3D motion and considered the effects of road inclination. Then for the vertical dynamics, we propose to incorporate the suspension deflection to calculate the transfer of vertical load. For the lateral dynamics, we propose the model of transfer of lateral forces to describe the interaction between left wheel and right wheel. With this new model, the lateral force at each tire can be calculated without sideslip angle. Similarly, for longitudinal dynamics, we also propose the model of transfer of longitudinal forces to calculate the longitudinal force at each tire. In the aspect of observer design, we propose a novel observation system, which is consisted of four individual observers connected in a cascaded way. The four observers are developed for the estimation of vertical tire force, lateral tire force and longitudinal tire force and sideslip angle respectively. For the linear system, the Kalman filter is employed. While for the nonlinear system, the EKF, UKF and PF are applied to minimize the estimation errors. In the aspect of adaptive estimation, we propose the algorithms to improve sensor measurement and estimate vehicle parameters in order to stay robust in presence of parameter variation and sensor errors. Furthermore, we also propose to incorporate the digital map to enhance the estimation accuracy. The utilization of digital map could also enable the prediction of vehicle dynamics states and prevent the road accidents. Finally, we implement our algorithm in the experimental vehicle to realize real-time estimation. Experimental data has validated the proposed algorithm
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Camus, Manuel. „Architecture de réception RF très faible coût et très faible puissance : application aux réseaux de capteurs et au standard ZigBee“. Phd thesis, Université Paul Sabatier - Toulouse III, 2008. http://tel.archives-ouvertes.fr/tel-00309926.

Der volle Inhalt der Quelle
Annotation:
Le travail présenté ici s'inscrit dans la perspective du développement de modules électroniques à très faible coût et à très faible consommation pour les réseaux de capteurs sans fils (WSN). Il traite de la conception et du test d'une chaîne de réception RF compatible avec la norme IEEE 802.15.4 pour la bande ISM 2.4GHz. L'interface RF objet de notre étude inclue toutes les fonctions depuis l'antenne jusqu'au 1er étage du filtre analogique en bande de base, à partir duquel le gain devient suffisant pour masquer le bruit introduit par le reste de la chaîne de réception. Ce mémoire articulé autour de quatre chapitres, décrit toutes les étapes depuis la définition des spécifications de la chaîne de réception jusqu'à la présentation de ses performances, en passant par l'étude de son architecture et la conception de ses différents étages. Suite à l'étude de l'impact des interféreurs IEEE 802.15.4 et IEEE 802.11b présents dans la bande ISM 2.4GHz, une architecture utilisant une fréquence intermédiaire de 6MHz a été retenue. En outre, pour pouvoir répondre aux spécifications fixées, cette architecture est composée de plusieurs étages innovants ou originaux tels qu'un balun intégré trois accès, un amplificateur faible bruit sans inductance, un mélangeur passif piloté par un signal local (OL) à très faible rapport cyclique ainsi qu'un filtre bande de base optimisé en bruit et en linéarité. Intégré dans une technologie CMOS 90nm, ce récepteur occupe une surface de 0.07mm², ou 0.23mm² en incluant le balun intégré, qui représente une réduction de 70% par rapport à l'état de l'art des puces compatibles avec le standard IEEE 802.15.4. En prenant en compte la consommation dynamique de toute la chaîne de mise en forme du signal OL, la tête de réception précédemment décrite consomme seulement 4mA sous une tension d'alimentation de 1.35V. Enfin, en incluant le balun intégré, le gain est de 35dBv/dBm, le facteur de bruit de 7.5dB, l'IIP3 de -10dBm et la réjection d'image supérie ure à 32dB. Ces performances placent ce récepteur parmi les récepteurs RF les plus performants pour cette application. Les nombreux principes mis en Suvre sont par ailleurs transposables à d'autres bandes de fréquences et à d'autres standards de communication.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Smaiah, Sarra. „Système de reconstruction de trajectoire pour véhicules deux roues motorisés“. Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASS022.

Der volle Inhalt der Quelle
Annotation:
Les conducteurs des véhicules deux roues motorisés sont considérés parmi les usagers de la route les plus vulnérables, comme en témoigne le nombre d'accidents, en augmentation chaque année. Le nombre important des décès relatifs aux véhicules seuls « sans tiers identifié » est lié à la perte de contrôle dans les virages. Ces travaux de thèse reposent sur une plate-forme moto instrumentée avec un système multi-capteurs. Nous avons proposé des algorithmiques pour reconstruire avec précision les trajectoires des motos lors de la négociation des virages. Ce système est destiné à évaluer et examiner de manière objective le comportement des conducteurs lors de prise de virages afin de mieux les former. L’objectif est de les amener à adopter une trajectoire de sécurité pour améliorer la sécurité routière. Les données nécessaires à la reconstruction de trajectoire sont acquises à l’aide d’une moto instrumentée embarquant plusieurs capteurs redondants (capteurs de référence et capteurs à faible coût) qui mesurent les actions du conducteur (roulis, direction) et le comportement de la moto (position, vitesse, accélération, odométrie, cap et attitude). Ce travail s’inscrit dans le cadre d’un projet ANR VIROLO ++. La solution que nous avons proposé a permis de reconstruire les trajectoires des motos dans les virages avec une précision acceptable. L'algorithme développé sera utilisé afin d'évaluer et examiner de manière objective la manière dont les conducteurs négocient les virages. Le système embarqué portant cet algorithme peut être utilisé pour la formation initiale et l’entraînement afin de mieux former les conducteurs de motos à estimer une trajectoire sûre et à assurer ainsi une sécurité lors de la prise de virages
The drivers of Powered Two Wheels vehicles are considered among the most vulnerable road users, as attested by the number of crashes increasing every year. The significant part of mortalities related to single vehicle “without identifying a third party” is related to the loss of control in bends. These thesis work is based on an instrumented motorcycle platform with a multi-sensor system. We have proposed algorithms to accurately reconstruct motorcycle trajectories achieved when negotiating bends. This system is intended to objectively evaluate and examine the behavior of drivers when negotiating bends in order to better train them. The goal is to lead them to adopt a safe trajectory in order to improve the road safety. Data required for the trajectory reconstruction are acquired using an instrumented motorcycle embedding several redundant sensors (reference sensors and low-cost sensors) that measure the rider’s actions (roll, steering) and the motorcycle behavior (position, velocity, acceleration, odometry, heading and attitude). This work is a part of the ARN project VIROLO++. The solution we have proposed allows to reconstruct bikes trajectories in bends with acceptable accuracy. The developed algorithm will be used to objectively evaluate and examine how riders negotiate bends. The embedded system carrying this algorithm can be used for the initial training and retraining in order to better train motorcycle drivers to estimate a safe trajectory and thus ensure safety when taking bends
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Gicquel, Céline. „MIP models and exact methods for the Discrete Lot-sizing and Scheduling Problem with sequence-dependent changeover costs and times“. Phd thesis, Ecole Centrale Paris, 2008. http://tel.archives-ouvertes.fr/tel-00375964.

Der volle Inhalt der Quelle
Annotation:
Le dimensionnement des lots de production est une des nombreuses activités survenant dans le cadre de la planification de production. Il a pour objet de déterminer quand et combien produire de façon à réaliser le meilleur compromis possible entre la minimisation des coûts liés à la production (coûts fixes de reconfiguration de la ressource, coûts de stockage...) et la satisfaction de la demande des clients Nous nous intéressons ici un problème de planification de production par lots connu sous le nom de "Discrete Lot-sizing and Scheduling Problem" ou "DLSP". Plus précisément, nous étudions plusieurs variantes de ce problème dans lesquelles les coûts et/ou les temps de changement de produits sur la ressource sont dépendant de la séquence et nous proposons diverses extensions d'une méthode disponible dans la littérature pour la résolution exacte du problème mono-niveau, mono-ressource. Nos contributions portent à la fois sur la modélisation du problème et sur l'implémentation de méthodes efficaces de résolution. En ce qui concerne la modélisation, nous étudions l'intégration de divers aspects opérationnels dans le modèle de base afin d'en améliorer la pertinence industrielle. Ainsi nous considérons les extensions suivantes : la prise en compte d'une structure de produits "multi-attributs" qui permet de diminuer la taille du problème d'optimisation à résoudre, l'intégration de temps de changement positifs afin de mieux modéliser la perte de production causée par une reconfiguration de la ressource et la présence de plusieurs ressources parallèles dont la production doit être planifiée simultanément. En ce qui concerne la résolution du problème, nous présentons pour chacune des extensions du modèle de base une approche de résolution visant à fournir des solutions optimales exactes. En général, les résultats de nos expériences numériques montrent l'utilité pratique de ces algorithmes pour la résolution d'instances de moyenne et grande taille en des temps de calcul compatibles avec une application industrielle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Vafaei, Raha. „Design, fabrication and characterization of a VMOS monolithic integrated optical detector“. Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENT120/document.

Der volle Inhalt der Quelle
Annotation:
Les travaux présentés dans ce manuscrit traite de l'intégration monolithiqued'une unité d'isolement galvanique optique à l'intérieur de la structure d'un transistor depuissance vertical à ffet de champ 600V. L'unité d'isolement galvanique optique est unphotodétecteur qui est responsable du transfert du signal de commande de parti une unitéde commande externe à le transistor de puissance. L'énergie nécessaire pour commuter ledispositif de puissance est fournie au moyen d'un TIA, suivie d'une commande de grille.Le mémoire de thèse se structure en quatre chapitres équivalents: Introduction et motivation:l'isolement glavanic intégrée pour les dispositifs de puissance, photodiodes intégréscompatibles (JVP) pour les interrupteurs de puissance: Modélisation et conception, IPDfabrication et la caractérisation, et les conclusions et les travaux futurs. Les résultats de cestravaux de recherche sont intéressants pour un large spectre d'applications, spécialementpour les fonctions d'alimentation entièrement intégrés avec et coût de fabrication réduitet des solutions fiables, de haut niveau galvaniques isolement qui sont compacts et rentable
The work presented in this PhD manuscript deals with the monolithic integrationof an optical galvanic isolation unit within the vertical FET structure of a 600Vpower transistor. The optical galvanic isolation unit is a photodetector that is responsiblefor transferring the gating information signal from an external control unit to the powerswitch. The necessary energy to switch the power device is provided by means of a TIAfollowed by a gate driver. This document has four chapters: introduction and motivation:Integrated glavanic isolation for power devices, Compatible integrated phootdiodes (IPDs)for power switches: Modeling and design, IPD fabrication and characterization, and conclusionsand future work. The results of this research work are interesting for a wide rangeof applications specially as the power electronic community strives for a fully integratedpower function with lower implementation costs and reliable, high level galvanic isolationsolutions that are compact and cost effective
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Rodriguez, Delphy. „Caractérisation de la pollution urbaine en Île-de-France par une synergie de mesures de surface et de modélisation fine échelle“. Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS341.

Der volle Inhalt der Quelle
Annotation:
L’impact sanitaire lié à la pollution de l’air nécessite une estimation précise de celle-ci. Les réseaux de stations de mesures des agences de surveillance de la qualité de l’air (AIRPARIF en Île-de-France) ne sont pas suffisamment denses pour renseigner sur l’hétérogénéité de la pollution en ville. Et, les modèles haute résolution simulant les champs de concentration de polluants en 3D ont une large couverture spatiale mais sont limités par leurs incertitudes. Ces deux sources d’information exploitées indépendamment ne permettent pas d’évaluer finement l’exposition d’un individu. Nous proposons deux approches pour résoudre ce problème : (1) par la mesure directe des polluants avec des capteurs mobiles à bas coût et des instruments de référence. Des niveaux de pollution très variables ont été constatés entre les microenvironnements et dans une même pièce. Ces capteurs devraient être déployés en grand nombre pour palier à leurs contraintes techniques. Les instruments de référence, très coûteux et volumineux, ne peuvent être utilisés que ponctuellement. (2) en combinant les concentrations simulées par le modèle Parallel Micro-SWIFT-SPRAY (PMSS) à Paris avec une résolution horizontale de 3 mètres et les mesures des stations de surface AIRPARIF. Nous avons déterminé des « zones de représentativité » - zones géographiques où les concentrations sont très proches de celle de la station - uniquement à partir des sorties du modèle PMSS. Ensuite, nous avons développé un modèle bayésien pour propager la mesure des stations dans ces zones
The harmful effects of air pollution need a high-resolution concentration estimate. Ambient pollutant concentrations are routinely measured by surface monitoring sites of local agencies (AIRPARIF in Paris area, France). Such networks are not dense enough to represent the strong horizontal gradients of pollutant concentrations over urban areas. And, high-resolution models that simulate 3D pollutant concentration fields have a large spatial coverage but suffer from uncertainties. Those both information sources exploited independently are not able to accurately assess an individual’s exposure. We suggest two approaches to solve this problem : (1) direct pollution measurement by using low cost mobile sensors and reference instruments. A high variability across pollution levels is shown between microenvironments and also in the same room. Mobile sensors should be deployed on a large scale due to their technical constraints. Reference instruments are very expensive, cumbersome, and can only be used occasionally. (2) by combining concentration fields of the Parallel Micro-SWIFT-SPRAY (PMSS) model over Paris at a horizontal resolution of 3 meters with AIRPARIF local ground stations measurements. We determined “representativeness areas” - perimeter where concentrations are very close to the one of the station location – only from PMSS simulations. Next, we developed a Bayesian model to extend the stations measurements within these areas
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Laref, Rachid. „Étude d’un système à base de microcapteurs de gaz pour le suivi et la cartographie de la pollution atmosphérique“. Electronic Thesis or Diss., Université de Lorraine, 2020. http://www.theses.fr/2020LORR0048.

Der volle Inhalt der Quelle
Annotation:
L’objectif de cette thèse est de concevoir un dispositif multi-capteurs de gaz à faible coût pour la surveillance des gaz polluants en environnement externe, et d’élaborer des méthodes de calibrage automatique et d’analyse de données adaptées à son exploitation. Ce dispositif vise à contribuer à la densification du réseau de surveillance de la pollution atmosphérique actuel afin de permettre une meilleure résolution spatiale et temporelle. Premièrement, nous avons sélectionné des micro-capteurs électrochimiques et des micro-capteurs à oxyde métallique capables de détecter et de quantifier des faibles concentrations de dioxyde d’azote et d’ozone dans l’atmosphère. Nous avons caractérisé ces micro-capteurs en laboratoire en termes de sensibilité et de reproductibilité, et les avons testés sur le terrain (à proximité d’un axe autoroutier) en suivant le protocole d’évaluation de micro-capteurs de gaz proposé par le Centre Commun de Recherche Européen (C.C.R.). L’analyse individuelle des données obtenues à partir de chaque capteur a mis en évidence la nécessité de fusionner les réponses de tous les capteurs ainsi que les valeurs de la température et de l’humidité de l’air, à l’aide des méthodes multi-variables de classification et de quantification. Les performances de plusieurs méthodes de classification, utilisées généralement dans le domaine des dispositifs multi-capteurs de gaz, ont été étudiées. Leur comparaison nous a conduit à choisir la régression SVM (Séparateur à Vaste Marge) grâce à sa précision et à sa robustesse. Les hyper-paramètres de cette méthode ont été optimisés à partir de l’algorithme de Recherche par Motifs Généralisés en raison de sa simplicité et de sa fiabilité. La méthode d’étalonnage proposée permet à notre dispositif de quantifier les deux polluants atmosphériques visés dans la gamme des précisions recommandées par les directives européennes concernant les mesures de type « indicative ». Ensuite, nous avons abordé le problème des dérives des capteurs qui engendrent des réétalonnages périodiques. Nous avons proposé une méthode de standardisation basée sur la régression SVM pour permettre de réduire le coût et l’effort d’un étalonnage complet. Cette même méthode de standardisation a été utilisée avec succès pour le transfert d’étalonnage entre plusieurs systèmes identiques afin d’éviter des étalonnages individuels. Nos travaux de recherche ont été valorisés par la publication de deux articles dans les journaux référencés JCR et deux communications dans des conférences internationales IEEE
The objective of this thesis is to design a low-cost gas sensor array for outdoor gas pollutants monitoring and to develop adapted standardization and data analysis methods. The device aims is to contribute to the densification of the current atmospheric pollution-monitoring network for better spatial and temporal resolution. First, we select electrochemical and metal oxide gas sensors capable to detecting and quantifying low concentrations of nitrogen dioxide and ozone in ambient air near a highway. We have characterized these micro-sensors in the laboratory using a diffusing controller system and tested them in the field by following procedures inspired from the evaluation protocol of low cost gas sensors proposed by the European Joint Research Center (JRC). The individual analysis of the data from each sensor highlights the need to merge the responses of all the sensors as well as the values of the temperature and the humidity of the atmosphere using multivariate methods of classification. The performance of several classification methods generally used in the field of multi-sensor gas systems was studied. This comparison leads us to choose Support Vector Machine regression (SVM) thanks to its performance in terms of precision and robustness. We also conduct a study on the optimization of the SVM hyper-parameters using optimization algorithms. The Generalized Pattern Search algorithm (GPS) was chosen among other algorithms due to its simplicity and reliability. Then, we highlight the problem of sensor drift over time and the need for periodic calibration. We proposed a standardization method based on SVM regression, thereby reducing the cost and the effort of full recalibration. This standardization method was also used for calibration transfer between several identical systems in order to avoid individual calibration of each system. The research work elaborated in this PhD was published in two journal papers and two IEEE conference papers
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Liu, Chien-Chih, und 劉建志. „The Implementation of Low Cost Motion Capture System“. Thesis, 2006. http://ndltd.ncl.edu.tw/handle/cys83q.

Der volle Inhalt der Quelle
Annotation:
碩士
南台科技大學
電機工程系
94
It is popular to make 3D cartoon with a computer with the fast progressing of the computer technology. It take much time and much money to make 3D cartoon by manpower only, and the moving object of the produced movie is limited. So it is popular to catch the true performer's movements by the motion capture system, then apply it to the cartoon. At the present, two kinds of the most popular motion capture system on the market, one is the image type and the other is the electromagnetic type.However, the two kinds of the motion capture system are very expensive and heavy, so that the motion capture system can not be popularized. This paper is concerned with a special topic to make a motion capture system with light weight, and low price, the main characteristic has: 1.Bend sensors are used to detect the attitude of a person. 2.A MSP430F149 single chip computer is used to read and to transmit the attitude data. 3.A MX25L1602 Flash ROM is used as storing device and calibrating data. 4.A bluetooth chip is used for communicating media. 5.The attitude data will translated to physical angles by a VISUAL BASIC program. 6.The attitude of the human body will dynamically showed in graphic by a FLASHMX multimedia player. 7.A calibrating procedure is done in user friendly interface, such that the system can be suitable for different bend sensors and human characteristics. 8.The system is with record function and play function such that it can be applied to sport training and medical treatment. 9.The system is used as the input device of a digital game.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Freitas, Leonel Dinarte Camacho. „Low cost loT monitoring solution for increased student awareness on campus“. Master's thesis, 2021. http://hdl.handle.net/10400.13/3594.

Der volle Inhalt der Quelle
Annotation:
O preço do equipamento eletrónico tem descido acentuadamente nas últimas décadas. Este decréscimo favoreceu um crescimento exponencial de todo o tipo de dispositivos eletrónicos, a ubiquidade destes dispositivos torna-os quase indissociáveis dos seus utilizadores. Uma das áreas a beneficiar e igualmente a potenciar esse crescimento é a Internet das Coisas, IoT, ou seja, a possibilidade de uma ligação constante e de partilha de dados entre os mais diversos dispositivos. Em paralelo com o uso de soluções de índole comercial, tem surgido dispositivos de custo reduzido como o Arduino, que permitem criar pequenos projetos IoT de forma económica. Para além destes, outros produtos tais como as boards da Espressif Esp8266 e ESP32 já com ligação Wi-Fi incluída tem ganho notoriedade em anos recentes. O objetivo deste projeto foi precisamente o desenvolvimento de um sistema de recolha de dados de baixo custo e autónomo, que tenha utilidade para os seus utilizadores, especialmente num contexto académico utilizando o ESP32 da Espressif como base. Este sistema visa recolher dados ambientais tais como temperatura, humidade, nível de ruído, e através do uso dos sinais Wi-Fi emitidos pelos dispositivos móveis, tentar estabelecer a estimativa da ocupação de uma determinada localização. Esta informação recolhida deverá ser disponibilizada à comunidade académica tornando possível, por exemplo, aos alunos selecionar a melhor sala de estudo baseando-se na sua ocupação, ou nível de ruido. Os principais componentes destes projetos são os ESP32s e os respetivos sensores, denominados de SensingBox, e a componente de software e infraestrutura associada para processar os dados recolhidos, interagir com as SensingBox e permitir a visualização dos dados recolhidos. Além deste objetivo primário é importante fazer uma análise exploratória das potencialidades desta plataforma em projetos de baixo custo assim como as metodologias de desenvolvimento para a mesma. De certa forma este projeto visa em parte servir de guia para quem esteja a desenvolver um projeto de natureza similar. O sistema desenvolvido foi testado em dois contextos, um para aprimorar o sistema num contexto doméstico, e outro no contexto para o qual havia sido idealizado, ou seja, no Campus da Universidade da Madeira.
In the last decades there has been a steep decrease in the price of electronics. This decrease has favored an exponential increase of all types of consumer electronics. The ubiquity of these devices makes them almost inseparable from their users. One area benefiting and at the same time further increasing this ubiquity is the Internet of Things, IoT, in other words the possibility of having a constant connection and data sharing amongst the most diverse devices. In parallel with the development of IoT solutions designed for Industrial use, some other low-cost devices such as the Arduino have appeared, which enable the development of small IoT projects economically. Besides the Arduino other products such as the ESP8266 and ESP32 boards by Espressif have been gaining popularity in recent years. The aim of this project is the development of a low cost, autonomous monitoring solution that is of use for the academic community. This system should collect environmental data such as temperature, humidity, noise pollution and make an estimation of the occupancy of a certain zone through the ubiquity of mobile devices by capturing their Wi-Fi request probes. The information collected will be made available for the academic community, giving the possibility of students to select the best study room based on the occupancy or noise level of the different rooms. The main constituents of the project are the ESP32s with the associated sensors named Sensing Boxes, and the necessary software component and infrastructure to process the data collected and provide it to interested parties. In addition to this main objective, it is important to understand and document the potentialities of the ESP32 in low-cost projects as its development methodologies available. In a sense provide a guideline of the most important topics about this board and some sensors for anyone developing a project of similar nature. The system was tested in two contexts, one of domestic nature, and in order to fine tune and debug the system, the other in the context to which it was originally idealized, the campus of University of Madeira.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Chen, Wei-Cheng, und 陳威丞. „Implementation of a Low Cost Motion Capture System Using Computer Vision“. Thesis, 2007. http://ndltd.ncl.edu.tw/handle/26yjg3.

Der volle Inhalt der Quelle
Annotation:
碩士
大同大學
機械工程學系(所)
95
This paper's research subject is: Captures the human body upper part plane movement to have 7 different position data, the use identification color material for the foundation method, after obtaining the coordinate, manufactures the character animation. And take the low cost way construction overall system as the consideration. The research expense only purchases the hardware equipment, may achieve the research goal. This research uses one web cam, penetrates the USB interface to input the phantom to the system main engine, by way of colored phantom coordinates processing, the sub-area principle analyzes on the identification human body the color mark position. We regarding the experimental result which picks up carry on the discussion, and realizes in the simple character animation manufacture.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Wong, Alexander. „Low-Cost Visual/Inertial Hybrid Motion Capture System for Wireless 3D Controllers“. Thesis, 2007. http://hdl.handle.net/10012/2991.

Der volle Inhalt der Quelle
Annotation:
It is my thesis that a cost-effective motion capture system for wireless 3D controllers can be developed through the use of low-cost inertial measurement devices and camera systems. Current optical motion capture systems require a number of expensive high-speed cameras. The use of such systems is impractical for many applications due to its high cost. This is particularly true for consumer-level wireless 3D controllers. More importantly, optical systems are capable of directly tracking an object with only three degrees of freedom. The proposed system attempts to solve these issues by combining a low-cost camera system with low-cost micro-machined inertial measurement devices such as accelerometers and gyro sensors to provide accurate motion tracking with a full six degrees of freedom. The proposed system combines the data collected from the various sensors in the system to obtain position information about the wireless 3D controller with 6 degrees of freedom. The system utilizes a number of calibration, error correction, and sensor fusion techniques to accomplish this task. The key advantage of the proposed system is that it combines the high long-term accuracy and low frequency nature of the camera system and complements it with the low long-term accuracy and high frequency nature of the inertial measurement devices to produce a system with a high level of long-term accuracy with detailed high frequency information about the motion of the wireless 3D controller.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Gagne, Jonathan. „Intuitive Teleoperation of an Intelligent Robotic System Using Low-Cost 6-DOF Motion Capture“. Thesis, 2011. http://hdl.handle.net/10012/6523.

Der volle Inhalt der Quelle
Annotation:
There is currently a wide variety of six degree-of-freedom (6-DOF) motion capture technologies available. However, these systems tend to be very expensive and thus cost prohibitive. A software system was developed to provide 6-DOF motion capture using the Nintendo Wii remote’s (wiimote) sensors, an infrared beacon, and a novel hierarchical linear-quaternion Kalman filter. The software is made freely available, and the hardware costs less than one hundred dollars. Using this motion capture software, a robotic control system was developed to teleoperate a 6-DOF robotic manipulator via the operator’s natural hand movements. The teleoperation system requires calibration of the wiimote’s infrared cameras to obtain an estimate of the wiimote’s 6-DOF pose. However, since the raw images from the wiimote’s infrared camera are not available, a novel camera-calibration method was developed to obtain the camera’s intrinsic parameters, which are used to obtain a low-accuracy estimate of the 6-DOF pose. By fusing the low-accuracy estimate of 6-DOF pose with accelerometer and gyroscope measurements, an accurate estimation of 6-DOF pose is obtained for teleoperation. Preliminary testing suggests that the motion capture system has an accuracy of less than a millimetre in position and less than one degree in attitude. Furthermore, whole-system tests demonstrate that the teleoperation system is capable of controlling the end effector of a robotic manipulator to match the pose of the wiimote. Since this system can provide 6-DOF motion capture at a fraction of the cost of traditional methods, it has wide applicability in the field of robotics and as a 6-DOF human input device to control 3D virtual computer environments.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie