Dissertationen zum Thema „Performances of systems“

Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Performances of systems.

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "Performances of systems" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Stanco, Andrea. „High Performances Systems for Applications of Quantum Information“. Doctoral thesis, Università degli studi di Padova, 2018. http://hdl.handle.net/11577/3426352.

Der volle Inhalt der Quelle
Annotation:
This thesis work is about the realization of hardware and software systems for Quantum Random Number Generation (QRNG) and Quantum Key Distribution (QKD). Such systems were developed to guarantee a full functionality for a broader investigation of these two cutting edge applications of Quantum Information field. The thesis describes in details both the hardware and the software that were developed for FPGA-CPU board, Time-to-Digital converter (TDC) devices and computers, along with QRNG and QKD specific applications and their results. Randy was the first FPGA-based QRNG device to be developed; it uses a light source attenuated to single-photon level and one single-photon avalanche diode (SPAD). From the sampling of the SPAD electrical signal, the device produces random numbers through dedicated generation protocols and through the Peres unbiasing algorithm in order to maximize the output generation bit rate. Furthermore, the device allows to generate real time random numbers. This feature is used for the time setting of electro-optical components for extending Wheeler’s delayed-choice experiment to space. The same techniques were applied to a second device, LinoSPAD; it combines an FPGA-chip and a CMOS-SPADs array. Moreover, in this device, a TDC improves the photon detection time accuracy. Along with a dedicated post-processing based on Zhou-Bruk algorithm, the TDC allowed to reach a final bit rate equivalent to 300 Mbit/s. As far as QKD systems are concerned, within the collaboration among the University of Padova, the Italian Space Agency (ASI) with the Matera Laser Ranging Observatory (MLRO) and the Chinese Academy of Sciences (CAS) a TDC device management software was developed. The project aim is to realize a quantum cryptographic key exchange between the Chinese satellite Micius and MLRO. The software was designed to manage the entire data acquisition synchronized with UTC time. Furthermore, another software was designed to deal with electro-optomechanical and electro-optical components. The software is aim at the time-variant compensation of the beam angular changes through the optical path. Once again, within a collaboration between ASI and University of Padova, a full free space QKD system over tenths of kilometers was developed. It required the design of various components. This work describes the QKD source along with the dedicated FPGA board design. Such board generates the electrical impulses to control the qubit laser along with the electro-optic phase and intensity modulators.
Il presente lavoro di tesi tratta la realizzazione di sistemi hardware e software per Quantum Random Number Generation (QRNG) e Quantum Key Distribution (QKD). Tali sistemi sono stati sviluppati al fine di garantire una completa funzionalità per l’investigazione a tutto campo di queste due applicazioni che ad oggi risultano essere le più promettenti nell’ambito della Quantum Information. Vengono presentati in dettaglio sia l’hardware sia i software utilizzati che sono stati sviluppati per schede FPGA-CPU, dispositivi di Time-to-Digital converter (TDC) e computer. Vengono inoltre descritte le applicazioni specifiche di QRNG e QKD assieme ai risultati ottenuti. Randy è stato il primo dispositivo QRNG sviluppato su scheda FPGA e utilizza una sorgente luminosa attenuata a singolo fotone e un single-photon avalanche diode (SPAD). A partire dal campionamento del segnale elettrico dello SPAD, il dispositivo produce numeri randomici tramite protocolli di generazione appositi e tramite l’applicazione dell’algoritmo di unbiasing di Peres per massimizzare il bit rate. Il dispositivo permette inoltre di generare numeri randomici in tempo reale. Questa caratteristica viene utilizzata per la gestione temporizzata di componenti elettro-ottici per l’estensione allo spazio dell’esperimento a scelta ritardata di Wheeler’s. Le stesse tecniche sono state in seguito applicate ad un secondo dispositivo, LinoSPAD, che integra un chip FPGA e un array di CMOS-SPAD. Tale dispositivo prevede inoltre un TDC per aumentare la precisione temporale di dectection dei fotoni. Questa caratteristica, unita all’uso di una procedure di post-processing appositamente sviluppata e basata sull’algoritmo di Zhou-Bruk, ha permesso di raggiungere un bit rate finale pari a 300 Mbit/s. Per quanto riguarda i sistemi QKD, all’interno di un progetto di collaborazione tra l’Università di Padova, l’Agenzia Spaziale Italiana (ASI) insieme al Matera Laser Ranging Observatory (MLRO) e la Chinese Academy of Sciences (CAS) è stato sviluppato un software di gestione di un dispositivo TDC. Il progetto prevede la realizzazione di uno scambio di chiave crittografica quantistica tra il satellite cinese Micius e l’osservatorio di Matera. Il software è stato progettato per la gestione dell’intera acquisizione dati sincronizzata al tempo UTC. Inoltre è stato sviluppato anche un software per la gestione di componenti elettro-optomeccanici e elettro-ottici atti alla compensazione tempo variante delle variazioni angolari del fascio nel percorso ottico. Sempre all’interno di una collaborazione tra ASI e Università di Padova, è stato sviluppato un sistema completo di QKD free space per distanze nell’ordine di decine di chilometri. Lo sviluppo del sistema ha richiesto la progettazione di molteplici componenti. In questo lavoro viene descritta la parte della sorgente QKD e quindi della progettazione della scheda FPGA dedicata. Tale scheda ha il compito di generare gli impulsi elettrici per il controllo del laser per la produzione dei qubit e per il controllo dei modulatori di fase e di intensità elettro-ottici.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Jeff, Byron A. „A system for using perceiver input to vary the quality of generative multimedia performances“. Diss., Available online, Georgia Institute of Technology, 2005, 2005. http://etd.gatech.edu/theses/available/etd-07142005-023405/.

Der volle Inhalt der Quelle
Annotation:
Thesis (Ph. D.)--Computing, Georgia Institute of Technology, 2006.
Schwan, Karsten, Committee Chair ; Ramachandran, Kishore, Committee Member ; Ahamad, Mustaque, Committee Member ; Yalamanchili, Sudhakar, Committee Member ; Howe, W. Gerry, Committee Member. Vita. Includes bibliographical references.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Alsayasneh, Maha. „On the identification of performance bottlenecks in multi-tier distributed systems“. Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALM009.

Der volle Inhalt der Quelle
Annotation:
De nos jours, les systèmes distribués sont constitués de nombreuxcomposants logiciels ayant des interactions complexes et de nombreusespossibilités de configurations. Dès lors, localiser les problèmes deperformance est une tâche difficile, nécessitant une expertisehumaine et de nombreux essais. En effet, la même pile logicielle peutse comporter différemment en fonction dumatériel utilisé, de la logique applicative, des paramètres deconfiguration et des conditions de fonctionnement. Ce travail a pourobjectif (i) d’identifier un ensemble demétriques de référence, générales etfiables, pour localiser les problèmes de performance, (ii) d’identifierles caractéristiques de ces indicateurs, et (iii) deconstruire un outil qui puisse déterminer de manière automatiquesi le système a atteint sa capacité maximale en terme dedébit.Dans cette thèse, nous présentons trois contributionsprincipales. Premièrement, nous présentons une étude analytique d’ungrand nombre de configurations réalistes d’applications distribuéesmulti-tiers, se concentrant sur les chaînes de traitements desdonnées. En analysant un grand nombre de métriques au niveau logicielet matériel, nous identifions celles dont le comportement change aumoment où le système atteint sa capacité maximale. Deuxièmement, nousexploitons les techniques d’apprentissage machine pour développer unoutil capable d’identifier automatiquement les problèmes deperformance dans la chaîne de traitement de données. Pour ce faire,nous évaluons plusieurs techniques d’apprentissage machine, plusieurssélections de métriques, et différentscas de généralisation pour de nouvelles configurations. Troisièmement,pour valider les résultats obtenues sur la chaîne de traitement dedonnées, nous appliquons notre approche analytique et notre approchefondée sur l'apprentissage machine au cas d’une architecture Web.Nous tirons plusieurs conclusions de nos travaux. Premièrement, il estpossible d’identifier des métriques clés qui sont des indicateursfiables de problèmes de performance dans les systèmes distribuésmulti-tiers. Plus précisément, identifier le moment où le serveur aatteint sa capacité maximale peut être identifier grâce à cesmétriques fiables. Contrairement à l’approche adoptée par de nombreuxtravaux existants, nos travaux démontrent qu'une combinaison demétriques de différents types est nécessaire pour assurer uneidentification fiable des problèmes de performance dans un grandnombre de configurations. Nos travaux montrent aussi que les approchesfondées sur des méthodes d’apprentissage machine pour analyser lesmétriques permettent d’identifier les problèmes de performance dansles systèmes distribués multi-tiers. La comparaison de différentsmodèles met en évidence que ceux utilisant les métriques fiablesidentifiées par notre étude analytique sont ceux qui obtiennent lameilleure précision. De plus, notre analyse approfondie montre larobustesse des modèles obtenues. En effet, ils permettent unegénéralisation à de nouvelles configurations, à de nouveaux nombres declients, et à de nouvelles configurations exécutées avec de nouveauxnombres de clients. L'extension de notre étude au cas d'unearchitecture Web confirme les résultats principaux obtenus à traversl’étude sur la chaîne de traitement de données. Ces résultats ouvrentla voie à la construction d'un outil générique pour identifier demanière fiable les problèmes de performance dans les systèmesdistribués
Today's distributed systems are made of various software componentswith complex interactions and a large number of configurationsettings. Pinpointing the performance bottlenecks is generally a non-trivial task, which requires human expertise as well as trial anderror. Moreover, the same software stack may exhibit very differentbottlenecks depending on factors such as the underlying hardware, theapplication logic, the configuration settings, and the operatingconditions. This work aims to (i) investigate whether it is possibleto identify a set of key metrics that can be used as reliable andgeneral indicators of performance bottlenecks, (ii) identify thecharacteristics of these indicators, and (iii) build a tool that canautomatically and accurately determine if the system reaches itsmaximum capacity in terms of throughput.In this thesis, we present three contributions. First, we present ananalytical study of a large number of realistic configuration setupsof multi-tier distributed applications, more specifically focusing ondata processing pipelines. By analyzing a large number of metrics atthe hardware and at the software level, we identify the ones thatexhibit changes in their behavior at the point where the systemreaches its maximum capacity. We consider these metrics as reliableindicators of performance bottlenecks. Second, we leverage machinelearning techniques to build a tool that can automatically identifyperformance bottlenecks in the data processing pipeline. We considerdifferent machine learning methods, different selections of metrics,and different cases of generalization to new setups. Third, to assessthe validity of the results obtained considering the data processingpipeline for both the analytical and the learning-based approaches,the two approaches are applied to the case of a Web stack.From our research, we draw several conclusions. First, it is possibleto identify key metrics that act as reliable indicators of performancebottlenecks for a multi-tier distributed system. More precisely,identifying when the server has reached its maximum capacity can beidentified based on these reliable metrics. Contrary to the approachadopted by many existing works, our results show that a combination ofmetrics of different types is required to ensure reliableidentification of performance bottlenecks in a large number ofsetups. We also show that approaches based on machine learningtechniques to analyze metrics can identify performance bottlenecks ina multi-tier distributed system. The comparison of different modelsshows that the ones based on the reliable metrics identified by ouranalytical study are the ones that achieve the bestaccuracy. Furthermore, our extensive analysis shows the robustness ofthe obtained models that can generalize to new setups, to new numbersof clients, and to both new setups and new numbers ofclients. Extending the analysis to a Web stack confirmsthe main findings obtained through the study of the data processingpipeline. These results pave the way towards a general and accuratetool to identify performance bottlenecks in distributed systems
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Zhang, Guchun. „Models and performances of wireless MIMO and cooperative communication systems“. Thesis, Aston University, 2009. http://publications.aston.ac.uk/15411/.

Der volle Inhalt der Quelle
Annotation:
Multiple-antenna systems offer significant performance enhancement and will be applied to the next generation broadband wireless communications. This thesis presents the investigations of multiple-antenna systems – multiple-input multiple-output (MIMO) and cooperative communication (CC) – and their performances in more realistic propagation environments than those reported previously. For MIMO systems, the investigations are conducted via theoretical modelling and simulations in a double-scattering environment. The results show that the variations of system performances depend on how scatterer density varies in flat fading channels, and that in frequency-selective fading channels system performances are affected by the length of the coding block as well as scatterer density. In realistic propagation environments, the fading correlation also has an impact on CC systems where the antennas can be further apart than those in MIMO systems. A general stochastic model is applied to studying the effects of fading correlation on the performances of CC systems. This model reflects the asymmetry fact of the wireless channels in a CC system. The results demonstrate the varied effects of fading correlation under different protocols and channel conditions. Performances of CC systems are further studied at the packet level, using both simulations and an experimental testbed. The results obtained have verified various performance trade-offs of the cooperative relaying network (CRN) investigated in different propagation environments. The results suggest that a proper selection of the relaying algorithms and other techniques can meet the requirements of quality of service for different applications.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Guo, Xiaochen. „Preparation and Performances of Sensitized Photocatalyst Systems for Solar Cells“. Thesis, Curtin University, 2017. http://hdl.handle.net/20.500.11937/59085.

Der volle Inhalt der Quelle
Annotation:
Dye-sensitized solar cells (DSSCs) are promising photo-voltaic devices for solar energy conversion. The design of DSSCs includes the configuration of efficient anodes, sensitizer and counter electrode. In this thesis, a series of carbon-based nanomaterials (carbon quantum dots, nanodiamonds and their modified forms) have been developed and successfully applied as sensitizers for DSSCs. Moreover, metal-encapsulated carbon nanotubes and nitrogen-doped graphene have also been prepared and demonstrated their potential as counter electrodes for DSSCs.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Kam, W. Y. „Investigations into the performances of several adaptive control schemes“. Thesis, University of Newcastle Upon Tyne, 1985. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.355838.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Cipolato, Federico <1986&gt. „CLIMATE SERVICES: THEIR POTENTIALS IN IMPROVING ECONOMIC PERFORMANCES IN AGRICULTURAL SYSTEMS“. Master's Degree Thesis, Università Ca' Foscari Venezia, 2012. http://hdl.handle.net/10579/1746.

Der volle Inhalt der Quelle
Annotation:
Adaptation to Climate Change represents nowadays one of the main problem contemporary society has to face with, especially because of the high complexity involved in socio-ecological systems.The difficulty to manage climate variability is particularly relevant in the agricultural sector, in which key challenges are related to the behaviour of economic agents and their relationships, within the broader context of climate change adaptation. To understand how these interactions take place, represents one open and stimulating issue for decision-makers and socio-economic research.Generally we can distinguish between two different types of adaptation. Planned adaptation refers to a policy context and decisions take the form of identifying the “best option” within sets of different plausible adaptation measures. Autonomous adaptation instead concerns economic agents’ behaviour, exploring their decision processes and preferences and analyse effects at multiple scales. In such a context, to analyse and well understand interactions among different agents in contest-specific situations become fundamental, building mental models able to extricate systems' intrinsic complexity.Which is the potential role that could be played by climate services? In particular, to what extent and by which tools can improved climate information be efficiently managed and utilised to contribute to water saving?Agent-Based Modelling constitutes one of the more suitable methods in approaching those problems, being able to capture the intrinsic complexity of socio-ecosystems and, in this manner, bringing decision-makers into the right way to operate across these systems.This thesis aims to explore the potentials of climate services in adaptation to climate change, referring in particular to a case study application of ABM in agriculture field.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Schneck, Phyllis Adele. „Dynamic management of computation and communication resources to enable secure high-performances applications“. Diss., Georgia Institute of Technology, 1999. http://hdl.handle.net/1853/8264.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Lu, Liping. „Performances and quality of service of PLC networks for MV and LV distribution systems“. Thesis, Vandoeuvre-les-Nancy, INPL, 2006. http://www.theses.fr/2006INPL080N/document.

Der volle Inhalt der Quelle
Annotation:
In this thesis, we are interested in a wide-area PLC (Power Line Communication) network to provide a communication infrastructure for monitoring and control of energy distribution and consumption. This work has been carried out as a part of REMPLI (Real-time Energy Management via Power Line and Internet) European project and resulted in the definition of REMPLI PLC. For achieving high network performance and real-time data transfer using medium voltage and low voltage electricity grids, major problems such as dynamic packet routing, quality of service management and real-time event reporting are addressed. We designed an efficient routing protocol to cope with dynamic electricity grid topology changes and to relay packets to reach the destination. REMPLI PLC performance is evaluated using simulations and complemented by analytic studies. It is proved that most of the application requirements can be satisfied by REMPLI PLC. We proposed and implemented a new traffic dispatcher providing differentiated quality of service for applications. Based on ALOHA protocol, some variants have been designed and evaluated for enabling efficient real-time event notification
Dans cette thèse, nous nous intéressons à la problématique liée à la communication numérique sur courant porteur dans l’objectif de fournir une infrastructure de communication qui permet la surveillance et le contrôle de la distribution et de la consommation de l’énergie. Ce travail a été effectué dans le cadre du projet européen REMPLI (Real-time Energy Management via Power Line and Internet) et a produit la spécification REMPLI PLC (Power Line Communication). Pour fournir une meilleure performance de la communication et effectuer le transfert de données en temps réel, en utilisant les réseaux électriques de moyenne tension et de basse tension, les problèmes principaux qui sont le routage dynamique de paquets de données, la gestion de la qualité de service et la notification des événement en temps réel, ont été traités. Nous avons développé un protocole de routage efficace pour s’adapter au changement dynamique de topologie du réseau électrique. Les performances de REMPLI PLC sont évaluées en utilisant des approches de simulation couplée avec des approches analytiques. Il est prouvé que la majorité des besoins applicatifs peuvent être satisfaite par REMPLI PLC. Nous avons proposé et implanté un nouvel “ordonnançeur de traffic” fournissant différents niveaux de qualité de service pour les applications. Des variantes de protocole ALOHA ont été proposées et évaluées afin de vérifier que les propriétés temps réel requises sur les notifications d’événements sont respectées
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Lu, Liping Simonot-Lion Françoise. „Performances and quality of service of PLC networks for MV and LV distribution systems“. Vandoeuvre-les-Nancy : INPL, 2006. http://www.scd.inpl-nancy.fr/theses/2006_LU_L.pdf.

Der volle Inhalt der Quelle
Annotation:
Thèse de doctorat : Informatique : Vandoeuvre-les-Nancy, INPL : 2006. Thesis Ph. D. : Wuhan university of technology : 2006.
Thèse soutenue en co-tutelle. Titre provenant de l'écran-titre. Bibliogr.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Battiston, Geoffray. „Amélioration des performances du régulateur des masques à oxygène“. Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLC039.

Der volle Inhalt der Quelle
Annotation:
Il s’agit ici d’étudier un phénomène vibratoire ressenti par les utilisateurs d’un masque à oxygène au niveau de la fosse nasale. Le masque à oxygène intègre un régulateur qui envoie de l’oxygène en réponse à une demande de débit. Les vibrations prennent la forme de variations de pression à l’entrée du masque et leur origine est inconnue. Parmi les objectifs du travail de thèse, on essaiera de comprendre l’origine et de caractériser ce phénomène après une modélisation détaillée du régulateur, prenant en compte assez finement sa géométrie. Dans un deuxième temps, la stabilisation de la trajectoire dynamique de ce système sera étudiée par le biais de l’application du critère de Routh à un modèle linéarisé autour d’un point d’équilibre. Dans un troisième temps, quelques phénomènes dynamiques et physiques additionnels seront investis afin de pousser plus en avant la compréhension du fonctionnement du masque. Dans un quatrième temps et en guise d’ouverture, on prendra le temps d’évoquer des pistes supplémentaires pour l’étude de ce système
The vibratory behavior of a regulated oxygen mask is studied here. The oxygen mask integrates a regulator which sends oxygen in response to a demand flow. The vibrations take the form of pressure variations in the mask volume, at the entry of the nasal ways, and their origin is unknown. Among the goals of this thesis work, we will try first to understand the origin and to characterize this phenomenon after a detailed modeling of the regulator, taking accurately into account its geometry. Second, the stabilization of the system’s dynamical trajectory will be studied by applying the Routh criterion to a linearized model around an equilibrium point. Third, some additional dynamical and physical phenomena will be investigated in order to push forward the understanding of the mask functionning. Fourth, and as an opening, time will be taken to mention supplementary tracks for the study of this system
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Bontorin, alves Guilherme. „Intelligent multielectrode arrays : improving spatiotemporal performances in hybrid (living-artificial), real-time, closed-loop systems“. Thesis, Bordeaux 1, 2010. http://www.theses.fr/2010BOR14056/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse présente un système bioélectronique prometteur, l’Hynet. Ce Réseau Hybride (vivant-artificiel) est conçu pour l’étude du comportement à long terme des cellules électrogénératrices, comme les neurones et les cellules betas, en deux aspects : l’individuel et en réseau. Il est basé sur une boucle fermée et sur la communication en temps réel entre la culture cellulaire et une unité artificielle (Matériel, Logiciel). Le premier Hynet utilise des Matrices d’électrodes (MEA) commerciales qui limitent les performances spatiotemporelles du Hynet. Une nouvelle Matrice d’électrodes intelligente (iMEA) est développée. Ce nouveau circuit intégré, analogique et mixte, fournit une interface à forte densité, à forte échelle et adaptative avec la culture. Le nouveau système améliore le traitement des données en temps réel et une acquisition faible bruit du signal extracellulaire
This thesis presents a promising new bioelectronics system, the Hynet. The Hynet is a Hybrid (living-artificial) Network, developed to study the long-term behavior of electrogenic cells (such as Neurons or Beta-cells), both individually and in a network. It is based on real-time closed-loop communication between a cell culture (bioware) and an artificial processing unit (hardware and software). In the first version of our Hynet, we use commercial Multielectrode Arrays (MEA) that limits its spatiotemporal performances. A new Intelligent Multielectrode Array (iMEA) is therefore developed. This new analog/mixed integrated circuit provides a large-scale, high-density, and adaptive interface with the Bioware, which improves the real-time data processing and the low-noise acquisition of the extracellular signal
Esta dissertação de doutorado apresenta um sistema bioeletrônico auspicioso, o Hynet. Esta Rede Híbrida (viva e artificial), é concebida para o estudo do comportamento à longo prazo de células eletrogeneradoras (como neurônios ou células beta), em dois aspectos : individual e em redes. Ele é baseado na comunicação bidirecional, em laço fechado e em tempo real entre uma cultura celular (Bioware) e uma unidade artificial (Hardware ou Software). Um primeiro Hynet é apresentado, mas o uso de Matrizes de Eletrodos (MEA) comerciais limita a performance do sistema. Finalmente, uma nova Matriz de Eletrodos Inteligente (iMEA) é desenvolvida. Este novo circuito integrado fornece uma interface adaptativa, em alta densidade e grande escala, com o Bioware. O novo sistema melhora o processamento de dados em tempo real e a aquisição baixo ruído do sinal extracelular
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Pirro, Matteo. „Embedded Control Systems for Performances Improvement and Energy Efficiency of Electrical Drives and Power Converters“. Doctoral thesis, Università Politecnica delle Marche, 2015. http://hdl.handle.net/11566/243081.

Der volle Inhalt der Quelle
Annotation:
La domanda globale di energia elettrica è in continua crescita, al doppio del tasso di crescita del consumo di energia primaria. Un uso efficiente dell'energia, detto in altri termini "efficienza energetica", ha come obiettivo ridurre la quantità di energia richiesta per fornire i diversi prodotti e servizi. Progressivamente diventerà obbligatoria per l'utente finale una sempre più chiara transizione dal combustibile primario verso sistemi di energia elettrica e l'efficienza energetica così come l'integrazione delle energie rinnovabili diventeranno una delle principali sfide del futuro. L'elettronica di potenza svolgerà un ruolo fondamentale nel cambiamento di questo paradigma. Nella generazione di energia elettrica vi sarà un importante migrazione alle fonti rinnovabili come future fonti energietiche. Nel campo dell'elettronica di potenza, quattro ambiti applicativi devono necessariamente essere presi in considerazione quando si parla di efficienza energetica: motori elettrici, convertitori di potenza, illuminazione a LED e HVDC. In questa tesi è stata riportata una discussione dettagliata dei principali convertitori di potenza e sono state introdotte delle variazioni in alcuni modelli per rendere gli stessi più adatti alla rappresentazione del comportamento dei convertitori per particolari topologie o modalità di funzionamento. Sono stati proposti e argomentati alcuni controllori basati su passività per la correzione del fattore di potenza; essi sono risultati particolarmente adatti a scenari applicativi come quello del controllo motori o dell'illuminazione a LED. E' stato inoltre presentato un controllore PI basato su passività per il tracking globale valido per sistemi rappresentabili nella forma bilineare: particolarmente interessante è l'esempio applicativo riportato, relativo all'ambito del controllo HVDC. Inoltre è stato elaborato un controllore sliding mode robusto alle variazioni di carico per la regolazione della tensione di uscita nei regolatori DC--DC. Infine sono stati progettati degli osservatori di corrente per convertitori boost con l'obiettivo di rendere superfluo l'utilizzo dei costosi sensori di corrente in questa topologia. Ciascun algoritmo è stato testato numericamente e la maggior parte di essi è stata anche implementata su piattaforme embedded e provata in laboratorio con l'obiettivo di verificarne e valutarne le prestazioni. Le prove sperimentali sono state effettuate nel Laboratorio di Robotica Avanzata del DII presso l'Università Politecnica delle Marche, Ancona, nel Laboratory of Energy Department presso il Supélec, Paris e nel Laboratoire de Signaux et Systémes presso il Supélec, Paris.
The global demand for electrical energy is growing continuously, at double the growth rate of primary energy consumption. Efficient energy use, sometimes simply called energy efficiency, is the goal to reduce the amount of energy required to provide products and services. A clear transition to more electric energy systems is mandatory as energy efficiency from primary fuel to the enduser and the integration of renewables are the future key challenges. Power electronics will play a key role in this paradigm shift to more renewable electrical energy and higher energy efficiency in multiple applications. In electrical energy generation a major shift to renewables as sources of future electrical energy will happen. In the field of Power Electronics four topics must be taken into account talking about energy efficiency: electrical motors, power converters, LED lighting and HVDC. In this thesis a detailed discussion on the modelling of the most known power converters has been made and some more accurate models have been proposed to better represent the behaviour of particular topologies or working modes. Passivity-Based controllers for power factor control have been proposed and argued; they resulted particularly suited in the motor control and in the LED lighting applicative fields. A global tracking passivity–based PI controller for bilinear systems has been proposed: an example application has been presented in the field of HVDC control. Furthermore, a sliding-mode robust to load variations controller for output voltage regulation in DC--DC converters has been presented. Finally inductor current observers for the boost topology has been illustrated with the aim of making superfluous the use of expensive sensors in this topology. Each proposed algorithm has been numerically tested and many of them has been experimentally verified on embedded platforms and their performances evaluated. Experimental tests have been done in the Laboratory of Advanced Robotics of DII at Università Politecnica delle Marche, Ancona, in the Laboratory of Energy Department at Supélec, Paris and in the Laboratoire de Signaux et Systémes at Supélec, Paris.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Ben, Hmida Faten. „Evaluation des performances des systèmes multi-agents“. Thesis, Bordeaux 1, 2013. http://www.theses.fr/2013BOR15200/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s’intéresse à la question de l’évaluation des Systèmes Multi-Agents (SMA). Les caractéristiques propres que possèdent ces derniers, notamment en termes d’autonomie, de distribution, de dynamique et de socialité, ont grandement contribué à l’élargissement de leurs champs d’application, mais en contrepartie, elles ont rendu leur analyse plus ardue. Ainsi, les méthodes d’évaluation dans les systèmes informatiques classiques s’avèrent insuffisantes à analyser les SMA, étant donné qu’elles ne tiennent pas compte de leurs spécificités. L’objectif de cette thèse consiste donc à proposer une approche générique pour l’évaluation des SMA en se basant sur la mesure de leurs caractéristiques fonctionnelles. A cet effet, le besoin de disposer d’informations sur l’exécution du système à évaluer est manifeste. C’est dans ce cadre qu’une nouvelle approche d’observation des SMA est proposée. Les résultats de ces observations sont exploités pour construire une abstraction du système sous forme d’un modèle, lequel est étudié pour définir les mesures de performances. L’analyse se focalise sur deux caractéristiques essentielles, à la base de la dynamique et de la socialité des SMA : la communication et l’organisation. Les expérimentations de la solution proposée portent sur deux applications multi-agents. La première est une application de diagnostic des pannes dans un environnement industriel et la seconde est une application de pilotage et de gestion de la production dans les chaînes logistiques
This thesis focuses on the issue of MultiAgent Systems (MAS) evaluation. The MAS own characteristics, namely autonomy, distribution, dynamicity and sociality, have greatly contributed to the expansion of their application scope; but in return they made their analysis more difficult. Thus, evaluation methods in classic computer systems are insufficient to analyse MAS, since they do not take into account their specificities. The objective of this thesis is to provide a generic approach for the evaluation of MAS by measuring their functional characteristics. To this end, the need for information about the execution of the system to be evaluated is evident. In this context, a new approach to observe MAS is proposed. The results of these observations are exploited to build an abstraction model of the system which is studied in order to define performance metrics. The analysis focuses on two key characteristics, at the basis on the dynamics and sociality in MAS: communication and organization. The experiments of the proposed solution are performed on two multiagent applications. The first is an application of fault diagnosis in an industrial environment and the second is an application of control and production planning in supply chains
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Tchoundjeu, Ngatchou Stéphane. „Caractérisation des performances d'endurance des lubrifiants par suivi des états de surfaces tridimensionnels“. Thesis, Châtenay-Malabry, Ecole centrale de Paris, 2013. http://www.theses.fr/2013ECAP0061.

Der volle Inhalt der Quelle
Annotation:
Pour des systèmes mécaniques fortement sollicités et lubrifiés (en roulement avec ou sans glissement), les performances des lubrifiants se caractérisent par l’évolution de l’usure des surfaces. Celle-ci peut se manifester par un micro-écaillage qui conduit à une dégradation des fonctionnalités des surfaces. Pour quantifier la durabilité du mécanisme, il est donc important de pouvoir caractériser l’usure du contact : quantifiable à l’échelle du composant par la mesure de la perte de masse par exemple. Notre approche tentera de caractériser l’usure des surfaces dans ses premières heures de fonctionnement (phase de rodage) se manifestant par des modifications locales de la rugosité et non par la perte de masse qui est peu significative. Notre étude a pour objectif d’établir une relation entre l’évolution des paramètres surfaciques durant cette phase de rodage et la résistance à l’usure des surfaces. Des paramètres tridimensionnels sont ainsi identifiés, permettant de connaître assez tôt, les performances des lubrifiants la fin de longs essais d’endurance
For lubricated mechanical systems and working with heavy loading (rolling with or without sliding), the lubricants performances are characterized by the evolution of the wear on surfaces. This wear can take the form of micro-pitting which leads to a functional surface degradation. To quantify the durability of the mechanism, it is thus important to be able to characterize the wear of the contact: quantifiable on the scale of the component by the measure of the loss of mass for example. Our approach stands to characterize the wear of surfaces during the first hours of functioning (running-on phase), showing itself by local modifications of the roughness and not by the loss of mass which insignificant. Our study has for objective to establish a relation between the evolution of the surface parameters during the running-in phase and the wear of the surfaces. Tridimentional parameters are so identified, to know early enough the performances of lubricants, without waiting the end of long endurance tests
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Pellegrini, Tomaso, Riccardo Pasquale und D. Cisco. „Investigation on VOC Content from Car Interior Finishing Systems and Its Influence on Leather Performances - 61“. Verein für Gerberei-Chemie und -Technik e. V, 2019. https://slub.qucosa.de/id/qucosa%3A34230.

Der volle Inhalt der Quelle
Annotation:
Content: Car industry is highly demanding for low emission parameters and despite remarkable results have been achieved since the last decade, the requests are day by day more sophisticated. The focus on emission is a severe task and requires the investigation on emissions on full-range and involves the expertise of multi and inter disciplinal competences. The leather industry is a clear key ring for car interior suppliers and it is also focusing on more sustainable processes and reducing the emission of pollutants to the environment, prompting the commitment of leather suppliers, tanneries, and chemical auxiliaries producers. From our perspective, in fact, one of the major problems that car interior producers are currently facing is the production of low-emitting leather, which requires special chemical auxiliaries to be achieved. In this context, our research has focused on the study of VOC volatile substances from car interiors, in particular on finishing systems, aiming at their reduction without losing the original performances of the finished leather article. Our investigation focused on full grain finished leathers, evaluating the contribution to the VOC emission from crust leather to the finished articles. A preliminary study showed that silicon compounds family brought an important contribution to the emission from a qualitative and quantitative perspective: these substances play a crucial role in terms of the final article performances (such as resistance), and quality. So, our investigation focused on innovative silicon-free auxiliary combination to give low VOC emission contribution from the leather compared with the same performances of the original silicon containing finishing. In order to evaluate the impact of the emissions, a series of analyses of the volatiles were performed: static headspace VDA 277 (and/or PV3341) analysis and active air sampling analysis GS 97014-3 type were performed, indicating that silicon contribution was very high in the emission. In addition, the quality of the leather was also assessed and characterised through standard automotive tests such as stick-slip, abrasion trials with Taber tester and Martindale machine, ball plate method, fogging test; rub fastness provided with Veslic tester (wet, dry, alcohol, gasoline), dry-rubbing trial with Gakushin tester. The set of result showed that standard leather containg silicon compounds on the finishing produced high VOC emission and high performance articles, thus contributing to VOC emission. Conversely, the novel finishing auxiliaries had low VOC emission, no silicons, yet high performance leather and therefore should be chosen from a more environmental point of view. Take-Away: Low VOC emission from novel leather finishing albeit high resistance leather.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Marsal, Gaëlle. „Evaluation of time performances of ethernet-based automation systems by simulation of high-level Petri nets“. Cachan, Ecole normale supérieure, 2006. http://tel.archives-ouvertes.fr/tel-00162228.

Der volle Inhalt der Quelle
Annotation:
Nous évaluons dans cette thèse deux performances temporelles des architectures d’automatisation distribuées sur Ethernet commuté et utilisant un modèle de coopération client/serveur : Le temps de réponse entre une occurrence d’un événement d’entrée et l’occurrence de l’événement de sortie correspondant ; Le temps de cycle réeseau pour la scrutation par un contrôleur de l’ensemble de ses modules d’entrées / sorties déportées. La conjonction de trois mécanismes de consommation de temps rend ces deux performances variables et difficiles à déterminer de manière analytique. Par conséquent, la méthode proposée se base sur la simulation d’un modèle en réseau de Petri temporisé et coloré du comportement dynamique de l’architecture complète. Les résultats obtenus sur six architectures test permettent de : Montrer que les architectures multi-contrôleurs utilisant le modèle de coopération client / serveur donnent des temps de cycle réseau plus rapide que celles basées sur les modèles maître / esclave et producteur / consommateur ; Quantifier l’influence du réseau et des mécanismes de consommation du temps
In this work, two time performances of switched Ethernet automation systems that use a client/server cooperation model are evaluated : The response time from an occurrence of an input event to the occurrence of the corresponding output event ; The network cycle time for the scanning by a controller of the whole set of its remote inputs / outputs modules. The conjunction of three time consumption mechanisms makes both time performances variable and difficult to compute in an analytic fashion. Thus, the proposed method is based on simulation of a timed and coloured Petri net model of the dynamic behaviour of the whole automation architecture. The results which have been obtained on six benchmark architectures enabled us : To show that multi-controllers architectures using a client/server cooperation model provide faster network cycle times than those based on master/slave and producer/consumer models ; To quantify the influence of the time consumption mechanisms on these performances
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Azarian, Adrian. „Combinaison cohérente de lasers à fibre : étude en régime impulsionnel et mise en phase d'un grand nombre d'émetteurs“. Electronic Thesis or Diss., Paris, ENST, 2012. http://www.theses.fr/2012ENST0063.

Der volle Inhalt der Quelle
Annotation:
Les lasers à fibre suscitent un grand intérêt dans tous les domaines, pour des applications allant du médical aux télécommunications, car ils permettent d'obtenir une bonne cohérence spatiale et temporelle et sont compacts et robustes. La limite se situe dans le domaine des lasers à fortes puissances. La combinaison de plusieurs sources lasers est alors une solution prometteuse pour surpasser les limites individuelles de ces sources, en particulier les techniques de combinaisons cohérentes de faisceaux. Dans cette famille de combinaison, la technique de contrôle actif de la phase par marquage en fréquence est particulièrement intéressante, mais deux limitations majeures ont été identifiées : le cas du régime impulsionnel ainsi que le nombre limité de voies pouvant être mise en phase. Dans cette thèse des solutions sont proposées pour lever ces limitations. Dans un premier temps, nous avons réalisé la première démonstration expérimentale d'une combinaison cohérente impulsionnelle utilisant cette technique. Ensuite, en adaptant des techniques de codage orthogonal issues du domaine des télécommunications, nous avons augmenté le nombre de voies pouvant être combinées. Un outil de simulation du système a été développé pour étudier l'utilisation des techniques de codage et pour étudier la propagation des faisceaux à travers la turbulence atmosphérique. Pour évaluer les performances des systèmes à grand nombre d'émetteur, nous avons mis en place une méthodologie, basée sur l'utilisation de plans d'expériences et de métamodèles, permettant d'identifier les fibres ou les interactions entre fibres les plus influentes, en fonction des paramètres initiaux de la combinaison
A great interest exists for fibre lasers in all domains, from medical to telecommunication applications, as they enable to achieve a good spatial and spectral coherence and they are compact and robust. The limit comes from high-power applications. The combination of several laser sources is therefore a solution to overcome the limitations of individual emitter, especially coherent combining techniques. In this combination form, the active phase control by frequency tagging technique looks the most promising one, but two main limitations were identified : the pulse regime and the limited number of channels, which can be phase-locked. In this thesis, solutions are proposed to overcome these limitations. At first, we realised the first experimental demonstration of a pulse coherent combination using this technique. Then by adapting orthogonal coding tehniques from the telecommunication domain, we increased the number of channels which can be combined. A simulation tool was developped to study the coding techniques as well as the propagation of the beams through a turbulent atmosphere. To evaluate the performances of systems with a large number of emitters, we developped a methodology based on the use of numerical designs of experiments and metaodels, enabling us to identify the most influent fibres or interactions between fibres, as a function of the initial parameters of the combination
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Mélin, Julie. „Synthèse de lois de commande pour les systèmes à commutation avec contraintes de performances“. Thesis, Vandoeuvre-les-Nancy, INPL, 2011. http://www.theses.fr/2011INPL030N/document.

Der volle Inhalt der Quelle
Annotation:
Les systèmes à commutations constituent un cas particulier des systèmes dynamiques hybrides. Ils sont composés d'une famille de systèmes et d'une loi de commutation qui détermine quel mode est activé à chaque instant. Ces systèmes représentent une large gamme de systèmes concrets. L'étude de la stabilité de ceux-ci a déjà été longuement abordée. Les travaux de cette thèse portent sur l'analyse de performance des systèmes à commutations linéaires en temps discret et sur la synthèse de différentes lois de commande pour ces systèmes en tenant compte de contraintes de performances. L'analyse de stabilité de ces systèmes a été étendue pour tenir compte de l'aspect performance qui a été modélisée par un critère quadratique. La valeur du critère dépendant des commutations, l'analyse porte sur le coût garanti des performances. Grâce à la résolution d'un problème d'optimisation sous des contraintes sous la forme d'inégalités matricielles linéaires, un majorant du coût garanti est déterminé. Une approche est proposée pour évaluer la qualité du majorant trouvé. Un deuxième point abordé est la conception de contrôleurs qui tiennent compte de l'aspect performance. Des méthodes de synthèse de différents contrôleurs (retour d'état, retour d'état reconstruit par observateur et retour de sortie dynamique) sont proposées dans ce cadre. Enfin, nos résultats ont été appliqués au cas des systèmes contrôlés en réseau
Switched systems are a specific case of dynamical hybrid systems. They are made up of a family of subsystems and of a switching law which defines the activated subsystem at each instant. These systems depict a wide range of real systems. Stability's study has been intensely studied. This Ph.D. thesis deals with performance analysis for discrete-time switched linear systems and synthesis of different control laws by taking into account performance constraints. Stability's analysis for these systems was spread in order to taking into account performance aspect, modeled by a quadratic criterion. As the value of the criterion depends on commutations, the analysis is done for the guaranteed cost of performances. By solving an optimization problem under constraints in the form of linear matrices inequalities, an upper bound of the guaranteed cost is found. An approach is proposed to certificate the upper bound. An other tackled point is the synthesis of controllers which take into account performance aspect. Methods of synthesis of different controllers (state feedback, state feedback based on observer and dynamic output feedback) are proposed. Last, our results are applied to networked controlled systems
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Shkliar, Khrystyna. „Lean supply chain of service companies : application of order review and release systems to improve its performances“. Thesis, KTH, Industriell Management, 2013. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-124575.

Der volle Inhalt der Quelle
Annotation:
This research aims to contribute to the theoretical knowledgebase about supply chains in service companies and lean implementation in this area. The focus of the study is testing the feasibility of order review and release systems application, which proved to be effective in “leaning” the flow of manufacturing companies, to the service supply chain. The influence of one of the main characteristics of services – processing times variability and preciseness in estimating the required processing times, is studied. The research is purely theoretical and was conducted with the help of simulation modeling. The model of the service supply chain was developed based on the literature review and statistical distributions as an input data were used. Two kinds of order review and release systems are considered: upper-bound limited workload and lean-based balanced workload model. Their impact on the performance of the service supply chain is described and compared to the results of the model with immediate release. The findings show that order review and release systems can perform well even in the conditions of unknown exact processing times and thus can be applied to services as well as they are applied in manufacturing. The application of order review and release systems will help to eliminate waste within the service supply chain, make it more flexible and thus increase added value to the customers.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Fricheteau, Romain. „Cadrage général pour une évaluation des performances des action de sécurité routière“. Phd thesis, Ecole Centrale Paris, 2011. http://tel.archives-ouvertes.fr/tel-00711474.

Der volle Inhalt der Quelle
Annotation:
L'OMS évalue à 1.2 million le nombre de tués sur les routes par an et environ 20 à 50 millions le nombre de blessés (données de 2004). Même si on observe une nette amélioration dans certains pays développés, l'OMS a prévu une augmentation mondiale des décès et des traumatismes d'ici 2030 si rien de nouveau n'est effectué. Pour faire face à cette problématique, les recommandations reposent sur la mise en œuvre de stratégies globales d'amélioration. Celles-ci doivent prendre en compte l'ensemble des enjeux liés à la sécurité routière (santé publique, technologique, économique, juridique, etc.) et être conduites en collaboration par l'ensemble des acteurs du système routier. Par exemple, le travail des constructeurs automobiles consiste en partie à développer des systèmes de sécurité qui agissent dans l'objectif de réduire et/ou d'éviter les accidents (ceinture de sécurité, ABS, airbag, châssis adapté aux déformations, etc.) à partir de connaissances en accidentologie et en biomécanique dans l'objectif de répondre aux exigences de tests consuméristes. L'activité d'évaluation fait partie intégrante de ce processus d'amélioration de la sécurité routière. Elle a pour objectif de fournir des connaissances aux différents acteurs pour les aider à atteindre leurs objectifs. Plus précisément, elle est focalisée sur le calcul d'indicateurs qui renseignent sur les performances des actions de sécurité routière. Le travail de recherche que nous avons effectué est issu d'une réflexion globale sur la réalisation de ces évaluations. Nous avons identifié des enjeux que nous considérons comme levier pour améliorer leur réalisation. Ils concernent la formalisation d'un cadre de l'évaluation pour aider les évaluateurs à dépasser leurs habitudes de travail et ainsi mieux répondre aux besoins des destinataires des évaluations dans un contexte complexe. En se basant sur les connaissances expertes de l'évaluation en sécurité routière et la littérature sur l'évaluation, l'épistémologie, la modélisation des connaissances et les théories de conception, nous avons proposé un modèle générique, créatif et multipoints de vue de l'évaluation. Ce modèle est défini comme une description systémique de l'activité d'évaluation. Il est composé de modèles structurels et fonctionnels à destination des évaluateurs. Dans notre recherche, nous nous sommes focalisés sur les étapes d'analyse du cas d'étude et sur la conception des indicateurs d'évaluation. Notre modèle a été mis à l'épreuve sur des exemples d'évaluation. Les résultats montrent que la formalisation des cas d'évaluations engendre une réflexion plus détaillée sur les questions à traiter et les indicateurs à utiliser. Un outil logiciel permet de rendre opérationnel ce modèle. Il est basé sur la gestion de bases de données et sur des algorithmes de traitement des données.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Manzoor, Shahida. „Chaos theory and Robert Wilson a critical analysis of Wilson's visual arts and theatrical performances /“. Ohio : Ohio University, 2003. http://www.ohiolink.edu/etd/view.cgi?ohiou1061418171.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Marsal, Gaelle [Verfasser]. „Evaluation of time performances of Ethernet-based Automation Systems by simulation of High-level Petri Nets / Gaelle Marsal“. Aachen : Shaker, 2007. http://d-nb.info/1166512339/34.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Lallement, Guénolé. „Extension of socs mission capabilities by offering near-zero-power performances and enabling continuous functionality for Iot systems“. Electronic Thesis or Diss., Aix-Marseille, 2019. http://www.theses.fr/2019AIXM0573.

Der volle Inhalt der Quelle
Annotation:
Les développements récents dans le domaine des circuits intégrés (IC) à basse tension ont ouvert la voie à des dispositifs électroniques économes en énergie dans un réseau mondial en plein essor appelé l’internet des objets (IoT) ou l’internet des choses (IoE). Cependant, la durabilité de tous ces capteurs interconnectés est compromise par le besoin constant d’une batterie embarquée – qui doit être rechargée ou remplacée – ou d’un récupérateur d’énergie à rendement très limité. La consommation d’énergie des systèmes électroniques grand public actuels est en effet cinquante fois plus élevée que celle d’un collecteur d’une taille de l’ordre du cm 2 , ou limitée à quelques mois sur une petite batterie. Cela contraint la viabilité de solutions fonctionnant à l’échelle d’une vie humaine. Les systèmes sur puce (SoCs) à venir nécessitent donc de relever le défi de cette lacune énergétique en optimisant l’architecture, de la technologie au niveau du système. L’approche technique de ce travail vise à démontrer la faisabilité d’un SoC efficient, ultra-basse tension (ULV) et ultra-basse puissance (ULP) utilisant exclusivement les dernières directives industrielles en matière de technologies FD-SOI (Fully Depleted Silicon On Insulator) 28 nm et 22 nm. Plusieurs SoCs multi-domaines basés sur des cœurs ARM sont implémentés pour démontrer des stratégies de réveil basées sur les entrées des capteurs. Ainsi, en optimisant l’architecture du système, en sélectionnant et en concevant correctement les composants avec des caractéristiques technologiques choisies de manière adéquate, et en ajustant soigneusement l’implémentation physique, on obtient un SoC entièrement optimisé en énergie
Recent developments in the field of low voltage integrated circuits (IC) have paved the way towards energy efficient electronic devices in a booming global network called the internet-of-things (IoT) or the internet-of-everything (IoE). However, the sustainability of all these inter- connected sensors is still undermined by the constant need for either an on-board battery – that must be recharged or replaced – or an energy harvester with very limited power efficiency. The power consumption of present consumer electronic systems is fifty times higher than the energy available by cm 2-size harvester or limited to a few months on a small battery, thus hardly viable for lifetime solutions. Upcoming systems-on-chip (SoCs) must overcome the challenge of this energy gap by architecture optimizations from technology to system level. The technical approach of this work aims to demonstrate the feasibility of an efficient ultra-low-voltage (ULV) and ultra-low-power (ULP) SoC using exclusively latest industrial guidelines in 28 nm and 22 nm fully depleted silicon on insulator (FD-SOI) technologies. Several multi-power-domain SoCs based on ARM cores are implemented to demonstrate wake up strategies based on sensors inputs. By optimizing the system architecture, properly selecting and designing compo- nents with technology features chosen adequately, carefully tuning the implementation, a fully energy-optimized SoC is realized
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Astanei, Dragoş-George. „Improving the performances of the combustion engines by improving the ignition system“. Thesis, Orléans, 2014. http://www.theses.fr/2014ORLE2073/document.

Der volle Inhalt der Quelle
Annotation:
Face aux normes actuelles et futures, de plus en plus drastiques, concernant les émissions de polluants, les constructeurs automobiles cherchent en permanence à améliorer l'efficacité des moteurs à allumage commandé. Une des solutions les plus efficaces et applicables pour diminuer la quantité de polluants émis dans les gaz d’échappement (HC, CO, NOx) et réduire la consommation de carburant, est d’utiliser un mélange très pauvre (richesse du mélange inférieure à 0,6). Toutefois, ce concept de fonctionnement est limité par les systèmes d'allumage classiques qui ne peuvent pas garantir un allumage du mélange air / combustible dans de bonnes conditions, de manière à assurer une combustion complète, rapide et reproductible.Le sujet de cette thèse consiste en l'élaboration d'un nouveau système d'allumage basé sur une bougie d’allumage double, qui peut produire deux d'étincelles quasi-simultanées, dont la longueur cumulée est plusieurs fois plus élevée que celle d’étincelles produites par une bougie d'allumage classique. Pour valider ce système d'allumage, trois différents types d'analyses ont été réalisés: une analyse des paramètres électriques des décharges, un diagnostic du plasma par spectroscopie optique d'émission, et des essais in situ du système d'allumage sur deux moteurs à combustion interne avec analyse des gaz d'échappement et détermination des performances des moteurs.Ces tests ont révélé que l'utilisation du système d’allumage à double étincelle peut assurer une meilleure stabilité dans le fonctionnement du moteur (en particulier dans les conditions d'allumage difficiles, en utilisant des mélanges très pauvres) ; des performances accrues du moteur pour une même quantité de carburant consommé ; et une diminution de la quantité d’hydrocarbures imbrûlés et de monoxyde de carbone dans les gaz d'échappement, mais avec une plus grande émission d'oxydes d'azote par rapport à un système d'allumage classique
Faced with the current and future more and more drastic standards for pollutant emissions, the car manufacturers are permanently trying to improve the efficiency of spark ignition engines. One of the most effective applicable solutions for reducing the quantity of pollutant emissions (HC, CO, NOx) from the exhaust gases and also to reduce the fuel consumption is to operate with very lean mixture (equivalent ratio lower than 0.6). However, this operation concept is limited by the actual ignition systems that cannot assure an air/fuel mixture ignition in good conditions, in order to assure a complete, fast and repeatable combustion. The subject of this thesis consists into developing of a new ignition system based on a double spark plug, which can produce two quasi-simultaneous spark discharges with cumulated length few times higher than the sparks produced by a conventional spark plug. For ignition system validation, three different types of analysis have been considered: the analysis of the discharges electrical parameters, the plasma diagnosis using optical emission spectroscopy methods and the tests of the ignition system on two internal combustion engines with the exhaust gases analysis and engine performances determination. The tests revealed that the utilization of the double spark ignition system can assure a better stability in engine operation (especially in difficult ignition conditions such using very lean mixtures), increased engine performances for the same amount of consumed fuel and it can provide a diminution of the unburned hydrocarbons and carbon monoxide quantities from the exhaust gases, but with an increased quantity of nitrogen oxides, compared with a conventional ignition system
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Norbert, Raphaël. „Evaluation of Industrial Symbiosis Scenario Performances on Iron and Steel plants through System Dynamics“. Thesis, Troyes, 2018. http://www.theses.fr/2018TROY0054.

Der volle Inhalt der Quelle
Annotation:
L’industrie sidérurgique est l’un des secteurs les plus énergivores contribuant à la consommation mondiale d’énergie et de ressources ainsi qu’aux émissions de dioxyde de carbone. Des efforts ont été réalisés pour augmenter l’efficacité des procédés en interne mais le potentiel d’amélioration est de plus en plus limité. Ce travail de recherche porte donc sur la symbiose industrielle comme solution pour faire face aux enjeux environnementaux sur un territoire industriel et pour laquelle les usines sidérurgiques ont un rôle majeur à jouer. Une nouvelle méthodologie et un nouvel outil évaluant dans le temps les impacts économiques et environnementaux de scénarios de symbiose industrielle sur ces sites ont été développés. Basés sur la dynamique des systèmes, ils visent à favoriser l’emploi des symbioses industrielles dans ce contexte industriel en proposant une approche systématique pour évaluer leurs performances.La méthode développée est décrite après l’étude de ses fondements théoriques. Elle est ensuite appliquée à une usine sidérurgique intégrée typique. Un modèle dynamique est ainsi construit et validé sur une période de simulation de deux ans afin de simuler tout scénario de symbiose industrielle impliquant des flux d'énergie et de matières relatifs aux activités sidérurgiques. Un cas concret d'application de symbiose industrielle dans des conditions opérationnelles réelles est enfin proposé et simulé. Il montre la valeur ajoutée de ce travail de recherche qui vient en support des processus de prise de décisions en matière de symbiose industrielle dans le contexte de l’industrie sidérurgique
Iron and steel industry is known as one of the most energy-intensive sectors which contribute to worldwide energy and resource consumptions as well as carbon dioxide emissions. Many efforts have been made to increase the efficiency of internal processes but the potential of improvement tends to be more and more limited. This research work is thus focused on industrial symbiosis as a mean to face these environmental stakes on a common industrial territory and for which iron and steel plants have a major role to play. A new methodology and a new tool aiming at evaluating over time economic and environmental impacts of industrial symbiosis scenarios on this kind of industrial sites have been therefore developed. Based on the system dynamics concepts, they further yearn to enhance the deployment of industrial symbioses in the context of iron and steel industry by providing a systematic approach for assessing their performances.The developed method is described after investigating its theoretical foundations. It is then applied to a typically integrated iron and steel plant. A dynamic model is thus built and validated over a two year simulation period enabling to run industrial symbiosis scenarios involving energy and material flows implied throughout iron and steel production activities. An application case of a concrete industrial symbiosis in real operational conditions is finally proposed and simulated. It allows showing the significant added value of this research work in the support of decisions-making processes towards industrial symbiosis in the framework of iron and steel industry
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Alhakim, Rshdee. „Optimisation des Performances de Réseaux de Capteurs Dynamiques par le Contrôle de Synchronisation dans les Systems Ultra Large Bande“. Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00838742.

Der volle Inhalt der Quelle
Annotation:
Mes travaux se situent dans les thématiques de la modélisation et de l'optimisation des systèmes de communication sans fil utilisés notamment dans les applications domotiques. Dans ce domaine, la communication par impulsion radio Ultra Large Bande (UWB-IR) est considérée comme une solution d'implémentation prometteuse, notamment pour les réseaux de capteurs, les applications de détection et de localisation. L'UWB offre un potentiel important aussi bien en termes de coût d'implémentation et de la faible consommation d'énergie que de sa bonne résolution temporelle et sa capacité de coexister avec les systèmes à bande étroite. Cependant, le processus de synchronisation constitue encore un verrou important qui doit être levé, pour permettre aux systèmes de transmission UWB d'atteindre un niveau de qualité (en terme BER) désiré. L'objectif de cette thèse est de développer des méthodes de contrôle de synchronisation permettant d'optimiser la qualité de transmission des signaux ULB. Il s'agit d'étudier la possibilité d'augmenter la précision de synchronisation dans la partie poursuite.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

CASASSO, ALESSANDRO. „Low enthalpy geothermal systems: coupled flow and heat transport modelling of the long-term performances of Borehole Heat Exchangers“. Doctoral thesis, Politecnico di Torino, 2012. http://hdl.handle.net/11583/2496975.

Der volle Inhalt der Quelle
Annotation:
The Ground Source Heat Pump (GSHP) is a promising technology for the heating and cooling of buildings with renewable energy sources. Borehole Heat Exchangers, in which heat is exchanged by circulating a heat carrier fluid into a pipe closed loop, are the most used typology. The energy performances of these plants depend from the properties of the BHE and of the soil. In this work, the operation of BHE for a period of 30 years has been simulated, using a finite-element subsurface flow and heat transport modelling code (FEFLOW). The relative influence of each BHE, hydrogeological and thermal soil property has been investigated, running a set of simulations and analyzing the resulting fluid temperatures in the closed loop to estimate the heat pump energy consumption. Comparing the results, we observe that the length is the most important BHE property, and it should be optimized in order to minimize the overall expense (installation and maintenance); also the pipe distance, the grout heat conductivity and the properties of the heat carrier fluid play an important role. The soil heat conductivity heavily influences the resulting fluid temperatures, and in-situ tests should be carried to predict the plant operation accurately. The presence of subsurface flow enhances the heat transfer in the subsoil, improving the heat pump performances. The heat dispersivity spatial dependence is still unknown, and this causes a strong uncertainty in the prediction of BHE operation in presence of groundwater flow.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Suchanek, Richard Donald III. „Breakdown Voltage Performances of Aluminum and Copper Conductor Wire Under Compression Stresses“. TopSCHOLAR®, 2016. http://digitalcommons.wku.edu/theses/1606.

Der volle Inhalt der Quelle
Annotation:
In the global, competitive market of energy transformation, increased operational expenses and depletion of raw materials have resulted in companies pursuing alternate materials to reduce consumer costs. In electrical applications, energy is transformed using materials with high electrical conductive properties. The conductive material used to transmit a signal is called conductor wire and is comprised of any material that has the ability to move charged particles from one point to another without propagation or delay. The conductor wire in many applications is encapsulated in epoxy resin called enamel. The enamel is the insulation system that provides necessary dielectric clearances to prevent voltage leakage. The most common form of energy transformation is the electric motor. Both copper and aluminum conductor wire are commonly used in electric motors, but copper is preferred due to thermal and electrical properties. However, there is a significant economic incentive to convert to aluminum conductor wire. Limited white papers are available comparing the performances of the two materials; the research is limited to physical and electrical performances of the raw material and does not take into considering the insulation. The conductor wire, which includes the insulation, is susceptible to damage during the manufacturing process and is an inherent risk if not fully understood. During the blocking process, the conductor wire is pushed and compressed into lamination slots. This process changes the conductor wire outer diameter to accommodate void spaces within the lamination slots. The percentage of slot area occupied by the conductor wire is known as slot fill. The higher the slot fill, the more wire occupying the available space. The higher the slot fill, the more force required to fill the slots. High slot fill motor designs provide a performance advantage with little associated cost. The more wire pressed into the slot, the higher the potential efficiency gains. However, high slot fill motors are more susceptible to damage. The study is designed to evaluate and measure the durability of aluminum and copper conductor wire under simulated compression stresses. Utilizing this information, electric motor manufacturers can push current design limits without affecting conductor wire quality and reliability.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Arias, Lopez José Luis. „Vertical-flow constructed wetlands for the treatment of wastewater and stormwater from combined sewer systems“. Phd thesis, INSA de Lyon, 2013. http://tel.archives-ouvertes.fr/tel-00961202.

Der volle Inhalt der Quelle
Annotation:
French vertical-flow constructed wetlands (VFCW) directly treating raw wastewater are known to perform well on for SS, COD and nitrification. They are also known to robustly cope with hydraulic overloads during rainfall events. Although numerous systems have been installed in areas equipped with a combined sewer, the limits of stormwater acceptance remain ill-defined and need to be improved. Looking at the various VFCW designs and usages reported in the literature, it is difficult to draw any consensus on their hydraulic limits. Consequently, designing VFCW to accept hydraulic overloads is a complex task, as local context strongly impacts inlet flows produced during rainfall events. Dynamic models appear a requisite for filter design in such cases. Numerical CW models have essentially focused on horizontal flow, with few attempting to study VFCW dynamics which are more commonly tackled via mechanistic models. Although mechanistic models are powerful tools for describing processes within the VFCW, they are generally too complicated to be readily used by designers. The choice between detailed description and easy handling will depend on the modelling aims. If the aim is a global design tool, simplified models offer a good alternative. However, the simplified models geared to studying VFCW dynamics are extremely reduced. They are easy-handling for design and well-adapted to specific purposes (combined sewer overflow -CSO- treatment) but not necessarily to VFCW treating combined sewer wastewater, where long-term infiltration rates vary significantly. Consequently, this PhD thesis work focused on developing a simplified hydraulic model of VFCW to guide designers through the process of adapting VFCW systems to treat domestic wastewater in both dry and rain events. The simplified model makes it possible to link (i) hydraulics, by simulation of ponding time variations, (ii) biological performances, by establishing "dysfunction alerts" based on treatment performance assessment and variations in online N forms effluent from the young VFCW. These "dysfunction alerts" plot the maximal hydraulic load that a filter can accept without compromising its biological activity. The simplified model was used to model long-term hydraulics in the VFCW (i) to analyze the impact of local context and filter design on hydraulic overload acceptance (using "dysfunction alerts" and bypass discharges) and (ii) to propose VFCW designs for accepting hydraulic overload in different contexts. The modelling demonstrates that VFCW can limit days with bypass discharges to less than 20 times per year without jeopardizing filter performances. Moreover, the most problematic scenario on stormwater treatment remains a watershed with high imperviousness coefficient and low slope under a Bretagne-type climate, demonstrating that the filter is more sensitive to periodicity and duration than to intensity of rainfall events.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Drebes, Andi. „Dynamic optimization of data-flow task-parallel applications for large-scale NUMA systems“. Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066330/document.

Der volle Inhalt der Quelle
Annotation:
Au milieu des années deux mille, le développement de microprocesseurs a atteint un point à partir duquel l'augmentation de la fréquence de fonctionnement et la complexification des micro-architectures devenaient moins efficaces en termes de consommation d'énergie, poussant ainsi la densité d'énergie au delà du raisonnable. Par conséquent, l'industrie a opté pour des architectures multi-cœurs intégrant plusieurs unités de calcul sur une même puce. Les sytèmes hautes performances d'aujourd'hui sont composés de centaines de cœurs et les systèmes futurs intègreront des milliers d'unités de calcul. Afin de fournir une bande passante mémoire suffisante dans ces systèmes, la mémoire vive est distribuée physiquement sur plusieurs contrôleurs mémoire avec un accès non-uniforme à la mémoire (NUMA). Des travaux de recherche récents ont identifié les modèles de programmation à base de tâches dépendantes à granularité fine comme une approche clé pour exploiter la puissance de calcul des architectures généralistes massivement parallèles. Toutefois, peu de recherches ont été conduites sur l'optimisation dynamique des programmes parallèles à base de tâches afin de réduire l'impact négatif sur les performances résultant de la non-uniformité des accès à la mémoire. L'objectif de cette thèse est de déterminer les enjeux et les opportunités concernant l'exploitation efficace de machines many-core NUMA par des applications à base de tâches et de proposer des mécanismes efficaces, portables et entièrement automatiques pour le placement de tâches et de données, améliorant la localité des accès à la mémoire ainsi que les performances. Les décisions de placement sont basées sur l'exploitation des informations sur les dépendances entre tâches disponibles dans les run-times de langages de programmation à base de tâches modernes. Les évaluations expérimentales réalisées reposent sur notre implémentation dans le run-time du langage OpenStream et un ensemble de benchmarks scientifiques hautes performances. Enfin, nous avons développé et implémenté Aftermath, un outil d'analyse et de débogage de performances pour des applications à base de tâches et leurs run-times
Within the last decade, microprocessor development reached a point at which higher clock rates and more complex micro-architectures became less energy-efficient, such that power consumption and energy density were pushed beyond reasonable limits. As a consequence, the industry has shifted to more energy efficient multi-core designs, integrating multiple processing units (cores) on a single chip. The number of cores is expected to grow exponentially and future systems are expected to integrate thousands of processing units. In order to provide sufficient memory bandwidth in these systems, main memory is physically distributed over multiple memory controllers with non-uniform access to memory (NUMA). Past research has identified programming models based on fine-grained, dependent tasks as a key technique to unleash the parallel processing power of massively parallel general-purpose computing architectures. However, the execution of task-paralel programs on architectures with non-uniform memory access and the dynamic optimizations to mitigate NUMA effects have received only little interest. In this thesis, we explore the main factors on performance and data locality of task-parallel programs and propose a set of transparent, portable and fully automatic on-line mapping mechanisms for tasks to cores and data to memory controllers in order to improve data locality and performance. Placement decisions are based on information about point-to-point data dependences, readily available in the run-time systems of modern task-parallel programming frameworks. The experimental evaluation of these techniques is conducted on our implementation in the run-time of the OpenStream language and a set of high-performance scientific benchmarks. Finally, we designed and implemented Aftermath, a tool for performance analysis and debugging of task-parallel applications and run-times
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Brugière, Timothée. „Oscillations des neutrinos sur et hors faisceau : étude des performances du système d’acquisition d’OPERA“. Thesis, Lyon 1, 2011. http://www.theses.fr/2011LYO10035/document.

Der volle Inhalt der Quelle
Annotation:
OPERA (Oscillation Project with Emulsion-tRacking Apparatus) est une expérience sur faisceau de neutrino située dans le Hall C du laboratoire souterrain du Gran Sasso (LNGS), en Italie, à une profondeur équivalente à 3.8 km d'eau (correspondant à une coupure en énergie à 1.5 TeV pour les muons à la surface). L'objectif premier d'OPERA est l'observation directe de l'oscillation νμ ➝ ντ dans le secteur des neutrinos atmosphériques par apparition d'événements ντ à 730km de la cible, dans un faisceau (CNGS) quasiment pur en νμ. OPERA est un détecteur hybride contenant une partie cible (~125 000 briques composées d'une succession de feuilles d'émulsion et de plomb) instrumentée et d'un spectromètre. La prise de données a commencé en 2006 et 55 000 événements neutrinos ont été enregistrés à ce jour. Le premier candidat ντ a été observé cette année. Le travail produit pendant cette thèse est axé suivant trois sujets principaux : la définition de règles de déclenchement du système d'acquisition du trajectographe pour les événements neutrinos du faisceau, la synchronisation des éléments du trajectographe et des plans de RPC ainsi que l'implémentation des résultats dans la simulation et l'étude de la faisabilité d'une analyse des oscillations des neutrinos atmosphériques dans les données hors-faisceau. La modification des règles de déclenchement du trajectographe a permis d'atteindre les valeurs proposées dans le proposal d'OPERA, ie une efficacité de déclenchement supérieure à 99%. Cette évolution a été rendu possible par la mise en place de fenêtres en temps en coïncidence avec le faisceau CNGS pendant lesquelles les coupures sont abaissées, permettant de récupérer les événements de basse multiplicité. Une étude poussée de l'intercalibration des détecteurs électroniques a permis la synchronisation de l'ensemble des informations venant des éléments du trajectographe et des RPC. Les résultats de cette analyse sont maintenant inclus dans la simulation du détecteur. Le travail de calibration a permis de produire une étude sur l'oscillation des neutrinos atmosphériques "hors-faisceau" grace à la détection de particules montantes. Les analyses présentées dans cette thèse ont permis une meilleure compréhension du détecteur d'OPERA et démontré sa capacité à observer des phénomènes ne dépendant pas du faiseau CNGS. Des analyses sur la détection des neutrinos atmosphériques et la caractérisation du flux de muons cosmiques (variations saisonnières entre autres) sont désormais possibles grace à la statistique accumulée et la compréhension plus fine des systèmes d'acquisition. Les corrections sur la propagation des signaux dans les détecteurs électroniques sont aujourd'hui utilisées pour la mesure de la vélocité des neutrinos du faisceau
OPERA (" Oscillation Project with Emulsion-tRacking Apparatus ") is a neutrino beam experiment located in hall C of the Gran Sasso underground laboratory (LNGS), in Italia, under a equivalent of 3.8 km water (corresponding to a cut at 1.5 TeV for the muons). The first purpose of OPERA is the direct observation of the νμ ➝ ντ oscillation in the atmospheric sector observing an ντ appearance 730 km away from the target in a quasi pure νμ beam (CNGS). OPERA is an hybrid detector with an instrumented target part (~125 000 bricks made with emulsion and lead sheets) and a spectrometer. The data taking have started in 2006 and 55 000 events have been registred. The first ντ candidate have been observed this year. The work done during this thesis is oriented around three main topics : Define the trigger rules of the target tracker acquisition system for beam neutrino events, synchronise target tracker and RPC elements, implement the results inside the simulation and the study of the feasibility of an atmospheric neutrino analysis using off-beam data. The new trigger rules succeeds to reach the values of OPERA proposal, ie a trigger efficiency greater than 99%. This improvement have been done thanks to coincidence time windows with the CNGS beam during which lower cut are applied, allowing low multiplicity events to be kept. A deep study of electronic detectors intercalibration makes possible the target tracker and RPC data synchronisation. The analysis results are now included in the official simulation. This calibration work have been then used for a study of " off-beam " atmospheric neutrino oscillation thanks to the selection of up-going particles. The analysis showed in the thesis have improved the OPERA detector understanding and demonstrate the feasability of an observation of phenomenoms independant from the CNGS beam. Analysis on atmospherics neutrino detection and muons flux caracterisation (seasonal variations for example) are now possible thanks to the accumulated statistics and the deeper understanding of the acquisition systems. Correction on signal propagation inside the electronic detectors are now used for a neutrino velocity measurement
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Martin, Alexis. „Infrastructure pour la gestion générique et optimisée des traces d’exécution pour les systèmes embarqués“. Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM001/document.

Der volle Inhalt der Quelle
Annotation:
La validation des systèmes est un des aspects critiques dans les phases de développement. Cette validation est d'autant plus importante pour les systèmes embarqués, dont le fonctionnement doit être autonome, mais aussi contraint par des limitations physiques et techniques. Avec la complexification des systèmes embarqués ces dernières années, l'applications de méthodes de validation durant le développement devient trop couteux, et la mise en place de mécanismes de vérification post-conception est nécessaire. L'utilisation de traces d'exécution, permettant de capturer le comportement du système lors de son exécution, se révèle efficace pour la compréhension et la validation des systèmes observés. Cependant, les outils d'exploitation de traces actuels se confrontent à deux défis majeurs, à savoir, la gestion de traces pouvant atteindre des tailles considérables, et l'extraction de mesures pertinentes à partir des informations bas-niveau contenues dans ces traces. Dans cette thèse, faite dans le cadre du projet FUI SoC-TRACE, nous présentons trois contributions. La première concerne la définition d'un format générique pour la représentation des traces d'exécution, enrichi en sémantique. La seconde concerne une infrastructure d'analyse utilisant des mécanismes de workflow permettant l'analyse générique et automatique de traces d'exécution. Cette infrastructure répond au problème de gestion des traces de tailles considérables textit{via} des mécanismes de streaming, permet la création d'analyses modulaires et configurables, ainsi qu'un enchainement automatique des traitements. Notre troisième contribution propose une méthode générique pour l'analyse de performances de systèmes Linux. Cette contribution propose à la fois la méthode et les outils de collecte de traces, mais aussi le workflow permettant d'obtenir des profils unifiés pour les traces capturées. La validation de nos propositions ont été faites d'une part sur des traces issues de cas d'usages proposés par STMicroelectronics, partenaire du projet, et d'autre part sur des traces issues de programmes de benchmarks. L'utilisation d'un format enrichi en sémantique a permis de mettre en évidence des anomalies d'exécutions, et ce de manière semi-automatique. L'utilisation de mécanismes de streaming au sein de notre infrastructure nous a permis de traiter des traces de plusieurs centaines de gigaoctets. Enfin, notre méthode d'analyse générique nous a permis de mettre en évidence, de manière automatique et sans connaissances a priori des programmes, le fonctionnement interne de ces différents benchmarks. La généricité de nos solutions a permis d'observer le comportement de programmes similaires sur des plates-formes et des architectures différentes, et d'en montrer leur impact sur les exécutions
Validation process is a critical aspect of systems development. This process is a major concern for embedded systems, to assess their autonomous behavior, led by technical and physical constraints. The growth of embedded systems complexity during last years prevents the use of complex and costly development processes such as formal methods. Thus, post-conception validations must be applied. Execution traces are effective for validation and understanding as they allow the capture of systems behavior during their executions. However, trace analysis tools face two major challenges. First, the management of huge execution traces. Second, the ability to retrieve relevant metrics, from the low-level information the trace contains. This thesis was done as part of the SoC-TRACE projet, and presents three contributions. Our first contribution is a definition of a generic execution trace format that expresses semantics. Our second contribution is a workflow-based infrastructure for generic and automatic trace analysis. This infrastructure addresses the problem of huge traces management using streaming mechanisms. It allows modular and configurable analyses, as well as automatic analyses execution. Our third contribution is about the definition of a generic performance analyses for Linux systems. This contribution provides methods and tools for trace recording, and also analysis workflow to obtain unified performance profiles. We validate our contributions on traces from use cases given by STMicroelectronics, partner of the project, and also on traces recorded from benchmarks executions. Our trace format with semantics allowed us to automatically bring out execution problems. Using streaming mechanisms, we have been able to analyze traces that can reach several hundreds of gigabytes. Our generic analysis method for systems let us to automatically highlight, without any prior knowledge, internal behavior of benchmark programs. Our generic solutions point out a similar execution behavior of benchmarks on different machines and architectures, and showed their impact on the execution
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Xiao, L. „A multiple-case study of self-perceived affective experiences and self-reported foreign language performances from a dynamic systems theory perspective“. Thesis, University of Warwick, 2016. http://wrap.warwick.ac.uk/88429/.

Der volle Inhalt der Quelle
Annotation:
This study aims to explore the non-linear interactions between the self-perceived affective experiences of a group of learners and their self-evaluated performances in a foreign language (FL) classroom through the lens of Dynamic Systems Theory (DST), a theory which developed from advances in the understanding of complex and nonlinear systems in physics and mathematics. The present study bridges several disciplines, namely, mathematics, physics, psychology, applied linguistics and education, in order to avoid over-simplifying the phenomenon by focusing on fragments of reality. This study endeavours to transcend the boundaries between the above disciplines. Abstract DST concepts from mathematics and physics were initially translated into tangible FL terms acceptable to social science researchers. In addition, in order to engage with the learners, a phenomenographic approach was adopted as a qualitative method to explore the dynamism of the learners’ affective experiences and their reflections on their experiences from a second order perspective. 12 second-year Chinese students of English from a Foreign Language University in China participated in this six-month longitudinal study. Diary, Qualitative Survey, Semi-structured Interview and Class Observation were utilised for data collection. Thematic Analysis (TA) was employed to describe the phenomena at a collective level. Finally, a three-layer model, the Dynamic Model of Foreign Language Development was proposed to draw a conclusion from this study, aiming to present a novel way of understanding the distinctive features of the learners’ constant self-evaluations and their perceptions in the different contexts across time. In summary, at a collective level, the relevant attractor states from the second layer, which were determined by three main forces, namely, cognition, emotion and motivation from the first layer, contribute to making up the relevant learning experiences in the third layer. This study has contributed to the under-studied area of emotions and performance in FL learning. Several research and pedagogical implications have been identified. The results of this study contribute to a possible way to figure out terminological issues in an interdisciplinary study. The findings suggest that DST could allow a researcher to situate emotions and performances in one iterative system. DST might provide a possible logical solution to such a causality dilemma.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Laurent, Faustine. „Évaluation des performances environnementales de l'insertion d'une filière de méthanisation centralisée au sein d'un territoire“. Thesis, Rennes 1, 2015. http://www.theses.fr/2015REN1S022/document.

Der volle Inhalt der Quelle
Annotation:
En France, le développement rapide de la méthanisation, procédé de production d'énergie renouvelable par dégradation de résidus organiques, soulève la question de la pertinence environnementale de la filière. Cette dernière mérite d'autant plus d'être évaluée que le développement de la filière est inscrit dans les plans climatiques et énergétiques nationaux. La méthanisation centralisée s'insère d'ailleurs de manière profitable dans diverses démarches d'écologie industrielle et territoriale (EIT), au sein desquelles la multifonctionnalité du procédé constitue un atout substantiel en faveur du bouclage des flux de matière et d'énergie. Cette multifonctionnalité représente néanmoins la principale source de difficultés méthodologiques rencontrées lors de l'évaluation des performances environnementales de systèmes de méthanisation. Sa résolution, à savoir la définition de la fonction principale d'un système, passe par la contextualisation de la méthode. Pour l'analyse du cycle de vie (ACV), cette contextualisation se révèle pertinente dès la première étape de la méthodologie. Ce travail de thèse propose un cadre conceptuel visant à définir des scénarios de méthanisation contraints par leur territoire d'implantation. Pour cela, une approche systémique territoriale, impliquant les systèmes d'information géographique (SIG) et la modélisation orientée objet, a été développée. Elle résulte en un modèle spatial de l'insertion territoriale d'une filière de méthanisation centralisée, qui intègre l'ensemble de ses éléments constitutifs, réseaux ou variables. A l'issue de l'approche systémique a lieu une phase d'optimisation fonctionnelle et spatiale qui met en jeu trois séries successives d'indicateurs, permettant de définir : (i) la fonction principale que remplirait un système de méthanisation au sein du territoire étudié, (ii) les configurations possibles d'un système de méthanisation qui puissent satisfaire à cette fonction principale et (iii) les zones préférentielles d'implantation des scénarios élaborés. Cette méthodologie, conçue de manière à être transposable à tout territoire français, s'intègre aux étapes de l'ACV de définition des objectifs et d'inventaire du cycle de vie. Afin de valider l'applicabilité de la méthode développée, deux territoires contrastés ont été soumis à l'approche systémique territoriale. Ces cas d'étude ont mis en évidence les liens entre spécificités territoriales et conception de la filière. L'influence de la fonction principale retenue pour un système de méthanisation sur la réalisation et les résultats de l'ACV a par ailleurs été étudiée pour l'un de ces territoires. Les différences les plus notoires tiennent aux substitutions et montrent l'importance de développer la méthanisation en priorité lorsque le contexte local permet aux fonctions multiples de la filière de remplacer des filières existantes dont les impacts sur l'environnement sont particulièrement préjudiciables
In France, the rapid development of anaerobic digestion (a process used to generate renewable energy by breaking down organic residues) has led to the environmental relevance of this solution being questioned. It is particularly worthwhile evaluating inasmuch as development of the sector forms part of national climate and energy plans. Centralised anaerobic digestion also fits in profitably with various industrial ecology approaches, with the multifunctionality of the process constituting a substantial asset in that it favours circular flows of materials and energy. However, this multifunctionality also represents the main source of the methodological difficulties encountered in the evaluation of the environmental performance of anaerobic digestion systems. Resolving this, i.e. defining the main function of a system, requires the environmental evaluation method to be contextualised. For life cycle assessment (LCA), this contextualisation emerges as being appropriate to the first stage of the methodology. This thesis puts forward a conceptual framework, aimed at defining anaerobic digestion scenarios that are consistent with the particularities of the territory in which they are located. To do this, a territorial systemic approach, involving geographic information systems (GIS) and object-oriented modelling, was developed. The approach has resulted in a spatial model for territorial location of a centralised anaerobic digestion solution, incorporating all its component parts, networks and variables. The systemic approach was followed by a phase of functional and spatial optimisation involving three successive sets of indicators, enabling the following to be defined: (i) the main function to be played by an anaerobic digestion system within the territory studied, (ii) the possible configurations of an anaerobic digestion system capable of fulfilling this main function and (iii) the preferential zones for locating the scenarios envisaged. This methodology, designed to be transposable to any territory within France, forms part of the first two LCA stages, i.e. definition of objectives and life cycle inventory. In order to validate the applicability of the method developed, the territorial systemic approach was applied to two different territories. These case studies highlight the links between specific territorial characteristics and the design of the local solution. The influence of the main function selected for an anaerobic digestion system on the performance and results of the LCA was also studied for one of these territories. The most noteworthy differences relate to substitution, highlighting the importance of developing anaerobic digestion as a priority when the local context makes it possible for the multiple functions of the solution to replace existing sectors with particularly harmful effects on the environment
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Boudhaim, Marouane. „Optical and thermal performance of complex fenestration systems in the context of building information modelling“. Thesis, Strasbourg, 2018. http://www.theses.fr/2018STRAD032/document.

Der volle Inhalt der Quelle
Annotation:
L'efficacité énergétique du bâtiment occupe une place importante dans les projets de construction. La façade, intermédiaire entre l'environnement et l'intérieur, joue un rôle clé pour déterminer les performances énergétiques du bâtiment. Les systèmes de fenestration complexes sont généralement utilisés pour améliorer son efficacité. L'étude des performances de la façade inclut généralement la consommation d'énergie, l'éclairage naturel et les aspects de confort visuel et thermique. Les efforts récents s'orientent vers l'utilisation de modèles intelligents tels que le Building Information Modeling. CFS pourraient être facilement comparées dans la phase de conception du bâtiment afin d'optimiser ses performances. Nous présentons une méthodologie pour transformer le modèle architectural du BIM en modèle énergétique ainsi que des modèles optique et thermique du CFS compatibles avec le BIM. Ces modèles sont validés par une comparaison avec des données expérimentales et les normes actuelles
The energy efficiency of the building occupies an important place in construction projects. The facade plays a key role in determining the performance of the building. Complex fenestration systems (CFS) are therefore generally used to improve its efficiency. The facade's performance evaluation usually includes energy consumption, natural lighting, visual and thermal comfort aspects in order to choose the optimal CFS. Recent efforts have focused on using rich models such as Building Information Modeling (BIM). These models provide an opportunity for automation and cost savings. Several CFS models could easily be compared to optimize the building's performance. In this thesis, we present a methodology to transform the architectural model of the BIM into a Building Energy Model compatible with several simulation software. We also present optical and thermal models compatible with BIM. These models are validated by comparison with experimental data and current standards
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Hmad, Ouadie. „Evaluation et optimisation des performances de fonctions pour la surveillance de turboréacteurs“. Thesis, Troyes, 2013. http://www.theses.fr/2013TROY0029.

Der volle Inhalt der Quelle
Annotation:
Cette thèse concerne les systèmes de surveillance des turboréacteurs. Le développement de tels systèmes nécessite une phase d’évaluation et d’optimisation des performances, préalablement à la mise en exploitation. Le travail a porté sur cette phase, et plus précisément sur les performances des fonctions de détection et de pronostic de deux systèmes. Des indicateurs de performances associés à chacune de ces fonctions ainsi que leur estimation ont été définis. Les systèmes surveillés sont d’une part la séquence de démarrage pour la fonction de détection et d’autre part la consommation d’huile pour la fonction de pronostic. Les données utilisées venant de vols en exploitation sans dégradations, des simulations ont été nécessaires pour l’évaluation des performances. L’optimisation des performances de détection a été obtenue par réglage du seuil sur la statistique de décision en tenant compte des exigences des compagnies aériennes exprimées en termes de taux de bonne détection et de taux d’alarme fausse. Deux approches ont été considérées et leurs performances ont été comparées pour leurs meilleures configurations. Les performances de pronostic de surconsommations d’huile, simulées à l’aide de processus Gamma, ont été évaluées en fonction de la pertinence de la décision de maintenance induite par le pronostic. Cette thèse a permis de quantifier et d’améliorer les performances des fonctions considérées pour répondre aux exigences. D’autres améliorations possibles sont proposées comme perspectives pour conclure ce mémoire
This thesis deals with monitoring systems of turbojet engines. The development of such systems requires a performance evaluation and optimization phase prior to their introduction in operation. The work has been focused on this phase, and more specifically on the performance of the detection and the prognostic functions of two systems. Performances metrics related to each of these functions as well as their estimate have been defined. The monitored systems are, on the one hand, the start sequence for the detection function and on the other hand, the oil consumption for the prognostic function. The used data come from flights in operation without degradation, simulations of degradation were necessary for the performance assessment. Optimization of detection performance was obtained by tuning a threshold on the decision statistics taking into account the airlines requirements in terms of good detection rate and false alarm rate. Two approaches have been considered and their performances have been compared for their best configurations. Prognostic performances of over oil consumption, simulated using Gamma processes, have been assessed on the basis of the relevance of maintenance decision induced by the prognostic. This thesis has allowed quantifying and improving the performance of the two considered functions to meet the airlines requirements. Other possible improvements are proposed as prospects to conclude this thesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Drebes, Andi. „Dynamic optimization of data-flow task-parallel applications for large-scale NUMA systems“. Electronic Thesis or Diss., Paris 6, 2015. http://www.theses.fr/2015PA066330.

Der volle Inhalt der Quelle
Annotation:
Au milieu des années deux mille, le développement de microprocesseurs a atteint un point à partir duquel l'augmentation de la fréquence de fonctionnement et la complexification des micro-architectures devenaient moins efficaces en termes de consommation d'énergie, poussant ainsi la densité d'énergie au delà du raisonnable. Par conséquent, l'industrie a opté pour des architectures multi-cœurs intégrant plusieurs unités de calcul sur une même puce. Les sytèmes hautes performances d'aujourd'hui sont composés de centaines de cœurs et les systèmes futurs intègreront des milliers d'unités de calcul. Afin de fournir une bande passante mémoire suffisante dans ces systèmes, la mémoire vive est distribuée physiquement sur plusieurs contrôleurs mémoire avec un accès non-uniforme à la mémoire (NUMA). Des travaux de recherche récents ont identifié les modèles de programmation à base de tâches dépendantes à granularité fine comme une approche clé pour exploiter la puissance de calcul des architectures généralistes massivement parallèles. Toutefois, peu de recherches ont été conduites sur l'optimisation dynamique des programmes parallèles à base de tâches afin de réduire l'impact négatif sur les performances résultant de la non-uniformité des accès à la mémoire. L'objectif de cette thèse est de déterminer les enjeux et les opportunités concernant l'exploitation efficace de machines many-core NUMA par des applications à base de tâches et de proposer des mécanismes efficaces, portables et entièrement automatiques pour le placement de tâches et de données, améliorant la localité des accès à la mémoire ainsi que les performances. Les décisions de placement sont basées sur l'exploitation des informations sur les dépendances entre tâches disponibles dans les run-times de langages de programmation à base de tâches modernes. Les évaluations expérimentales réalisées reposent sur notre implémentation dans le run-time du langage OpenStream et un ensemble de benchmarks scientifiques hautes performances. Enfin, nous avons développé et implémenté Aftermath, un outil d'analyse et de débogage de performances pour des applications à base de tâches et leurs run-times
Within the last decade, microprocessor development reached a point at which higher clock rates and more complex micro-architectures became less energy-efficient, such that power consumption and energy density were pushed beyond reasonable limits. As a consequence, the industry has shifted to more energy efficient multi-core designs, integrating multiple processing units (cores) on a single chip. The number of cores is expected to grow exponentially and future systems are expected to integrate thousands of processing units. In order to provide sufficient memory bandwidth in these systems, main memory is physically distributed over multiple memory controllers with non-uniform access to memory (NUMA). Past research has identified programming models based on fine-grained, dependent tasks as a key technique to unleash the parallel processing power of massively parallel general-purpose computing architectures. However, the execution of task-paralel programs on architectures with non-uniform memory access and the dynamic optimizations to mitigate NUMA effects have received only little interest. In this thesis, we explore the main factors on performance and data locality of task-parallel programs and propose a set of transparent, portable and fully automatic on-line mapping mechanisms for tasks to cores and data to memory controllers in order to improve data locality and performance. Placement decisions are based on information about point-to-point data dependences, readily available in the run-time systems of modern task-parallel programming frameworks. The experimental evaluation of these techniques is conducted on our implementation in the run-time of the OpenStream language and a set of high-performance scientific benchmarks. Finally, we designed and implemented Aftermath, a tool for performance analysis and debugging of task-parallel applications and run-times
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Frechard, Jonathan. „Systèmes d'entraînement de bandes flexibles : optimisation multicritère des performances dynamiques par approche évolutionnaire“. Thesis, Strasbourg, 2013. http://www.theses.fr/2013STRAD015/document.

Der volle Inhalt der Quelle
Annotation:
La conception des systèmes d'entrainement de bande est étudiée depuis de nombreuses années. Ces systèmes sont très répandus dans l'industrie puisque le conditionnement sous forme de bobines simplifie le traitement de nombreux matériaux tels que le papier, le carton, les polymères, ... Ces systèmes regroupent un grand nombre de difficultés : ils sont de grande dimension, un fort couplage existe entre les grandeurs et de nombreux paramètres varient au cours du temps. La méthode d’optimisation classique consiste à considérer chaque partie du système sans tenir compte des autres. De plus, au sein d'un même sous-ensemble, l’optimisation est réalisée discipline par discipline. Une nouvelle approche est proposée et appliquée à la synthèse de la commande : il s’agit de considérer le système global en prenant en compte la robustesse paramétrique. Ensuite, le choix optimal du tracteur maître et de la technologie d'asservissement de la tension de bane associée sont étudiées
The design of roll-to-roll systems is studied for several years. This kind of system is very common in industry because the wound roll packaging simplify the treatment of material such as paper, cardboard, polymers, metal ... The studied systems have a high number of difficulties: they are large scale systems, a high coupling between physical values exists and several parameters are time dependent. The classical optimisation method consists in considering separately each subsystem without taking into account interactions. Moreover, the classical optimisation is made for each scientific field. A new approach is developed and applied to controller synthesis: the controllers are synthesized considering the global system with parametric uncertainties. The optimal choice of the master roller position and the technology used to control web tension are then studied
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Bava, Saliha. „Transforming Performances: An Intern-Reseacher's Hypertextual Journey in a Postmodern Community“. Diss., Virginia Tech, 2001. http://hdl.handle.net/10919/25951.

Der volle Inhalt der Quelle
Annotation:
I present the dissertation web as a montage of a postmodern inquiry of my doctoral internship and research experiences—concerns and jubilation—positioned within the discourses of postmodern, dissertation, academia, experimentalism and cyberspace innovations among others. I create a social constructionistic interactive interplay, using hypertext, among my various voices of an intern, a researcher and a person. In the dissertation web—my inquiry—I practice the characterization of postmodernism on numerous fronts—subject of study, context of study, methodology and re-presentation of the inquiry. Implicitly and explicitly, I articulate the various characterizations of postmodernism in my inquiry by challenging the traditional research practices (metanarratives). I challenge the traditional praxis by alternate performances of research practices such as studying myself in a cultural context of an internship using the methodology of autoethnography and performance. The hypertext docuverse is a further characterization of postmodernism in the styles and structures that are used for re-presentation of the narratives. The styles of narration I useâ such as words and graphics, prose and poetry, first person conversational texts, narratives and collages—blur the boundary of "academic" writing, literature, and art. The hypertext is intended as a metaphorical experiential, intertextual journey of an intern and a researcher. Rather than a fixed structure, I create numerous structures of possible structures to privilege the readers' navigational choices. I anticipate that the reader's choices in the virtual space might create a sense of meaning-transformation as one traverses through the dissertation web, thus, valuing fragmentation and connection as aspects of sense-making, which are contextualized (among others) by the reader's meaning frames and my hypertextual performances. The dissertation is submitted in three formats—exclusive dissertation web.pdf, intertextual dissertation web.pdf, and xml version. The exclusive dissertation web.pdf is a web capture in pdf format of all the "files" that compose the dissertation web created in html. The intertextual dissertation web.pdf is a web capture of my dissertation along with the capture of external web resources that contextualize my dissertation web, thus illustrating the intertextuality of hypertexts by making the dissertation part of the larger textual web. Due to the web capture, the "docuverse" is nonlinear and the pages do not follow any particular or author predefined sequences. So, please use the internal links or the bookmarks to read or browse the dissertation web rather than scroll from the first "page" to the last "page" of the pdf formatted docuverse. The third version in xml will be made available at a later date. An html version of the dissertation is available directly from the researcher-author. CAUTION! The links from the abstract may be broken due to archiving of the dissertation web.
Ph. D.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Hascoët, Julien. „Contributions to Software Runtime for Clustered Manycores Applied to Embedded and High-Performance Applications“. Thesis, Rennes, INSA, 2018. http://www.theses.fr/2018ISAR0029/document.

Der volle Inhalt der Quelle
Annotation:
Le besoin en calculs est toujours plus important et difficile à satisfaire, spécialement dans le domaine de l’informatique embarquée qui inclue les voitures autonomes, drones et téléphones intelligents. Les systèmes embarqués doivent respecter des contraintes fortes de temps, de consommation et de sécurité. Les nouveaux processeurs parallèles et hétérogènes comme le MPPA® de Kalray utilisé dans cette thèse, doivent alors combiner haute performance et basse consommation. Pour cela, le MPPA® intègre 288 coeurs, regroupés en 18 clusters à mémoire locale partagée, un réseau sur puce et des moteurs DMA pour les communications. Ces processeurs sont difficiles à programmer, engendrant des coûts de développement importants. Cette thèse a pour objectif de simplifier leur programmation tout en optimisant les performances finales. Nous proposons pour cela AOS, une librairie de communication et synchronisation haute performance gérant les mémoires locales distribuées des processeurs clustérisés. La librairie atteint 70% de la crête matérielle pour des transferts supérieurs à 8 KB. Nous proposons plusieurs outils de développement basés sur AOS et des modèles de programmation flux-dedonnées pour accélérer le développement d’applications parallèles pour processeurs clustérisés, notamment OpenVX qui est un nouveau standard pour les applications de vision et les réseaux de neurones. Nous automatisons l’optimisation de l’application OpenVX en faisant du pré-chargement de données et en les fusionnants, pour éviter le mur de la bande passante mémoire externe. Les résultats montrent des facteurs d’accélération super linéaires
The growing need for computing is more and more challenging, especially in the embedded system world with autonomous cars, drones, and smartphones. New highly parallel and heterogeneous processors emerge to answer this challenge. They operate in constrained environments with real-time requirements, reduced power consumption, and safety. Programming these new chips is a time-consuming and challenging task leading to huge software development costs. The Kalray MPPA® processor is a competitive example for low-power super-computing on a single chip. It integrates up to 288 VLIW cores grouped in 18 clusters, each fitted with shared local memory. These clusters are interconnected with a high-bandwidth network-on-chip, and DMA engines are used to communicate. This processor is used in this thesis for experimental results. We propose the AOS library enabling highperformance communications and synchronizations of distributed local memories on clustered manycores. AOS provides 70% of the peak hardware throughput for transfers larger than 8 KB. We propose tools for the implementation of static and dynamic dataflow programs based on AOS to accelerate the parallel application developments onto clustered manycores. We propose an implementation of OpenVX for clustered manycores on top of AOS. OpenVX is a standard based on dataflow for the development of computer vision and neural network computing. The proposed OpenVX implementation includes automatic optimizations like data prefetch to overlap communications and computations, or kernel fusion to avoid the main memory bandwidth bottleneck. Results show super-linear speedups
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Adefisoye, James Olusegun. „An Assessment of the Performances of Several Univariate Tests of Normality“. FIU Digital Commons, 2015. http://digitalcommons.fiu.edu/etd/1858.

Der volle Inhalt der Quelle
Annotation:
The importance of checking the normality assumption in most statistical procedures especially parametric tests cannot be over emphasized as the validity of the inferences drawn from such procedures usually depend on the validity of this assumption. Numerous methods have been proposed by different authors over the years, some popular and frequently used, others, not so much. This study addresses the performance of eighteen of the available tests for different sample sizes, significance levels, and for a number of symmetric and asymmetric distributions by conducting a Monte-Carlo simulation. The results showed that considerable power is not achieved for symmetric distributions when sample size is less than one hundred and for such distributions, the kurtosis test is most powerful provided the distribution is leptokurtic or platykurtic. The Shapiro-Wilk test remains the most powerful test for asymmetric distributions. We conclude that different tests are suitable under different characteristics of alternative distributions.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Cornillet, Nicolas. „Convergence des réseaux de télécommunications mobiles et de télédiffusion : modélisation et évaluation des performances d’un réseau hybride LTE/DVB-T2“. Thesis, Rennes, INSA, 2013. http://www.theses.fr/2013ISAR0034/document.

Der volle Inhalt der Quelle
Annotation:
Ces dernières années, la popularité croissante de terminaux mobiles de plus en plus intelligents a provoqué une hausse considérable du trafic supporté par les réseaux de télécommunications cellulaires. Dans ce contexte, le déploiement de réseaux dits de quatrième génération basés sur le standard LTE (Long Term Evolution) et offrant des capacités significativement plus élevées que les réseaux de générations précédentes peut sembler être une solution idéale. Cependant, dans le cas d’un service à délivrer à un très grand nombre d’utilisateurs, ce standard, malgré la disponibilité de la technologie eMBMS (Evolved Multimedia Broadcast Multicast Services), n’est pas forcément le plus adapté. Dans le même temps, la télévision a achevé dans de nombreux pays sa transition vers le numérique. L’abandon de la transmission analogique a permis non seulement d’améliorer la qualité du service mais aussi d’occuper moins de spectre. En France, une partie du spectre libéré a déjà été attribué au déploiement de réseaux LTE. Une autre méthode permettant d’exploiter ce spectre au profit des réseaux de communications mobiles est proposée dans cette thèse : le réseau hybride. Le réseau hybride est constitué d’un réseau cellulaire au standard LTE accompagné d’un émetteur DVB-T2 (Digital Video Broadcasting – Second Generation Terrestrial). Les aires de couverture de ces deux composantes se superposent et un service peut être transmis aux utilisateurs présents dans ces aires indifféremment par l’une ou l’autre des composantes. Ce concept permet de pallier un point faible du standard LTE, c’està- dire la capacité à délivrer efficacement un même service à un grand nombre d’utilisateurs simultanément. Après une étude approfondie des deux standards utilisés, un modèle mathématique du réseau hybride est proposé. Ce modèle se base sur les propriétés géométriques du réseau hybride, les performances des deux types de signaux utilisés, et sur plusieurs types de répartition des utilisateurs pour évaluer les performances du réseau hybride selon différents critères. Le premier critère étudié est un critère énergétique. Le modèle proposé permet de comparer les efficacités énergétiques des deux composantes pour transmettre un service en fonction de son nombre d’utilisateurs. L’efficacité de la composante DVBT2 dépasse celle de la composante LTE à partir d’un seuil dont la valeur varie avec les propriétés géométriques du réseau et le type d’affaiblissement de propagation auquel sont soumis les signaux. Il est de plus possible, dans certaines circonstances, d’améliorer encore l’efficacité énergétique du système en utilisant conjointement les deux composantes. Le second critère étudié est celui de l’encombrement du réseau cellulaire. En effet, un service consommé par un grand nombre d’utilisateurs peut avoir un impact conséquent sur le trafic à transmettre par un réseau LTE. Utiliser la composante DVB-T2 pour distribuer un tel service permet de réduire la charge du réseau cellulaire, et ceci même dans le cas où la composante DVB-T2 ne couvre pas l’ensemble de la zone à desservir globalement. Ces différentes études ont permis de bien mettre en évidence les avantages et inconvénients des deux types de réseaux broadcast et unicast. En particulier, l’intérêt d’une approche reposant sur l’utilisation d’un réseau hybride exploitant la complémentarité des deux composantes broadcast et unicast a été démontré
During the last few years, the growing popularity of smarter and smarter mobile devices has led to a tremendous growth of cellular data traffic. In such a context, the deployment of fourth generation networks based on the LTE (Long Term Evolution) standard and with capacities significantly higher than previous generations networks can be seen as an ideal solution. However, when the number of users requiring a given service is large, this standard, despite the availability of the eMBMS (Evolved Multimedia Broadcast Multicast Services) technology, is not necessarily the most suitable. Meanwhile, television has completed its transition to the digital transmission in many countries. The analog switch-off has not only allowed a better quality of service but has also freed some spectrum. In France, some of this spectrum has already been used for the deployment of LTE networks. This thesis introduces another way to use this spectrum to the benefit of mobile data networks: the hybrid network. The hybrid network consists of a LTE cellular network and a DVB-T2 (Digital Video Broadcasting – Second Generation Terrestrial) transmitter. The coverage areas of the two components are overlapping and a service can be delivered to the users located in these areas by either one or the other of the components. This concept can compensate one weakness of the LTE standard, which is the ability to deliver efficiently the same service to a large number of users simultaneously. After a thorough study of the two standards in use, a mathematical model of the hybrid network is proposed. This model is based on the geometrical properties of the network, the performances of the two types of signal, and different types of users distribution to measure the performances of the hybrid network using different criteria. The first criterion is the energy efficiency. The proposed model allows the comparison of the two components in terms of energy efficiency for one service depending of the number of its users. The DVB-T2 component outperforms the LTE component when the number of users exceeds a given threshold whose value depends on the geometric properties of the network and the type of path loss attenuating the signals. It is possible, in some cases, to further improve the energy efficiency of the system by using both components together. The second criterion is the network congestion. Indeed, a service with a great number of users can induce significant data traffic for the LTE network. Transmitting such a service through the DVB-T2 component can decrease the cellular data traffic even if the DVB-T2 component does not cover the whole area of interest. These studies have brought out the benefits and drawbacks of both broadcast and unicast networks. Especially, the interest of the hybrid network based on the complementarities between the two components has been demonstrated
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Dollinger, Jean-François. „A framework for efficient execution on GPU and CPU+GPU systems“. Thesis, Strasbourg, 2015. http://www.theses.fr/2015STRAD019/document.

Der volle Inhalt der Quelle
Annotation:
Les verrous technologiques rencontrés par les fabricants de semi-conducteurs au début des années deux-mille ont abrogé la flambée des performances des unités de calculs séquentielles. La tendance actuelle est à la multiplication du nombre de cœurs de processeur par socket et à l'utilisation progressive des cartes GPU pour des calculs hautement parallèles. La complexité des architectures récentes rend difficile l'estimation statique des performances d'un programme. Nous décrivons une méthode fiable et précise de prédiction du temps d'exécution de nids de boucles parallèles sur GPU basée sur trois étapes : la génération de code, le profilage offline et la prédiction online. En outre, nous présentons deux techniques pour exploiter l'ensemble des ressources disponibles d'un système pour la performance. La première consiste en l'utilisation conjointe des CPUs et GPUs pour l'exécution d'un code. Afin de préserver les performances il est nécessaire de considérer la répartition de charge, notamment en prédisant les temps d'exécution. Le runtime utilise les résultats du profilage et un ordonnanceur calcule des temps d'exécution et ajuste la charge distribuée aux processeurs. La seconde technique présentée met le CPU et le GPU en compétition : des instances du code cible sont exécutées simultanément sur CPU et GPU. Le vainqueur de la compétition notifie sa complétion à l'autre instance, impliquant son arrêt
Technological limitations faced by the semi-conductor manufacturers in the early 2000's restricted the increase in performance of the sequential computation units. Nowadays, the trend is to increase the number of processor cores per socket and to progressively use the GPU cards for highly parallel computations. Complexity of the recent architectures makes it difficult to statically predict the performance of a program. We describe a reliable and accurate parallel loop nests execution time prediction method on GPUs based on three stages: static code generation, offline profiling, and online prediction. In addition, we present two techniques to fully exploit the computing resources at disposal on a system. The first technique consists in jointly using CPU and GPU for executing a code. In order to achieve higher performance, it is mandatory to consider load balance, in particular by predicting execution time. The runtime uses the profiling results and the scheduler computes the execution times and adjusts the load distributed to the processors. The second technique, puts CPU and GPU in a competition: instances of the considered code are simultaneously executed on CPU and GPU. The winner of the competition notifies its completion to the other instance, implying the termination of the latter
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Kuntz, Fabien. „Une approche basée modèle pour l’optimisation du monitoring de systèmes avioniques relativement à leurs performances de diagnostic“. Thesis, Bordeaux 1, 2013. http://www.theses.fr/2013BOR14825/document.

Der volle Inhalt der Quelle
Annotation:
Les systèmes avioniques s'étoffent et se complexifient de plus en plus. Avec l'augmentation des capacités de calcul, de nouvelles architectures basées sur le partage de ressources émergent. Effectuer le diagnostic d'un système n'est désormais plus une opération anodine. L'enjeu actuel est donc de mettre en place des techniques de diagnostic performantes tout en optimisant les capacités de monitoring nécessaires.Ce mémoire donne une caractérisation basée modèle d'un système sous diagnostic, puis propose des techniques pour en évaluer les performances de diagnostic, ainsi que celles de son monitoring (relativement à ces performances). Le contexte industriel dans lequel s'inscrit cette thèse amène d'autres contraintes, notamment la prise en compte de la taille des systèmes avioniques à analyser. Cette thèse étudie alors l'applicabilité des techniques introduites dans ce contexte et en propose une adaptation
Avionics systems become more and more complex. With the improvment of computing possibilities, new architectures based on resources sharing are growing up. Perform diagnosis of a system is no longer a trivial operation. The challenge is to develop efficient techniques of diagnosis while optimizing capabilities of monitoring required.This thesis give a model-based characterization of a system under diagnosis, and proposes techniques to assess diagnostic performances, as well as its monitoring ones (with respect to these diagnostic performances). The industrial context of this thesis brings other constraints, and in particular the need to handle the size of avionics systems to analyze. That thesis then examines the applicability of the introduced techniques to this particular context, and proposes an adaptation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Raju, Parvathy Suresh. „How to integrate life cycle thinking in the working process at Volvo Group Real Estate to improve the environmental performances of new dealerships“. Thesis, KTH, Hållbar utveckling, miljövetenskap och teknik, 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-284346.

Der volle Inhalt der Quelle
Annotation:
Dealerships are the main interface for customer interaction when it comes to a multinational manufacturing company like Volvo Group. A lot of studies in the field of environmental impact is done on different kind of buildings like office buildings, residential buildings, public buildings etc by performing Life Cycle Analysis (LCA), Life Cycle Cost analysis (LCC) etc. However, the number of studies done on an industrial building are very less when compared to other types of buildings. Industrial buildings are equally important in the construction industry since they play a good share in environmental impacts caused by buildings. The main objective of the thesis is to analyse the working process at VGRE and suggest ways to incorporate life cycle thinking in their working process to improve the environmental performance of new dealerships. Interviews were conducted with VGRE employees; literature reviews were done and analysis of internal documents from VGRE were studied and analysed as a part of the thesis. The views and opinions of the VGRE employees in the area of environment impact reduction, life cycle assessment and certification scheme/system were obtained and the steps involved in the development of a dealership as well as the different type of contract were also studied from the internal documents provided from VGRE. Cost was one of the main barrier/challenges in all the cases. Lack of interest in getting a dealership certified was also mentioned during the interviews. Energy saving measures like the solar panels were considered as additional cost for a building. Their preference in referring to previous Life Cycle studies of similar buildings rather than doing a Life cycle study on each building was also observed.
I syfte att identifiera hur man integrerar livscykeltänkande i arbetsprocessen hos Volvo Group Real Estate (VGRE) för att förbättra miljöprestanda för nya återförsäljare är detta examensarbete i princip en analys av arbetsprocessen hos Volvo som gjordes genom att göra intervjuer med Volvos anställda både i Göteborg, Sverige och Finland. Litteraturöversikter om livscykelanalys (LCA) samt certifieringssystem var också en del av metodiken. Slutligen analyserades och studerades några interna dokument från Volvo. LCA på Volvo, hinder och utmaningar som möter under arbetsprocessen, intern dokumentation, skillnaderna mellan en återförsäljare och andra byggnader, kostnadsfaktorer / affärssaker är de viktigaste slutsatserna som diskuteras i resultatsektionen.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Lazrak, Amine. „Caractérisation des performances énergétiques des systèmes thermiques innovants pour le bâtiment au travers d'essais de courte durée en régime dynamique“. Thesis, Université Grenoble Alpes (ComUE), 2015. http://www.theses.fr/2015GREAA031/document.

Der volle Inhalt der Quelle
Annotation:
Les systèmes solaires thermiques combinés à un système d’appoint tel que une chaudière, une pompe à chaleur ou intégrant une machine à absorption, peuvent jouer un rôle important dans la réduction des consommations des bâtiments pour les besoins de chauffage, de climatisation et de production d’eau chaude sanitaire. Dans ce sens, la caractérisation des performances énergétiques des systèmes thermiques est un enjeu crucial.Les méthodes de caractérisation actuellement disponibles sont soit basées sur plusieurs essais physiques séparés des composants du système à évaluer, chose qui ne prend pas en compte les vraies interactions entre ces derniers, soit sur des modèles physiques qui peuvent être complexes et difficilement identifiables notamment du fait que les systèmes actuels sont compacts et préfabriqués en usine. En l’absence de méthode fiable pour estimer les performances des systèmes solaires thermiques avant leur intégration au bâtiment, le marché de ses derniers subit de fortes contraintes pour son développement.Dans ce contexte il devient indispensable de développer une méthodologie générique qui peut être appliquée à différentes typologies de systèmes et qui pallie les difficultés rencontrées par les méthodes actuelles.L’approche d’évaluation proposée dans ce mémoire est constituée de quatre étapes principales : la détermination d’une séquence de test, l’essai du système dans un banc d’essai semi-virtuel selon la séquence déterminée, l’acquisition des données et l’identification d’un réseau de neurones artificiels (RNA) du système et enfin la simulation du modèle en vue de l’estimation de la consommation du système dans l’environnement désiré. L’avantage d’utiliser un modèle complètement « boîte noire » du système complet à l’aide des RNA la rend totalement « non intrusive ». La connaissance des paramètres internes aux systèmes (rendements, conductivités thermiques, régulation etc.) n’est en conséquence pas nécessaire pour l’application de la méthodologie.La validation de la méthodologie a été réalisée à travers plusieurs expérimentations numériques, pour 7 systèmes issus de 3 typologies différentes, durant lesquelles les estimations des RNA ont été comparées aux calculs des modèles physiques dans plusieurs conditions différentes (qualité du bâtiment, climat et surface du capteur). Une application de l’approche développée dans le cas de 5 systèmes réels a permis la confirmation de la pertinence de la méthodologie
Solar thermal systems combined with a backup system such as a boiler, a heat pump or incorporating an absorption chiller, can play an important role in reducing buildings energy consumption for heating, cooling and hot water production needs. In this sense, characterizing the energy performance of thermal systems is crucial.Currently available methods of system characterization are either based on several separate physical tests of system components to be evaluated, which do not take into account the real interactions between them, or on physical models that can be complex and difficult to identify especially because systems nowadays are compact and prefabricated in the factory. Due to the lack of a reliable method to estimate the performance of solar thermal systems before their integration into buildings, their market faces a lot of impediment to be developed.In this context, it becomes essential to develop a generic methodology that can be applied to different types of systems which overcomes the difficulties encountered by the current ones.The proposed evaluation approach in this manuscript is composed of four main steps: determining a test sequence, testing the system in a semi-virtual test bench according to predetermined sequence, data acquisition and identifying an artificial neural network (ANN) of the system and finally the model simulation in order to estimate the system consumption in the desired boundary condition. Using a completely "black box" model of the whole system using the ANN makes the methodology totally "non-intrusive". No prior knowledge about the systems internal parameters (yields, thermal conductivities, regulation etc.) is necessary to apply the proposed approach.The methodology validation was performed through several numerical experiments for seven systems coming from three different typologies. During the validation process, ANN estimates were compared with calculations of physical models in several different conditions (quality of building, climate and collector area). The developed approach was applied to five real systems as well. The application results allowed the confirmation of the methodology relevance
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Habib, Milia. „Optimisation de performances et maîtrise de la fiabilité dans la conception de systèmes de production“. Thesis, Troyes, 2017. http://www.theses.fr/2017TROY0025.

Der volle Inhalt der Quelle
Annotation:
Cette thèse porte sur les problèmes de conception et d’optimisation de la fiabilité des systèmes avec la prise en compte de la dépendance redondante. Nous nous intéressons d’abord à la conception de systèmes réparables dépendants de type parallèle et k sur n : G. Après avoir rappelé le modèle de la dépendance redondante présenté dans la littérature pour les systèmes parallèles, nous proposons un modèle plus général pour les systèmes k sur n : G. Ce modèle permet de quantifier la dépendance de défaillance entre les composants redondants du système. Nous évaluons également la disponibilité stationnaire du système avec la prise en compte de la dépendance à l’aide des modèles markoviens. Nous étudions ensuite la conception des systèmes réparables séries k sur n en considérant la notion de dépendance redondante. Ces problèmes sont traités sous deux approches d’optimisation : mono et multicritère. Dans l’approche monocritère, nous abordons, dans un premier temps, le problème de minimisation des coûts sous contrainte d’une disponibilité exigée. Nous proposons de le résoudre en utilisant le solveur LINGO et en développant des algorithmes génétiques et des algorithmes d'optimisation par colonies de fourmis. Ces algorithmes sont ensuite améliorés par une recherche locale. Dans un deuxième temps, nous étudions le problème dual de maximisation de la disponibilité que nous le résolvons à l’aide des algorithmes génétiques et LINGO. Dans l’approche multicritère, nous considérons simultanément les deux objectifs. Nous proposons des algorithmes multiobjectifs basés sur NSGA2 et SPEA2
This thesis deals with the design and optimization problems of the reliability of the systems taking into account the redundant dependency. First, we focus on the design of repairable dependent parallel and k out of n: G systems. After recalling the redundant dependency model presented in the literature for parallel systems, we propose a more general model for the k out of n: G systems. This model allows quantifying the failure dependence between the redundant components of the system. We also evaluate the stationary system availability considering the dependence based on the Markov models. Then, we study the design of the series repairable k out of n systems considering the redundant dependency notion. These problems are treated under two optimization approaches: single and multicriteria. In the single criterion approach, we first address the minimization problem of the costs under a required availability constraint. We propose to solve it by using the LINGO solver and by developing genetic algorithms and ant colony optimization algorithms. These algorithms are then improved by a local search. In a second step, we study the dual problem of availability maximization which we solve using the genetic algorithms and LINGO. In the multicriteria approach, we simultaneously consider both objectives. We propose multi-objective algorithms based on the Non-dominated Sorting Genetic Algorithms (NSGA2) and the second version of the Strength Pareto Evolutionary Algorithm (SPEA2)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

Deilami, Sara. „Optimal dispatch of shunt capacitors and load tap changers in distorted distribution systems using ant colony algorithms“. Thesis, Curtin University, 2010. http://hdl.handle.net/20.500.11937/92.

Der volle Inhalt der Quelle
Annotation:
This thesis investigates the performances of a class of intelligent system algorithms in solving the volt/VAr/THD control problem for large distribution systems. For this purpose, optimal dispatch of Load Tap Changers (LTCs) and Switched Shunt Capacitors in distribution networks with high penetration of nonlinear loads is studied. The optimization problem consists of determination of LTC positions, switched shunt capacitors statuses and proper coordination of these switched elements such that power loss is minimized, voltage profile is improved and total harmonic voltage distortion (THDv) is acceptable while network and operational constraints are satisfied. The Decoupled Harmonic Power Flow (DHPF) is employed for solving the optimization problem. In the next step, an Ant Colony algorithm (ACA) is developed and implemented as an effective and new technique to capture the near global solution of the dispatch problem. Simulation results based on ACA, Genetic Algorithm (GA) and Fuzzy-GA are presented and compared to show the accuracy of the proposed approach.Finally, the application of the developed dispatch ACA in smart grids with Plug-In Electric Vehicle (PEV) charging activities in the residential networks is considered. ACA is first applied on the distribution part of the smart grid to minimize losses, improve voltage profile and mitigate harmonic distortions. Then, a smart load management (SLM) algorithm is proposed and tested for the coordination of PEVs on the residential feeders. The developed algorithm is tested on smart grid configuration with 449 buses consisting of the IEEE 31-bus distribution system connected to a number of low voltage residential feeders populated with PEVs. Simulation results are presented and compared for uncoordinated (random) and SLM coordinated PEV charging considering consumer designated priorities and charging zones.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Galland, Stéphane. „Approche multi-agents pour la conception et la construction d'un environnement de simulation en vue de l'évaluation des performances des ateliers multi-sites“. Phd thesis, Saint-Etienne, EMSE, 2001. https://theses.hal.science/docs/00/84/13/82/PDF/2001_Galland_Stephane.pdf.

Der volle Inhalt der Quelle
Annotation:
Nous nous situons dans le contexte de la simulation de systèmes industriels complexes et distribués en termes opérationnel, informationnel et décisionnel. Nous considérons plus particulièrement les problèmes de formalisation, de modularité, de centralisation et de mise en évidence des flux et sous-systèmes. En effet, l'évolution du contexte industriel pousse les entreprises à évoluer vers des systèmes de plus en plus décentralisés (entreprises virtuelles, groupement d'entreprises, décentralisation,. . . ). Les méthodes et les outils de simulation existants ne supportent pas de manière optimale ces nouveaux systèmes. En effet, il reste aujourd'hui très difficile de modéliser et simuler le comportement de systèmes tels que les groupements d'entreprises. Après avoir mis en évidence cette problématique, nous proposons dans le cadre de nos travaux de recherche une apporche méthodologique adaptée aux systèmes industriels fortement distribués. Cette approche est basée sur les systèmes multi-agents et reste indépendante de toute plateforme ou outil informatique. Nous proposons un cycle de vie et une première définition des phases les plus importantes : spécification d'un modèle de simumation, conception d'un modèle multi-agents et implantation d'un modèle informatique. Les concepts que nous mettons en oeuvre (systèmes multi-agents, systémique,. . . ) nous permettent de répondre aux différents problèmes posés par les systèmes de production complexes et distribués
We have located in the context of simulation of industrial systems, whish are complex and distributed in operational, informational and decisional terms. In this context, we consider the problems of formalization, modularity, centralization and highlighting of flows and subsystems. Indeed, the evolution of the industrial context pushes the companies to evolve to more and more decentralized systems (virtual enterprises, consortium, decentralization. . . ). Existing methodologies and simulation tools make difficult to have an optimal support of these new systems. Indeed, there remains today very difficult to model and simulate the behavior of systems such as the consortia. After highlighted these problems, we propose within the framework of our research a methodological approach adapted to the strongly distributed industrial systems. This approach is based on the multi-agent systems but remains independent of any platform or simulation tool. We propose a life cycle and a first definition of the most significant phases : specification of a simulation model, design of a multi-agent model and implementation of a data-processing model. The concepts which we use (multi-agent systems, systemic. . . ) enable use to answer the various problems arising from the complex and distributed systems of production
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie