Dissertations / Theses on the topic 'Mapping optimisation'

To see the other types of publications on this topic, follow the link: Mapping optimisation.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 43 dissertations / theses for your research on the topic 'Mapping optimisation.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Kim, Dae Gyu. "Mapping based constraint handling methods for evolutionary algorithms." Thesis, University of Sussex, 2000. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.311406.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Kianifar, Mohammed R. "Application of multidisciplinary design optimisation frameworks for engine mapping and calibration." Thesis, University of Bradford, 2014. http://hdl.handle.net/10454/14843.

Full text
Abstract:
With ever-increasing numbers of engine actuators to calibrate within increasingly stringent emissions legislation, the engine mapping and calibration task of identifying optimal actuator settings is much more difficult. The aim of this research is to evaluate the feasibility and effectiveness of the Multidisciplinary Design Optimisation (MDO) frameworks to optimise the multi-attribute steady state engine calibration optimisation problems. Accordingly, this research is concentrated on two aspects of the steady state engine calibration optimisation: 1) development of a sequential Design of Experiment (DoE) strategy to enhance the steady state engine mapping process, and 2) application of different MDO architectures to optimally calibrate the complex engine applications. The validation of this research is based on two case studies, the mapping and calibration optimisation of a JLR AJ133 Jaguar GDI engine; and calibration optimisation of an EU6 Jaguar passenger car diesel engine. These case studies illustrated that: -The proposed sequential DoE strategy offers a coherent framework for the engine mapping process including Screening, Model Building, and Model Validation sequences. Applying the DoE strategy for the GDI engine case study, the number of required engine test points was reduced by 30 – 50 %. - The MDO optimisation frameworks offer an effective approach for the steady state engine calibration, delivering a considerable fuel economy benefits. For instance, the MDO/ATC calibration solution reduced the fuel consumption over NEDC drive cycle for the GDI engine case study (i.e. with single injection strategy) by 7.11%, and for the diesel engine case study by 2.5%, compared to the benchmark solutions.
APA, Harvard, Vancouver, ISO, and other styles
3

Skoglund, Martin. "Inertial Navigation and Mapping for Autonomous Vehicles." Doctoral thesis, Linköpings universitet, Reglerteknik, 2014. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-110373.

Full text
Abstract:
Navigation and mapping in unknown environments is an important building block for increased autonomy of unmanned vehicles, since external positioning systems can be susceptible to interference or simply being inaccessible. Navigation and mapping require signal processing of vehicle sensor data to estimate motion relative to the surrounding environment and to simultaneously estimate various properties of the surrounding environment. Physical models of sensors, vehicle motion and external influences are used in conjunction with statistically motivated methods to solve these problems. This thesis mainly addresses three navigation and mapping problems which are described below. We study how a vessel with known magnetic signature and a sensor network with magnetometers can be used to determine the sensor positions and simultaneously determine the vessel's route in an extended Kalman filter (EKF). This is a so-called simultaneous localisation and mapping (SLAM) problem with a reversed measurement relationship. Previously determined hydrodynamic models for a remotely operated vehicle (ROV) are used together with the vessel's sensors to improve the navigation performance using an EKF. Data from sea trials is used to evaluate the system and the results show that especially the linear velocity relative to the water can be accurately determined. The third problem addressed is SLAM with inertial sensors, accelerometers and gyroscopes, and an optical camera contained in a single sensor unit. This problem spans over three publications. We study how a SLAM estimate, consisting of a point cloud map, the sensor unit's three dimensional trajectory and speed as well as its orientation, can be improved by solving a nonlinear least-squares (NLS) problem. NLS minimisation of the predicted motion error and the predicted point cloud coordinates given all camera measurements is initialised using EKF-SLAM. We show how NLS-SLAM can be initialised as a sequence of almost uncoupled problems with simple and often linear solutions. It also scales much better to larger data sets than EKF-SLAM. The results obtained using NLS-SLAM are significantly better using the proposed initialisation method than if started from arbitrary points. A SLAM formulation using the expectation maximisation (EM) algorithm is proposed. EM splits the original problem into two simpler problems and solves them iteratively. Here the platform motion is one problem and the landmark map is the other. The first problem is solved using an extended Rauch-Tung-Striebel smoother while the second problem is solved with a quasi-Newton method. The results using EM-SLAM are better than NLS-SLAM both in terms of accuracy and complexity.
LINK-SIC
APA, Harvard, Vancouver, ISO, and other styles
4

Rountree, Lindsay. "Optimisation of perimetric stimuli for mapping changes in spatial summation in glaucoma." Thesis, Cardiff University, 2018. http://orca.cf.ac.uk/111180/.

Full text
Abstract:
Despite being considered the current reference standard for perimetric testing in glaucoma, standard automated perimetry has several cardinal limitations, including an unacceptably high test-retest variability, which increases with increasing depth of defect, and a limited useable dynamic range, with test-retest variability spanning almost the entire instrument range in advanced glaucomatous damage. Prior studies have shown that spatial summation, the mechanism by which the visual system integrates light energy across the area of a stimulus, differs in disease, with an enlarged Ricco’s area (the limit of complete spatial summation) found in individuals with glaucoma. The aim of this work was to investigate whether a perimetric stimulus designed to exploit these changes in spatial summation would enable a greater signal/noise ratio (SNR) than that of the current standard stimulus, by directly measuring the displacement of the spatial summation function in glaucoma. Three stimulus forms were developed; one varying in area alone, one varying in both area and contrast simultaneously, and one varying in contrast alone, all operating within the local Ricco’s area. These novel stimuli were compared with the standard Goldmann III stimulus, in terms of disease signal, noise, and SNR. The experiments presented in this thesis indicate that a stimulus modulating in area alone may offer greater benefits for measuring glaucomatous changes in spatial summation in a clinical setting, in the form of a greater disease signal, more uniform response variability with depth of defect, and greater SNR, when compared with the standard Goldmann III stimulus. Additionally, there is some indication that this stimulus is more robust to the effects of intraocular straylight than the Goldmann III stimulus, although test-retest variability and robustness to optical defocus are largely similar. As this work represents the early investigations of this stimulus, further work is required to examine its translation into a clinical environment.
APA, Harvard, Vancouver, ISO, and other styles
5

Little, Collin. "Sono degradation of phenanthrene : mapping & optimisation of reactor conditions using sono-chemi-luminescence." Thesis, Glasgow Caledonian University, 2007. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.688256.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Akinyemi, Segun Ajayi. "Optimisation of selective extraction techniques as a tool for geochemical mapping in the Southern Africa region." Thesis, University of the Western Cape, 2008. http://etd.uwc.ac.za/index.php?module=etd&action=viewtitle&id=gen8Srv25Nme4_3444_1260521237.

Full text
Abstract:

The complex nature and composition of regolith cover in Southern Africa is a major challenge to geochemical mapping for concealed mineralization. Some of the setbacks to successful geochemical exploration may be ascribed to the use of various partial extraction techniques,without a profound understanding of the regolith components and their composition. This investigation therefore focuses on the use of hydroxylamine partial extraction geochemistry for geochemical mapping in regolith over two contrasting environments viz
aeolian sand-calcrete regolith over Au mineralization at Amalia Blue Dot Mine in South Africa and lateritic regolith covering the Ni-Cu deposit at Kabanga Main and Luhuma in Tanzania. Regolith samples from the above areas were sieved and extracted with hydroxylamine hydrochloride solution and analyzed for multi-element by AAS and ICP-MS techniques. A stepwise optimization of the hydroxylamine extraction technique of samples from both areas was carried out and incorporated into the analytical programme (in a pilot study). Results of hydroxylamine partial extraction generally gave better anomaly contrast and reflection of bedrock mineralization than the conventional aqua regia techniques that were previously used in the region. The results however show that lateritic regolith may be best extracted using 0.25M hydroxylamine while 0.1M concentration appears most suitable for extraction of aeolian-calcrete regolith. The above results are corroborated by principal component analysis of the analytical data that show various element associations, e.g. with Fe-Mn oxides while others possibly belong to the loosely adsorbed or exchangeable group. The 
gochemical maps in the pilot study areas at Amalia, Kabanga and Luhuma show elevated element contents or clusters of anomalies of diverse elements associated with Fe-Mn oxides. Geochemical mapping at Kabanga with deeply concealed mineralization however shows variability of subdued element patterns over mineralized areas. Geochemical signatures associated with hydroxylamine hydrochloride partial leach are therefore characterized by a lower geochemical background than that using conventional aqua regia leach. This study leads recommending for further investigations into partial extraction of the exchangeable group of elements, possibly using ammonium acetate.

APA, Harvard, Vancouver, ISO, and other styles
7

Führ, Gereon [Verfasser], Rainer [Akademischer Betreuer] Leupers, and Tobias [Akademischer Betreuer] Gemmeke. "MPSoC power-performance trade-off : strategies for SW mapping optimisation / Gereon Führ ; Rainer Leupers, Tobias Gemmeke." Aachen : Universitätsbibliothek der RWTH Aachen, 2021. http://d-nb.info/123314426X/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Zaharia, Mihai Valentin. "Contributions à l’étude des machines à reluctance variable pour application alterno-démarreur automobile." Thesis, Ecole centrale de Lille, 2016. http://www.theses.fr/2016ECLI0022/document.

Full text
Abstract:
Ce travail de recherche est réalisé dans le cadre d'une collaboration internationale entre l'Université Technique de Cluj-Napoca en Roumanie et l'Ecole Centrale de Lille en France. Cette thèse a comme premier objectif, de réduire l’ondulation de couple d’une machine triphasée 6/8 à réluctance variable grâce aux paramètres de contrôle dans le mode de fonctionnement moteur et générateur. Par conséquent, un modèle analytique a été développé et mis en œuvre dans un environnement de calcul numérique. Un outil d'optimisation permettant de trouver les meilleurs paramètres de contrôle a été utilisé. Toutefois, le processus d’optimisation est très lent.En conséquence, une stratégie pour réduire le temps du processus d'optimisation sans abaisser la précision des résultats est proposée. Une stratégie de ‘mapping’ est utilisée entre un modèle grossier mais rapide et un modèle fin mais lent. Un travail est mené sur le choix du modèle grossier, dans le cadre d’un modèle fournissant des valeurs en fonction du temps. Deux stratégies de ‘mapping’ ont été utilisées dans cette thèse : l’‘Output Space Mapping Proportional’(OSMP) et le Manifold Mapping (MM). Ces deux stratégies sont utilisées pour déterminer les paramètres de contrôle optimaux. Le problème d’optimisation est ensuite complété en ajoutant des variables géométriques au processus d’optimisation du contrôle. Les outils développés sont ensuite utilisés dans le cadre du dimensionnement par optimisation d’un alterno-démarreur automobile. Finalement, des expériences et des essais sur un prototype de Machine à RV sont menés afin de valider les résultats du processus d'optimisation en mode moteur et générateur
The switched reluctance machine has a simple construction making it cheaper in execution but one of the drawbacks of this machine is the torque ripple. This thesis had as first target, the usage of an optimization tool to calculate the best control parameters to correct this major drawback in motor and generator operation modes. Hence, an analytical model that takes into account the machine geometry and that is able to be simulated in both operation modes by adjusting the commutation angles was provided and implemented in a calculation environment. The second target of this work is to investigate a method to reduce the optimization time without lowering the accuracy of the results. The strategy used in the optimization process is known in literature as the space mapping technique, more precisely for this thesis output space mapping proportional and manifold mapping were studied. After testing them on a mathematical model it was possible to continue the investigation on defining the optimal control parameters of a three-phases 6/8 SR machine prototype, being able that further to use this strategy in a much complicated process, i.e. defining the right geometry and control of a SR machine to be used in automotive integrated starter alternator systems. The final target of the thesis was to conduct experiments and tests on the existing prototype in order to partially validate the results of the optimization process
APA, Harvard, Vancouver, ISO, and other styles
9

Nhan, Nhat-Quang. "Optimisation de précodeurs linéaires pour les systèmes MIMO à récepteurs itératifs." Thesis, Brest, 2016. http://www.theses.fr/2016BRES0062/document.

Full text
Abstract:
Les standards « Long-term evolution » (LTE) et LTE-Advanced (LTE-A) devraient influencer fortement l’avenir de la cinquième génération (5G) des réseaux mobiles. Ces normes exigent de hauts débits de données et une qualité de service de très bon niveau, ce qui permet d’assurer un faible taux d’erreur, avec une faible latence. Par ailleurs, la complexité doit être limitée. Dans le but de déterminer des solutions technologiques modernes qui satisfont ces contraintes fortes, nous étudions dans la thèse des systèmes de communication sans fil MIMO codés. D’abord, nous imposons un simple code convolutif récursif systématique (RSC) pour limiter la complexité et la latence. En considérant des récepteurs itératifs, nous optimisons alors la performance en termes de taux d’erreur de ces systèmes en définissant un précodage linéaire MIMO et des techniques de mapping appropriées. Dans la deuxième partie de la thèse, nous remplaçons le RSC par un LDPC non-binaire (NB-LDPC). Nous proposons d’utiliser les techniques de précodage MIMO afin de réduire la complexité des récepteurs des systèmes MIMO intégrant des codes NB-LDPC. Enfin, nous proposons également un nouvel algorithme de décodage itératif à faible complexité adapté aux codes NB-LDPC
The long-term evolution (LTE) and the LTE-Advanced (LTE-A) standardizations are predicted to play essential roles in the future fifth-generation (5G) mobile networks. These standardizations require high data rate and high quality of service, which assures low error-rate and low latency. Besides, as discussed in the recent surveys, low complexity communication systems are also essential in the next 5G mobile networks. To adapt to the modern trend of technology, in this PhD thesis, we investigate the multiple-input multiple-output (MIMO) wireless communication schemes. In the first part of this thesis, low-complex forward error correction (FEC) codes are used for low complexity and latency. By considering iterative receivers at the receiver side, we exploit MIMO linear precoding and mapping methods to optimize the error-rate performance of these systems. In the second part of this thesis, non-binary low density parity check (NB-LDPC) codes are investigated. We propose to use MIMO precoders to reduce the complexity for NB-LDPC encoded MIMO systems. A novel low complexity decoding algorithm for NB-LDPC codes is also proposed at the end of this thesis
APA, Harvard, Vancouver, ISO, and other styles
10

Hassani, Bijarbooneh Farshid. "Constraint Programming for Wireless Sensor Networks." Doctoral thesis, Uppsala universitet, Avdelningen för datalogi, 2015. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-241378.

Full text
Abstract:
In recent years, wireless sensor networks (WSNs) have grown rapidly and have had a substantial impact in many applications. A WSN is a network that consists of interconnected autonomous nodes that monitor physical and environmental conditions, such as temperature, humidity, pollution, etc. If required, nodes in a WSN can perform actions to affect the environment. WSNs present an interesting and challenging field of research due to the distributed nature of the network and the limited resources of the nodes. It is necessary for a node in a WSN to be small to enable easy deployment in an environment and consume as little energy as possible to prolong its battery lifetime. There are many challenges in WSNs, such as programming a large number of nodes, designing communication protocols, achieving energy efficiency, respecting limited bandwidth, and operating with limited memory. WSNs are further constrained due to the deployment of the nodes in indoor and outdoor environments and obstacles in the environment. In this dissertation, we study some of the fundamental optimisation problems related to the programming, coverage, mobility, data collection, and data loss of WSNs, modelled as standalone optimisation problems or as optimisation problems integrated with protocol design. Our proposed solution methods come from various fields of research including constraint programming, integer linear programming, heuristic-based algorithms, and data inference techniques.
ProFuN
APA, Harvard, Vancouver, ISO, and other styles
11

Tanner, Michael. "BOR2G : Building Optimal Regularised Reconstructions with GPUs (in cubes)." Thesis, University of Oxford, 2017. https://ora.ox.ac.uk/objects/uuid:1928c996-d913-4d7e-8ca5-cf247f90aa0f.

Full text
Abstract:
Robots require high-quality maps - internal representations of their operating workspace - to localise, path plan, and perceive their environment. Until recently, these maps were restricted to sparse, 2D representations due to computational, memory, and sensor limitations. With the widespread adoption of high-quality sensors and graphics processors for parallel processing, these restrictions no longer apply: dense 3D maps are feasible to compute in real time (i.e., at the input sensor's frame rate). This thesis presents the theory and system to create large-scale dense 3D maps (i.e., reconstruct continuous surface models) using only sensors found on modern autonomous automobiles: 2D laser, 3D laser, and cameras. In contrast to active RGB-D cameras, passive cameras produce noisy surface observations and must be regularised in both 2D and 3D to create accurate reconstructions. Unfortunately, straight-forward application of 3D regularisation causes undesired surface interpolation and extrapolation in regions unexplored by the robot. We propose a method to overcome this challenge by informing the regulariser of the specific subsets of 3D surfaces upon which to operate. When combined with a compressed voxel grid data structure, we demonstrate our system fusing data from both laser and camera sensors to reconstruct 7.3 km of urban environments. We evaluate the quantitative performance of our proposed method through the use of synthetic and real-world datasets - including datasets from Stanford's Burghers of Calais, University of Oxford's RobotCar, University of Oxford's Dense Reconstruction, and Karlsruhe Institute of Technology's KITTI - compared to ground-truth laser data. With only stereo camera inputs, our regulariser reduces the 3D reconstruction metric error between 27% to 36% with a final median accuracy ranging between 4 cm to 8 cm. Furthermore, by augmenting our system with object detection, we remove ephemeral objects (e.g., automobiles, bicycles, and pedestrians) from the input sensor data and target our regulariser to interpolate the occluded urban surfaces. Augmented with Kernel Conditional Density Estimation, our regulariser creates reconstructions with median errors between 5.64 cm and 9.24 cm. Finally, we present a machine-learning pipeline that learns, in an automatic fashion, to recognise the errors in dense reconstructions. Our system trains on image and laser data from a 3.8 km urban sequence. Using a separate 2.2 km urban sequence, our pipeline consistently identifies error-prone regions in the image-based dense reconstruction.
APA, Harvard, Vancouver, ISO, and other styles
12

Almqvist, Saga, and Lana Nore. "Where to Stack the Chocolate? : Mapping and Optimisation of the Storage Locations with Associated Transportation Cost at Marabou." Thesis, Umeå universitet, Institutionen för matematik och matematisk statistik, 2017. http://urn.kb.se/resolve?urn=urn:nbn:se:umu:diva-135912.

Full text
Abstract:
Today, inventory management at Marabou is organised in such way that articles are stored based on which production line they belong to and are sent to storage locations close to their production line. However, some storage locations are not optimised, insofar articles are stored out of pure habit and follow what is considered most convenient. This means that the storage locations are not based on any fixed instructions or standard. In this report, we propose optimal storage locations with respect to transportation cost by modelling the problem mathematically as a minimal cost matching problem, which we solve using the so-called Hungarian algorithm. To be able to implement the Hungarian algorithm, we collected data regarding the stock levels of articles in the factory throughout 2016. We adjusted the collected data by turning the articles into units of pallets. We considered three different implementations of the Hungarian algorithm. The results from the different approaches are presented together with several suggestions regarding pallet optimisation. In addition to the theoretical background, our work is based on an empirical study through participant observations as well as qualitative interviews with factory employees. In addition to our modelling work, we thus offer several further suggestions for efficiency savings or improvements at the factory, as well as for further work building on this report.
Idag är lagerhanteringen i Marabou fabriken ordnat på sådant sätt att artiklarna är lagrade utifrån vilken linje den tillhör och därmed står i ett lager nära den specifika linjen. Dock finns det lagerplatser idag som inte är optimerade, i den mån att det endast är lagrade från vana och vad som anses enklast. Därmed är lagerplatserna inte ordnade utifrån någon standard.I detta examensarbete föreslår vi därför de mest optimala lagerplatserna med hänsyn till totala transportkostnaderna. Det här problemet kan modelleras som ett matchningsproblem som kan lösas av en så kallad Ungersk algoritm. Denna ska resultera i den optimala matchningen mellan produktionslinjens behov mot lagerplatserna i fabriken med tillhörande kostnad. För att använda Ungerska algoritmen samlade vi in data av den totala mängd artiklar som fanns i fabriken för 2016, vilket togs fram genom datasystemet SAP som Marabou använder sig av. Därefter justerade vi datat genom att dela upp alla artiklarna i antalet pallar samt vilken linje den tillhör. Denna information kompletterades med empiriska undersökningar genom egna observationer samt kvalitativa intervjuer med de anställda i fabriken. I metoden använder vi tre olika implementeringar av den Ungerska algoritmen. I resultatet presenteras resultaten från de olika tillvägagångsätten tillsammans med flera palloptimeringsförslag. I slutet sammanställs flera förbättringsförslag och idéer om vidareutveckling i rapporten.
APA, Harvard, Vancouver, ISO, and other styles
13

O'Donovan, Anthony Gareth. "Facies mapping of the Vaal Reef placer as an aid to remnant pillar extraction and stope width optimisation." Thesis, Rhodes University, 1992. http://hdl.handle.net/10962/d1005559.

Full text
Abstract:
The Vaal Reef placer is situated on the unconformable junction of the Strathmore and Stilfontein formations of the Johannesburg Subgroup. Within the South Division of the Vaal Reefs Exploration and Mining company lease, the Vaal Reef Placer is shown to be composed of several different units. Each unit exhibits its own specific characteristics and trend direction which can be used to establish distinct "Reef packages". These packages can be mapped in such a way as to provide a preliminary lithofacies map for the Vaal Reef Placer. The delineation of such geologically homogenous zones, and the development of a suitable depositional model, can be utilised in several ways. The characteristics of a particular zone are shown to influence the control of stoping width, evaluation of remnant pillars and the geostatistical methodology of evaluating current and future ore reserve blocks.
APA, Harvard, Vancouver, ISO, and other styles
14

Hage, Hassan Maya. "Méthodologies de conception optimale de systèmes de conversion électromécanique." Phd thesis, Université Paris Sud - Paris XI, 2014. http://tel.archives-ouvertes.fr/tel-01002008.

Full text
Abstract:
Cette thèse traite de la conception de systèmes électromécaniques, en particulier des machines électriques dédiées à des applications de traction. La démarche adoptée allie précision des résultats et réduction du temps de calcul du processus. A cet égard, deux thèmes ont été abordés dans cette thèse. Le premier thème concerne la modélisation de machines électriques et l'utilisation de méthodes semi-numériques. Une architecture de réseau de réluctances est proposée pour analyser les performances de machines à flux axial. Elle permet la prise en compte de l'aspect temporel et la caractéristique non-linéaire des matériaux ferromagnétiques. Des modèles basés sur la méthode des éléments finis ont été établis pour valider les résultats de modélisation. Le faible écart entre modèles numériques et semi-numériques montre le bien fondé des méthodes proposées. Des dimensionnements offrant un compromis entre précision de la solution finale et temps de calcul font l'objet du second thème de la thèse. La technique du Space Mapping est connue pour son efficacité, elle permet d'exploiter à moindre coût un modèle précis. Deux techniques qui en dérivent sont proposées en associant la modélisation par réseau de réluctances et des techniques d'optimisation. La première repose sur la modélisation de l'erreur entre des modèles de précisions différentes par une fonction à bases radiales. La deuxième intègre la correction de l'erreur dans la résolution des réseaux de réluctances en couplant les modèles linéaire et non-linéaire d'une machine électrique.
APA, Harvard, Vancouver, ISO, and other styles
15

Bourbia, Salma. "Algorithmes de prise de décision pour la "cognitive radio" et optimisation du "mapping" de reconfigurabilité de l'architecture de l'implémentation numérique." Phd thesis, Supélec, 2013. http://tel.archives-ouvertes.fr/tel-00931350.

Full text
Abstract:
Dans cette thèse nous nous intéressons au développement d'une méthode de prise de décision pour un équipement de réception de Radio Intelligente qui s'adapte dynamiquement à son environnement. L'approche que nous adoptons est basée sur la modélisation statistique de l'environnement radio. En caractérisant statistiquement les observations fournies par les capteurs de l'environnement, nous mettons en place des règles de décisions statistiques qui prennent en considération les erreurs d'observation des métriques radio, ce qui contribue à minimiser les taux des décisions erronées. Nous visons aussi à travers cette thèse à utiliser les capacités intelligentes de prise de décision pour contribuer à la réduction de la complexité de calcul au niveau de l'équipement de réception. En effet, nous identifions des scénarios de prise de décision de reconfiguration qui limitent la présence de certains composants ou fonctions de la chaîne de réception. En particulier, nous traitons, deux scénarios de décision qui adaptent respectivement la présence des fonctions d'égalisation et du beamforming en réception. La limitation de ces deux opérations contribue à la réduction de la complexité de calcul au niveau de la chaîne de réception sans dégrader ses performances. Enfin, nous intégrons notre méthode de décision par modélisation statistique ainsi que les deux scénarios de décision traités dans une architecture de gestion d'une radio intelligente, afin de mettre en valeur le contrôle de l'intelligence et de la reconfiguration dans un équipement radio.
APA, Harvard, Vancouver, ISO, and other styles
16

Frost, Duncan. "Long range monocular SLAM." Thesis, University of Oxford, 2017. https://ora.ox.ac.uk/objects/uuid:af38cfa6-fc0a-48ab-b919-63c440ae8774.

Full text
Abstract:
This thesis explores approaches to two problems in the frame-rate computation of a priori unknown 3D scene structure and camera pose using a single camera, or monocular simultaneous localisation and mapping. The thesis reflects two trends in vision in general and structure from motion in particular: (i) the move from directly recovered and towards learnt geometry; and (ii) the sparsification of otherwise dense direct methods. The first contributions mitigate scale drift. Beyond the inevitable accumulation of random error, monocular SLAM accumulates error via the depth/speed scaling ambiguity. Three solutions are investigated. The first detects objects of known class and size using fixed descriptors, and incorporates their measurements in the 3D map. Experiments using databases with ground truth show that metric accuracy can be restored over kilometre distances; and similar gains are made using a hand-held camera. Our second method avoids explicit feature choice, instead employing a deep convolutional neural network to yield depth priors. Relative depths are learnt well, but absolute depths less so, and recourse to database-wide scaling is investigated. The third approach uses a novel trained network to infer speed from imagery. The second part of the thesis develops sparsified direct methods for monocular SLAM. The first contribution is a novel camera tracker operating directly using affine image warping, but on patches around sparse corners. Camera pose is recovered with an accuracy at least equal to the state of the art, while requiring only half the computational time. The second introduces a least squares adjustment to sparsified direct map refinement, again using patches from sparse corners. The accuracy of its 3D structure estimation is compared with that from the widely used method of depth filtering. It is found empirically that the new method's accuracy is often higher than that of its filtering counterpart, but that the method is more troubled by occlusion.
APA, Harvard, Vancouver, ISO, and other styles
17

Van, der Walt Madele. "A design environment for the automated optimisation of low cross-polarisation horn antennas." Thesis, Stellenbosch : University of Stellenbosch, 2010. http://hdl.handle.net/10019.1/5144.

Full text
Abstract:
Thesis (MScEng (Electrical and Electronic Engineering))--University of Stellenbosch, 2010.
ENGLISH ABSTRACT: The aggressive space mapping algorithm is used in this project for the optimisation of electromagnetic structures. This technique combines the use of fast, less accurate models with more time-consuming, high precision models in the optimisation of a design. MATLAB’s technical computing environment possesses powerful tools for optimisation as well as the graphical representation and mathematical post-processing of data. A software interface, which uses Visual Basic for Applications, is created between MATLAB and the electromagnetic solvers, CST Microwave Studio and μWave Wizard, that are used for the fine and coarse model calculations. The interface enables the direct interchange of data, which allows MATLAB to control the optimisation for the automation of the design process. The optimisation of a microwave coaxial resonator with input coupling is used to demonstrate the design environment. An accurate equivalent circuit model is available to describe the problem. The space mapping optimisation of this structure works well, with a significant improvement in the efficiency of the optimisation when compared to standard optimisation techniques. Multimode horn antennas are of interest for use as feeds in radio-astronomy telescope systems. The design of a stepped circular horn antenna in the space mapping design environment is presented. The horn’s radiation pattern is optimised for low cross-polarisation. This structure is much more complex to model than the resonator example. The generalised scattering matrix representation is used in the coarse model description. The far-fields are calculated from the aperture fields by means of the Fast Fourier Transform. Various tests confirm that the optimisation is steered in the right direction as long as the coarse model response follows the trend of the fine model response over the optimisation space. The presented design environment is a powerful tool for the automation of the design of electromagnetic structures.
AFRIKAANSE OPSOMMING: Die aggressiewe ruimte-afbeelding algoritme word in hierdie projek gebruik vir die optimering van elektromagnetiese strukture. Hierdie tegniek kombineer die gebruik van vinnige, minder akkurate modelle tesame met tydrowende hoë presisie modelle tydens die optimering van ’n ontwerp. MATLAB se tegniese verwerkingsomgewing beskik oor kragtige gereedskap vir optimering sowel as die grafiese voorstelling en wiskundige verwerking van data. ’n Sagteware koppelvlak, wat Visual Basic for Applications benut, word geskep tussen MATLAB en die elektromagnetiese oplossers, CST Microwave Studio en μWave Wizard, wat vir die fyn en growwe model berekeninge gebruik word. Hierdie koppelvlak maak die direkte uitruiling van data moontlik, wat MATLAB in staat stel om die optimering te beheer ten einde die ontwerpsproses te outomatiseer. Die optimering van ’n mikrogolf koaksiale resoneerder met intree koppeling word gebruik om die ontwerpsomgewing te demonstreer. ’n Akkurate ekwivalente stroombaanmodel is beskikbaar om die probleem mee te beskryf. Die ruimte-afbeelding optimering van hierdie struktuur werk goed en toon ’n aansienlike verbetering in die doeltreffendheid van die optimering wanneer dit met standaard optimeringstegnieke vergelyk word. Multimodus horingantennes is van belang in radio-astronomie, waar dit as voere vir teleskope gebruik word. Die ontwerp van ’n trapvormige, sirkelvormige horingantenne in die ruimte-afbeelding ontwerpsomgewing word aangebied. Die stralingspatroon van die horing word optimeer vir lae kruispolarisasie. Hierdie struktuur is heelwat meer ingewikkeld om te modelleer as die resoneerder voorbeeld. Die veralgemeende strooimatriks voorstelling word gebruik in die growwe model beskrywing. Die ver-velde word bereken vanaf die velde in die bek van die antenne, deur gebruik te maak van die Vinnige Fourier Transform. Verskeie toetse bevestig dat die optimering in die regte rigting gestuur word, solank as wat die growwe model se gedrag dié van die fyn model oor die optimeringsgebied navolg. Die ontwerpsomgewing wat hier aangebied word, is ’n kragtige stuk gereedskap vir die outomatisering van die ontwerp van elektromagnetiese strukture.
APA, Harvard, Vancouver, ISO, and other styles
18

Rehn-Sonigo, Veronika. "Multi-criteria Mapping and Scheduling of Workflow Applications onto Heterogeneous Platforms." Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2009. http://tel.archives-ouvertes.fr/tel-00424118.

Full text
Abstract:
Les travaux présentés dans cette thèse portent sur le placement et l'ordonnancement d'applications de flux de données sur des plates-formes hétérogènes. Dans ce contexte, nous nous concentrons sur trois types différents d'applications :
Placement de répliques dans les réseaux hiérarchiques - Dans ce type d'application, plusieurs clients émettent des requêtes à quelques serveurs et la question est : où doit-on placer des répliques dans le réseau afin que toutes les requêtes puissent être traitées. Nous discutons et comparons plusieurs politiques de placement de répliques dans des réseaux hiérarchiques en respectant des contraintes de capacité de serveur, de qualité
de service et de bande-passante. Les requêtes des clients sont connues a priori, tandis que le nombre et la position des serveurs sont à déterminer. L'approche traditionnelle dans la littérature est de forcer toutes les requêtes d'un client à être traitées par le serveur le plus proche dans le réseau hiérarchique. Nous introduisons et étudions deux nouvelles politiques. Une principale contribution de ce travail est l'évaluation de l'impact de ces nouvelles politiques sur le coût total de replication. Un autre but important est d'évaluer l'impact de l'hétérogénéité des serveurs, d'une perspective à la
fois théorique et pratique. Nous établissons plusieurs nouveaux résultats de complexité, et nous présentons plusieurs heuristiques
efficaces en temps polynomial.
Applications de flux de données - Nous considérons des applications de flux de données qui peuvent être exprimées comme des graphes linéaires. Un exemple pour ce type d'application est le traitement numérique d'images, où les images sont traitées en
régime permanent. Plusieurs critères antagonistes doivent être optimisés, tels que le débit et la latence (ou une combinaison) ainsi que la latence et la fiabilité (i.e. la probabilité que le calcul soit réussi) de l'application. Bien qu'il soit possible de trouver
des algorithmes polynomiaux simples pour les plates-formes entièrement homogènes, le problème devient NP-difficile lorsqu'on s'attaque à des plates-formes hétérogènes. Nous présentons une formulation en programme linéaire pour ce dernier problème. De
plus nous introduisons plusieurs heuristiques bi-critères efficaces en temps polynomial, dont la performance relative est évaluée par des simulations extensives. Dans une étude de cas, nous présentons des simulations et des résultats expérimentaux (programmés en MPI) pour le graphe d'application de l'encodeur JPEG sur une grappe de calcul.
Applications complexes de streaming - Considérons l'exécution d'applications organisées en arbres d'opérateurs, i.e. l'application en régime permanent d'un ou plusieurs arbres d'opérateurs à données multiples qui doivent être mis à jour continuellement à différents endroits du réseau. Un premier but est de fournir à l'utilisateur un ensemble de processeurs qui doit être acheté ou loué pour garantir que le débit minimum de l'application en régime permanent soit atteint. Puis nous étendons notre modèle aux applications multiples : plusieurs applications concurrentes sont exécutées en même
temps dans un réseau, et on doit assurer que toutes les applications puissent atteindre leur débit requis. Une autre contribution de ce travail est d'apporter des résultats de complexité pour des instances variées du problème. La troisième contribution est l'élaboration
de plusieurs heuristiques polynomiales pour les deux modèles d'application. Un objectif premier des heuristiques pour applications concurrentes est la réutilisation des résultats intermédiaires qui sont partagés parmi différentes applications.
APA, Harvard, Vancouver, ISO, and other styles
19

Codol, Jean-Marie. "Hybridation GPS/Vision monoculaire pour la navigation autonome d'un robot en milieu extérieur." Thesis, Toulouse, INSA, 2012. http://www.theses.fr/2012ISAT0060/document.

Full text
Abstract:
On assiste aujourd'hui à l'importation des NTIC (Nouvelles Technologies de l'Information et de la Télécommunication) dans la robotique. L'union de ces technologies donnera naissance, dans les années à venir, à la robotique de service grand-public.Cet avenir, s'il se réalise, sera le fruit d'un travail de recherche, amont, dans de nombreux domaines : la mécatronique, les télécommunications, l'automatique, le traitement du signal et des images, l'intelligence artificielle ... Un des aspects particulièrement intéressant en robotique mobile est alors le problème de la localisation et de la cartographie simultanée. En effet, dans de nombreux cas, un robot mobile, pour accéder à une intelligence, doit nécessairement se localiser dans son environnement. La question est alors : quelle précision pouvons-nous espérer en terme de localisation? Et à quel coût?Dans ce contexte, un des objectifs de tous les laboratoires de recherche en robotique, objectif dont les résultats sont particulièrement attendus dans les milieux industriels, est un positionnement et une cartographie de l'environnement, qui soient à la fois précis, tous-lieux, intègre, bas-coût et temps-réel. Les capteurs de prédilection sont les capteurs peu onéreux tels qu'un GPS standard (de précision métrique), et un ensemble de capteurs embarquables en charge utile (comme les caméras-vidéo). Ce type de capteurs constituera donc notre support privilégié, dans notre travail de recherche. Dans cette thèse, nous aborderons le problème de la localisation d'un robot mobile, et nous choisirons de traiter notre problème par l'approche probabiliste. La démarche est la suivante, nous définissons nos 'variables d'intérêt' : un ensemble de variables aléatoires. Nous décrivons ensuite leurs lois de distribution, et leur modèles d'évolution, enfin nous déterminons une fonction de coût, de manière à construire un observateur (une classe d'algorithme dont l'objectif est de déterminer le minimum de notre fonction de coût). Notre contribution consistera en l'utilisation de mesures GPS brutes GPS (les mesures brutes - ou raw-datas - sont les mesures issues des boucles de corrélation de code et de phase, respectivement appelées mesures de pseudo-distances de code et de phase) pour une navigation bas-coût précise en milieu extérieur suburbain. En utilisant la propriété dite 'entière' des ambiguïtés de phase GPS, nous étendrons notre navigation pour réaliser un système GPS-RTK (Real Time Kinematic) en mode différentiel local précise et bas-coût. Nos propositions sont validées par des expérimentations réalisées sur notre démonstrateur robotique
We are witnessing nowadays the importation of ICT (Information and Communications Technology) in robotics. These technologies will give birth, in upcoming years, to the general public service robotics. This future, if realised, shall be the result of many research conducted in several domains: mechatronics, telecommunications, automatics, signal and image processing, artificial intelligence ... One particularly interesting aspect in mobile robotics is hence the simultaneous localisation and mapping problem. Consequently, to access certain informations, a mobile robot has, in many cases, to map/localise itself inside its environment. The following question is then posed: What precision can we aim for in terms of localisation? And at what cost?In this context, one of the objectives of many laboratories indulged in robotics research, and where results impact directly the industry, is the positioning and mapping of the environment. These latter tasks should be precise, adapted everywhere, integrated, low-cost and real-time. The prediction sensors are inexpensive ones, such as a standard GPS (of metric precision), and a set of embeddable payload sensors (e.g. video cameras). These type of sensors constitute the main support in our work.In this thesis, we shed light on the localisation problem of a mobile robot, which we choose to handle with a probabilistic approach. The procedure is as follows: we first define our "variables of interest" which are a set of random variables, and then we describe their distribution laws and their evolution models. Afterwards, we determine a cost function in such a manner to build up an observer (an algorithmic class where the objective is to minimize the cost function).Our contribution consists of using brute GPS measures (brute measures or raw datas are measures issued from code and phase correlation loops, called pseudo-distance measures of code and phase, respectively) for a low-cost navigation, which is precise in an external suburban environment. By implementing the so-called "whole" property of GPS phase ambiguities, we expand the navigation to achieve a GPS-RTK (Real-Time Kinematic) system in a precise and low-cost local differential mode.Our propositions has been validated through experimentations realized on our robotic demonstrator
APA, Harvard, Vancouver, ISO, and other styles
20

Rincent, Renaud. "Optimisation des stratégies de génétique d'association et de sélection génomique pour des populations de diversité variable : Application au maïs." Thesis, Paris, AgroParisTech, 2014. http://www.theses.fr/2014AGPT0018/document.

Full text
Abstract:
D'importants progrès ont été réalisés dans les domaines du génotypage et du séquençage, ce qui permet de mieux comprendre la relation génotype/phénotype. Il est possible d'analyser l'architecture génétique des caractères (génétique d'association, GA), ou de prédire la valeur génétique des candidats à la sélection (sélection génomique, SG). L'objectif de cette thèse était de développer des outils pour mener ces stratégies de manière optimale. Nous avons d'abord dérivé analytiquement la puissance du modèle mixte de GA, et montré que la puissance était plus faible pour les marqueurs présentant une faible diversité, une forte différentiation entre sous groupes et une forte corrélation avec les marqueurs utilisés pour estimer l'apparentement (K). Nous avons donc considéré deux estimateurs alternatifs de K. Des simulations ont montré qu'ils sont aussi efficaces que la méthode classique pour contrôler les faux positifs et augmentent la puissance. Ces résultats ont été confirmés sur les panels corné et denté du programme Cornfed, avec une augmentation de 40% du nombre de SNP détectés. Ces panels, génotypés avec une puce 50k SNP et phénotypés pour leur précocité et leur biomasse ont permis de décrire la diversité de ces groupes et de détecter des QTL. En SG, des études ont montré l'importance de la composition du jeu de calibration sur la fiabilité des prédictions. Nous avons proposé un algorithme d'échantillonnage dérivé de la théorie du G-BLUP permettant de maximiser la fiabilité des prédictions. Par rapport à un échantillon aléatoire, il permettrait de diminuer de moitié l'effort de phénotypage pour atteindre une même fiabilité de prédiction sur les panels Cornfed
Major progresses have been achieved in genotyping technologies, which makes it easier to decipher the relationship between genotype and phenotype. This contributed to the understanding of the genetic architecture of traits (Genome Wide Association Studies, GWAS), and to better predictions of genetic value to improve breeding efficiency (Genomic Selection, GS). The objective of this thesis was to define efficient ways of leading these approaches. We first derived analytically the power from classical GWAS mixed model and showed that it was lower for markers with a small minimum allele frequency, a strong differentiation among population subgroups and that are strongly correlated with markers used for estimating the kinship matrix K. We considered therefore two alternative estimators of K. Simulations showed that these were as efficient as classical estimators to control false positive and provided more power. We confirmed these results on true datasets collected on two maize panels, and could increase by up to 40% the number of detected associations. These panels, genotyped with a 50k SNP-array and phenotyped for flowering and biomass traits, were used to characterize the diversity of Dent and Flint groups and detect QTLs. In GS, studies highlighted the importance of relationship between the calibration set (CS) and the predicted set on the accuracy of predictions. Considering low present genotyping cost, we proposed a sampling algorithm of the CS based on the G-BLUP model, which resulted in higher accuracies than other sampling strategies for all the traits considered. It could reach the same accuracy than a randomly sampled CS with half of the phenotyping effort
APA, Harvard, Vancouver, ISO, and other styles
21

Castro, Márcio. "Optimisation de la performance des applications de mémoire transactionnelle sur des plates-formes multicoeurs : une approche basée sur l'apprentissage automatique." Thesis, Grenoble, 2012. http://www.theses.fr/2012GRENM074/document.

Full text
Abstract:
Le concept de processeur multicœurs constitue le facteur dominant pour offrir des hautes performances aux applications parallèles. Afin de développer des applications parallèles capable de tirer profit de ces plate-formes, les développeurs doivent prendre en compte plusieurs aspects, allant de l'architecture aux caractéristiques propres à l'application. Dans ce contexte, la Mémoire Transactionnelle (Transactional Memory – TM) apparaît comme une alternative intéressante à la synchronisation basée sur les verrous pour ces plates-formes. Elle permet aux programmeurs d'écrire du code parallèle encapsulé dans des transactions, offrant des garanties comme l'atomicité et l'isolement. Lors de l'exécution, les opérations sont exécutées spéculativement et les conflits sont résolus par ré-exécution des transactions en conflit. Bien que le modèle de TM ait pour but de simplifier la programmation concurrente, les meilleures performances ne pourront être obtenues que si l'exécutif est capable de s'adapter aux caractéristiques des applications et de la plate-forme. Les contributions de cette thèse concernent l'analyse et l'amélioration des performances des applications basées sur la Mémoire Transactionnelle Logicielle (Software Transactional Memory – STM) pour des plates-formes multicœurs. Dans un premier temps, nous montrons que le modèle de TM et ses performances sont difficiles à analyser. Pour s'attaquer à ce problème, nous proposons un mécanisme de traçage générique et portable qui permet de récupérer des événements spécifiques à la TM afin de mieux analyser les performances des applications. Par exemple, les données tracées peuvent être utilisées pour détecter si l'application présente des points de contention ou si cette contention est répartie sur toute l'exécution. Notre approche peut être utilisée sur différentes applications et systèmes STM sans modifier leurs codes sources. Ensuite, nous abordons l'amélioration des performances des applications sur des plate-formes multicœurs. Nous soulignons que le placement des threads (thread mapping) est très important et peut améliorer considérablement les performances globales obtenues. Pour faire face à la grande diversité des applications, des systèmes STM et des plates-formes, nous proposons une approche basée sur l'Apprentissage Automatique (Machine Learning) pour prédire automatiquement les stratégies de placement de threads appropriées pour les applications de TM. Au cours d'une phase d'apprentissage préliminaire, nous construisons les profiles des applications s'exécutant sur différents systèmes STM pour obtenir un prédicteur. Nous utilisons ensuite ce prédicteur pour placer les threads de façon statique ou dynamique dans un système STM récent. Finalement, nous effectuons une évaluation expérimentale et nous montrons que l'approche statique est suffisamment précise et améliore les performances d'un ensemble d'applications d'un maximum de 18%. En ce qui concerne l'approche dynamique, nous montrons que l'on peut détecter des changements de phase d'exécution des applications composées des diverses charges de travail, en prévoyant une stratégie de placement appropriée pour chaque phase. Sur ces applications, nous avons obtenu des améliorations de performances d'un maximum de 31% par rapport à la meilleure stratégie statique
Multicore processors are now a mainstream approach to deliver higher performance to parallel applications. In order to develop efficient parallel applications for those platforms, developers must take care of several aspects, ranging from the architectural to the application level. In this context, Transactional Memory (TM) appears as a programmer friendly alternative to traditional lock-based concurrency for those platforms. It allows programmers to write parallel code as transactions, which are guaranteed to execute atomically and in isolation regardless of eventual data races. At runtime, transactions are executed speculatively and conflicts are solved by re-executing conflicting transactions. Although TM intends to simplify concurrent programming, the best performance can only be obtained if the underlying runtime system matches the application and platform characteristics. The contributions of this thesis concern the analysis and improvement of the performance of TM applications based on Software Transactional Memory (STM) on multicore platforms. Firstly, we show that the TM model makes the performance analysis of TM applications a daunting task. To tackle this problem, we propose a generic and portable tracing mechanism that gathers specific TM events, allowing us to better understand the performances obtained. The traced data can be used, for instance, to discover if the TM application presents points of contention or if the contention is spread out over the whole execution. Our tracing mechanism can be used with different TM applications and STM systems without any changes in their original source codes. Secondly, we address the performance improvement of TM applications on multicores. We point out that thread mapping is very important for TM applications and it can considerably improve the global performances achieved. To deal with the large diversity of TM applications, STM systems and multicore platforms, we propose an approach based on Machine Learning to automatically predict suitable thread mapping strategies for TM applications. During a prior learning phase, we profile several TM applications running on different STM systems to construct a predictor. We then use the predictor to perform static or dynamic thread mapping in a state-of-the-art STM system, making it transparent to the users. Finally, we perform an experimental evaluation and we show that the static approach is fairly accurate and can improve the performance of a set of TM applications by up to 18%. Concerning the dynamic approach, we show that it can detect different phase changes during the execution of TM applications composed of diverse workloads, predicting thread mappings adapted for each phase. On those applications, we achieve performance improvements of up to 31% in comparison to the best static strategy
APA, Harvard, Vancouver, ISO, and other styles
22

Sabri, Yasmine. "Mail-Returns Process Optimization Using Lean Thinking Principles at The Swedish Tax Agency." Thesis, KTH, Industriell produktion, 2011. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-98792.

Full text
Abstract:
Lean Thinking has been widely implemented in various industries in the production context. Lately a number of companies in the service sector have developed lean systems within their organisations to improve efficiency, productivity, and quality of their services. In our study we are putting forward an approach for operational excellence using Lean Thinking principals in the public service context. The study was performed at the Swedish Tax Agency and the main process examined was mail-returns handling process, the main goal was to improve business process by eliminating non value adding activities within the mail-returns handling process. A thorough investigation of the Swedish Tax Agency process was carried out, primary (core) business process was identified. We examined the supporting processes and how they can affect the primary process performance, and we defined the activities associated with mail-returns handling process and the costs incurred, which led to having a fact-sheet that examined the entire process. Process mapping for the current state was carried out and Root Cause Analyses was performed. We identified root causes of the problem and process elements with high improvement potential, and we presented an optimisation proposal for the current state. Based on the optimisation proposal, an improvement proposal for the whole process was developed. Some of the notable attributes of this redesigned strategy were substantial cost savings and reduced process time. The proposal was approved by the Swedish tax agency and practical implementation is initiated.
APA, Harvard, Vancouver, ISO, and other styles
23

Zátopek, Jakub. "Optimalizace hodnotového toku." Master's thesis, Vysoké učení technické v Brně. Fakulta elektrotechniky a komunikačních technologií, 2012. http://www.nusl.cz/ntk/nusl-219893.

Full text
Abstract:
This master's thesis is dealing value stream optimisation of finished goods in company Continental Automotive Systems, s. r. o. between production lines and expedition in terms of lean production methods and industrial engineering. The first part deals with theoretical training methodologies and understanding of lean manufacturing and industrial engineering. The second part analyzes the value stream of finished goods between production lines and expeditinon, identifying bottlenecks and design improvements.
APA, Harvard, Vancouver, ISO, and other styles
24

Gou, Changjiang. "Task Mapping and Load-balancing for Performance, Memory, Reliability and Energy." Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEN047.

Full text
Abstract:
Cette thèse se concentre sur les problèmes d'optimisation multi-objectifs survenant lors de l'exécution d'applications scientifiques sur des plates-formes de calcul haute performance et des applications de streaming sur des systèmes embarqués. Ces problèmes d'optimisation se sont tous avérés NP-complets, c'est pourquoi nos efforts portent principalement sur la conception d'heuristiques efficaces pour des cas généraux et sur la proposition de solutions optimales pour des cas particuliers.Certaines applications scientifiques sont généralement modélisées comme des arbres enracinés. En raison de la taille des données temporaires, le traitement d'une telle arborescence peut dépasser la capacité de la mémoire locale. Une solution pratique sur un système multiprocesseur consiste à partitionner l'arborescence en plusieurs sous-arbres, et à exécuter chacun d'eux sur un processeur, qui est équipé d'une mémoire locale. Nous avons étudié comment partitionner l'arbre en plusieurs sous-arbres de sorte que chaque sous-arbre tienne dans la mémoire locale et que le makespan soit minimisé, lorsque les coûts de communication entre les processeurs sont pris en compte. Ensuite, un travail pratique d'ordonnancement d'arbres apparaissant dans un solveur de matrice clairsemée parallèle est examiné. L'objectif est de minimiser le temps de factorisation en présentant une bonne localisation des données et un équilibrage de charge. La technique de cartographie proportionnelle est une approche largement utilisée pour résoudre ce problème d'allocation des ressources. Il réalise une bonne localisation des données en affectant les mêmes processeurs à de grandes parties de l'arborescence des tâches. Cependant, cela peut limiter l'équilibrage de charge dans certains cas. Basé sur une cartographie proportionnelle, un algorithme d'ordonnancement dynamique est proposé. Il assouplit le critère de localisation des données pour améliorer l'équilibrage de charge. La performance de notre approche a été validée par de nombreuses expériences avec le solveur direct à matrice clairsemée parallèle PaStiX. Les applications de streaming apparaissent souvent dans les domaines vidéo et audio. Ils se caractérisent par une série d'opérations sur le streaming de données et un débit élevé. Le système multiprocesseur sur puce (MPSoC) est un système embarqué multi / plusieurs cœurs qui intègre de nombreux cœurs spécifiques via une interconnexion haute vitesse sur une seule puce. De tels systèmes sont largement utilisés pour les applications multimédias. De nombreux MPSoC fonctionnent sur piles. Un budget énergétique aussi serré nécessite intrinsèquement un calendrier efficace pour répondre aux demandes de calcul intensives. La mise à l'échelle dynamique de la tension et de la fréquence (DVFS) peut économiser de l'énergie en diminuant la fréquence et la tension au prix d'une augmentation des taux de défaillance. Une autre technique pour réduire le coût énergétique et atteindre l'objectif de fiabilité consiste à exécuter plusieurs copies de tâches. Nous modélisons d'abord les applications sous forme de chaînes linéaires et étudions comment minimiser la consommation d'énergie sous des contraintes de débit et de fiabilité, en utilisant DVFS et la technique de duplication sur les plates-formes MPSoC.Ensuite, dans une étude suivante, avec le même objectif d'optimisation, nous modélisons les applications de streaming sous forme de graphes série-parallèle, plus complexes que de simples chaînes et plus réalistes. La plate-forme cible dispose d'un système de communication hiérarchique à deux niveaux, ce qui est courant dans les systèmes embarqués et les plates-formes informatiques hautes performances. La fiabilité est garantie par l'exécution des tâches à la vitesse maximale ou par la triplication des tâches. Plusieurs heuristiques efficaces sont proposées pour résoudre ce problème d'optimisation NP-complet
This thesis focuses on multi-objective optimization problems arising when running scientific applications on high performance computing platforms and streaming applications on embedded systems. These optimization problems are all proven to be NP-complete, hence our efforts are mainly on designing efficient heuristics for general cases, and proposing optimal solutions for special cases.Some scientific applications are commonly modeled as rooted trees. Due to the size of temporary data, processing such a tree may exceed the local memory capacity. A practical solution on a multiprocessor system is to partition the tree into many subtrees, and run each on a processor, which is equipped with a local memory. We studied how to partition the tree into several subtrees such that each subtree fits in local memory and the makespan is minimized, when communication costs between processors are accounted for.Then, a practical work of tree scheduling arising in parallel sparse matrix solver is examined. The objective is to minimize the factorization time by exhibiting good data locality and load balancing. The proportional mapping technique is a widely used approach to solve this resource-allocation problem. It achieves good data locality by assigning the same processors to large parts of the task tree. However, it may limit load balancing in some cases. Based on proportional mapping, a dynamic scheduling algorithm is proposed. It relaxes the data locality criterion to improve load balancing. The performance of our approach has been validated by extensive experiments with the parallel sparse matrix direct solver PaStiX.Streaming applications often appear in video and audio domains. They are characterized by a series of operations on streaming data, and a high throughput. Multi-Processor System on Chip (MPSoC) is a multi/many-core embedded system that integrates many specific cores through a high speed interconnect on a single die. Such systems are widely used for multimedia applications. Lots of MPSoCs are batteries-operated. Such a tight energy budget intrinsically calls for an efficient schedule to meet the intensive computation demands. Dynamic Voltage and Frequency Scaling (DVFS) can save energy by decreasing the frequency and voltage at the price of increasing failure rates. Another technique to reduce the energy cost and meet the reliability target consists in running multiple copies of tasks. We first model applications as linear chains and study how to minimize the energy consumption under throughput and reliability constraints, using DVFS and duplication technique on MPSoC platforms.Then, in a following study, with the same optimization goal, we model streaming applications as series-parallel graphs, which are more complex than simple chains and more realistic. The target platform has a hierarchical communication system with two levels, which is common in embedded systems and high performance computing platforms. The reliability is guaranteed through either running tasks at the maximum speed or triplication of tasks. Several efficient heuristics are proposed to tackle this NP-complete optimization problem
APA, Harvard, Vancouver, ISO, and other styles
25

Vitter, Maxime. "Cartographier l'occupation du sol à grande échelle : optimisation de la photo-interprétation par segmentation d'image." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSES011/document.

Full text
Abstract:
Depuis une quinzaine d’années, l’émergence des données de télédétection à Très Haute Résolution Spatiale (THRS) et la démocratisation des Systèmes d’Information Géographique (SIG) aident à répondre aux nouveaux besoins croissants d’informations spatialisées. Le développement de nouvelles méthodes de cartographie offre une opportunité pour comprendre et anticiper les mutations des surfaces terrestres aux grandes échelles, jusqu’ici mal connues. En France, l’emploi de bases de données spatialisées sur l’occupation du sol à grande échelle (BD Ocsol GE) est devenu incontournable dans les opérations courantes de planification et de suivi des territoires. Pourtant, l’acquisition de ce type de bases de données spatialisées est encore un besoin difficile à satisfaire car les demandes portent sur des productions cartographiques sur-mesure, adaptées aux problématiques locales des territoires. Face à cette demande croissante, les prestataires réguliers de ce type de données cherchent à optimiser les procédés de fabrication avec des techniques récentes de traitements d’image. Cependant, la Photo-Interprétation Assistée par Ordinateur (PIAO) reste la méthode privilégiée des prestataires. En raison de sa grande souplesse, elle répond toujours au besoin de cartographie aux grandes échelles, malgré son coût important. La substitution de la PIAO par des méthodes de production entièrement automatisées est rarement envisagée. Toutefois, les développements récents en matière de segmentation d’images peuvent contribuer à l’optimisation de la pratique de la photo-interprétation. Cette thèse présente ainsi une série d’outils (ou modules) qui participent à l’élaboration d’une assistance à la digitalisation pour l’exercice de photo-interprétation d’une BD Ocsol GE. L’assistance se traduit par la réalisation d’un prédécoupage du paysage à partir d’une segmentation menée sur une image THRS. L’originalité des outils présentés est leur intégration dans un contexte de production fortement contraint. La construction des modules est conduite à travers trois prestations cartographiques à grande échelle commandités par des entités publiques. L’apport de ces outils d’automatisation est analysé à travers une analyse comparative entre deux procédures de cartographie : l’une basée sur une démarche de photo-interprétation entièrement manuelle et la seconde basée sur une photo-interprétation assistée en amont par une segmentation numérique. Les gains de productivité apportés par la segmentation sont, évalués à l’aide d’indices quantitatifs et qualitatifs, sur des configurations paysagères différentes. À des degrés divers, il apparaît que quelque soit le type de paysage cartographié, les gains liés à la cartographie assistée sont substantiels. Ces gains sont discutés, à la fois, d’un point de vue technique et d’un point de vue thématique dans une perspective commerciale
Over the last fifteen years, the emergence of remote sensing data at Very High Spatial Resolution (VHRS) and the democratization of Geographic Information Systems (GIS) have helped to meet the new and growing needs for spatial information. The development of new mapping methods offers an opportunity to understand and anticipate land cover change at large scales, still poorly known. In France, spatial databases about land cover and land use at large scale have become an essential part of current planning and monitoring of territories. However, the acquisition of this type of database is still a difficult need to satisfy because the demands concern tailor-made cartographic productions, adapted to the local problems of the territories. Faced with this growing demand, regular service providers of this type of data seek to optimize manufacturing processes with recent image-processing techniques. However, photo interpretation remains the favoured method of providers. Due to its great flexibility, it still meets the need for mapping at large scale, despite its high cost. Using fully automated production methods to substitute for photo interpretation is rarely considered. Nevertheless, recent developments in image segmentation can contribute to the optimization of photo-interpretation practice. This thesis presents a series of tools that participate in the development of digitalization assistance for the photo-interpretation exercise. The assistance results in the realization of a pre-cutting of the landscape from a segmentation carried out on a VHRS image. Tools development is carried out through three large-scale cartographic services, each with different production instructions, and commissioned by public entities. The contribution of these automation tools is analysed through a comparative analysis between two mapping procedures: manual photo interpretation versus digitally assisted segmentation. The productivity gains brought by segmentation are evaluated using quantitative and qualitative indices on different landscape configurations. To varying degrees, it appears that whatever type of landscape is mapped, the gains associated with assisted mapping are substantial. These gains are discussed both technically and thematically from a commercial perspective
APA, Harvard, Vancouver, ISO, and other styles
26

Nivoliers, Vincent. "Échantillonnage pour l'approximation de fonctions sur des maillages." Thesis, Université de Lorraine, 2012. http://www.theses.fr/2012LORR0161/document.

Full text
Abstract:
La numérisation est un procédé qui consiste à enregistrer un objet dans un ordinateur pour pouvoir ensuite le manipuler à l'aide d'outils informatiques. Nous nous intéressons dans ce manuscrit à la numérisation d'objets tridimensionnels. Il s'agit tout d'abord d'enregistrer leur forme. De nombreuses méthodes ont été développées pour répondre à ce problème, et nous nous concentrerons sur les objets représentés par des maillages. Sur ces objets, il est alors utile de pouvoir représenter des attributs tels que la couleur, la température ou la charge électrique, selon l'application. Nous proposons deux approches complémentaires pour aborder ce problème. La première est fondée sur le placage de textures. Cette technique consiste à déplier (paramétrer) le maillage à plat sur une image dans laquelle l'attribut est stocké. Une valeur récupérée dans l'image est ainsi associée à chaque point de l'objet. Nous proposerons une méthode permettant de masquer l'artéfact des coutures qui est inhérent à cette technique. Déplier le maillage nécessite qu'il soit de bonne qualité, ce qui n'est pas toujours le cas. Nous décrivons donc également dans un second temps une approche de l'échantillonnage d'une surface via un diagramme de Voronoï restreint. Nous expliquons en particulier comment calculer efficacement un tel objet et comment l'optimiser par rapport à un critère de qualité. Ces résultats sont ensuite appliqués au problème de l'ajustement de surfaces
Digitalisation is an operation which consists in storing an object in a computer for further manipulation using data processing tools. In this document, we are interested in the digitalisation of three-dimensional objects. It is first a matter of recording the shape of the object. Many methods have been developed to address this problem, and we will focus on objects described as meshes. On such objects the storage of attributes like colour, temperature or electrical charge is often useful, depending on the application. We will describe two complementary approaches to deal with this issue. The first one relies on texture mapping. This technique consists in unfolding ? parametrising ? the mesh on a flat image in which the attribute is stored. A value recovered from the image can therefore be associated with each point of the object. We will describe a method which hides the seam artifact, commonly encountered using this technique. Unfolding the mesh demands that its quality be good, which is not always the case. We thus secondly describe a surface sampling method based on a restricted Voronoï diagram. We especially detail how to efficiently compute such an object and how to optimise it with respect to some quality measure. These results are then applied to the surface fitting problem
APA, Harvard, Vancouver, ISO, and other styles
27

Farah, Jad. "Amélioration des mesures anthroporadiamétriques personnalisées assistées par calcul Monte Carlo : optimisation des temps de calculs et méthodologie de mesure pour l’établissement de la répartition d’activité." Thesis, Paris 11, 2011. http://www.theses.fr/2011PA112183/document.

Full text
Abstract:
Afin d’optimiser la surveillance des travailleuses du nucléaire par anthroporadiamétrie, il est nécessaire de corriger les coefficients d’étalonnage obtenus à l’aide du fantôme physique masculin Livermore. Pour ce faire, des étalonnages numériques basés sur l’utilisation des calculs Monte Carlo associés à des fantômes numériques ont été utilisés. De tels étalonnages nécessitent d’une part le développement de fantômes représentatifs des tailles et des morphologies les plus communes et d’autre part des simulations Monte Carlo rapides et fiables. Une bibliothèque de fantômes thoraciques féminins a ainsi été développée en ajustant la masse des organes internes et de la poitrine suivant la taille et les recommandations de la chirurgie plastique. Par la suite, la bibliothèque a été utilisée pour étalonner le système de comptage du Secteur d’Analyses Médicales d’AREVA NC La Hague. De plus, une équation décrivant la variation de l’efficacité de comptage en fonction de l’énergie et de la morphologie a été développée. Enfin, des recommandations ont été données pour corriger les coefficients d’étalonnage du personnel féminin en fonction de la taille et de la poitrine. Enfin, pour accélérer les simulations, des méthodes de réduction de variance ainsi que des opérations de simplification de la géométrie ont été considérées.Par ailleurs, pour l’étude des cas de contamination complexes, il est proposé de remonter à la cartographie d’activité en associant aux mesures anthroporadiamétriques le calcul Monte Carlo. La méthode développée consiste à réaliser plusieurs mesures spectrométriques avec différents positionnements des détecteurs. Ensuite, il s’agit de séparer la contribution de chaque organe contaminé au comptage grâce au calcul Monte Carlo. L’ensemble des mesures réalisées au LEDI, au CIEMAT et au KIT ont démontré l’intérêt de cette méthode et l’apport des simulations Monte Carlo pour une analyse plus précise des mesures in vivo, permettant ainsi de déterminer la répartition de l’activité à la suite d’une contamination interne
To optimize the monitoring of female workers using in vivo spectrometry measurements, it is necessary to correct the typical calibration coefficients obtained with the Livermore male physical phantom. To do so, numerical calibrations based on the use of Monte Carlo simulations combined with anthropomorphic 3D phantoms were used. Such computational calibrations require on the one hand the development of representative female phantoms of different size and morphologies and on the other hand rapid and reliable Monte Carlo calculations. A library of female torso models was hence developed by fitting the weight of internal organs and breasts according to the body height and to relevant plastic surgery recommendations. This library was next used to realize a numerical calibration of the AREVA NC La Hague in vivo counting installation. Moreover, the morphology-induced counting efficiency variations with energy were put into equation and recommendations were given to correct the typical calibration coefficients for any monitored female worker as a function of body height and breast size. Meanwhile, variance reduction techniques and geometry simplification operations were considered to accelerate simulations.Furthermore, to determine the activity mapping in the case of complex contaminations, a method that combines Monte Carlo simulations with in vivo measurements was developed. This method consists of realizing several spectrometry measurements with different detector positioning. Next, the contribution of each contaminated organ to the count is assessed from Monte Carlo calculations. The in vivo measurements realized at LEDI, CIEMAT and KIT have demonstrated the effectiveness of the method and highlighted the valuable contribution of Monte Carlo simulations for a more detailed analysis of spectrometry measurements. Thus, a more precise estimate of the activity distribution is given in the case of an internal contamination
APA, Harvard, Vancouver, ISO, and other styles
28

Berger, Karl-Eduard. "Placement de graphes de tâches de grande taille sur architectures massivement multicoeurs." Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLV026/document.

Full text
Abstract:
Ce travail de thèse de doctorat est dédié à l'étude d'un problème de placement de tâches dans le domaine de la compilation d'applications pour des architectures massivement parallèles. Ce problème vient en réponse à certains besoins industriels tels que l'économie d'énergie, la demande de performances pour les applications de type flots de données synchrones. Ce problème de placement doit être résolu dans le respect de trois critères: les algorithmes doivent être capable de traiter des applications de tailles variables, ils doivent répondre aux contraintes de capacités des processeurs et prendre en compte la topologie des architectures cibles. Dans cette thèse, les tâches sont organisées en réseaux de communication, modélisés sous forme de graphes. Pour évaluer la qualité des solutions produites par les algorithmes, les placements obtenus sont comparés avec un placement aléatoire. Cette comparaison sert de métrique d'évaluation des placements des différentes méthodes proposées. Afin de résoudre à ce problème, deux algorithmes de placement de réseaux de tâches de grande taille sur des architectures clusterisées de processeurs de type many-coeurs ont été développés. Ils s'appliquent dans des cas où les poids des tâches et des arêtes sont unitaires. Le premier algorithme, nommé Task-wise Placement, place les tâches une par une en se servant d'une notion d'affinité entre les tâches. Le second, intitulé Subgraph-wise Placement, rassemble les tâches en groupes puis place les groupes de tâches sur les processeurs en se servant d'une relation d'affinité entre les groupes et les tâches déjà affectées. Ces algorithmes ont été testés sur des graphes, représentants des applications, possédant des topologies de types grilles ou de réseaux de portes logiques. Les résultats des placements sont comparés avec un algorithme de placement, présent dans la littérature qui place des graphes de tailles modérée et ce à l'aide de la métrique définie précédemment. Les cas d'application des algorithmes de placement sont ensuite orientés vers des graphes dans lesquels les poids des tâches et des arêtes sont variables similairement aux valeurs qu'on peut retrouver dans des cas industriels. Une heuristique de construction progressive basée sur la théorie des jeux a été développée. Cet algorithme, nommé Regret Based Approach, place les tâches une par une. Le coût de placement de chaque tâche en fonction des autres tâches déjà placées est calculée. La phase de sélection de la tâche se base sur une notion de regret présente dans la théorie des jeux. La tâche qu'on regrettera le plus de ne pas avoir placée est déterminée et placée en priorité. Afin de vérifier la robustesse de l'algorithme, différents types de graphes de tâches (grilles, logic gate networks, series-parallèles, aléatoires, matrices creuses) de tailles variables ont été générés. Les poids des tâches et des arêtes ont été générés aléatoirement en utilisant une loi bimodale paramétrée de manière à obtenir des valeurs similaires à celles des applications industrielles. Les résultats de l'algorithme ont également été comparés avec l'algorithme Task-Wise Placement, qui a été spécialement adapté pour les valeurs non unitaires. Les résultats sont également évalués en utilisant la métrique de placement aléatoire
This Ph.D thesis is devoted to the study of the mapping problem related to massively parallel embedded architectures. This problem arises from industrial needs like energy savings, performance demands for synchronous dataflow applications. This problem has to be solved considering three criteria: heuristics should be able to deal with applications with various sizes, they must meet the constraints of capacities of processors and they have to take into account the target architecture topologies. In this thesis, tasks are organized in communication networks, modeled as graphs. In order to determine a way of evaluating the efficiency of the developed heuristics, mappings, obtained by the heuristics, are compared to a random mapping. This comparison is used as an evaluation metric throughout this thesis. The existence of this metric is motivated by the fact that no comparative heuristics can be found in the literature at the time of writing of this thesis. In order to address this problem, two heuristics are proposed. They are able to solve a dataflow process network mapping problem, where a network of communicating tasks is placed into a set of processors with limited resource capacities, while minimizing the overall communication bandwidth between processors. They are applied on task graphs where weights of tasks and edges are unitary set. The first heuristic, denoted as Task-wise Placement, places tasks one after another using a notion of task affinities. The second algorithm, named Subgraph-wise Placement, gathers tasks in small groups then place the different groups on processors using a notion of affinities between groups and processors. These algorithms are tested on tasks graphs with grid or logic gates network topologies. Obtained results are then compared to an algorithm present in the literature. This algorithm maps task graphs with moderated size on massively parallel architectures. In addition, the random based mapping metric is used in order to evaluate results of both heuristics. Then, in a will to address problems that can be found in industrial cases, application cases are widen to tasks graphs with tasks and edges weights values similar to those that can be found in the industry. A progressive construction heuristic named Regret Based Approach, based on game theory, is proposed. This heuristic maps tasks one after another. The costs of mapping tasks according to already mapped tasks are computed. The process of task selection is based on a notion of regret, present in game theory. The task with the highest value of regret for not placing it, is pointed out and is placed in priority. In order to check the strength of the algorithm, many types of task graphs (grids, logic gates networks, series-parallel, random, sparse matrices) with various size are generated. Tasks and edges weights are randomly chosen using a bimodal law parameterized in order to have similar values than industrial applications. Obtained results are compared to the Task Wise placement, especially adapted for non-unitary values. Moreover, results are evaluated using the metric defined above
APA, Harvard, Vancouver, ISO, and other styles
29

Cortés, Ríos Julio César. "Targeted feedback collection for data source selection with uncertainty." Thesis, University of Manchester, 2018. https://www.research.manchester.ac.uk/portal/en/theses/targeted-feedback-collection-for-data-source-selection-with-uncertainty(3ce078e5-4e5a-4bf5-afb3-1ee51b863925).html.

Full text
Abstract:
The aim of this dissertation is to contribute to research on pay-as-you-go data integration through the proposal of an approach for targeted feedback collection (TFC), which aims to improve the cost-effectiveness of feedback collection, especially when there is uncertainty associated with characteristics of the integration artefacts. In particular, this dissertation focuses on the data source selection task in data integration. It is shown how the impact of uncertainty about the evaluation of the characteristics of the candidate data sources, also known as data criteria, can be reduced, in a cost-effective manner, thereby improving the solutions to the data source selection problem. This dissertation shows how alternative approaches such as active learning and simple heuristics have drawbacks that throw light into the pursuit of better solutions to the problem. This dissertation describes the resulting TFC strategy and reports on its evaluation against alternative techniques. The evaluation scenarios vary from synthetic data sources with a single criterion and reliable feedback to real data sources with multiple criteria and unreliable feedback (such as can be obtained through crowdsourcing). The results confirm that the proposed TFC approach is cost-effective and leads to improved solutions for data source selection by seeking feedback that reduces uncertainty about the data criteria of the candidate data sources.
APA, Harvard, Vancouver, ISO, and other styles
30

Ghasemi, Dehkordi Sepehr. "Towards an optimal model for green and safe driving." Thesis, Queensland University of Technology, 2019. https://eprints.qut.edu.au/131162/1/Sepehr_Ghasemi%20Dehkordi_Thesis.pdf.

Full text
Abstract:
Driver behaviour, route choice, road geometry and vehicle characteristics all influence vehicle consumption, gas emission and safety. This thesis designed an optimum driving model that considers the simultaneous needs of an environmentally friendly and safe (eco-safe) driving behaviour. This research was grounded on optimisation techniques in control theory as well as graph theory to obtain the optimal route and speed profile to assist drivers in eco-safe driving. The joint consideration of optimal benefits in terms of road safety and energy consumption was the key innovation of this dissertation.
APA, Harvard, Vancouver, ISO, and other styles
31

Cheng, Sibo. "Error covariance specification and localization in data assimilation with industrial application Background error covariance iterative updating with invariant observation measures for data assimilation A graph clustering approach to localization for adaptive covariance tuning in data assimilation based on state-observation mapping Error covariance tuning in variational data assimilation: application to an operating hydrological model." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPAST067.

Full text
Abstract:
Les méthodes d’assimilation de données et plus particulièrement les méthodes variationnelles sont mises à profit dans le domaine industriel pour deux grands types d’applications que sont la reconstruction de champ physique et le recalage de paramètres. Une des difficultés de mise en œuvre des algorithmes d’assimilation est que la structure de matrices de covariance d’erreurs, surtout celle d’ébauche, n’est souvent pas ou mal connue. Dans cette thèse, on s’intéresse à la spécification et la localisation de matrices de covariance dans des systèmes multivariés et multidimensionels, et dans un cadre industriel. Dans un premier temps, on cherche à adapter/améliorer notre connaissance sur les covariances d’analyse à l’aide d’un processus itératif. Dans ce but nous avons développé deux nouvelles méthodes itératives pour la construction de matrices de covariance d’erreur d’ébauche. L’efficacité de ces méthodes est montrée numériquement en expériences jumelles avec des erreurs indépendantes ou relatives aux états vrais. On propose ensuite un nouveau concept de localisation pour le diagnostic et l’amélioration des covariances des erreurs. Au lieu de s’appuyer sur une distance spatiale, cette localisation est établie exclusivement à partir de liens entre les variables d’état et les observations. Finalement, on applique une combinaison de ces nouvelles approches et de méthodes plus classiques existantes, pour un modèle hydrologique multivarié développé à EDF. L’assimilation de données est mise en œuvre pour corriger la quantité de précipitation observée afin d’obtenir une meilleure prévision du débit d’une rivière en un point donné
Data assimilation techniques are widely applied in industrial problems of field reconstruction or parameter identification. The error covariance matrices, especially the background matrix in data assimilation are often difficult to specify. In this thesis, we are interested in the specification and localization of covariance matrices in multivariate and multidimensional systems in an industrial context. We propose to improve the covariance specification by iterative processes. Hence, we developed two new iterative methods for background matrix recognition. The power of these methods is demonstrated numerically in twin experiments with independent errors or relative to true states. We then propose a new concept of localization and applied it for error covariance tuning. Instead of relying on spatial distance, this localization is established purely on links between state variables and observations. Finally, we apply these new approaches, together with other classical methods for comparison, to a multivariate hydrological model. Variational assimilation is implemented to correct the observed precipitation in order to obtain a better river flow forecast
APA, Harvard, Vancouver, ISO, and other styles
32

Qu, Zheng. "Théorie de Perron-Frobenius non linéaire et méthodes numériques max-plus pour la résolution d'équations d'Hamilton-Jacobi." Phd thesis, Ecole Polytechnique X, 2013. http://pastel.archives-ouvertes.fr/pastel-00927122.

Full text
Abstract:
Une approche fondamentale pour la résolution de problémes de contrôle optimal est basée sur le principe de programmation dynamique. Ce principe conduit aux équations d'Hamilton-Jacobi, qui peuvent être résolues numériquement par des méthodes classiques comme la méthode des différences finies, les méthodes semi-lagrangiennes, ou les schémas antidiffusifs. À cause de la discrétisation de l'espace d'état, la dimension des problèmes de contrôle pouvant être abordés par ces méthodes classiques est souvent limitée à 3 ou 4. Ce phénomène est appellé malédiction de la dimension. Cette thèse porte sur les méthodes numériques max-plus en contôle optimal deterministe et ses analyses de convergence. Nous étudions et developpons des méthodes numériques destinées à attenuer la malédiction de la dimension, pour lesquelles nous obtenons des estimations théoriques de complexité. Les preuves reposent sur des résultats de théorie de Perron-Frobenius non linéaire. En particulier, nous étudions les propriétés de contraction des opérateurs monotones et non expansifs, pour différentes métriques de Finsler sur un cône (métrique de Thompson, métrique projective d'Hilbert). Nous donnons par ailleurs une généralisation du "coefficient d'ergodicité de Dobrushin" à des opérateurs de Markov sur un cône général. Nous appliquons ces résultats aux systèmes de consensus ainsi qu'aux équations de Riccati généralisées apparaissant en contrôle stochastique.
APA, Harvard, Vancouver, ISO, and other styles
33

Saad, Sawsan. "Conception et Optimisation Distribuée d’un Système d’Information des Services d’Aide à la Mobilité Urbaine Basé sur une Ontologie Flexible dans le Domaine de Transport." Thesis, Ecole centrale de Lille, 2010. http://www.theses.fr/2010ECLI0017/document.

Full text
Abstract:
De nos jours, les informations liées au déplacement et à la mobilité dans un réseau de transport représentent sans aucun doute un potentiel important.Ces travaux visent à mettre en œuvre un Système d’Information de Service d’Aide à la Mobilité Urbaine (SISAMU).Le SISAMU doit pouvoir procéder par des processus de décomposition des requêtes simultanées en un ensemble de tâches indépendantes. Chaque tâche correspond à un service qui peut être proposé par plusieurs fournisseurs d’information en concurrence, avec différents coûts, temps de réponse et formats. Le SISAMU est lié à un Réseau informatique Etendu et distribué de Transport Multimodal (RETM) qui comporte plusieurs sources d’information hétérogènes des différents services proposés aux utilisateurs de transport. L’aspect dynamique, distribué et ouvert du problème, nous a conduits à adopter une modélisation multi-agent pour assurer au système une évolution continue et une flexibilité pragmatique. Pour ce faire, nous avons proposé d’automatiser la modélisation des services en utilisant la notion d’ontologie. Notre SISAMU prend en considération les éventuelles perturbations sur le RETM.Ansi, nous avons créé un protocole de négociation entre les agents. Le protocole de négociation proposé qui utilise l’ontologie de la cartographie se base sur un système de gestion des connaissances pour soutenir l'hétérogénéité sémantique. Nous avons détaillé l’Algorithme de Reconstruction Dynamique des Chemins des Agents (ARDyCA) qui est basé sur l’approche de l’ontologie cartographique. Finalement, les résultats présentés dans cette thèse justifient l’utilisation de l’ontologie flexible et son rôle dans le processus de négociation
Nowadays, information related on displacement and mobility in a transport network represents certainly a significant potential. So, this work aims to modeling, to optimize and to implement an Information System of Services to Aid the Urban Mobility (ISSAUM).The ISSAUM has firstly to decompose each set of simultaneous requests into a set of sub-requests called tasks. Each task corresponds to a service which can be proposed different by several information providers with different. An information provider which aims to propose some services through our ISSAUM has to register its ontology. Indeed, ISSAUM is related to an Extended and distributed Transport Multimodal Network (ETMN) which contains several heterogeneous data sources. The dynamic and distributed aspects of the problem incite us to adopt a multi-agent approach to ensure a continual evolution and a pragmatic flexibility of the system. So, we proposed to automate the modeling of services by using ontology idea. Our ISSAUM takes into account possible disturbance through the ETMN. In order to satisfy user requests, we developed a negotiation protocol between our system agents. The proposed ontology mapping negotiation model based on the knowledge management system for supporting the semantic heterogeneity and it organized as follow: Negotiation Layer (NL), the Semantic Layer (SEL), and the Knowledge Management Systems Layer(KMSL).We detailed also the reassignment process by using Dynamic Reassigned Tasks (DRT) algorithm supporting by ontology mapping approach. Finally, the experimental results presented in this thesis, justify the using of the ontology solution in our system and its role in the negotiation process
APA, Harvard, Vancouver, ISO, and other styles
34

Björklund, Ted, and Wictor Fors. "Waste Management With a Green Supply Chain : A case study regarding how for-profit organisations should utilise waste management." Thesis, Mälardalens högskola, Industriell ekonomi och organisation, 2018. http://urn.kb.se/resolve?urn=urn:nbn:se:mdh:diva-39338.

Full text
Abstract:
The purpose of this study is to investigate what a sustainable approach is to waste management and how to take actions in for-profit organisations when considering environmental and cost perspectives. This together with applying green supply chain management (GrSCM) to investigate these actions from multiple perspectives of a sustainable approach. A qualitative study has been performed, a study which has been using an abductive approach. This abductive approach helps to keep the study unbiased and open for an iterative process to achieve new theories. A case study has been done at Saab AB in Arboga, and a reference case study has been done at Saab AB in Malmslätt. The case studies have been built around semi-structured interviews together with observations and document gathering. The data from the case studies are then compared and analysed along with three described analytical tools to reach a discussion and several conclusions. This study have shown that waste management is important to address and utilise in several areas within a for-profit organisation. The main areas where it is important are regarding the operation, the employees, the actors, and the environment. It is found that issues like awareness and knowledge of the employees could be a key to find sustainable solutions with other actors to develop the waste management situation together with the green supply chain management. By addressing issues interconnected between environment and the operations on site, it is possible to conclude that every possible revision and change of the operations or the supply chain will mean a more significant initial cost. Costs that later on can be transformed into winnings for the organisation, either regarding money or terms of information, reputation, and attractiveness.
Syftet med den här studien är att hitta ett hållbart tillvägagångssätt gällande avfallshantering och hur vinstdrivande organisationer skall agera i frågor kopplade till miljömässiga och kostnadsmässiga perspektiv. Det tillsammans med att applicera en grön logistikkedja för att undersöka detta tillvägagångssätt utifrån flera perspektiv av ett hållbart synsätt. En kvalitativ studie har genomförts, en studie vars tillvägagångssätt har varit abduktivt. En abduktiv studie hjälper till att hålla studien opartisk och samtidigt öppen för en iterationsprocess för att hitta nya teorier. En fältstudie har gjorts på Saab AB i Arboga och en referensstudie är genomförd på Saab AB i Malmslätt. Fältstudierna har blivit byggda kring semistrukturerade intervjuer tillsammans med observationer och dokumentinsamling. All data från fältstudierna har blivit jämförda och analyserade med hjälp av de tre analytiska verktyg som beskrivits för att nå en diskussion och flera slutsatser. Denna studie har visat att avfallshantering är viktigt att använda inom flera områden i en vinstdrivande organisation. Huvudområdena som har tagits upp som viktiga är operationer, anställda, aktörer och miljön. Problem kopplade till medvetenhet och kunskap hos de anställda kan vara en nyckel gällande att hitta hållbara lösningar tillsammans med andra aktörer för att kunna utveckla en avfallshanteringssituation tillsammans med en grön logistikkedja. Genom att ta itu med problem ihopkopplade mellan olika miljöer och operationerna på plats gör det möjligt att dra slutsatsen att varje förändring som sker innebär en högre initial kostnad men som senare kan komma att bli omvandlad till en vinst för organisationen, antingen i form av pengar eller i form av information, rykte eller attraktivitet.
APA, Harvard, Vancouver, ISO, and other styles
35

Khlissa, Radhouane. "Contribution à la définition des méthodes d'optimisation rapides et économiques pour le dimensionnement d'actionneurs électriques." Thesis, Compiègne, 2015. http://www.theses.fr/2015COMP2190/document.

Full text
Abstract:
Ce mémoire est centré sur l’application de la technique d’optimisation de type Space Mapping dans le cadre du dimensionnement d’actionneurs électriques pris en compte par des modélisations multi-physiques. L’intérêt particulièrement recherché de ce type de méthode est la réduction potentiellement forte du coût du dimensionnement optimal. Cette volonté de réduction du coût de l’approche optimale s’explique par plusieurs considérations. En premier lieu, la modélisation des actionneurs tend à considérer de plus en plus de phénomènes physiques (tels que les phénomènes magnétiques, électriques, thermiques, mécaniques …) afin de décrire au mieux les phénomènes observés et mesurés. En second lieu il devient alors nécessaire de tenir compte des couplages entre ces physiques afin de traduire au plus juste l’interdépendance de ces phénomènes. Dans ce cadre, un travail particulier a été réalisé concernant la prise en compte des aspects thermiques dans les machines électriques. C’est ainsi qu’un modèle thermique à constantes localisées d’une machine synchrone à aimants permanents a été construit. Pour valider les résultats de calcul et préciser la définition de certain de ses éléments, une démarche expérimentale a été réalisée. Tous ces points, traduits dans le plan numérique, haussent le coût de l’évaluation des performances des actionneurs, et donc celui de leurs dimensionnements. De là, l’utilisation des techniques d’optimisation basées sur des modèles substituts permet d’envisager des réductions significatives des coûts de dimensionnement. La technique de Space Mapping est utilisée dans ce travail comme solution pour trouver un compromis entre la qualité des solutions trouvées et le temps de calcul. Plus particulièrement, elle est utilisée pour résoudre un problème de dimensionnement optimal d’une machine synchrone à aimants permanents assurant la fonction de démarreur dans une application de véhicule hybride. L’approche d’optimisation par Space Mapping a été comparée à celle, plus classique, n’utilisant qu’une seule modélisation de l’actionneur à dimensionner, c’est-à-dire sans modèle substitut. Il est montré que les techniques de Space Mapping sont à même de trouver des solutions de dimensionnement similaires à celles issues d’une approche classique, mais de manière beaucoup plus efficace, i.e. en utilisant un nombre plus faible d’évaluations de la modélisation multi-physique de l’actionneur
This thesis focuses on the application of the Space Mapping optimization technique in the case of the sizing of electrical actuators taking into account a multi-physical modeling. The main interest in this type of optimization method is to considerably reduce the cost of optimal sizing. The need to use such optimization approach is due to several considerations. First, electrical actuators modeling tends to increasingly require the consideration of several physical phenomena (such as magnetic, electrical thermal and mechanical phenomena) in order to better describe observed and measured phenomena. Besides, it becomes necessary to take into account couplings between the different physical phenomena to precisely calculate the interdependencies between these phenomena. In this context, taking into account the thermal aspect in the case of electrical machines is particularly highlighted. A lumped parameter model of a permanent magnet synchronous machine is built. An experimental procedure has been followed to validate calculation results and define some elements of the proposed model. When implemented numerically, all points mentioned above increase the cost of the calculation of the performances of the electrical actuator, and then the cost of the optimal sizing. Thus, the use of an optimization technique based on surrogate models permits to reduce the optimal sizing cost. Space Mapping technique was used in this work as a solution to find a compromise between the quality of the found results and the calculation time. It is particularly used to solve an optimal sizing problem of a permanent magnet synchronous machine used as starter in a hybrid vehicle application. The Space Mapping optimization approach was compared to a classical one using a unique modeling of sized the electrical actuator : no surrogate model is used in the classical approach. Il is demonstrated that the Space Mapping techniques find optimization results that are similar to those found by the classical approach, yet, in a much more efficiently. Space Mapping techniques require only few calculations of the multi-physical model of the actuator
APA, Harvard, Vancouver, ISO, and other styles
36

Ravon, Gwladys. "Problèmes inverses pour la cartographie optique cardiaque." Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0118/document.

Full text
Abstract:
Depuis les années 80 la cartographie optique est devenu un outil important pour l'étude et la compréhension des arythmies cardiaques. Cette expérience permet la visualisation de flux de fluorescence à la surface du tissu ; fluorescence qui est directement liée au potentiel transmembranaire. Dans les observations en surface se cachent des informations sur la distribution en trois dimensions de ce potentiel. Nous souhaitons exploiter ces informations surfaciques afin de reconstruire le front de dépolarisation dans l'épaisseur. Pour cela nous avons développé une méthode basée sur la résolution d'un problème inverse. Le modèle direct est composée de deux équations de diffusion et d'une paramétrisation du front de dépolarisation. La résolution du problème inverse permet l'identification des caractéristiques du front. La méthode a été testée sur des données in silico avec différentes manières de caractériser le front (sphère qui croît au cours du temps, équation eikonale). Les résultats obtenus sont très satisfaisants et comparés à une méthode développée par Khait et al. [1]. Le passage à l'étude sur données expérimentales a mis en évidence un problème au niveau du modèle. Nous détaillons ici les pistes explorées pour améliorer le modèle : illumination constante, paramètres optiques, précision de l'approximation de diffusion. Plusieurs problèmes inverses sont considérés dans ce manuscrit, ce qui implique plusieurs fonctionnelles à minimiser et plusieurs gradients associés. Pour chaque cas, le calcul du gradient est explicité, le plus souvent par la méthode de l'adjoint. La méthode développée a aussi été appliquée à des données autres que la cartographie optique cardiaque
Since the 80's optical mapping has become an important tool for the study and the understanding of cardiac arythmias. This experiment allows the visualization of fluorescence fluxes through tissue surface. The fluorescence is directly related to the transmembrane potential. Information about its three-dimension distribution is hidden in the data on the surfaces. Our aim is to exploit this surface measurements to reconstruct the depolarization front in the thickness. For that purpose we developed a method based on the resolution of an inverse problem. The forward problem is made of two diffusion equations and the parametrization of the wavefront. The inverse problem resolution enables the identification of the front characteristics. The method has been tested on in silico data with different ways to parameter the front (expanding sphere, eikonal equation). The obtained results are very satisfying, and compared to a method derived by Khait et al. [1]. Moving to experimental data put in light an incoherence in the model. We detail the possible causes we explored to improve the model : constant illumination, optical parameters, accuracy of the diffusion approximation. Several inverse problems are considered in this manuscript, that involves several cost functions and associated gradients. For each case, the calculation of the gradient is explicit, often with the gradient method. The presented method was also applied on data other than cardiac optical mapping
APA, Harvard, Vancouver, ISO, and other styles
37

Petit, Tristan. "Caractérisation des fonds marins et estimation bathymétrique par inversion de modèle de transfert radiatif : application à l'imagerie hyperspectrale en milieu coralien." Thesis, Brest, 2017. http://www.theses.fr/2017BRES0023/document.

Full text
Abstract:
L’imagerie hyperspectrale aéroportée constitue un candidat potentiel pour la cartographie et le suivi des récifs coralliens à large échelle et à forte résolution spatiale. Dans cette thèse, nous présentons tout d’abord les traitements à appliquer au signal hyperspectral afin d’en extraire des informations sur la nature du fond marin, la bathymétrie et les propriétés optiques de l’eau, et nous les mettons en perspectives devant deux principaux verrous : (i) le faible rapport signal sur bruit du signal mesuré, (ii) le nombre et la variabilité des interactions onde-matière ayant lieu entre l’entrée des rayons lumineux dans l’atmosphère et leur mesure par le capteur hyperspectral. En considérant ces limitations, nous examinons les performances d’une des méthodes existantes de traitement de la colonne d’eau : l’inversion de modèle semi-analytique par optimisation. Nous évaluons d’abord la robustesse des estimations des types de fond et de la bathymétrie pour six paramétrisations du schéma d’inversion. Les résultats sur des images hyperspectrales acquises à l’île de La Réunion en 2009 montrent que la paramétrisation de l’inversion joue un rôle crucial sur la qualité des estimations et que la paramétrisation la plus communément utilisée ne présente pas toujours les meilleures performances. Nous évaluons par la suite l’importance de la précision de la paramétrisation du modèle semi-analytique direct à travers une analyse de sensibilité réalisée sur des données hyperspectrales synthétiques puis sur des données réelles que nous avons acquises en 2015 à La Réunion. L’analyse est en outre effectuée pour toutes les paramétrisations de l’inversion précédemment étudiées. Cette étude montre qu’en milieu récifal l’importance de la précision de la paramétrisation du modèle direct est faible devant le choix de la paramétrisation de l’inversion. Nous montrons en outre qu’il n’est pas possible d’identifier le(s) paramètre(s) du modèle direct le(s) plus influent(s) car cela dépend des concentrations relatives de chacun des éléments optiquement actifs de l’eau
Airborne hyperspectral imaging is a potential candidate for mapping and monitoring coral reefs at large scale and with high spatial resolution. In this thesis, we first present the processing steps to be applied to hyperspectral signals for extracting information about seabed types, bathymetry and water optical properties, and we discuss their efficiency with respect to two main confounding factors: (i) low signal to noise ratio of the measured signals, and (ii) large number and variability of physical interactions occurring between the entrance of sunlight into the atmosphere and its measurement by the hyperspectral sensor. Considering these limitations, we examine the performance of an already existing water column processing method: semi-analytical model inversion by optimization. We first evaluate the robustness of seabed type and bathymetry estimation for six different inversion setups. The results on hyperspectral images acquired over Réunion Island reefs in 2009 show that the choice of the inversion setup plays an important role on the quality of the estimations and that the most widely used inversion setup does not always produce the best results. We then evaluate the importance of the accuracy of the parameterization of the direct semi-analytical model. This is done through a sensitivity analysis performed on both simulated and real hyperspectral data acquired in Réunion Island in 2015. The analysis is performed for each inversion setup previously studied. This study shows that in coral reef context the accuracy of the parameterization of the direct model is less important than the choice of the inversion setup. We also demonstrate that it is not possible to identify the most influent parameters of the direct model because it depends on the relative concentration of each optically active constituent
APA, Harvard, Vancouver, ISO, and other styles
38

Pecen, Pavel. "Navržení nástrojů pro řízení internetového obchodu, optimalizace a standardizace procesů pro vybraný podnik." Master's thesis, Vysoká škola ekonomická v Praze, 2011. http://www.nusl.cz/ntk/nusl-124597.

Full text
Abstract:
The aim of this thesis was to provide manager of a particular e-shop a practical overview of the current state of strategic and operational management and to suggest possible solutions to discovered imperfections. Within the analysis of the current state following assessments has been accomplished: evaluations of company's vision, related goals, design and implementation of the strategy, organizational structure and set of procedures in the company, analysis of jobs activities and full time equivalent analysis. In addition, key business processes of the community e-shop have been mapped with employees and costs were assigned to their various activities, thereby to obtain quantification of the average cost per order. Steps were designed to optimise key processes to improve e-shop's operational efficiency.
APA, Harvard, Vancouver, ISO, and other styles
39

Benda, Ondřej. "Optimalizace činnosti měrového střediska." Master's thesis, Vysoké učení technické v Brně. Fakulta strojního inženýrství, 2008. http://www.nusl.cz/ntk/nusl-228196.

Full text
Abstract:
This master's thesis is engaged in optimisation processes of PUQ (as for Purchasing Quality) department, Robert Bosch České Budějovice. This department is responsible for input control of parts for manufacture as well as check of new parts including their documentation and documentation updates. By optimisation we understand selection of the best variant from group of possibilities.
APA, Harvard, Vancouver, ISO, and other styles
40

Marcelin, Yvesner. "Développements récents en analyse multivoque : prédérivées et optimisation multivoque." Thesis, Antilles, 2016. http://www.theses.fr/2016ANTI0040/document.

Full text
Abstract:
Les travaux de cette thèse portent sur les prédérivées d'applications multivoques et la théorie de l'optimisation. Dans un premier temps, nous établissons des résultats d'existence de différents types de prédérivées pour certaines classes d'applications. Spécialement, pour des applications multivoques possédant certaines propriétés de convexité. Par la suite, nous appliquons ces résultats dans le cadre de la théorie de l'optimisation multivoque en établissant des conditions nécessaires et des conditions suffisantes d'optimalité. Sous des hypothèses de convexité, nous établissons des résultats naturels propres aux minimiseurs en optimisation convexe. Ensuite, nous appliquons quelques uns de nos résultats théoriques à un modèle de l'économie du bien-être en établissant notamment une équivalence entre les allocations optimales faibles de Pareto du modèle économique et les minimiseurs faibles d'un problème d'optimisation multivoque associé. D'autre part, en utilisant certaines notions d'intérieur généralisé existant dans la littérature, nous discutons dans un cadre unifié divers concepts de minimiseurs relaxés. En vue d'étudier leur stabilité, nous introduisons une topologie sur des espaces vectoriels ordonnés dont découle une notion de convergence nous permettant de définir deux concepts de convergence variationnelle qui sont ensuite utilisés pour établir la stabilité supérieure et la stabilité inférieure des ensembles de minimiseurs relaxés considérés dans ce travail
This work is devoted to the study of prederivatives of set-valued maps and the theory of optimization. First, we establish results regarding the existence of several kinds of prederivatives for some classes set-valued maps. Specially for set-valued maps enjoying convexity properties. Subsequently, we apply our results in the framework of set optimization by establishing both necessary and sufficient optimality conditions, involving such prederivatives, for set optimization problems. Under convexity assumptions, we prove some natural results fitting the paradigm of minimizers in convex optimization. Then, we apply some of our theoretical results to a model of welfare economics by establishing in particular an equivalence between the weak Pareto optimal allocations of the model and the weak minimizes of a set optimization problem associated. Taking adventadge of several generalized interiority notions existing in the literature, we discuss in a unified way corresponding notions of relaxed minimizers In order to establish stability results, we introduce a topology on vector ordered spaces from which we derive a concept of convergence that we use to define two concepts of variational convergence that allow us to study both the upper and the lower stability of sets of relaxed minimizers we consider
APA, Harvard, Vancouver, ISO, and other styles
41

Bonnal, Thomas. "Développements de modèles optiques et de méthodes non supervisées de résolution des problèmes bilinéaires : application à l’imagerie vibrationnelle." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSE1063.

Full text
Abstract:
La caractérisation fine des matériaux inorganiques nécessite d'avoir accès à des informations complémentaires de celles apportées par des techniques d'analyse élémentaire ou de diffraction. La spectroscopie infrarouge à transformée de Fourier permet de caractériser les liaisons covalentes et l'environnement des groupes fonctionnels dans les matériaux. C'est donc une technique de choix pour l'étude des matériaux hydratés, amorphes ou sujets à des phénomènes de vieillissement. En couplant cette technique à une platine de déplacement, il est possible de réaliser des cartographies des phases sur quelques centimètres carrés : c'est la microscopie infrarouge. Cette thèse développe plus particulièrement l'utilisation de la lumière réfléchie au travers de l'étude de la réflexion spéculaire et de la réflexion totale atténuée (ATR).Après une première partie se focalisant sur les méthodes d'acquisitions disponibles, une seconde partie s'attache à obtenir de manière non supervisée les cartographies chimiques associées aux concentrations relatives des différents composants présents dans la zone analysée. Des techniques de réduction de données et d'analyse factorielle sont mises en place afin d'estimer le nombre de composants chimiques et leurs spectres relatifs ; des problèmes de minimisation sous contraintes sont résolus pour extraire l'information chimique. La réflexion spéculaire ne nécessite aucun contact avec l‘échantillon et, de ce fait, n'entraine aucune altération de la surface analysée. C'est sur le papier une technique de choix pour suivre l'évolution d'un matériau. Cependant, elle souffre de la complexité d'interprétation liée à l'allure des spectres obtenus. Afin de développer la cartographie issue de la réflexion spéculaire, des modèles prenant en compte l'optique géométrique, l'optique ondulatoire, des corrections d'interférogrammes et des méthodes classiques d'homogénéisation ont été développés. Ce travail a permis d'aboutir à un modèle optique liant les spectres issus de la réflexion spéculaire avec les concentrations relatives des composants. Ce modèle tient compte de la polarisation, de l'angle d'incidence et utilise les constantes diélectriques du matériau. Ce modèle a été validé sur un matériau contenant trois composants distincts facilement identifiables en infrarouge et spécialement mis en forme pour cette étude. Ce modèle a ouvert la voie à l'utilisation innovante de lumières polarisées elliptiquement pour déterminer l'indice de réfraction complexe d'un matériau. Ainsi, des spectroscopes infrarouges couplés à un accessoire de contrôle de l'angle d'incidence peuvent être utilisés en complément de l'ellipsométrie
Complementary information, to that provided by elemental analysis and diffraction techniques, is needed to characterize inorganic materials. Fourier Transform Infrared spectroscopy enables to characterize covalent bonds and the environment of functional groups in materials. Thus, it is a technique of interest to study hydrated materials, amorphous materials or any materials, which may experience ageing phenomena. By combining this technique with a micrometric motorized stage, cartographies of chemical compounds can be obtained on several square millimeters: this is the infrared microscopy technique. This Ph.D. thesis focuses on the use of reflected light, in particular through the study of specular reflection and of Attenuated Total Reflectance (ATR). After a first part focused on the different acquisition set-ups, a second part covers the unsupervised methodologies of resolution employed to obtain chemical maps. They result in one map for each component present in the analyzed area. Dimensions reduction techniques and multivariate statistics techniques are implemented to estimate the number of components and their infrared spectra; minimization problems under constraints are solved to retrieve chemical information. When specular reflection is used to acquire spectra, no contact is made with the sample, thus no damage of the analyzed area occurs during the acquisition. A priori, it is a great technique to study the evolution of a material. However, this technique suffers from the complexity of interpretation of the resulting spectra. With the objective to democratize the use of specular reflection to obtain chemical maps, models based on geometrical optics and including diffraction, correction of interferograms and classical homogenization techniques have been developed. This work resulted in an optical model linking the angle of incidence, the polarization state and the dielectric optical constants of the material with the reflected light, which is measured. A model material, constituted of three distinct phases, detectable in the infrared range, has specially been fabricated to validate this optical model. This model set the stage for the use of elliptically polarized light in the determining of the complex refractive indices of materials in the infrared range. Thanks to this development, infrared spectroscopes, equipped with a classical set-up to control the angle of incidence, can now be used in addition to ellipsometry techniques
APA, Harvard, Vancouver, ISO, and other styles
42

Numan, Mostafa Wasiuddin. "Mapping of processing elements of hardware-based production systems on networks on chip." Thesis, 2017. http://hdl.handle.net/2440/112587.

Full text
Abstract:
This thesis investigates network on chip (NoC) architecture, most particularly, NoC mapping algorithms for homogeneous processing elements of a system on chip (SoC) designed for AI and cognitive computing. Production systems are used in cognitive architectures and knowledge-based systems to produce appropriate reasoning behaviours bymatching the symbolic information of the environment with the production rules stored in their knowledge bases. General purpose computers are not specifically manufactured for the purpose of continuous matching involved in production systems, and often fail to deliver the performance and speed required in real-time applications. A reconfigurable and parallel computer architecture, named the Street Processor, has been developed by the research group of which the author is a member, to address the performance gap. The processor has its own instruction set, called the Street language, to define the production rules. The production rules are implemented on simple and identical PEs of the Street Processor that conduct the matching operations in parallel and asynchronously. Special steps can be taken to make these operations synchronous if required. Two artificial agents demonstrate the capability of the Street Processor, and are also used as test cases to measure the performance of NoC mapping techniques. The Street Processor is expected to contain thousands of fine-grained homogeneous PEs to build a complex cognitive agent. To make the continuous and simultaneous communication among the PEs more efficient, a regular and generic NoC architecture is considered in this work. The network architecture allows multiple PEs to be associated with a single NoC router to optimise its resources. The mapping of PEs to NoC routers, which is an NP-hard optimisation problem, is addressed in this work using two alternative approaches. The Branch and Bound (BB) and Simulated Annealing (SA) techniques are analysed for use as a preferred mapping technique. Although the BB technique provides amapping solution faster than SA, the latter is considered more promising for large systems, e.g. the Street Processor, since BB achieves the computation time advantage at the cost of a high memory requirement. To reduce the computation time of the SA method by shrinking the search space, the dependency graph, which captures the communication volume among PEs over a period of time, is partitioned into smaller groups of PEs (GPEs). By assigning each GPE to a router, this approach also reduces the number of required routers and the interrouter traffic of the network. A Priority-based Simulated Annealing (PSA) technique is proposed, which takes advantages of the relative placements of the routers and interdependencies of the GPEs to determine a heuristic initial mapping to start annealing. The experiments show that this approach significantly improves the computation time for finding a solution without sacrificing mapping quality. Considering the inherent memory utilisation advantage over the BB technique, and the computation time improvement over the original SA technique, the proposed approach is suggested to be the most suitable for NoC mapping for the Street Processor and similar homogeneous SoCs.
Thesis (Ph.D.) -- University of Adelaide, School of Electrical and Electronic Engineering, 2017.
APA, Harvard, Vancouver, ISO, and other styles
43

Van, Zyl Pieter. "Performance investigation into selected object persistence stores." Diss., 2010. http://hdl.handle.net/2263/26497.

Full text
Abstract:
The current popular, distributed, n-tiered, object-oriented application architecture pro- vokes many design debates. Designs of such applications are often divided into logical layer (or tiers) - usually user interface, business logic and domain object (or data) layer, each with their own design issues. In particular, the latter contains data that needs to be stored and retrieved from permanent storage. Decisions need to be made as to the most appropriate way of doing this - the choices are usually whether to use an object database, to communicate directly with a relational database, or to use object-relational mapping (ORM) tools to allow objects to be translated to and from their relational form. Most often, depending on the perceived profile of the application, software architects make these decisions using rules of thumb derived from particular experience or the design patterns literature. Although helpful, these rules are often highly context-dependent and are of- ten misapplied. Research into the nature and magnitude of 'design forces' in this area has resulted in a series of benchmarks, intended to allow architects to understand more clearly the implications of design decisions concerning persistence. This study provides some results to help guide the architect's decisions. The study investigated and focused on the Dissertation (MSc)--University of Pretoria, 2010.
Computer Science
unrestricted
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography