Dissertations / Theses on the topic 'Co-Optimisation'

To see the other types of publications on this topic, follow the link: Co-Optimisation.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Co-Optimisation.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Corner, Philip Anthony. "Pharmaceutical co-crystals : screening optimisation, utility and performance." Thesis, Durham University, 2017. http://etheses.dur.ac.uk/12427/.

Full text
Abstract:
Co-crystallisation is currently a ‘hot topic’ in pharmaceutical development among other fields. Modification of the physicochemical properties of the parent material by inclusion of a second component within the crystal structure, with the potential to lead to large improvements in useful attributes, being the key reason for the interest in co-crystals. Being able to efficiently utilise co-crystallisation to ameliorate problem properties of drugs or other compounds would be a boon to many industries, the pharmaceutical being an ideal example. Limitations in current ability to predict co-crystal formation and potential property modification presents a great opportunity for development in this research area. The work presented in this thesis encompasses the optimisation of a high-throughput ultrasonication based physical co-crystal screen paired with a computational pre-screen, the application of this optimised screen and the analysis of both co-crystalline and co-amorphous materials resulting from the screening. An initial optimisation of a manual physical co-crystal screen was later transferred to an automated screen implemented on a robotics platform. The implementation of the screen and subsequent analysis of products led to the discovery of the stabilisation of an amorphous form of highly polymorphic compound, ROY, through a predicted co-former interaction. The interactions responsible for the stabilisation were further investigated in the ROY:pyrogallol co-amorphous material and it was found that certain analogues of pyrogallol exhibit the same behaviour with ROY depending on the presence and position of specific functionality. Implementation of the optimised co-crystal screen to the antiprotozoal drug ornidazole led to the detection of 23 hits and the crystal structure of the 1:1 co-crystal of ornidazole and 5nitroisophthalic acid being determined by single crystal X-ray diffraction. Characterisation of this co-crystal found that it crystallised much more readily than pure ornidazole, potentially improving its processing characteristics, but that unexpectedly had a lower intrinsic dissolution rate than either of the parent components. In comparison, formulation and characterisation of the already known zafirlukast:piperazine co-crystals showed that large improvements in dissolution rates and oral bioavailability in relation to the parent drug are possible. Specifically, the 1:1 zafirlukast:piperazine co-crystal showed a large increase in dissolution rate in vitro and an accompanying six-fold increase in in vivo oral bioavailability.
APA, Harvard, Vancouver, ISO, and other styles
2

Scholey, D. W. "Optimisation of distillery co-products for poultry feed." Thesis, Nottingham Trent University, 2012. http://irep.ntu.ac.uk/id/eprint/144/.

Full text
Abstract:
EU legislation has led to an almost ten-fold increase in bioethanol production between 2003 and 2011. The current distillery co-product, distiller’s dried grains with solubles (DDGS), is fed primarily to cattle due to the high fibre content but differentiation of the co-product stream would allow penetration of the large monogastric feed sector. The aim of this project was to evaluate a novel separation process producing a high protein yeast protein concentrate (YPC) from DDGS, and assess the potential of this product as a feed ingredient for poultry. A pilot plant study modelling the process confirmed the variability of the stillage, but highlighted the viability of the process for ameliorating some of these differences. Inter-batch variability was reduced from 10% to 1.2% in terms of protein content but dry matter content still varied by more than 8%, due to fibre contamination. The batches of yeast cream with increased fibre content had significantly reduced drying rates, from 37.3mg/min to 23.6mg/min, due to the larger particle sizes included. Additionally, the increased range of particle size introduced by fibre contamination would lead to product separation with detrimental implications for transport and handling of the dried product. It is vital to have measurements of amino acid content and digestibility for any new feed ingredient to ensure accurate feed formulation. Amino acid digestibility was measured in vivo in broiler chicks for five YPCs from potable and bioethanol sources produced using three drying technologies. Amino acid digestibility coefficients (COD) were significantly better for bioethanol produced YPC than potable (bioethanol 0.73 and 0.63 compared with 0.58 and 0.52 for potable). This is likely to be due to the addition of exogenous enzymes during the bioethanol process resulting in reduction of some of the detrimental effects of non-starch polysaccharides. Drying methodology affected both total amino acid content and digestible amino acid content, with spray drying being the least damaging method (COD 0.73 and 0.58) and ring drying the most damaging (COD 0.39). Lysine was particularly damaged during the heating process; reducing in total content from approximately 5% of protein to 2.3% of protein for ring dried material. Freeze dried YPC samples (COD 0.63 and 0.52) may have been negatively affected by the presence of fibre in the YPC due to processing inconsistencies. In terms of bird performance, bioethanol freeze dried YPC inclusion improved weight gain (p=0.003) and feed intake (p=0.006) compared with potable, again likely due to the enzyme addition during the bioethanol process. This was confirmed by the measured digesta viscosity increase in birds fed diets with increasing potable YPC inclusion (p=0.073). Spray dried YPC did not significantly affect FCR up to 20% inclusion, but both intake and bodyweight gain reduced with rate of inclusion. This may be attributed to spray drying producing a small particle size which increases feeding time and can increase viscosity, as was shown in this project (viscosity of spray dried YPC increased with RoI p=0.031). Ring dried YPC was incorporated into pelleted diets and therefore gave the best performance results. FCR for bioethanol YPC was improved from 1.68 for freeze dried material included at 9% of total diet to 1.4 for ring dried material at a higher rate of 12.5% of total diet. Finally the potential of YPC as a source of available phosphorus was considered, by assessing foot ash content of birds fed diets containing varying YPC levels. Increasing rate of YPC inclusion increased foot ash from 17.3% to 18.5% at 20% inclusion (p=0.031). YPC replaced 35% of supplemental phosphorus in chick diets with no significant effects on bone mineralization. The novel YPC from bioethanol distilleries appears to be a viable protein source for chicks at low inclusion levels (less than 6%). In pelleted diets the inclusion level could rise to 17.5% with no detrimental effects on bird performance. Additionally, YPC provides a source of available phosphorus, reducing the need for supplemental phosphorus in chick diets. The most appropriate drying method appears to be ring drying if care is taken to reduce residence time and heat damage. However there is substantial scope for further improvement of both the process and product as a feed ingredient for poultry.
APA, Harvard, Vancouver, ISO, and other styles
3

Camino, Jean-Thomas. "Co-optimisation charge utile satellite et système télécom." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30401.

Full text
Abstract:
L'augmentation continue des besoins en télécommunications dans notre société se traduit par une suite de défis technologiques pour les systèmes fournissant ce type de services, qu'il s'agisse de télédiffusion, de téléphonie, ou bien d'échange de données. Les satellites de télécommunications sont ainsi particulièrement concernés par ce besoin d'innover, à la fois sur les technologies mises en orbite, mais aussi et surtout au niveau de l'exploitation de ces ressources embarquées. Sur ce dernier point, pour une mission de télécommunications définie précisément en termes de zone à servir, de type, de quantité et de qualité de service à fournir, il faut effectivement être capable de dimensionner de la manière la plus adéquate possible la charge utile du satellite de télécommunications, sous les différentes contraintes auxquelles elle est soumise : masse, volume, coût, et consommation énergétique des équipements embarqués. Cette thèse développe ainsi une approche algorithmique pour un tel dimensionnement dans le cas particulier des systèmes de télécommunications dits "multifaisceaux". Une procédure d'optimisation globale de ces systèmes satellitaires est ainsi proposée. Elle repose sur une décomposition en un ensemble de problèmes mathématiques interconnectés dont les complexités respectives, réduites par rapport au problème global, permettent d'espérer des solutions algorithmiques efficaces. Ce travail a permis d'exhiber deux problèmes phares dans ce dimensionnement de la charge utile satellite, adressés par l'angle de la recherche opérationnelle : l'optimisation du placement de faisceaux, et l'optimisation de plans de fréquences. Ce premier problème de placement de faisceaux sous contraintes de charge utile a été l'occasion de proposer des méthodologies inédites de gestion des contraintes en norme euclidienne sur des variables continues pour les problèmes mixtes non-linéaires non-convexes. Ces techniques ont alors été appliquées avec succès au sein de solutions à ce premier problème qui s'appuient pleinement sur la programmation linéaire mixte. Dans un deuxième temps, une exploitation novatrice de certaines propriétés du clustering en k-moyennes est proposée et permet de simplifier ces modèles mathématiques et ainsi accélérer l'optimisation du placement des faisceaux. Ces algorithmes de programmation mathématique sont ensuite confrontés à une heuristique gloutonne randomisée également développée dans le cadre de ces travaux. Le deuxième problème central de dimensionnement identifié au cours de ces travaux de thèse est la définition de plans de fréquences. Il s'agit d'une allocation de ressource disponible à bord du satellite aux différents faisceaux de ce dernier, tels qu'ils ont été définis dans le problème précédent de placement de faisceaux. Avec un objectif de minimisation du nombre d'un certain type d'équipement à embarquer dans la charge utile satellite, on cherche à satisfaire la mission de télécommunications qui s'exprime en une demande de chaque utilisateur au sol. Ce problème complexe a lui-même donné lieu à une décomposition en deux sous-problèmes d'allocation de fréquences, puis d'allocation d'équipements de la charge utile, qui sont traités par programmation par contraintes et programmation linéaire en nombres entiers, en exploitant des résultats théoriques qui servent à la fois à la modélisation des problèmes, mais aussi à leur résolution
The continuous growth in telecommunication needs in our society translates into a series of technical challenges for the systems that provide such services, whether it is television broadcasting, telephone, or data exchange. The telecommunication satellites are particularly concerned by this need for innovation, both on the embarked technologies but also on the way the resulting resources are exploited for the end users. On the latter point, for a telecommunication mission defined precisely in terms of service zone, type, quantity and quality of service, one has to be able to size as adequately as possible the telecommunication satellite payload, under the several constraints it is subject to: mass, volume, cost, and power consumption of the embarked hardware. This thesis develops an algorithmic approach for a such a sizing in the particular case of the telecommunication systems that are said to be "multi-beam". A global optimization process of these satellite system is proposed. It relies on a decomposition into a set of mathematical problems whose respective complexities, reduced with respect to the original problem, allow to reasonably aim for efficient algorithmic solutions. This work allowed to identify two key problems in this satellite payload sizing, addressed through an operations research angle: the beam layout optimization and the frequency plan optimization. This first beam layout problem under payload constraints has been an occasion to propose novel ways to handle Euclidean norm constraints on continuous variables for non-convex non-linear mixed programs. These techniques have been then successfully applied in for the generation of solutions to this first problem that fully exploits the mixed integer linear programming formalism. Then, a novel exploitation of some of the properties of the k-means clustering has been proposed as it allows to simplify these mathematical models and therefore accelerate the beam layout optimization. These mathematical programming algorithms have been then compared to a greedy heuristic developed during this thesis work. The second central sizing problem that has been identified is the frequency plan definition. It consists in a resource allocation of on-board satellite resources to the several beams that have been defined in the preceding beam layout optimization problem. With an objective of minimizing the number of a certain type of hardware to be embarked on the payload, the satisfaction of the telecommunication mission defined by an individual demand of all the end users on the ground is aimed. This complex problem itself lead to a decomposition into two sub-problems of frequency and on-board payload hardware allocation, that are treated with constraints programming and integer linear programming, exploiting theoretical results that are useful both at the problem modeling and problem solving levels
APA, Harvard, Vancouver, ISO, and other styles
4

Pichot, Antoine. "Co-allocation de ressources distribuées : architectures, protocoles, optimisation." Phd thesis, Paris, ENST, 2008. http://pastel.archives-ouvertes.fr/pastel-00003806.

Full text
Abstract:
Les applications de calcul intensif nécessitent de plus en plus de ressources. Ces ressources distribuées bien qu'appartenant à des entités juridiques et administratives différentes doivent être associées logiquement temporairement pour constituer une infrastructure virtuelle afin de résoudre un problème scientifique ou fournir un service donné. Une telle infrastructure virtuelle et le réseau sous jacent est appelée une grille. Les modèles actuels d'exploitation des grilles ne permettent pas de coallouer les ressources et n'offre pas une qualité de service prenant en compte les contraintes réseaux et applicatives. Cette thèse fourni une vision de l'état de l'art en matière de Co-allocation. Différentes architectures sont considérés: les Web Services, l'architecture IP Multimedia Subsystem et Generalized Multi-protocol Label Switching. Des extensions aux logiciels de gestion des grilles, ainsi qu'à ces trois architectures sont proposées. Dans un second temps, nous étudions plus en détail le cœur du système de Co-allocation: le protocole de communication entre l'ordonnanceur de la grille et les ordonnanceurs locaux. Enfin, des algorithmes modélisant l'utilisation des ressources de calcul et des ressources réseaux sont proposés pour déterminer quel est la meilleure interaction possible entre le gestionnaire de ressource réseau et celui des ressources de calcul. Un algorithme de Co-allocation est proposé pour améliorer l'efficacité du système. Un modèle analytique est proposé pour prédire et comprendre les performances, des simulations ont permis de vérifier la validité du modèle et des résultats
New computing applications require nowadays a physical distribution of computing resources. These geographically distributed resources belonging to different organizations must be associated logically in order to solve cooperatively a given problem or to provide a given service. The virtual infrastructure corresponding to the set of these distributed and remote resources and to the inherent underlying networking facilities is called a Grid. Present models do not enable network and other resources such as computing or storage to be co-allocated on demand, nor do they guarantee the Quality of Service. The aim of this thesis is first to provide a review of the state of the art on co-allocation. For that purpose, various environments such as Web Services distributed resources management systems, IP Multimedia Subsystem and Generalized Multi-protocol Label Switching architecture are considered. We propose extensions to existing Grid toolkits, WS, IMS and GMPLS for dynamic resource co-allocation provisioning. The suitability of each of these approaches for Grid services provisioning is investigated and compared to the other alternatives. We then analyze a WS based protocol between a global resource coordinator (Grid Scheduler) and local resources managers (local schedulers). Algorithms are proposed to model the possible interactions between the grid scheduler, the network resource manager and the local schedulers. A co-allocation algorithm is proposed to improve the efficiency as seen by the end user and the resource providers. An analytical model is proposed to predict and understand the performance; simulations are run to verify the validity of the model and the results
APA, Harvard, Vancouver, ISO, and other styles
5

Sandberg, Peter. "Optimisation and co-operative perspectives on industrial energy systems /." Linköping : Univ, 2004. http://www.bibl.liu.se/liupubl/disp/disp2004/tek913s.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Obhielo, Esgeboria. "Synthesis, characterisation and optimisation of novel adsorbents for CO₂ capture." Thesis, University of Strathclyde, 2015. http://oleg.lib.strath.ac.uk:80/R/?func=dbin-jump-full&object_id=24838.

Full text
Abstract:
In this study, a suite of novel CO₂ capture sorbents were prepared employing three facile synthetic routes: amine assimilation (co-synthesis), wet impregnation and in situ-impregnation synthesis, to develop a range of materials capable of efficiently adsorbing CO₂ while demonstrating their applicability as alternative materials for CO₂ capture from coal and gas fired power plants via post-combustion carbon capture. Prepared sorbents were characterised for individual physical and chemical properties, using, scanning electron microscopy, infrared spectroscopy, thermogravimetric analysis, elemental analyses and N₂ sorption at 77 K. CO₂capture capacities were determined using gravimetric analysis under a range of analysis conditions (different temperature and pressure), with the corresponding effects of materials characteristics on CO₂ capacities investigated. The effect of amine incorporation was explored in detail, with findings first bench-marked against the corresponding amine free counterparts, and, then, the effect of increasing amine content analysed. So far, within the context of this study, results suggest that materials prepared via the synthetic routes adopted, exhibit high degrees of synthetic control; in addition, CO₂ capture capacities were determined to be dependent upon both textural properties but, more importantly, the basic nitrogen functionalities contained within these materials. This observation was prominent with amine in-situ impregnated silica and melamine resorcinol formaldehyde samples, but not wholly for bio-inspired amine silica samples, as the degree of amine functionalisation could not be controlled by the synthetic route chosen. Irrespective, all materials have shown enhanced adsorption performance as a result of the incorporation of basic nitrogen functionalities into the sorbent structures. Furthermore, prepared materials exhibited easy regeneration and maintained stable sorption capacities ≤ 99.9% over the cycles analysed, with results obtained suggesting new strategies for carbon capture materials development for efficient CO₂ capture from power plant flue gas and other relevant applications.
APA, Harvard, Vancouver, ISO, and other styles
7

Barrett, Colin Ronald Benjamin. "Co-designing software abstraction and optimisation for productivity and performance." Thesis, University of Manchester, 2015. https://www.research.manchester.ac.uk/portal/en/theses/codesigning-software-abstraction-and-optimisation-for-productivity-and-performance(1a567441-978e-4b91-a613-1af723fe5251).html.

Full text
Abstract:
Improving the execution time of applications is important, but there is a tendency to sacrifice programmability in its pursuit. This thesis investigates co-design approaches, in which APIs provide an abstraction that is strictly maintained using sound software engineering practices while performance is optimised within a managed runtime environment. Flexibility in APIs and weak encapsulation often results in hand-optimisation that restricts the effectiveness of performance improvements and obfuscates functionality. Domain specific applications contain semantics that general purpose languages cannot exploit during compilation. Hand-optimisation addresses this by manually improving the implementation of applications, requiring both expertise and time. Two application domains are used to demonstrate approaches for exploiting semantics to improve performance; MapReduce parallelism and SLAM in computer vision. Creating correct parallel software is challenging and, thus, frameworks have been developed to exploit the available performance of commodity hardware. MapReduce is a popular programming framework to facilitate the development of data analytics applications. Implementations hide the complexities of data management, scheduling and fault tolerance from users; as MapReduce frameworks evolve, new specialisations and optimisations are introduced. However, improvements often require manual integration into applications to enable performance gains. Hand-optimisation may be used because the semantics of the underlying abstraction or the scope of the compiler are unsuitable. This thesis demonstrates that the semantics of MapReduce may be used to extend the scope of the dynamic compiler. By analysing applications using a MapReduce framework with co-designed optimisation, it is possible to execute these applications in Java in a comparative time to hand-optimised C and C++. The benefits also include improved efficiency of memory management and reduction in the volume of the intermediate data generated. Hence, it is possible to speedup Java application performance twofold. Most importantly, it does not require any extension or rewriting of existing applications. Computer vision, SLAM in particular, contains a mix of regular and irregular vector operations. These are not addressed directly, for this domain, by existing abstractions because many of the data types used represent small vectors (2-7 elements). An array is the natural choice to contain the elements of a vector, but it is not optimal for performance or productivity. This thesis presents a new class collection for small vectors in Java using sound software engineering practice. By co-designing the data-level implementation with its interaction with the dynamic compiler, overheads introduced by the strict API have been eliminated during optimisation. This results in kernels, frequently used in SLAM applications, with improved performance relative to a popular C++ SLAM library. In addition to this, it is possible to demonstrate how the small vector implementation may exploit SIMD instructions and registers to improve performance further. When programmability is prioritised, performance should not be obtained by hand-optimisation because this tends to obfuscate application code. To compensate for this restriction, co-design approaches can extend the communication of application semantics. This thesis demonstrates that there is the potential for co-designed optimisations crossing abstraction boundaries for better performance without affecting productivity.
APA, Harvard, Vancouver, ISO, and other styles
8

Nwosu, Nkem O. E. "Optimisation of electroless co-deposited solid oxide fuel cell electrodes." Thesis, Edinburgh Napier University, 2013. http://researchrepository.napier.ac.uk/Output/6448.

Full text
Abstract:
Research already carried out on the use of the recently patented electroless nickel ceramic codeposition technique as a method of manufacturing solid oxide fuel cell (SOFC) electrodes has thus far indicated that, while functional electrodes can be manufactured by the technique, for optimum performance of the cell, amplification of the ceramic content of the coatings is still required. By mainly employing external agents such as surface active agents (surfactants) and magnetic fields (in a bid to aid ceramic particle stability), this research focused on the prospect of increasing the ceramic content of cermets co-deposited for use as SOFC electrodes. A total of 137 co-deposited samples were produced from different bath compositions. As a prelude to the study, the interactions between the ceramic powders used (yttria stabilised zirconia (YSZ) / lanthanum strontium manganate (LSM)) and the medium for the deposition process – the electroless nickel solution, were investigated by zeta potentiometry and ultraviolet-visible spectroscopy techniques. The results obtained from the studies led to a variation of a series of fundamental plating factors such as the ceramic bath loading and particle size of the powders. While the former was found to yield the highest ceramic content in the coating at a bath loading of 50 g/l, variation of latter notably produced mixed results. With the introduction of surfactants, it was noted that above the surfactant's (sodium dodecyl sulphate) critical micelle concentration, the incorporation of ceramic particles (YSZ) into the nickel matrix steadily increased to as much as 60 volume %. An inverse relationship was though found to exist between the coating thickness and the surfactant's bath concentration. Uniform coatings were found to be associated with low magnetic field strengths while although increased magnetic field strengths positively resulted in the amplification of particle incorporation into the coating, a lack of cohesion between the coating and the substrate – as indicated by coating flake-off, was observed at such strengths. It is suggested that because the magnetic flux was more dominant than the normally ionic plating mechanism, the particles co-deposited under the influence of a high magnetic field were relatively unstable after the coating process. Since LSM is alkaline in nature this work confirms that future research on the application of electroless nickel ceramic co-deposition as a method of manufacturing SOFC cathodes, be focused on the use of alkaline electroless nickel baths rather than the acidic solutions, which better suite YSZ particles.
APA, Harvard, Vancouver, ISO, and other styles
9

GKIKAKIS, ANTONIOS EMMANOUIL. "Mechanism and Behaviour Co-optimisation of High Performance Mobile Robots." Doctoral thesis, Università degli studi di Genova, 2021. http://hdl.handle.net/11567/1045130.

Full text
Abstract:
Mobile robots do not display the level of physical performance one would expect, given the specifications of their hardware. This research is based on the idea that their poor performance is at least partly due to their design, and proposes an optimisation approach for the design of high-performance mobile robots. The aim is to facilitate the design process, and produce versatile and robust robots that can exploit the maximum potential of today's technology. This can be achieved by a systematic optimisation study that is based on careful modelling of the robot's dynamics and its limitations, and takes into consideration the performance requirements that the robot is designed to meet. The approach is divided into two parts: (1) an optimisation framework, and (2) an optimisation methodology. In the framework, designs that can perform a large set of tasks are sought, by simultaneously optimising the design and the behaviours to perform them. The optimisation methodology consists of several stages, where various techniques are used for determining the design's most important parameters, and for maximising the chances of finding the best possible design based on the designer's evaluation criteria. The effectiveness of the optimisation approach is proved via a specific case-study of a high-performance balancing and hopping monopedal robot. The outcome is a robot design and a set of optimal behaviours that can meet several performance requirements of conflicting nature, by pushing the hardware to its limits in a safe way. The findings of this research demonstrate the importance of using realistic models, and taking into consideration the tasks that the robot is meant to perform in the design process.
APA, Harvard, Vancouver, ISO, and other styles
10

Ramirez, Guerrero Diego Fernando. "Optimisation of oil recovery from sludges with surfactants and co-solvents." Thesis, University of Reading, 2017. http://centaur.reading.ac.uk/69469/.

Full text
Abstract:
Oil sludges are composed mainly of crude oil, water and sediments. These are hazardous wastes from petroleum extraction and refining processes, and the worldwide generation of oil sludges is approximately 60 million tonnes per year. Treatment of oil sludges to date has been focused on physicochemical and biological remediation. Oil recovery methods including oil sludge washing with surfactants and co-solvents have also been applied for reusing the oil. However, there is a need to optimise the oil recovery in this process. The main aim of this research was to assess whether the addition of surfactants (Triton X-100 and X-114, Tween 80, sodium dodecyl sulphate, and rhamnolipid) and the co-solvents (n-pentane, nhexane, cyclohexane, toluene and iso-octane) in the oil sludge washing enhances the oil recovery and reduces the burden of hydrocarbon contamination. Specifically, three oil sludge washing parameters were considered: surfactant to oil sludge ratio, surfactant type and surfactant concentration. Also, the influence of the co-solvent type and ratio to oil sludge was investigated. Oil sludges from different sources were analysed, and the toxicity of the residuals from oil sludge washing was assessed with the impact on the soil microbial respiration (dehydrogenase activity test) and ryegrass germination. Rhamnolipid, Triton X-100 and Triton X-114 had the highest oil recovery rates (50 – 70%) compared to SDS and T80. These values were higher compared to other studies (30 – 40%). It was demonstrated that the ratio of surfactant to oil sludge factor had a high impact on the oil sludge washing. Particularly, it was found that the surfactant concentration did not have an effect on the oil recovery, and the addition of surfactant was not significantly different in most of the oil sludges analysed. Only one sludge had a highly significant oil recovery rate when surfactants were used. Cyclohexane, as a more benign co-solvent, was confirmed to have similar oil recovery values to toluene; approximately 75% of recovered oil was obtained with each co-solvent. This work has confirmed that oil sludge washing was an efficient pretreatment method which can reduce the organic contaminant. According to the oil hydrocarbon fractions analysed, the recovered oil had the potential to be reused as a feedstock for light fuel production. The oil sludge washing residuals had an adverse impact on the soil microbiota activity (percentage decrease of 40%), and ryegrass germination. However, some dehydrogenase activity by the soil bacteria and a germination higher than 70% were detected implying that bioremediation techniques can be applied to treat the oil sludge washing residuals further if necessary. Based on these studies, a systematic approach to the extraction of oil from sludges was proposed at both laboratory and large scales. First, a quick bench scale experiment can be done to assess the oil recovery rates with surfactant and without surfactant at a low and high surfactant to oil sludge ratios (e.g. 1:1 and 5:1). By doing this first assay, it can be established if the surfactant is needed or not. If the surfactant is not required, the costs can be reduced. For this first assay, the surfactant can be added at lower concentrations because the results of this thesis showed no significant difference in the surfactant concentrations. The proposed application of this method to a large scale mentioned the possibility of adapting surfactant and co-solvent recycling systems to reuse these reagents in more cycles of oil sludge washing. The residual water obtained from the surfactant recycling step and the sediments at the bottom layer of the oil sludge washing tank can be mixed and considered as oil sludge washing residuals. Finally, these residuals can be further treated if needed with the landfarming and phytoremediation combined method in a designated area. Moreover, the use of soybeans was proposed as the phytoremediator species because these plants can also be used for biodiesel production purposes. Even though the oil sludge washing is a low-cost process compared to other treatments, the cost of applying the surfactant and solvent recycling systems is high due to the expensive equipment. In fact, it was found that about 70% of the total cost of the proposed method at a large scale goes towards these recycling systems. Indeed, it is important to consider the surfactant and co-solvent recovery steps carefully. However, if the proposed method is used on a frequent basis, the investment may be recuperated due to the profit obtained with the use of recovered oil as a feedstock for fuel production. In addition, if the phytoremediation with soybeans of the oil sludge washing residuals is implemented, the production of biodiesel can be a profitable source.
APA, Harvard, Vancouver, ISO, and other styles
11

Papacostantis, Evangelos. "Competitive co-evolution of trend reversal indicators using particle swarm optimisation." Diss., University of Pretoria, 2010. http://hdl.handle.net/2263/23929.

Full text
Abstract:
Computational Intelligence has found a challenging testbed for various paradigms in the financial sector. Extensive research has resulted in numerous financial applications using neural networks and evolutionary computation, mainly genetic algorithms and genetic programming. More recent advances in the field of computational intelligence have not yet been applied as extensively or have not become available in the public domain, due to the confidentiality requirements of financial institutions. This study investigates how co-evolution together with the combination of par- ticle swarm optimisation and neural networks could be used to discover competitive security trading agents that could enable the timing of buying and selling securities to maximise net profit and minimise risk over time. The investigated model attempts to identify security trend reversals with the help of technical analysis methodologies. Technical market indicators provide the necessary market data to the agents and reflect information such as supply, demand, momentum, volatility, trend, sentiment and retracement. All this is derived from the security price alone, which is one of the strengths of technical analysis and the reason for its use in this study. The model proposed in this thesis evolves trading strategies within a single pop- ulation of competing agents, where each agent is represented by a neural network. The population is governed by a competitive co-evolutionary particle swarm optimi- sation algorithm, with the objective of optimising the weights of the neural networks. A standard feed forward neural network architecture is used, which functions as a market trend reversal confidence. Ultimately, the neural network becomes an amal- gamation of the technical market indicators used as inputs, and hence is capable of detecting trend reversals. Timely trading actions are derived from the confidence output, by buying and short selling securities when the price is expected to rise or fall respectively. No expert trading knowledge is presented to the model, only the technical market indicator data. The co-evolutionary particle swarm optimisation model facilitates the discovery of favourable technical market indicator interpretations, starting with zero knowledge. A competitive fitness function is defined that allows the evaluation of each solution relative to other solutions, based on predefined performance metric objectives. The relative fitness function in this study considers net profit and the Sharpe ratio as a risk measure. For the purposes of this study, the stock prices of eight large market capitalisation companies were chosen. Two benchmarks were used to evaluate the discovered trading agents, consisting of a Bollinger Bands/Relative Strength Index rule-based strategy and the popular buy-and-hold strategy. The agents that were discovered from the proposed hybrid computational intelligence model outperformed both benchmarks by producing higher returns for in-sample and out-sample data at a low risk. This indicates that the introduced model is effective in finding favourable strategies, based on observed historical security price data. Transaction costs were considered in the evaluation of the computational intelligent agents, making this a feasible model for a real-world application. Copyright
Dissertation (MSc)--University of Pretoria, 2010.
Computer Science
unrestricted
APA, Harvard, Vancouver, ISO, and other styles
12

Zhao, Jianning. "Co-Optimisation du Dimensionnement et du Contrôle des Groupe Motopropulseurs Innovants." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLC057/document.

Full text
Abstract:
Des technologies avancées sont très demandées dans l'industrie automobile pour respecter les réglementations de consommation de carburant de plus en plus rigoureuses. La co-optimisation du dimensionnement et du contrôle des groupes motopropulseurs avec une efficacité de calcul améliorée est étudiée dans cette thèse.Les composants des groupes motopropulseurs, tels que le moteur, la batterie et le moteur électrique, sont modélisés analytiquement au niveau descriptif et prédictif afin de permettre une optimisation du contrôle rapide et une optimisation du dimensionnement scalable. La consommation d'énergie minimale des véhicules hybrides-électriques est évaluée par des nouvelles méthodes optimales. Ces méthodes – y compris Selective Hamiltonian Minimization et GRaphical-Analysis-Based energy Consumption Optimization – permettent d'évaluer une consommation minimale d'énergie avec une efficacité de calcul améliorée. De plus, la méthode de Fully-Analytic energy Consumption Evaluation (FACE) approxime la consommation d'énergie minimale sous forme analytique en fonction des caractéristiques de la mission et des paramètres de conception des composants du groupe motopropulseur. Plusieurs cas d’études sont présentées en détail par rapport aux approches de co-optimisation à bi-niveaux et à uni-niveau, ce qui montre une réduction efficace du temps de calcul requis par le processus global de co-optimisation
Advanced technologies are highly demanded in automotive industry to meet the more and more stringent regulations of fuel consumption. Cooptimization of design and control for vehicle propulsion systems with an enhanced computational efficiency is investigated in this thesis.Powertrain components, such as internal combustion engines, batteries, and electric motor/generators, are analytically modeled at descriptive and predictive level correspondingly for the development of fastrunning control optimization and for the scalability of design optimization. The minimal fuel consumption of a hybrid-electric vehicle is evaluated through novel optimization methods. These methods – including the Selective Hamiltonian Minimization, and the GRaphical-Analysis-Based energy Consumption Optimization – are able to evaluate the minimal energy consumption with the enhanced computational efficiency. In addition, the Fully-Analytic energy Consumption Evaluation method approximates the minimal energy consumption in closed form as a function of the mission characteristics and the design parameters of powertrain components.A few case studies are presented in details via the bi-level and uni-level co-optimization approaches, showing an effective improvement in the computational efficiency for the overall co-optimization process
APA, Harvard, Vancouver, ISO, and other styles
13

Shaiek, Hmaied. "Optimisation des performances d'enceintes co-axiales large bande par traitement numerique du signal." Brest, 2007. http://www.theses.fr/2007BRES2011.

Full text
Abstract:
L'objectif de cette thèse est d'optimiser le rayonnement de sources acoustiques haut de gamme en utilisant des techniques de traitement numériques du signal adaptées. Cette optimisation s'est effectuée en deux grandes étapes. La première étape concerne l'optimisation des caractéristiques de rayonnement en champ libre. Cette partie peut être vue comme étant la complémentarité entre une recherche purement électroacoustique permettant de mettre au point des sources acoustiques capables de reproduire la totalité de la bande des fréquences audibles ([20Hz, 20kHz]) avec une directivité contrôlée: c'est l'apport des sources co-axiales. D'autre part, une recherche dans le domaine du traitement numérique du signal permettant de corriger les défauts résiduels de ces sources et d'appuyer leurs performances en vue de se rapprocher au mieux de l'idéal point source théorique. Pour une source acoustique à voies co-axiales, comme pour toute autre source multivoies, le module de traitement numérique du signal, que nous avons développé et validé sur des systèmes Cabasse, assure en plus des fonctions classiques de mise en phase, de séparation de voies et d'égalisation, un contrôle avancé de la directivité permettant de corriger d'éventuelles dérives du rayonnement au niveau des bandes de fréquences de recouvrement des transducteurs qui constituent la source. La deuxième étape d'optimisation, est relative aux corrections des colorations induites par le local d'écoute, c'est-à-dire égalisation du canal acoustique. En effet, le problème de la correction automatique des réflexions multiples et de la réverbération acoustique a suscité de nombreuses recherches sans qu'une solution universelle ne soit retenue. Dans le contexte de la présente étude où les sources acoustiques utilisées excitent les modes de très basses fréquences du local d'écoute, nous nous sommes focalisé sur le traitement des basses fréquences. Dans ce cas, une méthode d'égalisation multipoints basses fréquences des réponses du local d'écoute a été introduite. Cette technique propose une synthèse automatisée de filtres à encoches permettant de corriger les pics communs aux réponses mesurées au niveau d'une certaine zone d'écoute. Le but étant d'aboutir à une maquette de faisabilité, l'ensemble des traitements a été implémenté sur un DSP qui a été judicieusement choisi en fonction des applications visées et de la complexité des traitements à réaliser
This thesis deals with the optimization of High-End multi-way loudspeaker systems radiation by using dedicated digital signal processing techniques. This optimization was carried out in two parts. The first part relates to the optimization of the free field radiated by the loudspeaker system. This part can be seen as a complementarity between an electro-acoustical survey which made it possible to design acoustic sources able to reproduce the entire audio band extending with a well controlled directivity : this is the contribution of coaxial loudspeaker systems. On the other hand, a research in the field of digital signal processing correcting the residual defects of these sources and enhancing their performances in order to approach as well as possible the theoretical point source. For a coaxial acoustic source, as for any other multi-way loudspeaker system, the digital filter bank we developed, and validated on Cabasse systems, ensures, in addition to the usual crossover and equalization functions, an enhanced control of the system directivity making it possible to correct possible radiation shifts over transducers' frequency overlap bands. The second part of optimization, relates to the transfer brought by the listening room : equalization of the Room Transfer Functions. Indeed, many researchers were concerned with the correction of multiple room reflections and acoustic reverberation. However no universal solution is adopted. In the context of this study where the acoustic sources stimulate the very low frequencies room modes, it was initially necessary to focus on solving this problem. In this case, a multiple-point low frequency compensation technique of the room modes effects was introduced. This method proposes an automated design of digital notch filters making it possible to correct the peaks that are common to all the room responses measured over a given listening zone. The goal being to lead to an industrial model, the whole processing were implemented in real-time on a DSP which was thoroughly chosen according to the applications targeted and the complexity of the processing to be carried out
APA, Harvard, Vancouver, ISO, and other styles
14

Provost, Margot. "Valorisation de la fraction protéique des co-produits de saumon : étude et optimisation." Thesis, Brest, 2016. http://www.theses.fr/2016BRES0045.

Full text
Abstract:
Les co-produits sont les parties non utilisées et récupérables lors des opérations de transformation du poisson, comme les têtes, les peaux, les os ou la pulpe. L’industrie de transformation du saumon Atlantique d’élevage (Salmo salar) génère environ 50% de co-produits qui constituent une source de protéines de haute qualité. Ce travail de thèse s’inscrit dans le cadre du projet Pesk&Co, qui réunit quatre partenaires industriels (Meralliance-Thai Union, Yslab, SPF-DIANA, AGH-Socofag) et un partenaire académique (LEMAR UMR 6539, UBO) dans le but d’extraire et de caractériser des ingrédients à haute valeur ajoutée issus des co-produits de saumon Atlantique d’élevage (Salmo salar). Le premier objectif de la thèse visait à développer un procédé d’extraction du collagène à partir des peaux de saumon par la mise en place d'un procédé non conventionnel au LEMAR, puis développé au stade pilote et enfin industriel. Le collagène obtenu a été caractérisé par différentes méthodes analytiques (SEC-FPLC, SDS-PAGE, FTIR, rhéologie, microscopie). Ensuite, des essais de réticulation du collagène par voie enzymatique avec une transglutaminase microbienne ont conduit à l’obtention d’un hydrogel. Le deuxième objectif de ce travail a porté sur l’hydrolyse en conditions contrôlées des têtes de saumon pour générer des peptides fonctionnels pour l’aquaculture. Deux protocoles d’hydrolyse enzymatique ont été développés et transposés à l’échelle pilote. Les hydrolysats ont été incorporés dans des aliments aquacoles afin d’être testés sur des larves de bar (Dicentrarchus labrax). Les deux ingrédients développés au cours de ce travail ont pour vocation future d'être commercialisés, et différents marchés et applications sont visés
By-products are the not used parts and recoverable in the fish processing operations, such as heads, skins, bones or pulp. The processing industry of farmed Atlantic salmon (Salmo salar) generates about 50% of co-products, which are a source of high quality protein. This work is part of Pesk&Co project, which gather four industrial partners (Meralliance-Thai Union Yslab, SPF-DIANA, AGH-SOCOFAG) and one academic partner (LEMAR UMR 6539, UBO) in order to extract and characterize high value ingredients from farmed Atlantic salmon by-products (Salmo salar). The first aim of the thesis was to develop a method for extracting collagen from salmon skins by the setting up of a non-conventional process at LEMAR and finally developed it at pilot and industrial scale. The collagen obtained was characterized by different analytical methods (FPLC-SEC, SDS-PAGE, FTIR, rheology, microscopy). Then, enzymatic cross-linking assays of collagen with a microbial transglutaminase led to obtain a collagen hydrogel. The second objective of this work was focused on the hydrolysis under controlled conditions of salmon heads to generate functional peptides for aquaculture. Two enzymatic hydrolysis protocols have been developed and transferred at pilot scale. The hydrolysates were incorporated into diets to be tested on bass larvae (Dicentrarchus labrax). Both ingredients developed during this work have for future use to be commercialized and different markets and applications are targeted
APA, Harvard, Vancouver, ISO, and other styles
15

Darby, R. J. "Attempted optimisation of ionic conductivity in the yttria-stabilized zirconia system by co-doping." Thesis, University of Cambridge, 2009. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.598277.

Full text
Abstract:
Samples that spanned the full cubic-phase field of YSZ (containing 21-57 mol.% YO1.5) were produced to investigate the binary system. The Raman spectra of these samples revealed short-range ordering similar to that found in the ordered delta-phase, Zr3Y4O12, at yttria contents of 49 mol.% YO1.5 and above. The conductivity measurements on these binary samples revealed an increasing activation enthalpy for conduction with increasing yttria content up to an yttria addition of 33 mol.% YO1.5. By comparing this with enthalpy of formation data it was proposed that the cause was an increasing migration enthalpy contribution resulting from the increasing presence of relatively large yttrium ions. The potential co-doping technique investigated was termed solution-doping and involved infiltrating a porous ceramic with a dopant-containing nitrate solution, followed by drying and sintering. It was an efficient method of differently doping multiple samples and was successfully used to incorporate calcium ions into an YSZ solid solution. Comparison with samples produced by ball-milling showed an increased relative density with solution-doping but a decreased homogeneity. Co-doping of the YSZ system was investigated by adding a range of additional dopants to a YSZ composition containing 18 mol.% YO1.5. The dopants added were between 1 and 4 mol.% of CaO, GaO1.5, ZnO, GdO1.5, YbO1.5 or YO1.5. Comparisons were made among samples of the same cation or anion vacancy content. The only co-dopant to consistently increase the conductivity of the samples was ytterbium. A greater ionic radius and valency mismatch between the dopant cation and the majority zirconium cation lead to a lower conductivity, increased activation enthalpy and increased segregation to the grain boundaries.
APA, Harvard, Vancouver, ISO, and other styles
16

Ferreira, Amadeo. "Conception et optimisation d'une phase polymère à base de GMA-co-EGDMA : applications chromatographiques." Lille 1, 2001. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2001/50376-2001-257.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
17

Stehmann, Timo. "Development and optimisation of a solid-state pulsed power supply for a CO₂ TEA laser." Thesis, Stellenbosch : Stellenbosch University, 2003. http://hdl.handle.net/10019.1/53359.

Full text
Abstract:
Thesis (MSc)--Stellenbosch University, 2003.
ENGLISH ABSTRACT: With technological advances in solid-state switches the modernization of conventional pulsed power supplies utilizing thyratrons has become possible. A novel pulsed power supply is designed where two series-stacked IGBTs (rated at 1700 V and 300 A each) are used to replace a thryatrondriven pulsed power supply for a mini CO2 TEA laser. The mini CO2 TEA laser is firstly characterized in order to optimize the design of the pulsed power supply. It is found that stable laser discharges can be obtained with electrode voltage rise-times of 150 ns or less. Furthermore, the optical output energy and the efficiency of the laser have been significantly increased by reducing the peaking capacitor size of the pulsed power supply. The two stacked IGBTs switch a C-C transfer loop and the generated pulse is stepped up by a pulse transformer and is compressed by a two-stage magnetic pulse compression unit. Theoretically and through measurements it is shown that automatic voltage sharing between the two IGBTs can be obtained if the turn-on time of the IGBTs is much faster than the transfer time of the switched C-C transfer loop. Lifetime tests reveal that high-power IGBTs are able to reliably switch pulses with peak currents between 4 and 5 times the rated average current of the device. Under laser fault conditions, i.e. laser arcing or missing laser discharges, the reliability of the pulser can be increased by using over-voltage snubbers. In addition, it was found that the internal diode of IGBT modules can eventually fail under the prevalence of laser fault conditions. A modular construction approach is used where components of the pulsed power supply are preassembled. A new rectangular layout of the magnetic pulse compression unit is utilized in order to minimize size and simplify the final construction and assembly.
AFRIKAANSE OPSOMMING: Nuwe ontwikkeling in vastetoestand-skakelaars het die modernisering van laser-pulskragbronne moontlik gemaak. ’n Nuwe kragbron wat gebruik maak van twee seriegeskakelde IGBT’s is ontwerp om ’n Tiratron-gedrewe laserkragbron te vervang, wat vir ’n mini-C02-TEA-laser gebruik word. Die laser is vooraf eers gekarakteriseer om sodoende die laserkragbron te optimeer. Daar is bevind dat stabiele laserontladings verkry kan word met spanningstygtye van 150 ns of minder. Verder kan die uittree-energie van die laser beduidend verhoog word deur die uittreekapasitore (eng.: peaking capacitors) van die laserkragbron te verminder. Die twee serie-geskakelde IGBT’s skakel ’n C-C oordraglus. Die spanning van die gegenereerde puls word deur ’n pulstransformator verhoog en die stygtyd van die puls word met ’n twee-stadium magnetiese pulskompressor verlaag. Teoreties en deur metings kan getoon word dat eweredige spanningsverdeling tussen die twee IGBT’s outomaties verkry kan word indien die skakeltye van die IGBT’s baie vinniger as die oordragstyd van die C-C oordraglus is. Toetse het getoon dat IGBT’s pulse met piekstrome van tussen vier tot vyf keer die gespesifiseerde gemiddelde stroom betroubaar kan skakel. Tydens laserfouttoestande kan die betroubaarheid van die IGBT verhoog word deur oorspanningsgapsers te gebruik, maar onder fouttoestande wat voortduur, kan die IGBT se interne diode vemietig word. Die komponente van die laserkragbron is as modules vervaardig, wat op ’n maklike wyse gemonteer kan word. ’n Nuwe reghoekige uitleg is gebruik vir die konstruksie van die magnetiese pulskompressor, waarmee die grootte van die pulskompressor geminimeer en die konstruksie vergemaklik is.
APA, Harvard, Vancouver, ISO, and other styles
18

Sirlantzis, Konstantinos. "Supervisor and searcher co-operation algorithms for stochastic optimisation with application to neural network training." Thesis, University of Kent, 2002. https://kar.kent.ac.uk/7419/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
19

Raad, Abbass. "Co-simulation et optimisation multi-critères en conception de bâtiment, par approche d’interopérabilité de services." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAT103/document.

Full text
Abstract:
Le bâtiment contribue majoritairement aux enjeux de la transition energétique. Pour mieux réduire ses consommations, assurer un meilleur confort, répondre aux exigences environnementales et règlementaires, tout en minimisant le prix total, nous proposons d’outiller la conception (des phases d’esquisse à la phase de conception plus avancées, …) par des solutions offrant une vision globale du bâtiment et permettant de faire des choix optimaux. La conception en bâtiment est caractérisée par de nombreux modèles et outils de simulation experts complémentaires, mais indépendants et hétérogènes. En réponse à cette problématique d’interopérabilité, nous proposons une approche orientée service, basée sur l’Internet, pour couvrir les aspects de modèlisation globale et d’aide à la décision. Nous abordons plus particulièrement les problématiques liées aux stratégies et algorithmes de co-simulation, d’optimisation multi-objectif hybride discret/continu et l’aide à la décision multicritère. Ce travail est réalisé dans le cadre de l’ANR COSIMPHI en partenariat fort avec le CSTB
The building contributes mostly to the challenges of energy transition. In order to better reduce consumption, ensure better comfort, answer to the environmental and regulatory requirements while minimizing the total price, we propose to equip the design (from the sketch phase to the more advanced design phases, ...) with solutions offering a global view of the building and making optimal choices. Building design is characterized by many complementary models and simulation tools but they are independent and heterogeneous. In response to this problem of interoperability, we propose a service oriented approach, based on the Internet, to cover the aspects of global modeling and decision support. We address in particular the problems related to co-simulation strategies and algorithms, multi-objective discrete hybrid optimization and multicriteria decision support. This work is carried out within the framework of the ANR COSIMPHI in strong partnership with the CSTB
APA, Harvard, Vancouver, ISO, and other styles
20

Feki, Mohamed Firas. "Optimisation distribuée pour la recherche des itinéraires multi-opérateurs dans un réseau de transport co-modal." Phd thesis, Ecole Centrale de Lille, 2010. http://tel.archives-ouvertes.fr/tel-00604509.

Full text
Abstract:
La politique des transports dans le monde et en Europe évolue vers une vision co-modale. Cette nouvelle politique n'oppose plus la voiture au transport public mais encourage une combinaison de tous les modes de transport en espérant ainsi assurer un développement rentable et durable.Nous focalisons notre étude sur le service transport de personnes qui s'inscrit au cœur des politiques co-modales en combinant tous les modes de transport en commun (métro, bus..) et promeut de nouveaux modes d'utilisation de la voiture particulière comme le covoiturage (partage d'un véhicule personnel) ou l'AutoPartage (voiture en libre-service).Toutefois, pour générer un itinéraire exploitant les services de plusieurs opérateurs de transport, il faut consulter plusieurs sites internet. Selon le déplacement à réaliser, cette tâche de planification complexe peut être très difficile à réaliser et ne garantit pas l'optimalité de l'itinéraire sélectionné.Nous nous sommes donc intéressés à la conception d'un système d'aide au déplacement capable de fournir une information voyageur (co-modale) en mettant en relation plusieurs opérateurs de transport (en commun et individuel). Le système en question doit être capable d'assister l'utilisateur dans la phase de planification par la constitution d'un carnet de voyage proposant plusieurs itinéraires multi-opérateurs. De plus, il assiste l'utilisateur en cas de perturbation en l'informant et en lui proposant des itinéraires de secours. Ce travail est basé sur des avancées technologiques qui facilitent l'optimisation dans un environnement distribué (Multi-agent - SOA) et rendent l'information accessible grâce à un grand nombre de médias (téléphone, PDA..)
APA, Harvard, Vancouver, ISO, and other styles
21

Danaci, Simge. "Optimisation et intégration de catalyseurs structurés en réacteurs structurés pour la conversion de CO₂ en méthane." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAI041/document.

Full text
Abstract:
Dans cette étude de doctorat, la technique de dépôt tridimensionnel de fibres (3DFD) a été appliquée pour développer et fabriquer des structures de support catalytique multi-canaux avancées. En utilisant cette technique, le matériau, la porosité, la forme et la taille des canaux et l'épaisseur des fibres peuvent être contrôlées. L'objectif de cette recherche est d'étudier les performances des supports structurés 3D conçus pour la méthanation du CO2 en termes d'activité, de sélectivité de stabilité et d’étudier l'impact des propriétés spécifiques introduites dans la conception structurale des supports
In this doctoral study, the three dimensional fibre deposition (3DFD) technique has been applied to develop and manufacture advanced multi-channelled catalytic support structures. By using this technique, the material, the porosity, the shape and size of the channels and the thickness of the fibres can be controlled. The aim of this research is to investigate the possible benefits of 3D-designed structured supports for CO2 methanation in terms of activity, selectivity and stability and the impact of specific properties introduced in the structural design of the supports
APA, Harvard, Vancouver, ISO, and other styles
22

Akram, Muhammad. "Optimisation of co-firing of high moisture biomass with coal in a bubbling fluidised bed combustor." Thesis, University of South Wales, 2012. https://pure.southwales.ac.uk/en/studentthesis/optimisation-of-cofiring-of-high-moisture-biomass-with-coal-in-a-bubbling-fluidised-bed-combustor(b505849e-6329-4196-93ba-b49e30b41547).html.

Full text
Abstract:
The work presented in this thesis was carried out with a particular view of enhancing the of coal fired fluidised bed hot gas generator (HGG) at the Cantley factory of British Sugar. It covers combustion of coal and biomass and their blends also called co-firing in a fluidised bed combustor. Particularly it focuses on the effect of introduction of moisture as part of fuel or injection of water into the bed on the reduction of excess air to get a stable bed temperature. Although this thesis is focused on increasing the throughput of the HGG, the study has a broad application and can be beneficial in utilising relatively cheap, poor quality, unprepared biomass materials. The results of this study can be helpful in devising systems to deal with wastes from different industries in co-combustion with a fuel of higher calorific value such as coal. Thus the study will have dual impact on the industry; addressing waste management issues on one hand and producing useful energy on the other. This may contribute towards meeting the targets of Kyoto Protocol by reducing emissions of carbon dioxide (COi) as biomass is thought to be COa neutral. The fluidised bed at Cantley is used to dry animal feed and has a design capacity of 40 MW but due to limitations of flow of fluidising gases caused by high flow resistance through sparge pipes, the combustor is running under capacity. Consequently, some of the animal feed has to be dried by using expensive oil fired drier. In any combustion system excess air is used to control combustion temperature. In fluidised bed combustion excess air is used to control bed temperature. If the bed is cooled by other means the requirement of excess air can be reduced. This is the basic idea behind this study which is aimed at enhancing the capacity of the HGG by cooling the bed and thus reducing excess air requirements. The excess air thus spared can be used to combust more coal in the bed and thus will reduce dependence on oil fired dryer and will have financial benefits for British Sugar. Different fuels including wood pellets, wood chips and sugar industry by-products such as vinasse, raffinate and pressed pulp were fired/cofired with Thoresby coal in a fluidised bed test rig installed at the University of Glamorgan. The blends of wood chips and pressed pulp with coal are co-fired at different moisture contents. The tests were conducted at different thermal inputs at a wide range of excess air levels. Most of the work is focusedon the combustion of blends of coal and pressed pulp in different proportions. It was found that the maximum proportion of the pressed pulp in the blend with coal which could be burned successfully in the fluidised bed is 50%. During combustion of different coal-pulp and coal-wood chips blends it was found that excess air requirement is reduced by around 20% in comparison to coal only firing, over the range of the operating conditions tested. Because of the presence of potassium in pressed pulp, which could cause agglomeration during combustion in fluidised beds, longer term tests were carried out with 50/50 blend of coal and pulp. No signs of agglomeration were observed when the rig was fired for 8 days for almost 7 hours a day. However, Scanning Electron Microscopy (SEM) analyses of bed samples taken at the end of every day have shown the accumulation of potassium in the bed up to 1%. For comparison purposes tests were also carried out by co-firing coal with raffiante and vinasse and then it was observed that the bed defluidised relatively quickly, within 40 minutes of co-firing. Post experiment SEM analysis confirmed the accumulation of potassium in the bed which was found to be around 8% for raffinate and around 10% for the vinasse experiment. It was found that the pulp is difficult to deal with and particularly its feeding into the fluidised bed could be a potential problem. Therefore, injection of water into the bed, a relatively cheaper and adaptable option, was also investigated. It was found that emissions of carbon monoxide due to incomplete combustion or water gas shift reaction would not be a problem as long as the bed temperature is controlled above 800 °C. It was found that the injection of water at a rate of 4.5 1/h into the bed fired at 17 kW reduced the air flow requirement by around 7.5 m3/h which corresponds to a reduction of almost 20% which agrees with the finding with coal-pulp blends co-firing. This excess air can be used to burn around 5 kW equivalent of more coal and thus result in an increase in the thermal capacity by around 30%. Therefore, it may be possible to enhance the thermal capacity of the HGG at Cantley by 30% by injecting water into the bed or by co-firing coal and pulp.
APA, Harvard, Vancouver, ISO, and other styles
23

Bordenave, Alexandre. "Traitement in situ des HAPs par co-injection air-vapeur : mécanismes physico-chimiques et optimisation énergétique." Thesis, Bordeaux 3, 2015. http://www.theses.fr/2015BOR30021/document.

Full text
Abstract:
La contamination du milieu naturel, notamment des aquifères, par des hydrocarbures lourds de type HAP (Hydrocarbure Aromatique Polycyclique) se révèle être une pollution pérenne très difficile à traiter. La dépollution de ces sous-sols par un traitement in situ efficace et peu coûteux constitue encore aujourd’hui un challenge. Cette étude cible une technique de co-injection air-vapeur en zone saturée comme alternative aux techniques thermiques et chimiques en vigueur pour le traitement de cette catégorie d’hydrocarbures. Une première partie expérimentale introductive estime l’influence d’un simple traitement vapeur sur la libération de HAPs par les matrices de sol au sein de l’aquifère, montrant la nécessité de coupler à ce procédé une technique d’oxydation chimique. Si le front de vapeur permet de mobiliser totalement les composés légers, les concentrations des composés les plus lourds augmentent en phase dissoute (augmentation des fractions molaires des composés résiduels). Réalisées en milieu fermé, dans des conditions de température dictées par l’injection de vapeur (120 ̊C), des expériences en laboratoire ont permis de caractériser et de quantifier les réactions d’oxydation chimique mises en jeu. Les résultats démontrent une efficacité modérée de l’oxydation à moyenne température. Des sous-produits de réaction sont identifiables et quantifiables à compter de plusieurs semaines de réaction. A l’inverse l’étude met en évidence l’absence totale de minéralisation, démontrant que l’ana- lyse du CO2 ne peut renseigner sur l’évaluation du phénomène d’oxydation. Hormis la réactivité par oxydation, les conclusions de l’étude montrent que la technique favorise la sorption irréversible des composés organiques en surface des matrices de sol. Ces phénomènes de sorption sont très marqués en présence d’argile ou de matière organique naturelle dans le milieu et augmentent au cours du temps. La technique HPO se pose donc en traitement de soutien à l’injection de vapeur par oxydation mais surtout par stabilisation de la zone de contamination. Enfin nous nous sommes intéressés aux problématiques liées à l’injection d’eau chaude et de vapeur dans un sous-sol au travers d’expériences sur site. La technique d’injection de vapeur étant financièrement et énergétiquement coûteuse, des solutions techniques ont été proposées, appliquées et modélisées. Il en ressort une comparaison en bilans énergétiques pour différents modes d’injection, permettant de mieux appréhender les véritables besoins d’une telle technique. Parmi les paramètres influents, le rayon d’influence est un paramètre essentiel qui conditionne la distance entre chaque puits pour une efficacité optimale. Les résultats de l’étude démontrent que dans certains scénarios d’injection (injection à grande profondeur) le préchauffage de la zone d’étude par injection d’eau chaude couplé à un pompage en profondeur permettra d’accroître significativement le rayon d’influence et d’améliorer le bilan énergétique du traitement global. Les principaux résultats de la thèse sont comparés aux autres études sur l’injection de vapeur pour dégager les meilleures conditions d’application de cette technique, et mettre en évidence les verrous techniques ayant pu être levés au cours de la thèse
PAHs are the largest, ubiquitous and carcinogenic environmental chemical groups. In a context of polluted soil remediation, today it is still a challenge to reach an effective in situ treatment. This study aims to evaluate as an alternative way the potential of a technology combining a thermal process (injection of steam) and a chemical process (co-injection of air) in the saturated zone. A first introductory experimental section considers the influence of a single steam treatment on the release of PAHs from soil matrices within the aquifer. Results prove the necessity of coupling a chemical oxidation technique with this process. If the steam front allows to recover light com- pounds, concentrations of heavier compounds in the dissolved phase are more important after the steam treatment (molar fractions of residual compounds increase). In order to study the fate of PAHs in polluted soils under medium temperature oxidation, numerous experiments in presence of soil spiked matrices were carried out in closed reactors. The catalytic potential of different mineral surfaces was investigated by studying reactivity of different PAHs. Results demonstrate that the efficiency of oxidation remains moderate. They suggest a lack of mineralization and reactions producing partly polycyclic aromatic compounds (PACs) with equivalent molecular weight as the initial contaminants. Along short term experiments (9 days), the major effect of heating is an increase in irreversible sorption of original compounds. Interestingly, this sorption mostly occurs in presence of natural organic matter and oxygen in the gas phase, suggesting a specific reactivity of the natural organic matter. In long term experiments (6 months), new oxygenated PACs were formed and remained fixed on the solid phase. Consequently, air oxidation catalyzed by minerals and natural organic matter may be a new pathway concerning PAH stabilization in soils. The steam injection technique is still considered as a costly technique. In this last part some technical solutions have been proposed, implemented and modelized. The economic aspect of some injection cases are compared, based on the results of a real field application and some general calculations regarding the costs of wells and energy. Among influential parameters, the radius of influence is a key parameter that determines the distance between each well for an optimum efficiency. The results of this study show that in some scenarios of injection (when the injection takes place in a deeper zone), a preheating phase can be an interesting option to reduce the financial costs of the technique. The main results of the thesis are compared with other steam injection studies to identify the best conditions for the technique application
APA, Harvard, Vancouver, ISO, and other styles
24

Bousquet, Philippe. "Optimisation des flux nets de co#2 : assimilation des mesures atmospheriques en co#2 et en #1#3co#2 dans un modele de transport tridimensionnel." Paris 6, 1997. http://www.theses.fr/1997PA066620.

Full text
Abstract:
Le developpement du reseau de mesures atmospheriques de co#2 et de #1#3c a pour objectif principal de mieux connaitre les sources et puits de co#2 atmospherique. Dans cette these, on presente une methode d'assimilation tridimensionnelle des mesures de co#2 et de #1#3c en vue d'estimer les sources et puits de co#2 a l'echelle regionale (contient ou grand bassin oceanique) pour la periode 1985-1995. La resolution de ce probleme inverse impose de definir 1/ un espace des donnees represente par les mesures mensuelles de co#2 et de #1#3c a 103 sites de mesures (surface, bateaux ou avions), 2/ un espace flux a priori qui decrit l'ensemble des processus d'echange entre les reservoirs (sources et puits de co#2), et 3/ un modele de transport atmospherique tridimensionnel qui relie l'espace des flux a l'espace des mesures. La connaissance de cet ensemble d'elements, et des erreurs qui leur sont associees, permet d'estimer les sources et puits de co#2 en reduisant les incertitudes donnees a priori. L'erreur sur le transport atmospherique n'est pas prise en compte explicitement mais est evaluee en utilisant deux modeles de transport differents. En moyenne sur la periode 1985-1995, on trouve un puits net dans la biosphere continentale de 1. 21. 5 gtc an##1 et un puits net oceanique de 1. 50. 5 gtc an##1 (1gtc = 10#1#5g de carbone). La repartition du puits continental s'effectue ainsi : amerique du nord 0. 50. 6 gtc an##1, europe 0. 30. 7 gtc an##1, asie 0. 50. 6 gtc an##1, tropiques (sauf asie) 0. 21. 0 gtc an##1, hemisphere sud 0. 10. 3 gtc an##1. De meme pour l'ocean on trouve : pacifique nord 0. 30. 2 gtc an##1, atlantique nord 0. 70. 3 gtc an##1, equateur 0. 50. 1 gtc an##1, 20s50s 0. 80. 2 gtc an##1 et ocean austral 0. 20. 1 gtc an##1. L'ensemble des tests de sensibilite effectues sur cette solution montre que seul le transport atmospherique introduit une incertitude qui fait sortir les flux trouves des barres d'erreur calculees par la methode.
APA, Harvard, Vancouver, ISO, and other styles
25

Kovaltchouk, Thibaut. "Contributions à la co-optimisation contrôle-dimensionnement sur cycle de vie sous contrainte réseau des houlogénérateurs directs." Thesis, Cachan, Ecole normale supérieure, 2015. http://www.theses.fr/2015DENS0033/document.

Full text
Abstract:
Les Energies Marines Renouvelables (EMR) se développent aujourd’hui très vite tant au niveau de la recherche amont que de la R&D, et même des premiers démonstrateurs à la mer. Parmi ces EMR, l'énergie des vagues présente un potentiel particulièrement intéressant. Avec une ressource annuelle brute moyenne estimée à 40 kW/m au large de la côte atlantique, le littoral français est plutôt bien exposé. Mais l’exploitation à grande échelle de cette énergie renouvelable ne sera réalisable et pertinente qu'à condition d'une bonne intégration au réseau électrique (qualité) ainsi que d'une gestion et d'un dimensionnement optimisé au sens du coût sur cycle de vie. Une première solution de génération tout électrique pour un houlogénérateur a d’abord été évaluée dans le cadre de la thèse de Marie RUELLAN menée sur le site de Bretagne du laboratoire SATIE (ENS de Cachan). Ces travaux ont mis en évidence le potentiel de viabilité économique de cette chaîne de conversion et ont permis de poser la question du dimensionnement de l’ensemble convertisseur-machine et de soulever les problèmes associés à la qualité de l’énergie produite. Puis une seconde thèse a été menée par Judicaël AUBRY dans la même équipe de recherche. Elle a consisté, entre autres, en l’étude d’une première solution de traitement des fluctuations de la puissance basée sur un système de stockage par supercondensateurs. Une méthodologie de dimensionnement de l’ensemble convertisseur-machine et de gestion de l’énergie stockée fut également élaborée, mais en découplant le dimensionnement et la gestion de la production d’énergie et de ceux de son système de stockage. Le doctorant devra donc : 1. S’approprier les travaux antérieurs réalisés dans le domaine de la récupération de l’énergie des vagues ainsi que les modèles hydrodynamiques et mécaniques réalisés par notre partenaire : le LHEEA de l’Ecole Centrale de Nantes - 2. Résoudre le problème du couplage entre dimensionnement/gestion de la chaîne de conversion et dimensionnement/gestion du système de stockage. 3. Participer à la réalisation d’un banc test à échelle réduite de la chaine électrique et valider expérimentalement les modèles énergétiques du stockage et des convertisseurs statiques associés - 4. Proposer une méthodologie de dimensionnement de la chaine électrique intégrant le stockage et les lois de contrôle préalablement élaborées 5. Déterminer les gains en termes de capacités de stockage obtenus grâce à la mutualisation de la production (parc de machines) et évaluer l’intérêt d’un stockage centralisé - 6. Analyser l’impact sur le réseau d’une production houlogénérée selon divers scenarii, modèles et outils développés par tous les partenaires dans le cadre du projet QUALIPHE. L’exemple traité sera celui de l’Ile d’Yeu (en collaboration avec le SyDEV
The work of this PhD thesis deals with the minimization of the per-kWh cost of direct-drive wave energy converter, crucial to the economic feasibility of this technology. Despite the simplicity of such a chain (that should provide a better reliability compared to indirect chain), the conversion principle uses an oscillating system (a heaving buoy for example) that induces significant power fluctuations on the production. Without precautions, such fluctuations can lead to: a low global efficiency, an accelerated aging of the fragile electrical components and a failure to respect power quality constraints. To solve these issues, we firstly study the optimization of the direct drive wave energy converter control in order to increase the global energy efficiency (from wave to grid), considering conversion losses and the limit s from the sizing of an electrical chain (maximum force and power). The results point out the effect of the prediction horizon or the mechanical energy into the objective function. Production profiles allow the study of the flicker constraint (due to grid voltage fluctuations) linked notably to the grid characteristics at the connection point. Other models have also been developed to quantify the aging of the most fragile and highly stressed components, namely the energy storage system used for power smoothing (with super capacitors or electrochemical batteries Li-ion) and power semiconductors.Finally, these aging models are used to optimize key design parameters using life-cycle analysis. Moreover, the sizing of the storage system is co-optimized with the smoothing management
APA, Harvard, Vancouver, ISO, and other styles
26

Le, Goff Latimier Roman. "Gestion et dimensionnement d'une flotte de véhicules électriques associée à une centrale photovoltaïque : co-optimisation stochastique et distribuée." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLN033/document.

Full text
Abstract:
La généralisation concomitante de consommateurs d'électricité flexibles et de producteurs imparfaitement contrôlables invite à utiliser les complémentarités de ces acteurs afin d'améliorer leur intégration dans les systèmes d'énergie. Dans le cadre de ces travaux de doctorat, la collaboration entre une flotte de véhicules électriques et une centrale photovoltaïque est étudiée. Un problème générique est tout d'abord défini afin d'augmenter la prévisibilité des échanges entre un réseau électrique et le système collaboratif ainsi créé qui devra respecter un profil d'engagement de puissance échangée. La gestion de ce système est traduite en un problème d'optimisation dans lequel on cherche à compenser les erreurs de prévision de la production photovoltaïque à l'aide de la flexibilité des recharges. Ce problème est multi-temporel du fait de la présence de batteries, stochastique à cause de la disponibilité des véhicules et des erreurs de prévision, et enfin de grande dimension puisqu'à l'échelle d'une flotte entière.Pour le résoudre, la modélisation du comportement et du vieillissement des batteries Li-ion est discutée afin d'établir des compromis entre justesse du modèle, impact sur la décision finale et coût de calcul. Par ailleurs, un modèle de Markov caché original est spécifiquement développé afin de capturer les structures temporelles de l'erreur de prévision de production photovoltaïque. Cette étude est fondée sur des données réelles de production d'une centrale et des données de prévision correspondantes.Le problème de recharge optimale d'une flotte de véhicules agrégée en une batterie équivalente est résolu par la méthode de la programmation dynamique stochastique. La sensibilité des lois de gestion obtenues est discutée vis à vis des modèles utilisés pour décrire l'erreur de prévision ou le comportement des batteries. Le vieillissement des batteries est traduit par plusieurs modèles, dont on examine les conséquences sur le dimensionnement optimal de la flotte de véhicules par rapport à la puissance crête de la centrale photovoltaïque.Enfin la puissance de recharge optimale pour chacun des véhicules de la flotte est déduite à l'aide d'un problème de partage qui est résolu par optimisation distribuée --- Alternating Direction Method of Multipliers --- et programmation dynamique. Une attention particulière est prêtée à la manière dont les préférences individuelles de chaque utilisateur peuvent être prises en compte au sein d'une flotte. Le cas d'une limitation des échanges d'information possibles entre les véhicules est investigué. Le dimensionnement optimal entre une flotte et une centrale photovoltaïque est finalement analysé pour plusieurs modèles économiques envisageables. L'interaction entre dimensionnement et gestion est traitée à l'aide d'une co-optimisation
Simultaneous development of flexible electricity consumers and of intermittent renewable producers calls for using their complementarities. It could foster their overall integration in power systems. For the purpose of this doctoral thesis, the collaboration between an electric vehicle fleet and a photovoltaic plant is studied. First of all, a generic problem is set up to improve the predictability of the power exchange between the power grid and the so called collaboratif system. It should therefore fulfill a commitment profile constraint. The intraday management of this system consists in an optimisation problem which objective is to mitigate the production forecast errors by charging power flexibility. This is a multitime step problem, because of the battery intertia. The random availibility of vehicles and the forecast errors also make it stochastic. Finally there is a huge number of variables as it is spread other an entiere fleet.Upstream of the problem resolution, the modeling of the dynamic behaviour and of the aging of Lithium Ion batteries is discussed. It results in a range of compromises between precision, impact on the final decision and computational cost. Furthermore, a hidden Markov model is proposed and developped so as to handle temporal structures of the forecast error of the photovoltaic production. This analysis is based on production data of a real plant and on associated forecasts.An electric vehicle fleet is considered as an equivalent agregated battery. Its optimal charging power is sorted out using stochastic dynamic programming. The sensitivity of the resulting management strategies is assessed against the models which describe the production forecast error or battery behaviour. The battery aging is rendered by several models which we discuss the consequences over the optimal sizing of an electric vehicle fleet regarding to the plant power.Then the optimal charing power for each one of the vehicles among a fleet is deduced using a sharing problem. The resolution is carried out using distributed optimisation --- Alternating Direction Method of Multipliers --- and dynamic programming. A specific attention is devoted to the individual mobility priorities of the vehicles users. The vehicle charging power is thus differenticiated according to each one preferences. We also investigate a situation where information exchanges are limited. The optimal sizing of an electric vehicle fleet associated with a photovoltaic plant is finaly considered under several possibilities of economic model. The coupling between sizing and daily management is tackled thanks to a co-optimization
APA, Harvard, Vancouver, ISO, and other styles
27

Siddiqui, Zuhaib. "Optimisation of Hydrogen and Methane Production from Co-digested Food Waste and Biosolids using Phase Separated Anaerobic Digestion." Thesis, University of Leeds, 2010. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.521530.

Full text
APA, Harvard, Vancouver, ISO, and other styles
28

Stadler, Johan George. "Multi-objective optimisation using the cross-entropy method in CO gas management at a South African ilmenite smelter." Thesis, Stellenbosch : Stellenbosch University, 2012. http://hdl.handle.net/10019.1/71631.

Full text
Abstract:
Thesis (MScEng)--Stellenbosch University, 2012.
ENGLISH ABSTRACT: In a minerals processing environment, stable production processes, cost minimisation and energy efficiency are key to operational excellence, safety and profitability. At an ilmenite smelter, typically found in the heavy minerals industry, it is no different. Management of an ilmenite smelting process is a complex, multi-variable challenge with high costs and safety risks at stake. A by-product of ilmenite smelting is superheated carbon monoxide (CO) gas, or furnace off-gas. This gas is inflammable and extremely poisonous to humans. At the same time the gas is a potential energy source for various on-site heating applications. Re-using furnace off-gas can increase the energy efficiency of the energy intensive smelting process and can save on the cost of procuring other gas for heating purposes. In this research project, the management of CO gas from the Tronox KZN Sands ilmenite smelter in South Africa was studied with the aim of optimising the current utilisation of the gas. In the absence of any buffer capacity in the form of a pressure vessel, the stability of the available CO gas is directly dependent on the stability of the furnaces. The CO gas has been identified as a partial replacement for methane gas which is currently purchased for drying and heating of feed material and pre-heating of certain smelter equipment. With no buffer capacity between the furnaces and the gas consuming plants, a dynamic prioritisation approach had to be found if the CO was to replace the methane. The dynamics of this supply-demand problem, which has been termed the “CO gas problem”, needed to be studied. A discrete-event simulation model was developed to match the variable supply of CO gas to the variable demand for gas over time – the demand being a function of the availability of the plants requesting the gas, and the feed rates and types of feed material processed at those plants. The problem was formulated as a multi-objective optimisation problem with the two main, conflicting objectives, identified as: 1) the average production time lost per plant per day due to CO-methane switchovers; and 2) the average monthly saving on methane gas costs due to lower consumption thereof. A metaheuristic, namely multi-objective optimisation using the cross-entropy method, or MOO CEM, was applied as optimisation algorithm to solve the CO gas problem. The performance of the MOO CEM algorithm was compared with that of a recognised benchmark algorithm for multi-objective optimisation, the NSGA II, when both were applied to the CO gas problem. The background of multi-objective optimisation, metaheuristics and the usage of furnace off-gas, particularly CO gas, were investigated in the literature review. The simulation model was then developed and the optimisation algorithm applied. The research aimed to comment on the merit of the MOO CEM algorithm for solving the dynamic, stochastic CO gas problem and on the algorithm’s performance compared to the benchmark algorithm. The results served as a basis for recommendations to Tronox KZN Sands in order to implement a project to optimise usage and management of the CO gas.
AFRIKAANSE OPSOMMING: In mineraalprosessering is stabiele produksieprosesse, kostebeperking en energie-effektiwiteit sleuteldrywers tot bedryfsprestasie, veiligheid en wins. ‘n Ilmenietsmelter, tipies aangetref in swaarmineraleprosessering, is geen uitsondering nie. Die bestuur van ‘n ilmenietsmelter is ‘n komplekse, multi-doelwit uitdaging waar hoë kostes en veiligheidsrisiko’s ter sprake is. ‘n Neweproduk van die ilmenietsmeltproses is superverhitte koolstofmonoksiedgas (CO gas). Hierdie gas is ontvlambaar en uiters giftig vir die mens. Terselfdertyd kan hierdie gas benut word as energiebron vir allerlei verhittingstoepassings. Die herbenutting van CO gas vanaf die smelter kan die energie-effektiwiteit van die energie-intensiewe smeltproses verhoog en kan verder kostes bespaar op die aankoop van ‘n ander gas vir verhittingsdoeleindes. In hierdie navorsingsprojek is die bestuur van die CO gasstroom wat deur die ilmenietsmelter van Tronox KZN Sands in Suid-Afrika geproduseer word, ondersoek met die doel om die huidige benuttingsvlak daarvan te verbeter. Weens die afwesigheid van enige bufferkapasiteit in die vorm van ‘n drukbestande tenk, is die stabiliteit van CO gas beskikbaar vir hergebruik direk afhanklik van die stabiliteit van die twee hoogoonde wat die gas produseer. Die CO gas kan gedeeltelik metaangas, wat tans aangekoop word vir die droog en verhitting van voermateriaal en vir die voorverhitting van sekere smeltertoerusting, vervang. Met geen bufferkapasiteit tussen die hoogoonde en die aanlegte waar die gas verbruik word nie, was die ondersoek van ‘n dinamiese prioritiseringsbenadering nodig om te kon vasstel of die CO die metaangas kon vervang. Die dinamika van hierdie vraag-aanbod probleem, getiteld die “CO gasprobleem”, moes bestudeer word. ‘n Diskrete-element simulasiemodel is ontwikkel as probleemoplossingshulpmiddel om die vraag-aanbodproses te modelleer en die prioritiseringsbenadering te ondersoek. Die doel van die model was om oor tyd die veranderlike hoeveelhede van geproduseerde CO teenoor die veranderlike gasaanvraag te vergelyk. Die vlak van gasaanvraag is afhanklik van die beskikbaarheidsvlak van die aanlegte waar die gas verbruik word, sowel as die voertempo’s en tipes voermateriaal in laasgenoemde aanlegte. Die probleem is geformuleer as ‘n multi-doelwit optimeringsprobleem met twee hoof, teenstrydige doelwitte: 1) die gemiddelde verlies aan produksietyd per aanleg per dag weens oorgeskakelings tussen CO en metaangas; 2) die gemiddelde maandelikse besparing op metaangaskoste weens laer verbruik van dié gas. ‘n Metaheuristiek, genaamd MOO CEM (multi-objective optimisation using the cross-entropy method), is ingespan as optimeringsalgoritme om die CO gasprobleem op te los. Die prestasie van die MOO CEM algoritme is vergelyk met dié van ‘n algemeen aanvaarde riglynalgoritme, die NSGA II, met beide toepas op die CO gasprobleem. The agtergrond van multi-doelwit optimering, metaheuristieke en die benutting van hoogoond af-gas, spesifiek CO gas, is ondersoek in die literatuurstudie. Die simulasiemodel is daarna ontwikkel en die optimeringsalgoritme is toegepas.
APA, Harvard, Vancouver, ISO, and other styles
29

BRUGEAT, SEBASTIEN. "Realisation et optimisation d'une chambre a arc stabilise par paroi. Application a un plasma de melange ar-co 2." Clermont-Ferrand 2, 2001. http://www.theses.fr/2001CLF22287.

Full text
Abstract:
Ce travail presente l'etude d'un plasma thermique de melange ar-co 2, a la pression atmospherique, obtenu dans une chambre a arc stabilise par paroi. Ce memoire comporte deux grandes parties : l'une est consacree a la realisation et l'optimisation d'une chambre a arc stabilise par paroi et la seconde presente les resultats experimentaux concernant un plasma de melange ar-co 2. Dans une premiere partie, nous avons concu et realise une chambre a arc stabilise par paroi avec un double systeme de visee optique (axiale et radiale), un amorcage rapide et reproductible de l'arc et une limitation des interactions du plasma avec les gaz ambiants. Des methodes d'optimisation par les plans d'experiences (plan fractionnaire a deux niveaux et methode de taguchi) ont permis d'obtenir, apres avoir recense les facteurs supposes influents, les meilleures configurations possibles pour des mesures spectroscopiques. Ces configurations optimales ont ete utilisees pour determiner diverses grandeurs caracteristiques a partir de methodes de spectroscopie optique d'emission dans le visible. Les grandeurs mesurees sont : _ la densite electronique, determinee a partir de l'elargissement par effet stark de la raie d'hydrogene h et une raie d'argon, _ le champ electrique axial, determine a partir de mesures du potentiel flottant en faisant varier la longueur de l'arc, _ la temperature d'excitation deduite a partir des methodes de l'intensite absolue de raie et de methodes relatives tel le diagramme de boltzman, _ la temperature rotationnelle determinee a partir de la comparaison de spectres moleculaires calcules et mesures du systeme de swan c 2. Ces mesures nous ont permis de mettre en evidence les variations de la largeur de la colonne d'arc en fonction du courant d'arc et du pourcentage de co 2 injecte. De plus, deux regions ont ete observees de composition differentes : une region centrale chaude et une region peripherique plus froide et composee de molecules. Ces resultats ont ete compares a un modele a une dimension. Des ecarts dus aux phenomenes precedents et aux flux de gaz presents dans la chambre ont ete mis en evidence.
APA, Harvard, Vancouver, ISO, and other styles
30

Posada, Parra Jorge Ivan. "Optimisation d'un procédé hybride de co-pulvérisation/évaporation pour l'obtention de cellules solaires à base de Cu(In,Ga)Se2." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066057/document.

Full text
Abstract:
Les cellules solaires en couches minces à base d'absorbeurs de type Cu(In,Ga)Se2 (CIGS) représentent une technologie d'avenir à haut rendement de conversion d'énergie. Plusieurs techniques sont utilisées pour synthétiser le CIGS. La pulvérisation cathodique réactive est une technique de dépôt adaptée aux grandes surfaces offrant la possibilité d'effectuer un scale-up industriel. L'objectif de ce travail est de développer et d'optimiser un procédé alternatif hybride de co-pulvérisation/évaporation pour la synthèse du composé CIGS. Pour répondre à cet objectif, différentes études ont été réalisées afin d'assurer le contrôle des différents paramètres de dépôt. Dans un premier temps, la phase plasma a été étudiée à l'aide de la spectroscopie d'émission optique pour pouvoir établir des corrélations entre la composition des couches déposées et les espèces présentes dans le plasma. Ceci a permis d'établir des courbes d'étalonnage et de suivi in-situ de la composition et l'homogénéité de l'épaisseur des couches déposées, ainsi que de déterminer l'existence de différentes modes de pulvérisation, reliés à la température appliquée pour l'évaporation du sélénium. Dans un deuxième temps, différents absorbeurs de CIGS ont été synthétisés à partir du procédé hybride développé. Ces absorbeurs ont été déposés en une et en trois étapes pour analyser l'influence des gradients de composition sur leurs propriétés morphologiques, structurales et optoélectroniques. Un absorbeur de CIGS avec un rendement de conversion maximum de 10,4 % a été fabriqué à partir d'une séquence de dépôt en une étape. Un rendement de 9,4 % a été obtenu avec une séquence dépôt en trois étapes
Cu(In,Ga)Se2 (CIGS) thin film solar cells are a very promising technology for high efficiency energy conversion. Several techniques are used to synthesize CIGS absorbers. Magnetron reactive sputtering is an attractive deposition technique for depositing CIGS absorbers because of its potential for providing uniform coatings over large areas, thus offering the possibility for more competitive industrial scale-up. The objective of this work is to develop and optimize a hybrid alternative co-sputtering/evaporation CIGS deposition process. To meet this goal, various studies have been conducted to ensure control of the various deposition parameters. Initially, plasma was studied with Optical Emission Spectroscopy in order to establish correlations between plasma species and thin film composition, structure and morphology. This has allowed to establish in-situ calibration curves for monitoring the deposited layers composition and their homogeneity, and to determine the existence of different sputtering modes, linked to the selenium evaporation temperature. Then, different CIGS absorbers were synthesized with the stabilized hybrid process. These absorbers were deposited in one and three stages to analyze the influence of composition gradients on their morphological, structural and optoelectronic properties. A CIGS absorber giving a maximum conversion efficiency of 10.4 % was fabricated with a one step process. A 9.3 % efficiency solar cell was obtained with a three-stage deposition process
APA, Harvard, Vancouver, ISO, and other styles
31

Sabourin, Claire. "Etude et optimisation des propriétés technofonctionnelles et biologiques de co-produits marins ayant subi une hydrolyse enzymatique suivie d'une glycation." Thesis, Brest, 2012. http://www.theses.fr/2012BRES0071/document.

Full text
Abstract:
Pour répondre aux attentes des consommateurs, l'industrie agro-alimentaire mise sur l'innovation qui reste le vecteur principal de croissance et de différenciation des entreprises. Celles-ci sont en permanence à la recherche de nouveaux ingrédients. Elles visent ainsi la production d'aliments innovants dotés de structures complexes, dont les émulsions font partie. Ces dernières sont d’ailleurs largement répandues dans le domaine de l’agro-alimentaire. Cependant, au cours de leur fabrication ou de leur stockage, ces émulsions sont soumises à des phénomènes concomitants de déstabilisation et d’oxydation, palliés par la présence d’additifs le plus souvent d’origine chimique. Or, les consommateurs recherchent désormais des produits alimentaires contenant des substances naturelles, voire exempts d’additifs (clean label). La recherche de nouveaux ingrédients d'origine naturelle est donc un défi majeur pour les industriels de l’agro-alimentaire, et suscite un intérêt croissant. Les pistes explorées sont nombreuses, et parmi celles-ci, la réaction de glycation ou réaction de Maillard (RM) appliquée à des protéines ou des mélanges peptidiques. En effet, la RM peut s’avérer potentiellement intéressante pour renforcer la capacité antioxydante et/ou les propriétés technofonctionnelles, dont les propriétés émulsifiantes, de substrats protéiques. Dans ce contexte, nous avons cherché à optimiser les propriétés émulsifiantes et antioxydantes de deux substrats protéiques par la RM en conditions contrôlées et en présence de différents glucides. Du caséinate de sodium et un hydrolysat de coproduits de crevette ont été choisis. Le premier substrat est utilisé comme protéine de référence, car il est couramment employé dans l’industrie comme agent émulsifiant, et le second est étudié dans l’optique d’une valorisation des co-produits de la pêche. En effet, l'hydrolyse enzymatique constitue une approche d'un intérêt stratégique majeur pour réhabiliter la fraction protéique des coproduits marins. Nous avons réalisé des RM entre l’hydrolysat de crevette et trois concentrations différentes de xylose. Nous avons ainsi montré que l’augmentation de la concentration en xylose entraîne une diminution logarithmique du nombre de fonctions aminées restantes après RM. Ceci indique que la concentration en xylose initialement utilisée était limitante. Des analyses chromatographiques montrent que l’utilisation de concentrations plus importantes en xylose semble privilégier l’apparition de composés aromatiques de faible poids moléculaire(< 250 Da). Par ailleurs, l’augmentation de la concentration en xylose lors de la RM avec l’hydrolysat de crevette modifie les propriétés rhéologiques des émulsions à 0,5 % et pH 7. Enfin, la capacité antioxydante des hydrolysats de crevette issus de la RM augmente lorsque la concentration en xylose utilisée est croissante dans le milieu réactionnel. En conclusion, notre étude a permis de produire, à partir de deux substrats protéiques modifiés par RM en conditions contrôlées à 50°C, des ingrédients potentiellement bifonctionnels, montrant à la fois des propriétés émulsifiantes et antioxydantes
No
APA, Harvard, Vancouver, ISO, and other styles
32

Themi, Vasos. "Multi-Physics Co-Simulation of Engine Combustion and Exhaust Aftertreatment system: Development of a Multi-Physics Co-Simulation Framework of Engine Combustion and Exhaust Aftertreatment for Model-Based System Optimisation." Thesis, University of Bradford, 2017. http://hdl.handle.net/10454/17403.

Full text
Abstract:
The incorporation of detailed chemistry models in internal combustion engine simulations is becoming mandatory as new combustion strategies and lower global emissions limits are setting the path towards a more efficient engine cycle simulation tool. In this report, the computational capability of the stochastic-based Kinetics SRM engine suite by CMCL Innovations is evaluated in depth. With the main objectives of this research to create a multi-physics co-simulation framework and improve the traditional engine modelling approach of individual simulation of engine system parts, the Kinetics SRM code was coupled with a GT-SUITE engine model to fill in the gap of accurate emissions predictions from one-dimensional simulation tools. The system was validated against testing points collected from the AJ133 V8 5L GDI engine running on the NEDC. The Kinetics SRM model is further advanced through a sensitivity analysis for the “unknown” internal parameters of the chemistry tool. A set of new parameters’ values has been established that gives the best overall trade-off between prediction accuracy and computational time. However, it still showed high percentage errors in modelling the emissions and it was discovered that the specific software package currently cannot simulate directed injection events. This is the first time a Kinetics SRM/GT-SUITE coupled code is employed to model a full 8-cylinder GDI SI engine. The approach showed some limitations regarding the Kinetics SRM and that in many cases is limited to trend analysis. The coupled engine – combustion emissions model is then linked with an exhaust aftertreatment system model in MATLAB Simulink, creating a multi-physics model-based co-simulation framework of engine performance, combustion characterisation, in-cylinder emissions formation and aftertreatment efficiency.
APA, Harvard, Vancouver, ISO, and other styles
33

Tropis, Cyril. "Analyse et Optimisation des performances d'un capteur de gaz à base de SnO2 nanoparticulaire : Application à la détection de CO et CO2." Phd thesis, Université Paul Sabatier - Toulouse III, 2009. http://tel.archives-ouvertes.fr/tel-00459852.

Full text
Abstract:
Les micro-capteurs de gaz connaissent un intérêt croissant avec le développement des applications « bas-coût » dans les domaines de l'automobile, la domotique ou l'environnement. Pour répondre à cette demande, les micro-capteurs à base d'oxyde métallique présentent des avantages uniques comme leur faible coût, une grande sensibilité, un temps de réponse bref et facile à intégrer dans un système portable miniaturisé. Cependant, ces capteurs tels qu'ils sont aujourd'hui, souffrent d'un manque de sélectivité et d'une dérive de leurs performances à long terme, ce qui freine leur développement. D'autre part, la détection du dioxyde de carbone, qui représente un intérêt grandissant, semblait particulièrement difficile avec ce type de capteur. Dans ce contexte, l'objet de ce travail consiste d'une part à bien comprendre les phénomènes réactionnels observés grâce à la simulation numérique « gaz-surface », d'autre part à définir un mode opératoire « robuste » permettant d'obtenir une meilleure stabilité et surtout améliorer la sélectivité. Tout d'abord, nous avons étudié les paramètres d'un profil de température dynamique pour améliorer significativement les performances du capteur. Par la suite, un modèle de connaissance des mécanismes de réaction à été développé afin de mieux interpréter, comprendre et prévoir le comportement de ces capteurs. Ce modèle a la particularité de simuler les transferts de charge en surface de la couche sensible en s'appuyant sur des calculs ab-initio. Enfin, nous avons travaillé sur la modélisation de la réponse. Un modèle d'interpolation très performant adapté au problème a été étudié dans un système décisionnel. La convergence de ces trois approches a permis une meilleure compréhension du fonctionnement du capteur avec du CO et du CO2 et la détermination d'un protocole de mesure optimal avec une optimisation du traitement du signal de la réponse électrique.
APA, Harvard, Vancouver, ISO, and other styles
34

Roccia, Stéphanie. "La co-magnétométrie mercure pour la mesure du moment électrique dipolaire du neutron : optimisation et application au test de l'invariance de Lorentz." Grenoble 1, 2009. https://theses.hal.science/tel-00440287.

Full text
Abstract:
Cette thèse traite de la magnétométrie dans le cadre de la mesure du moment électrique dipolaire du neutron avec le spectromètre RAL/Sussex/ILL. En particulier, le co-magnétomètre mercure, pré-existant, a été modélisé et optimisé en vue de son utilisation pour les prochaines mesures au Paul Scherrer Institut (Villigen, Suisse) en 2010-2012. Sur la base de données prises à l'Institut Laue-Langevin (Grenoble, France), la complémentarité entre la magnétométrie externe césium et la co-magnétométrie mercure a été étudiée. Un tel système de double magnétométrie est unique. Cette étude débouche sur une méthode permettant un meilleur controle des erreurs systématiques liées au co-magnétomètre mercure et sur une nouvelle contrainte sur des couplages exotiques du neutron libre violant l'invariance de Lorentz
In this thesis, magnetometry is studied in the context of the neutron Electric Dipole Moment (nEDM) measurement with the RAL/Sussex/ILL spectrometer. In particular, the pre-existing mercury co-magnetometer has been modeled and optimized to be used in the next nEDM measurement at the Paul Scherrer Institut (Villigen Suisserland) in 2010-2012. Using data taken at the Institut Laue-Langevin (Grenoble, France), the complementarity between external cesium magnetometry and mercury co-magnetometry has been studied, bringing two results : - a best way to control systematics due to the co-magnetometer - a limit on the neutron anomalous couplings that violates Lorentz invariance
APA, Harvard, Vancouver, ISO, and other styles
35

Le, Roux Karine. "Purification de la chitine par hydrolyse enzymatique à partir de co-produits de crevette Penaeus Vannamei : caractérisations des produits et optimisation du procédé." Nantes, 2012. http://archive.bu.univ-nantes.fr/pollux/show.action?id=b804e450-0be5-411f-9d56-0ce6edaa82ed.

Full text
Abstract:
L’objectif de l’étude porte sur l’optimisation de l’extraction de la chitine par protéolyse acide. L’originalité du procédé repose sur la stabilisation du pH grâce à l’équilibre entre la composition du substrat et le solvant acide. Ce principe permet de réaliser simultanément la déminéralisation et la déprotéinisation, les deux principales réactions associées à la purification de la chitine. Pour évaluer les performances de cette purification, la composition du substrat et des produits est caractérisée. Différentes méthodes de quantification de la chitine et des protéines sont comparées. Contrairement aux dosages traditionnels, une méthode directe de dosage des acides aminés est sélectionnée pour estimer la quantité de protéines. L’estimation de la quantité de chitine repose sur des méthodes indirectes, principalement la gravimétrie, l’analyse élémentaire et l’analyse thermogravimétrique (ATG). Les cinétiques de déminéralisation et de déprotéinisation sont étudiées en vue d’optimiser la purification de la chitine. Les bilans massiques confirment la cohérence des résultats. Les caractéristiques physico-chimiques de la chitine obtenue par voie enzymatique, le degré d’acétylation, le degré de dépolymérisation et l’indice de cristallinité, sont comparées à la chitine obtenue par voie chimique. La structure de la chitine a également été observée par microscopie électronique à balayage (MEB). Enfin, les composés solubilisés par l’hydrolyse enzymatique sont identifiés et quantifiés
The objective of this study was to optimize the extraction of chitin by acid proteolysis. The novelty of the method is based on the stabilization of pH by the balance between substrate composition and the acid solvent. This principle allows a simultaneous demineralization and deproteinization, the two main reactions associated with the purification of chitin. To evaluate the performance of this purification, the composition of the substrate and products was characterized. Different methods of quantification of chitin and proteins have been compared. As traditional assays were not satisfaying, a direct method of amino acids determination by gaz chromatography was selected to estimate the amount of protein. The estimate of chitin amount was based on indirect methods, mainly gravimetry, elemental analysis and thermogravimetric analysis (TGA). Kinetics of demineralization and deproteinization were examined to optimize the purification of chitin. Mass balances confirmed the consistency of results. The quality of chitin extracted by enzymatic or chemical techniques was compared with the degree of acetylation and depolymerization and the crystallinity index of chitin. The structure of chitin was also observed by scanning electron microscopy (SEM). Finally, compounds solubilized by enzymatic hydrolysis were identified and quantified
APA, Harvard, Vancouver, ISO, and other styles
36

Ben, cheikh Sondes. "Optimisation avancée au service du covoiturage dynamique." Thesis, Ecole centrale de Lille, 2016. http://www.theses.fr/2016ECLI0002/document.

Full text
Abstract:
Le covoiturage se présente comme une solution de transport alternative qui vient soigner l’image environnementale, économique et sociétale de la voiture personnelle. Le problème du covoiturage dynamique consiste à élaborer en temps réel des tournées de véhicules optimisés, afin de répondre au mieux aux demandes instantanées de transport.C’est dans ce cadre que s’inscrivent nos travaux où l’optimisation et le temps réel sont les maître-mots. Étant donné la complexité exponentielle du problème, nous optons pour des méthodes approximatives pour le résoudre. Nous présentons notre première contribution en proposant une métaheuristique basée sur la recherche tabou. L'algorithme utilise un système de mémoire explicite et plusieurs stratégies de recherches développées pour éviter le piégeage par des optimums locaux. Ensuite, nous introduisons notre deuxième contribution qui se présente sous la forme d’une approche évolutionnaire supportée par un codage dynamique et basée sur des opérateurs génétiques contrôlés. La complexité exponentielle du problème nous amène à dévoiler notre troisième méthodologie, en proposant une approche évolutionnaire originale dans laquelle les chromosomes sont définis comme des agents autonomes et intelligents. Grâce à un protocole de négociation puissant, les Agents Chromosomes gèrent les opérateurs génétiques et orientent la recherche afin de trouver des solutions optimales dans un temps de calcul réduit. Dans la perspective d’une meilleure combinaison entre le covoiturage et les autres modes de transport, nous concevons un système baptisé DyCOS, intégrant nos approches et applications dédiées à la résolution du problème du covoiturage dynamique
Carpooling is presented as an alternative transport solution that comes treat environmental image, economic and societal personal car. The dynamic carpooling problem is to develop real-time optimized touring vehicles to better respond to the instantaneous transport demands.Our work belongs within this context, where optimization and real time are the key words. Given the exponential complexity of the dynamic ridematching problem, we opt for the approximate methods to solve it. We present our first contribution by proposing a metaheuristic based on the multi-criteria tabu search. The proposed algorithm employs an explicit memory system and several searching strategies developed to avoid the entrapment by local solutions. Afterward, we introduce our second contribution which is in the form of an evolutionary approach supported by a dynamic coding and based on controlled genetic operators. However, the exponential complexity of the problem leads us to consider that a simple metaheuristics is not sufficient to solve effectively the problem of dynamic ridematching. It is with this in mind that we are unveiling our third solving methodology by developing an original evolutionary approach in which chromosomes are defined as autonomous and intelligent agents. Thanks to an accurate protocol negotiation, the Chromosomes Agents can control the genetic operators and guide search for finding optimal solutions within a reasonable period of time. With the prospect of a better combination between carpooling and other modes of transport, we design a system called DyCOS, integrating our approaches and applications dedicated to solving the problem of dynamic ridesharing
APA, Harvard, Vancouver, ISO, and other styles
37

Fadini, Gabriele. "Un cadre générique de co-conception pour l'optimisation du design et de la commande des robots." Electronic Thesis or Diss., Toulouse 3, 2023. http://www.theses.fr/2023TOU30216.

Full text
Abstract:
L'équipe Gepetto du LAAS a récemment développé deux prototypes de robots quadrupèdes en collaboration avec le Max Plank Institute (MPI) de Tübingen en Allemagne. Ces robots sont équipés de moteurs sans balais miniatures, contrôlés vectoriellement, associés à des réducteurs faibles. Combinés, ces deux choix techniques permettent d'obtenir un actionnement réversible, idéal pour implémenter des lois de commande en force et capable de produire des densités de couples élevées. Grâce à cette technologie, ces robots légers permettent de produire des mouvements hautement dynamiques, tels que le saut ou la course, qu'il n'est actuellement pas possible de tester sur nos robots humanoïdes de taille humaine. Les robots HRP-2 et Pyrène du LAAS sont en effet trop lourds, rigides, et leur système d'actionnement à base de réducteurs à onde de déformation est fragile car non conçu pour encaisser des impacts. De plus, compte tenu de leur prix élevé, il n'est pas raisonnable de prendre le risque de casser ces robots. A l'inverse, ces nouveaux robots quadrupèdes offrent directement un mode d'actionnement en couple qui leur confère une compliance motrice idéale dans les phases d'interaction et peuvent facilement être réparés à partir de pièces imprimées 3D. Jusqu'ici, le design des deux premiers prototypes de quadrupèdes a reposé essentiellement sur le savoir-faire des chercheurs du MPI et du LAAS en termes de mécanique, électronique et robotique. Cependant, ce type de robot étant encore très nouveau, il est difficile de s'appuyer sur une réelle expérience lors de la phase de conception. L'objectif de cette thèse est de développer une approche systématique pour optimiser simultanément la conception et le contrôle de ces robots quadrupèdes. Il s'agit de proposer et mettre en œuvre des méthodes dite de " co-design " qui visent à optimiser simultanément la mécatronique de ces machines (structure mécanique, taille, puissance, mode d'actionnement, électronique, capteurs, ...) et leur commande, au regard d'un ensemble de tâches que l'on souhaite exécuter. Le mot " commande " est ici pris au sens large. Il inclut l'ensemble des méthodes liées à la génération de trajectoires, à l'observation de l'état (question étroitement liée à celle de la perception du robot), et la commande à proprement parler qui couvre les stratégies mises en œuvre pour asservir le système. Avec l'accroissement de performance des outils d'optimisation et de simulation des systèmes complexes, ces méthodes de co-design suscitent un intérêt croissant en ingénierie. Elles permettent d'envisager l'exploration hors-ligne des performances d'un large panel de prototypes, tant sur le plan du hardware que de la commande, avant de se lancer dans leur fabrication
The Gepetto team at LAAS has recently developed two prototype quadruped robots in collaboration with the Max Plank Institute (MPI) in Tübingen, Germany. These robots are equipped with miniature, vector-controlled brushless motors, combined with low-profile gearboxes. Combined, these two technical choices enable reversible actuation, ideal for implementing force control laws and capable of producing high torque densities. Thanks to this technology, these lightweight robots can produce highly dynamic movements, such as jumping or running, which are currently impossible to test on our human-sized humanoid robots. The HRP-2 and Pyrène robots at LAAS are too heavy and rigid, and their strain-wave reducer-based actuation system is fragile because it is not designed to withstand impacts. What's more, given their high price, it's not reasonable to take the risk of breaking these robots. In contrast, these new quadruped robots offer direct torque actuation, giving them ideal motor compliance in interaction phases, and can easily be repaired from 3D-printed parts. To date, the design of the first two quadruped prototypes has relied heavily on the mechanical, electronic and robotic expertise of MPI and LAAS researchers. However, as this type of robot is still very new, it is difficult to draw on real experience during the design phase. The aim of this thesis is to develop a systematic approach for simultaneously optimizing the design and control of these quadruped robots. The aim is to propose and implement "co-design" methods that aim to simultaneously optimize the mechatronics of these machines (mechanical structure, size, power, actuation mode, electronics, sensors, etc.) and their control, with regard to a set of tasks that we wish to perform. The word "control" is used here in a broad sense. It includes all methods related to trajectory generation, state observation (a question closely linked to that of robot perception), and control, which covers the policies implemented to regulate the system. With the increasing performance of optimization and simulation tools for complex systems, these co-design methods are attracting growing interest in engineering. They make it possible to explore off-line the performance of a wide range of prototypes, in terms of both hardware and control, before the implementation phase
APA, Harvard, Vancouver, ISO, and other styles
38

Yeates, Charl Alan. "Optimisation of a stereoconvergent process catalysed by whole yeast cells / Charl Alan Yeates." Phd thesis, North-West University, 2008. http://hdl.handle.net/10394/4100.

Full text
APA, Harvard, Vancouver, ISO, and other styles
39

Alleaume, Clovis. "Etude de la modification de la source dans l'utilisation de la méthode de co-optimisation source masque en lithographie optique : mise en oeuvre et applications." Thesis, Saint-Etienne, 2014. http://www.theses.fr/2014STET4007/document.

Full text
Abstract:
Réalisée entre décembre 2009 et décembre 2012 au sein de STMicroelectronics Crolles dans l’équipe RET (résolution enhancement techniques), et en partenariat avec le laboratoire Hubert Curien Saint Etienne de l’université de Lyon, cette thèse s’intitule "Impact de la modification de la source dans l’utilisation de la méthode de cooptimisation masque source en lithographie optique, et application au nœud technologique 20 nm". Durant cette étude, nous avons pu étudier la technique d’optimisation de la source optique en lithographie, appelée généralement SMO afin de l’appliquer aux problématiques de l’industrie. Une première partie du manuscrit traitant de la lithographie optique permettra de mieux comprendre les problématiques liées à cette étude, en présentant les techniques utilisées. En effet, afin de permettre à la lithographie optique de continuer la miniaturisation des composants de microélectronique, il est nécessaire d’optimiser au maximum de nombreux éléments de la lithographie. La forme de la source optique utilisée n’échappe pas à cette règle et l’utilisation de sources étendues, hors axe et plus ou moins complexe permet aujourd’hui la production des technologies de pointes. Une seconde partie s’attardera plus sur l’optimisation de la source à proprement parler. Dans un premier temps, la théorie de la diffraction sera étudiée afin de permettre une meilleure compréhension du problème. Des simulations et des mesures SEM ou microscope électronique à balayage seront présentées pour montrer l’efficacité de la méthode SMO, de l’anglais "Source Mask Optimization". Cette étude donnant lieu au développement de nouvelles méthodes rapides et innovantes d’optimisation de la source, l’étude prendra soin de présenter des résultats obtenus dans le cadre de cette thèse. Ainsi, la méthode de SMO interne basée sur le phénomène de diffraction et créée durant cette thèse sera présentée dans cette étude et les résultats en découlant seront étudiés. L’application de l’optimisation de la source à des problématiques industrielles sera également présentée à travers différentes applications des solutions proposées. Finalement, un legs de connaissance nécessaire sera effectué par la présentation des différents outils développés durant cette thèse. Une troisième partie concernera l’étude de l’outil Flexray permettant la génération des sources optimisées. La thèse ayant donné lieu à une nouvelle technique de décomposition de la source en polynôme de Zernike, cette techniques sera présentée ici. Elle sera ensuite utilisée pour modéliser la dégradation d’une source, ainsi que pour corréler la différence de source avec la divergence du modèle empirique de simulation. L’étude des sources a été mise en place suivant un aspect industrielle, afin de contrôler l’évolution du scanner de façon rapide. De plus, des simulations peuvent être utilisées pour compléter cette étude. Finalement, une dernière partie traitera de la cooptimisation entre la source et différents éléments tels que le masque et la forme final du motif souhaité. En effet, si la forme initiale du motif souhaité joue un rôle important dans la définition de la source, il est possible de modifier cette dernière, ainsi que la forme du masque en lui appliquant un OPC afin d’obtenir de meilleurs résultats. Ces modifications seront étudiées durant le dernier chapitre
Conducted between December 2009 and December 2012 within the RET (resolution enhancement technology) team at STMicroelectronics Crolles and in partnership with Saint-Etienne laboratory Hubert Curien of the University of Lyon, this thesis entitled "Impact of changing the source while using the source mask optimization technique within optical lithography, and application to 20 nm technology node. ". In this thesis, Alleaume Clovis studied the optimization of the source used in optical lithography, technique usually called SMO (for source mask optimization) and applied the technique to the industry through several problems. The first part of the manuscript describe the optical lithography generalities, in order to allow a better understanding of the issues and the techniques used in this study. Indeed, to allow optical lithography to continue the miniaturization of microelectronic components, it is necessary to optimize many aspects of the lithography. The shape of the light source used is no exception to this rule and the use of extended sources, off-axis and more or less complex now enables the production of advanced technologies. The second part will then focus on the source modification and optimization. In a first step, the diffraction theory will be examined to demonstrate the theoretical interest of the thesis, and to allow a better understanding of the problem. Simulations and SEM measurements will be presented to show the effectiveness of SMO method. As this study gave birth to several innovative source optimization techniques, they will be presented. Thus, the method of internal SMO based on the phenomenon of diffraction and created during this thesis will be presented and the results would be studied. The application of the source optimization to industrial problems will also be presented through different applications. Finally, a legacy of knowledge will be done by presenting the different tools developed during this thesis. A third part will deal with the study of tool which generate the source inside the scanner allowing the use of optimized and complex sources. The thesis has given rise to a new source decomposition technique using Zernike polynomial. It will be used in this study to model the degradation of a source, and for correlating the impact of a source modification due to SMO technique on the empirical model stability. The study of sources has been implemented according to industrial aspect to monitor the scanner with a quick method. In addition to the Zernike decomposition method, simulations can be used to complete this study. The forth chapter of this study will talk about this implementation. Finally, the last part of the study will talk about the co-optimization of the source with several elements, such as the mask OPC and the final shape of the desired pattern. Indeed, if the initial shape of the desired pattern plays an important role in defining the source, it is possible to modify the latter design shape, as well as the shape of the mask in order to optimize both the source and the target shape. These changes will be discussed in the last chapter
APA, Harvard, Vancouver, ISO, and other styles
40

Jeribi, Karama. "Conception et réalisation d'un système de gestion de véhicules partagés : de la multimodalité vers la co-modalité." Phd thesis, Ecole Centrale de Lille, 2012. http://tel.archives-ouvertes.fr/tel-00794506.

Full text
Abstract:
De nos jours, l'intérêt porté à la préservation de l'environnement à travers la réduction des émissions de gaz à effet de serre prend de plus en plus d'ampleur. Depuis 2006,la politique multimodale a évolué vers une politique co-modale qui n'oppose plus la voiture au transport public mais encourage une combinaison de tous les modes de transport sans favorisation dans le but d'une optimisation du service. Placés dans ce cadre, le but de cette thèse est de mettre en œuvre un système de gestion de véhicules partagés qui recouvre tous les services de transports existants tel que le transport public, le covoiturage, les véhicules en libre service et qui capable de satisfaire les demandes des utilisateurs en leur fournissant des itinéraires co-modaux optimisés en terme de temps, coût et émission des gaz à effet de serre tout en respectant leurs préférences et priorités. En recevant plusieurs requêtes simultanées en un court laps de temps, le système doit être capable à la fois de décomposer les solutions en tronçons que nous appelons Routes, en respectant toutes les similarités entre les différentes demandes et de regrouper les informations de manière cohérente pour déterminer les combinaisons de Routes possibles. Vu l'aspect dynamique et distribué du problème, une stratégie de résolution efficace mettant à profit une mixture de concepts ; à savoir les systèmes multi-agents et l'optimisation a été mise en place. Les résultats expérimentaux présentés dans cette thèse justifient l'importance de la co-modalité et la nécessité de mettre à profit la complémentarité entre les véhicules partagés et les autres moyens de transport à travers un système intelligent et global
APA, Harvard, Vancouver, ISO, and other styles
41

Berthelon, Rémy. "Strain integration and performance optimization in sub-20nm FDSOI CMOS technology." Thesis, Toulouse 3, 2018. http://www.theses.fr/2018TOU30066/document.

Full text
Abstract:
La technologie CMOS à base de Silicium complètement déserté sur isolant (FDSOI) est considérée comme une option privilégiée pour les applications à faible consommation telles que les applications mobiles ou les objets connectés. Elle doit cela à son architecture garantissant un excellent comportement électrostatique des transistors ainsi qu'à l'intégration de canaux contraints améliorant la mobilité des porteurs. Ce travail de thèse explore des solutions innovantes en FDSOI pour nœuds 20nm et en deçà, comprenant l'ingénierie de la contrainte mécanique à travers des études sur les matériaux, les dispositifs, les procédés d'intégration et les dessins des circuits. Des simulations mécaniques, caractérisations physiques (µRaman), et intégrations expérimentales de canaux contraints (sSOI, SiGe) ou de procédés générant de la contrainte (nitrure, fluage de l'oxyde enterré) nous permettent d'apporter des recommandations pour la technologie et le dessin physique des transistors en FDSOI. Dans ce travail de thèse, nous avons étudié le transport dans les dispositifs à canal court, ce qui nous a amené à proposer une méthode originale pour extraire simultanément la mobilité des porteurs et la résistance d'accès. Nous mettons ainsi en évidence la sensibilité de la résistance d'accès à la contrainte que ce soit pour des transistors FDSOI ou nanofils. Nous mettons en évidence et modélisons la relaxation de la contrainte dans le SiGe apparaissant lors de la gravure des motifs et causant des effets géométriques (LLE) dans les technologies FDSOI avancées. Nous proposons des solutions de type dessin ainsi que des solutions technologiques afin d'améliorer la performance des cellules standard digitales et de mémoire vive statique (SRAM). En particulier, nous démontrons l'efficacité d'une isolation duale pour la gestion de la contrainte et l'extension de la capacité de polarisation arrière, qui un atout majeur de la technologie FDSOI. Enfin, la technologie 3D séquentielle rend possible la polarisation arrière en régime dynamique, à travers une co-optimisation dessin/technologie (DTCO)
The Ultra-Thin Body and Buried oxide Fully Depleted Silicon On Insulator (UTBB FDSOI) CMOS technology has been demonstrated to be highly efficient for low power and low leakage applications such as mobile, internet of things or wearable. This is mainly due to the excellent electrostatics in the transistor and the successful integration of strained channel as a carrier mobility booster. This work explores scaling solutions of FDSOI for sub-20nm nodes, including innovative strain engineering, relying on material, device, process integration and circuit design layout studies. Thanks to mechanical simulations, physical characterizations and experimental integration of strained channels (sSOI, SiGe) and local stressors (nitride, oxide creeping, SiGe source/drain) into FDSOI CMOS transistors, we provide guidelines for technology and physical circuit design. In this PhD, we have in-depth studied the carrier transport in short devices, leading us to propose an original method to extract simultaneously the carrier mobility and the access resistance and to clearly evidence and extract the strain sensitivity of the access resistance, not only in FDSOI but also in strained nanowire transistors. Most of all, we evidence and model the patterning-induced SiGe strain relaxation, which is responsible for electrical Local Layout Effects (LLE) in advanced FDSOI transistors. Taking into account these geometrical effects observed at the nano-scale, we propose design and technology solutions to enhance Static Random Access Memory (SRAM) and digital standard cells performance and especially an original dual active isolation integration. Such a solution is not only stress-friendly but can also extend the powerful back-bias capability, which is a key differentiating feature of FDSOI. Eventually the 3D monolithic integration can also leverage planar Fully-Depleted devices by enabling dynamic back-bias owing to a Design/Technology Co-Optimization
APA, Harvard, Vancouver, ISO, and other styles
42

Kuruhongsa, Prakan. "Optimisation d'un spectrometre de rpe permettant des mesures de t::(1) : application a la relaxation spin-reseau de fe**(3+), co**(2+) et mn**(2+)." Toulouse 3, 1986. http://www.theses.fr/1986TOU30060.

Full text
APA, Harvard, Vancouver, ISO, and other styles
43

Jeribi, Karama. "Conception et réalisation d’un système de gestion de véhicules partagés : de la multimodalité vers la co-modalité." Thesis, Ecole centrale de Lille, 2012. http://www.theses.fr/2012ECLI0033/document.

Full text
Abstract:
De nos jours, l’intérêt porté à la préservation de l’environnement à travers la réduction des émissions de gaz à effet de serre prend de plus en plus d’ampleur. Depuis 2006,la politique multimodale a évolué vers une politique co-modale qui n’oppose plus la voiture au transport public mais encourage une combinaison de tous les modes de transport sans favorisation dans le but d’une optimisation du service. Placés dans ce cadre, le but de cette thèse est de mettre en œuvre un système de gestion de véhicules partagés qui recouvre tous les services de transports existants tel que le transport public, le covoiturage, les véhicules en libre service et qui capable de satisfaire les demandes des utilisateurs en leur fournissant des itinéraires co-modaux optimisés en terme de temps, coût et émission des gaz à effet de serre tout en respectant leurs préférences et priorités. En recevant plusieurs requêtes simultanées en un court laps de temps, le système doit être capable à la fois de décomposer les solutions en tronçons que nous appelons Routes, en respectant toutes les similarités entre les différentes demandes et de regrouper les informations de manière cohérente pour déterminer les combinaisons de Routes possibles. Vu l’aspect dynamique et distribué du problème, une stratégie de résolution efficace mettant à profit une mixture de concepts ; à savoir les systèmes multi-agents et l’optimisation a été mise en place. Les résultats expérimentaux présentés dans cette thèse justifient l’importance de la co-modalité et la nécessité de mettre à profit la complémentarité entre les véhicules partagés et les autres moyens de transport à travers un système intelligent et global
Nowadays, the protection of the environment through the reduction of greenhouse gases is becoming more and more important. In order to resolve environmental problems, a multimodal policy is firstly adopted in order to encourage the use of public transport. Since 2006, a new notion: the co-modality is introduced and it consists on developing infrastructures and taking measures and actions that will ensure optimum combination of individual and public transport modes. In this context, the purpose of this thesis is to implement co-modal transport system that covers all the existing transport services such as the public transport, the carpooling or the free use vehicles (bikes, cars). In order to satisfy the user’s requests, the system offers optimized co-modal itineraries in terms of three criteria: total time, total cost and greenhouse gases emission taking into account their preferences and constraints. In a short time interval, many transport users can formulate simultaneously a set of requests. So the system should find feasible decompositions in terms of independent sub-itineraries called Routes recognizing similarities and recognize the different possibilities of Routes Combinations to compose each itinerary demand. Considering the dynamic and distributed aspect of the problem, an effective strategy combining different concepts like multi-agent system and optimization methods is applied. The experimental results presented in this thesis justify the importance of co-modality and the necessity of taking advantage of the complementarity between the shared vehicles and other means of transportation through an intelligent and global system
APA, Harvard, Vancouver, ISO, and other styles
44

Astier, Cédric. "Adsorption des éléments traces métalliques par les écorces forestières, un co-produit de la filière bois : optimisation des propriétés par modifications induites par voies chimique et biologique." Limoges, 2010. https://aurore.unilim.fr/theses/nxfile/default/6c4def90-502d-49dc-a1a3-0f0b2562fbc8/blobholder:0/2010LIMO4037.pdf.

Full text
Abstract:
Les écorces de sapin de Douglas sont utilisées comme biosorbant. Les isothermes d'adsorption et leur traduction par le modèle de Langmuir conduisent pour des écorces brutes à des valeurs de capacité d'adsorption maximale (qmax) de 0,242 et 0,199 méq. G-1 et d'affinité (b) de 4,8 et 2,6 L. Méq-1 pour les cations PbII et CdII respectivement. Ensuite, les écorces sont modifiées par voie chimique par oxydations contrôlées ou greffages covalents après amination réductrice en présence d'hydrolysats d'homogalacturonane et de iotacarraghénane. Ces modifications induisent une évolution significative des valeurs de qmax et de b qui est interprétée selon la théorie HSAB. Enfin, la modification des écorces est induite par voie biologique. La croissance de sapins de Douglas, cultivés sous serre sur sol contaminé en Cd, conduit à une évolution significative de la composition chimique des écorces dont les capacités d'adsorption en PbII et CdII sont, dans ce cas, diminuées
Douglas fir barks have been used as biosorbent. We conducted equilibrium studies of heavy metal ion adsorption by crude bark; the results, interpreted as Langmuir isotherms led to maximum adsorption capacities (qmax) of 0. 242 and 0. 199 J meq. G-1 and affinities (b) of 4. 8 and 2. 6 L. Meq-1 for PbII and CdII respectively. Then, barks were chemically modified by controlled oxidations or covalent grafting after reductive amination in the presence of homogalacturonan and iotacarraghenan hydrolysates. These modifications induced significant changes in both qmax and b which were explained according to the HSAB theory. Finally, barks were biologically modified by growing Douglas fir in greenhouse on a cadmium-contaminated soil. We showed that the presence of this pollutant induced significant changes in the chemical composition of bark which suffered decreases in adsorption capacities for PbII and CdII
APA, Harvard, Vancouver, ISO, and other styles
45

Bougrier, Claire. "Optimisation du procédé de méthanisation par mise en place d'un co-traitement physico-chimique : application au gisement de biogaz représenté par les boues d'épuration des eaux usées." Montpellier 2, 2005. http://www.theses.fr/2005MON20089.

Full text
APA, Harvard, Vancouver, ISO, and other styles
46

Amarantini, David. "Estimation des efforts musculaires à partir de données périphériques : application à l'analyse de la coordination pluri-articulaire." Phd thesis, Université Joseph Fourier (Grenoble), 2003. http://tel.archives-ouvertes.fr/tel-00557146.

Full text
Abstract:
L'objectif de ce travail était d'une part de développer des méthodes numériques permettant d'estimer de manière satisfaisante les moments résultant, agoniste et antagoniste développés autour d'une articulation et, d'autre part, d'appliquer ces méthodes à l'analyse de la coordination pluri-articulaire d'un mouvement de piétinement. Le problème de la dynamique inverse est résolu à l'aide d'une méthode d'optimisation statique des accélérations qui permet d'estimer les moments résultants en accord avec toutes les mesures cinématiques et dynamiques, tout en respectant les conditions d'équilibre mécanique de chaque segment. Les moments musculaires agoniste et antagoniste sont estimés en conditions dynamiques à l'aide d'une méthode qui comprend une étape de calibration isométrique et une procédure d'optimisation numérique qui utilise les données cinématiques, dynamiques et électromyographiques en entrée. Le modèle tient compte du comportement mécanique des muscles et de leur fonction anatomique pour obtenir une estimation physiologiquement réaliste des moments et un indice de co-contraction fiable a chaque instant du mouvement. Ces modèles sont appliqués à l'étude de la coordination pluri-articulaire d'un mouvement de piétinement, perturbé par le port d'un système élastique à l'articulation du genou. La redondance du système musculo-squelettique permet de gérer localement la perturbation en accroissant la participation des muscles extenseurs au contrôle de la cinématique du genou. Cette stratégie permet de conserver la même cinématique du mouvement et ainsi préserve l'équilibre dynamique du piétinement.
APA, Harvard, Vancouver, ISO, and other styles
47

Chupin, Cédric. "Réduction sélective du monoxyde d'azote par le méthane en présence d'oxygène sur Co-ZSM-5 et Fe-ZSM-5 : optimisation des catalyseurs, étude mécanistique et cinétique de la réaction." Lyon 1, 2001. http://www.theses.fr/2001LYO10236.

Full text
Abstract:
Cette étude s'inscrit dans la perspective environnementale d'élimination des NOx en utilisant comme agent réducteur le méthane, soit disponible sur site, soit contenu dans les effluents gazeux de chaudières domestiques et collectives. Le choix des catalyseurs s'est porté sur des zéolithes échangées Co-ZSM-5 et Fe-ZSM-5 dont les paramètres de synthèse tels que la nature et la concentration du sel précurseur ou la technique de préparation ont été étudiés. La caractérisation par MET, DRX, spectroscopie UV-VIS, XPS, RPE et RTP-H2 révèle la présence de micro-agrégats M-O de taille inférieure à 40 Å en forte interaction avec la zéolithe. Leur stabilité vis-à-vis de l'eau ou du SO2 est ainsi renforcée. Dans le cas des catalyseurs au fer, les micro-agrégats Fe-O, de structure octaédrique, présentent une réactivité intrinsèque supérieure à celle des ions de configuration tétraédrique. La concentration maximale en agrégats octaédrique (et donc une réactivité optimale) est obtenue lorsque le catalyseur est préparé par échange ionique en solution avec le nitrate de fer[exposant III]. Dans le cas des catalyseurs au cobalt, la teneur en micro-agrégats Co-O est maximale pour un degré d'échange de 60 %. Ils sont actifs à 500° C et très sélectif en azote, à l'inverse des particules d'oxydes CoO ou Co3O4, localisées à l'extérieur des canaux de la zéolithe et essentiellement oxydantes. Une étude approfondie du mécanisme et de la cinétique de la réaction a été réalisée en vue d'optimiser la préparation des catalyseurs Co-ZSM-5. Le mécanisme proposé s'appuie sur des mesures d'infrarouge in situ et de cinétique transitoire isotopique : NO est adsorbé sur les atomes de cobalt oxydés des micro-agrégats pour former un complexe Co-O-NO[exposant delta +] en forte interaction avec les groupes A1-OH de la zéolithe. En parallèle, le méthane est activé en groupe methoxy Co-O-CH3. Ces deux intermédiaires réagissent du fait du confinement imposé par la configuration stérique de la cavité zéolithique, avec la formation d'un complexe de type Co-ONOCH3 qui se décompose en N2 et CO2. Une description cinétique complète du processus catalytique est proposée avec une convergence remarquable entre les approches mécanistiques, cinétiques et les caractérisations physico-chimiques.
APA, Harvard, Vancouver, ISO, and other styles
48

Klinkert, Torben. "Compréhension et optimisation du dépôt de Cu(In,Ga)Se2 par co-évaporation en tant qu'absorbeur pour le développement de cellules solaires en couches minces à très haut rendement." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066008/document.

Full text
Abstract:
Dans cette thèse, la croissance des couches minces de Cu(In,Ga)Se2 (CIGS) a été optimisée et étudiée systématiquement. Une étude de calibration de la température du substrat à l'aide d'une caméra infrarouge a été effectuée. La mise au point et l'optimisation d'un procédé en 3 étapes sur un nouveau réacteur de co-évaporation a permis la réalisation de cellules solaires avec un rendement de 16,7 % sans couche antireflet. La clé de ce développement a été le contrôle du gradient de Ga. Les inhomogénéités ont été caractérisées par une nouvelle approche basée sur le décapage chimique de l'absorbeur. Des caractérisations ex situ à différentes étapes de la croissance ont révélé l'importance des phases intermédiaires sur les mécanismes de croissance, le gradient de composition en profondeur et la morphologie des couches. L'interface absorbeur/couche tampon a été étudiée en variant la composition en surface du CIGS pour des couches tampons de CdS et Zn(S,O). Il a été montré qu'une adaptation de la composition en surface est favorable pour le remplacement de la couche tampon de CdS par Zn(S,O). Des rendements équivalents ont été obtenus pour ces deux matériaux si ils sont combinés avec la composition da Ga optimale correspondante. Des mesures courant-tension à basse température indiquent une position de la bande de condition plus basse que celle trouvée dans la littérature. Pour une optimisation ultérieure de nos cellules solaires vers et au-delà de 20 % de rendement, trois axes sont proposées : L'optimisation de la finalisation de l'absorbeur, la réduction de l'absorption par la couche tampon et l'incorporation de potassium ayant des effets positifs sur les propriétés du CIGS
In this thesis the growth of Cu(In,Ga)Se2 (CIGS) thin films by co-evaporation has been optimised and studied systematically. Being a key parameter, the substrate temperature has been calibrated with an infrared camera. The set-up and optimisation of a three-stage process at a new co-evaporation reactor has led to cell efficiencies up to 16.7 % without anti-reflection coating. The key for this achievement was the control of the Ga gradient. In depth inhomogeneities have been characterised by a novel method based on chemical etching of the absorber layer. Break-off experiments during the 3-stage process unveiled the importance of precursor and intermediate phases on growth mechanisms, in-depth compositional gradients and film morphology. The absorber/buffer layer interface has been investigated by varying the CIGS surface composition for solar cells both with a CdS and a Zn(O,S)-based buffer layer. It has been shown that an adaptation of the CIGS surface composition is beneficial for the replacement of the CdS by a Zn(O,S) buffer layer. Equivalent efficiencies can be achieved with the two buffer layers if each of them is combined with the corresponding optimal interface Ga composition. Low temperature current-voltage measurements indicate a lower conduction band offset at the CIGS/Zn(O,S) buffer layer as reported in the literature. For the further optimisation of our CIGS devices towards 20 % and beyond three routes are proposed: the optimisation of the absorber layer deposition finalisation, the reduction of detrimental absorption in the buffer layer (larger band gap or thinner buffer) and the incorporation of potassium which has beneficial effects on CIGS
APA, Harvard, Vancouver, ISO, and other styles
49

Ghoumari, Abdel. "Optimisation de la transfection des cellules du carcinome hépatocellulaire par les liposomes et augmentation de la cytotoxicité du système gène suicide / ganciclovir par co-transfert des gènes HSV-TK et connexine-43." Paris 5, 1998. http://www.theses.fr/1998PA055022.

Full text
Abstract:
Le cancer du foie représente l'une des pathologies qui se répand à une vitesse inquiétante. Les traitements anticancéreux classiques, malgré leur progrès, sont encore des traitements lourds et contraignants. La thérapie génique consistant, entre autres, a introduire des gènes suicides dans des cellules tumorales afin de les détruire représenterait une alternative souhaitable. Au long de notre étude, nous avons utilisé les liposomes (système non viral) pour le transfert du gène suicide hsv-tk dans les cellules de carcinome hépatocellulaire (CHC). Apres optimisation de ce système, nous avons traite ces cellules par le système hsv-tk/ganciclovir (GCV). Les résultats obtenus montrent que le liposome dotap est plus efficace que les autres liposomes testes, et que le plasmide porteur de deux copies du gène suicide hsv-tk induit, in vitro, une mortalité cellulaire supérieure à celle induite par le plasmide porteur d'une seule copie. En dépit d'un taux de transfection peu élevé, il à été observe que la majorité des cellules avoisinantes sont détruites : ce phénomène dénommé bystander effect ou effet de voisinage se traduit par la diffusion du GCV toxique à travers les jonctions gap. La connexine-43, constituant majeur de ces jonctions, est cotransférée avec le gène hsv-tk dans les cellules de CHC. La cytotoxicité liée à ce système est augmentée de 25 à 30% par rapport au système hsv-tk/gcv. L'étude in vivo consistait à reproduire les résultats obtenus in vitro. Ainsi, le traitement des tumeurs, établies chez des souris, par les systèmes hsv-tk/gcv ou hsv-tk/connexine-43/gcv permet la réduction du poids tumoral de 37 à 43% dans le premier cas et de 53% dans le second par rapport aux contrôles négatifs. Par ailleurs, nous avons observé que le gène hsv-tk régule positivement la protéine connexine-43 en induisant son expression et sa phosphorylation.
APA, Harvard, Vancouver, ISO, and other styles
50

Le, Yaouanq Sébastien. "Co-simulation redondante d'échelles de modélisation hétérogènes pour une approche phénoménologique." Thesis, Brest, 2016. http://www.theses.fr/2016BRES0032/document.

Full text
Abstract:
Deux points de vue sont souvent opposés dans le cadre de la modélisation des systèmes complexes.D’un côté, une modélisation microscopique cherche à reproduire précisément le comportement des nombreuses entités qui composent le système, ce qui impose des temps de calculs prohibitifs pour le passage à l’échelle de système réels. À l’inverse, l’approche phénoménologique consiste à nous concentrer sur le comportement global du système. Ces modèles macroscopiques reposent sur des lois descriptives qui autorisent des simulations plus rapides mais impliquent l’introduction de paramètres qui peuvent être difficilement identifiables dans le contexte. Pour répondre à ce problème, nous proposons de combiner les différents points de vue de modélisation et d’utiliser des simulations microscopiques pour nourrir un modèle macroscopique incomplet.L’objectif est d’obtenir une simulation descriptive rapide tout en profitant de la précision d’un modèle microscopique. Pour cela, nous proposons une architecture logicielle qui s’appuie sur la technique de la co-simulation pour généraliser la démarche de simulation redondante d’échelles de modélisation hétérogènes.Nous distinguons deux stratégies de co-simulation qui permettent de piloter un modèle macroscopique en cours de simulation. La première consiste à estimer dynamiquement, et de manière explicite, de nouvelles valeurs pour un paramètre critique donné à l’aide d’un simulateur microscopique dédié. La seconde stratégie permet de déterminer implicitement un jeu de paramètres interdépendants sur la base d’une sortie commune des différents niveaux de description simulés. Nous appliquons nos travaux au problème concret du design de structures offshore pour des conditions polaires. Nous détaillons dans un premier temps l’implémentation d’un simulateur phénoménologique d’interactions glace-structure. Dans un second temps, nous illustrons l’intérêt et l’intégration de nos stratégies de co-simulation pour, d’une part améliorer la précision des simulations des phénomènes hydrodynamiques, et d’autre part guider un modèle de plus haut niveau à des fins de prototypage rapide
There are usually two opposite points of view for the modelling of complex systems. First, microscopical models aim at reproducing precisely the behavior of each entity of the system. In general, their great number is a major obstacle both to simulate the model in a reasonable time and to identify global behaviors. By contrast, the phenomenological approach allows the construction of efficient models from a macroscopic point of view as a superposition of phenomena. A drawback is that we often have to set empirical parameters in these descriptive models. To respond to this problem, we want to make joint use of different levels of description and to use microscopical simulations to feed incomplete macroscopical models.We would then obtain enhanced descriptive simulations with the precision of microscopical models in this way. To this end, we propose a redundant multiscale architecture which is based on the co-simulation methodology in order to generalize the redundant multiscale approach. We suggest two specific co-simulation strategies to guide a macroscopical simulation.The first one consists in dynamically and explicitly estimating critical parameters of a macroscopical model thanks to a dedicated microscopical simulator The second one allows to implicitly determine a full set of dependant parameters on the basis of an output shared by the different levels of description. Then we apply our works to the effective problem of the design offshore structures for arctic conditions. We first describe the implementation of an ice-structure simulation tool by means of a phenomenological and multi-model approach. In a second phase, we show the benefits of our co-simulation strategies to improve the precision of hydrodynamics simulations on the one hand, and on the other to pilot a more macroscopical model for the purpose of fast prototyping
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography