Дисертації з теми "Port optimisation"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Port optimisation.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-49 дисертацій для дослідження на тему "Port optimisation".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Mbiydzenyuy, Gideon. "An Optimisation Model for Sea Port Equipment Configuration." Thesis, Blekinge Tekniska Högskola, Avdelningen för för interaktion och systemdesign, 2007. http://urn.kb.se/resolve?urn=urn:nbn:se:bth-4244.

Повний текст джерела
Анотація:
Today, freight volumes on roads have gone up to a level that there is a need for alternative transport modes. Short Sea Shipping (SSS) is one alternative with a potential that can help reduce the high traffic on roads. Most SSS systems use vessels whereby cargo is rolled on and off using a ramp with very small capacities usually less than 500 TEU, but with increasing cargo traffic, it is not clear if such solutions will be efficient. For ports involved in SSS to meet up this new wave of change, the challenge to make appropriate investments and analysis tools is important. The type of vessel suitable for a SSS operation (such as roll-on roll-off (RoRo), lift-on lift-off (LoLo) etc) has been addressed in this thesis based on their compatibility and cost effectiveness with the terminal equipments. The purpose of this study is to develop an optimization model that can be incorporated into a Computer Decision Support System (DSS) for selecting equipments including ships at a strategic level for investments in handling unitised cargo at port terminals in the context of Short Sea Shipping (SSS). The main contribution of the thesis is the application of computer science techniques in the domain of strategic decision making related to the configuration of complex systems (e.g. interrelationships between ships and equipments) with choices of handling equipment. From modelling the selection of port terminal equipments for SSS, we realised that while integer linear programming is a promising approach for studying such systems, it remains a challenge to handle complex issues in depth especially in relation to the quay crane due to interdependencies between time, cost and capacity of equipments. Model results indicates that a LoLo vessel with a capacity between (500 and 1000 TEU) capable of completing a SSS voyage such that handling is done within 48 hours will be less costly than a RoRo that does it with multiple voyages or one voyage each for multiple RoRo vessels for TEU volumes greater than 1000. But RoRo vessels remain useful for trailers that cannot be transported by LoLo vessels. containers.
Lotsgatan 14 374 35, Karlshamn Mobile: 0046 768 85 67 13
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Kefi, Meriam. "Optimisation Heuristique Distribuée du Problème de Stockage de Conteneurs dans un Port." Phd thesis, Ecole Centrale de Lille, 2008. http://tel.archives-ouvertes.fr/tel-00366467.

Повний текст джерела
Анотація:
Les terminaux à conteneurs constituent des interfaces inter-modales essentielles pour le réseau de transport mondial. Une manutention efficace des conteneurs dans des terminaux est d'une importance cruciale pour la réduction des coûts de transport et la détermination des plans d'embarquement. Dans ce rapport de thèse, nous proposons principalement une approche de résolution distribuée à travers la description d'un modèle d'optimisation heuristique distribuée baptisé COSAH COntainer Stacking via multi-Agent approach and Heuristic methodqui permet de simuler, résoudre et optimiser l'espace de stockage disponible pour manier les départs et les arrivées des conteneurs dans un port fluvial ou maritime. Autrement dit, COSAH permet de minimiser le nombre total de mouvements parasites tout en respectant des contraintes dynamiques d'espace et de temps. Les performances de COSAH sont ensuite évaluées sur des instances générées aléatoirement, ainsi que des instances extraites de la réalité d'un port maritime tunisien : le port de Radès. En effet, nous avons procédé à une étude expérimentale implémentant et comparant COSAH à la version centralisée associée, toutes deux basées sur un algorithme de recherche non informée et un algorithme de recherche informée. Les résultats obtenus, présentés et illustrés, montrent l'efficacité de COSAH en particulier, et d'une méthode d'optimisation heuristique distribuée alliant les deux concepts : Agent et Heuristique, en général.
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Rouky, Naoufal. "Optimisation et simulation de la massification du transport multimodal de conteneurs." Thesis, Normandie, 2018. http://www.theses.fr/2018NORMLH40/document.

Повний текст джерела
Анотація:
Les ports maritimes se confrontent à des exigences rigoureuses imposées par l'évolution de la taille de la flotte mondiale des porte-conteneurs et des zones de stockage qui arrivent à des niveaux de saturation élevés. Pour répondre à ces défis, plusieurs ports ont décidé de créer des terminaux multimodaux qui jouent le rôle de méga-hubs pour les terminaux maritimes, en vue de libérer les zones de stockage de ces terminaux, de développer la part du transport massifié de conteneurs et de réduire les émissions des gaz à effet de serre en utilisant des modes alternatifs à la route. Néanmoins, la gestion de ces nouveaux schémas logistiques est laborieuse. Cela s’explique par plusieurs facteurs, entre autres, la nature dynamique et distribuée de ces systèmes, la diversité des opérations et le manque des informations nécessaires au contrôle de flux. La finalité de cette thèse est de développer des approches capables de répondre aux besoins des opérateurs portuaires dans un terminal multimodal, avec prise en compte des différentes sources d’incertitudes. Deux problèmes d'optimisation sont principalement considérés dans cette thèse, à savoir : l'optimisation de tournées de navettes ferroviaires (The Rail Shuttle Routing Problem) et l'ordonnancement de grues de quai (The Quay Crane Scheduling Problem). En vue d'aborder la complexité et l’aspect incertain de ces problèmes, nous proposerons des modélisations mathématiques, ainsi que des approches de résolution basées sur l’optimisation par colonies de fourmis, l’optimisation robuste et le couplage Simulation-Optimisation. Les différents tests numériques effectués ont prouvé l’efficacité des algorithmes proposés et leur robustesse
Today, seaports face increasingly stringent requirements imposed by the considerable growth of goods transited by sea. Indeed, the organization of the port sector has evolved rapidly and has caused several negative impacts, including pollution and congestion of terminals, which constitute today the major concerns of port operators. To address those challenges, several ports have decided to build multimodal terminals that act as mega-hubs for maritime terminals, in order to free the storage areas on the maritime terminals, to promote the use of consolidated container modes of transfer and to reduce greenhouse gas emissions by using alternative modes to the road. Nevertheless, the management of these new logistic systems is laborious. This is due to several factors, including the dynamic and distributed nature of these systems, the variety of operations, and the lack of information needed to control flow. The aim of this thesis is to develop approaches capable of meeting the needs of port operators in a multimodal terminal, taking into account the different sources of uncertainty. Two optimization problems are mainly considered in this thesis, namely : the Rail Shuttle Routing Problem(RSRP) and the Quay Crane Scheduling Problem(QCSP). To address the complexity and uncertainties of these problems, we propose new mathematical models, as well as some heuristics approaches based on ant colony optimization, robust optimization and Simulation-Optimization. The various numerical tests carried out proved the effectiveness and the robustness of the proposed algorithms
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Assaf, Cyril. "La gestion du Terminal à conteneurs du Port de Beyrouth et l’apport de la théorie de la structuration d’A. Giddens." Thesis, Paris 2, 2016. http://www.theses.fr/2016PA020023/document.

Повний текст джерела
Анотація:
La problématique porte sur la façon dont les ports en général et le Terminal à conteneurs du Port de Beyrouth au Liban, en particulier, pourraient améliorer leur gestion et optimiser le fonctionnement de leurs opérations au quotidien. Nous avons également introduit la théorie de la structuration de Giddens qui est une théorie du social et des rapports sociaux, pour voir dans quelle mesure certains de ses principes pourraient être bénéfiques à notre étude.Le thème de la gestion d’un terminal à conteneurs et les failles qui résident dans sa gestion et qui nuisent à ses performances est un sujet qui n’a pas été traité en profondeur auparavant. Notre immersion dans cet environnement, à savoir le Terminal à conteneurs du Port de Beyrouth durant un an nous a permis de comprendre la véritable nature de ces problèmes ainsi que leurs sources.Notre présence sur le terrain nous a donné l'occasion de conduire une série d’entretiens avec les chefs de département afin de comprendre les lacunes et les obstacles auxquels ils font face et être en mesure de proposer des solutions adaptées à leurs problèmes par le biais de cette thèse.Nos entretiens avec les chefs de département ont eu pour but de recueillir pour chaque département une description du fonctionnement quotidien des opérations, les principaux problèmes et défis les plus récurrents auxquels ils font face afin de trouver les manières de les contrer.Cette thèse a pour but de dresser une liste de recommandations par département afin d’améliorer leur performance dans le futur et d’augmenter ainsi la performance globale du Terminal à conteneurs du Port de Beyrouth
The problematic covers the way ports in general and the container terminal of the port of Beirut in Lebanon, in particular, manage and optimize the flow of their daily operations.We also included the theory of structuration of Giddens which is a social theory and a theory of social relations, to see how some of its principles could be valuable to our study.The subject of the management of a container terminal and the flaws that reside in its management and that affect its performance is an issue that has not been discussed in depth before. Our deep dive in the container terminal of Beirut port for a year has allowed us to understand the true nature of its problems and their sources.Our presence on the ground gave us the opportunity to conduct a series of meetings with heads of departments in order to understand the gaps and obstacles they face and be able to suggest solutions to their problems through this thesis.Our interviews with heads of departments were aimed at gathering for each department a description of the daily running of operations, the most recurrent problems and challenges they face and come up with possible ways to counter them.This thesis aimed to develop a list of recommendations by department in order to improve each department’s performance in the future and thereby increase the overall performance of the Beirut container terminal
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Ayachi, Hajjem Imen. "Techniques avancées d'optimisation pour la résolution du problème de stockage de conteneurs dans un port." Thesis, Ecole centrale de Lille, 2012. http://www.theses.fr/2012ECLI0003/document.

Повний текст джерела
Анотація:
Le chargement/déchargement des conteneurs et leurs stockages provisoires dans le port est la plus importante et complexe tâche dans les terminaux portuaires. Elle est fortement liée au routage des grues de quai et son coût augmente considérablement surtout en absence d’une gestion efficace du terminal. Dans ce travail, nous étudions le problème de stockage des conteneurs (PSC). Il appartient à la catégorie des problèmes NP-difficiles et NP-complets. PSC consiste à déterminer un plan d’arrangement des conteneurs destinés à l’import et à l’export dans le port qui minimise les remaniements ultérieurs lors de leur transfert vers le bateau, camion ou train. En effet, le temps d'attente des camions des clients, le temps de transfert des grues de quai et le temps nécessaire au chargement/déchargement du navire sont avantageusement réduits. PSC est généralement étudié en considérant un seul type de conteneur. Cependant, plusieurs types de conteneurs sont utilisés dans les ports maritimes (dry, réfrigérés, toit ouvert,...). En outre, le problème de stockage de conteneurs peut être traité de façon statique ou dynamique (date d’arrivée et de départ des conteneurs incertains).L’objectif de cette thèse est de résoudre le PSC statique et le PSC dynamique pour un seul et plusieurs types de conteneurs en utilisant deux métaheuristiques : l’algorithme génétique, la recherche harmoniquePour vérifier la performance de chacune des approches proposées, une étude comparative des résultats générés par chaque méthode ainsi que celle de l’algorithme LIFO est établie
The loading and unloading of containers and their temporary storage in the container terminal are the most important and complex operation in seaport terminals. It is highly inter-related with the routing of yard crane and truck and their costs increased significantly especially without an efficient terminal management. To improve this process, an efficiency decision for the container storage space allocation must be taken.In this thesis, we studied the container storage problem (CSP). It falls into the category of NP hard and NP complete problems. CSP consists on finding the most suitable storage location for incoming containers that minimizes rehandling operations of containers during their transfer to the ship, truck or train. In fact, the wait time of customer trucks, the transfer time of yard crane and the Ship turnaround time are advantageously reduced.Generally, this problem is studied considering a single container type. However, this does not stand the problem under its real-life statement as there are multiple container types that should be considered, (refrigerated, open side, empty, dry, open top and tank). Often, containers arrive at the port dynamically over time and have an uncertain departure date (ship delayed, a ship down, delayed arrival of customer trucks…). Indeed, CSP must be studied in dynamic aspectThe objective of this thesis is to study Static CSP for a single and various container type and dynamic CSP for ONE and several container types and to propose solutions for each of them. Genetic algorithm and Harmony Search algorithm are used to solve these problems and we compare the results of each approach with the LIFO algorithm
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Tano, Krongrossi. "Conception et implémentation d'un système intégrant des modèles de simulation et un SIADS (système interactif d'aide à la décision spécifique) de gestion portuaire : application à la gestion du port autonome d'Abidjan." Paris 9, 1994. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1994PA090020.

Повний текст джерела
Анотація:
L'environnement économique mondial morose, accentué dans les pays sous-développés par le peu de moyens dont ils disposent, impose aux différents responsables une optimisation de leur gestion et une organisation rationnelle des structures existantes. C'est dans cet esprit que nous avons abordé ce travail qui a pour finalité l'optimisation de la gestion des ports en particulier celui du port autonome d’Abidjan. Après une analyse approfondie de la situation de ce port, nous nous sommes trouvés en présence d'un problème combinatoire vu le nombre de variables ou de paramètres entrant en ligne pour la prise d'une décision. Nous avons donc propose l'intégration d'un système à base de connaissances et de modèles de simulation suivant l'approche du SIADS (système interactif d'aide à la décision). Dans cette optique, nous avons réalisé un SIAD spécifique de gestion portuaire et quatre sous-modèles du modèle général de fonctionnement du port autonome d’Abidjan en vue de son optimisation à partir du GPSS/PC (general purpose simulation system version PC) et du générateur MAG (management applications generator), développé à l'université Paris-Dauphine
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Maddah, Mohammad Reza. "3D visualization and interactive image manipulation for surgical planning in robot-assisted surgery." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2018. http://www.theses.fr/2018IMTA0079/document.

Повний текст джерела
Анотація:
La chirurgie robotisée a été développée pour pallier les difficultés de la chirurgie laparoscopique. Le robot da Vinci (Intuitive Surgical) est largement répandu dans les hôpitaux nord-américains et européens pour la chirurgie abdominale. Basé sur de la téléopération, il améliore la dextérité et la précision des opérations en chirurgie mini-invasive. Cependant, des recommandations incomplètes et des défauts ergonomiques du système, pour positionner les bras du robot à la surface l’abdomen du patient avant l’opération, créent un des principaux problèmes de la chirurgie robotisée : des organes inatteignables ou des collisions entre les instruments pendant l’opération. L’objectif de ces travaux de recherche est de proposer une nouvelle méthode de placement des bras du robot basée sur une assistance opératoire numérique utilisant l’analyse d’images médicales du patient et la modélisation 3D de la surface de son abdomen afin de calculer des positions des bras optimales en fonction des caractéristiques du robot, de la position des organes et du type de chirurgie
Robot-assisted surgery, or “robotic”surgery, has been developed to address thedifficulties with the traditional laparoscopicsurgery. The da Vinci (Intuitive Surgical, CA andUSA) is one of the FDA-approved surgical robotic system which is widely used in the case of abdominal surgeries like hysterectomy and cholecystectomy. The technology includes a system of master and slave tele-manipulators that enhances manipulation precision. However, inadequate guidelines and lack of a human machine interface system for planning the ports on the abdomen surface are some of the main issues with robotic surgery. Unreachable target and mid-surgery collisions between robotic arms are the major problems that surgeons complain about in robotic surgery. The objective of this research is to design a new decision-support tool for planning port placement in robotic surgery. The decision support system will be able to determine the optimal location of the entrance ports on the abdomen surface that is specific to the patient
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Perodou, Arthur. "Frequency design of passive electronic filters : a modern system approach." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSEC046.

Повний текст джерела
Анотація:
L’explosion actuelle du nombre d’appareils connectés (smartphones, drones, IoT, …) et du volume des données à transmettre engendre une croissance exponentielle du nombre de bandes radiofréquences. Toutes les solutions élaborées pour faire face à cette demande croissante, telle que l’agrégation de porteuses, impliquent de concevoir des filtres fréquentiels satisfaisant des contraintes (performance, consommation d’énergie, coût, …) toujours plus strictes. Les filtres passifs AW, pour acoustic wave (AW) en anglais, semblant être les seuls pouvant satisfaire ces contraintes. Cependant, face à l’augmentation drastique de la complexité de leur problème de conception, les méthodes traditionnelles de conception apparaissent limitées. Il devient donc nécessaire de développer de nouvelles méthodes, qui soient systématiques et efficaces d’un point de vue algorithmique. Le problème de synthèse des filtres AW est une instance du problème de synthèse de filtres électroniques passifs, intrinsèquement lié aux origines de la théorie des Systèmes linéaires et de l’Automatique. Des méthodes systématiques ont été développées pour des cas particuliers, tels que les filtres LC-échelle, mais n’incluent pas les filtres AW. Notre but est donc de les revisiter et de les généraliser en utilisant une approche systémique moderne, afin d’obtenir une méthodologie systématique et efficace de conception de filtres électroniques passifs, avec un intérêt particulier pour les filtres AW. Pour ce faire, le paradigme de l’optimisation convexe, et particulièrement la sous-classe nommée optimisation LMI, nous paraît être un candidat naturel. Doté de solveurs efficaces, il permet de résoudre un large éventail de problèmes d’ingénierie en un faible temps de calcul. Afin de relier notre problème de conception à cet environnement, il est proposé d’utiliser des outils modernes tels que la représentation LFT et la caractérisation mathématique dite de dissipativité. Historiquement, deux approches de conception se sont opposées. La première consiste à faire varier les valeurs caractéristiques des composants jusqu’à satisfaction du gabarit fréquentiel. Bien que flexible et proche de la formulation originelle du problème, cette approche aboutit typiquement à un problème d’optimisation complexe. Notre première contribution est d’avoir révélé les sources de cette complexité ainsi que de les avoir considérablement réduites, en introduisant une représentation originale qui résulte de la combinaison de l’outil LFT et du formalisme des Systèmes Hamiltoniens à Ports. Un algorithme résolvant séquentiellement des problèmes LMIs est proposé, possédant un taux de convergence raisonnable si le point initial est bien choisi. La seconde approche se compose de deux étapes. Une fonction de transfert est d’abord synthétisée de façon à satisfaire le gabarit fréquentiel. Cette étape correspond à un problème classique d’Automatique et de Traitement du Signal qui peut être efficacement résolu via l’optimisation LMI. Puis, cette fonction de transfert est réalisée comme un circuit avec une topologie donnée. Pour cela, elle doit satisfaire des conditions de réalisation. Ces dernières ne peuvent pas toutes être inclues dans la première étape, et nous formalisons certaines pratiques courantes pour en considérer le plus possible. Cela nous mène à résoudre le problème général de synthèse fréquentielle de filtres LFT. Notre seconde contribution est d’avoir fourni des méthodes de synthèse efficaces, à base d’optimisation LMI, pour résoudre certains sous-problèmes. Cela est accompli en généralisant la technique de la factorisation spectrale conjointement avec l’utilisation des extensions du Lemme KYP. Pour certains filtres électroniques passifs, comme les filtres LC-échelle passe-bande, la seconde approche permet de résoudre efficacement le problème de conception associé. Plus généralement, elle procure un point initial à la première approche, comme illustré dans le cas d’un filtre AW
The current explosion of communicating devices (smartphones, drones, IoT...), along with the ever-growing data to be transmitted, produces an exponential growth of the radiofrequency bands. All solutions devised to handle this increasing demand, such as carrier aggregation, require to synthesise frequency filters with stringent industrial requirements (performance, energy consumption, cost ...). While the technology of acoustic wave (AW) resonators, that seem to be the only passive micro-electronic components available to fulfil these requirements, is mature, the associate design problem becomes dramatically complex. Traditional design methods, based on the intuition of designers and the use of generic optimisation algorithms, appear very limited to face this complexity. Thus, systematic and efficient design methods need to be developed. The design problem of AW filters happens to be an instance of the more general design problem of passive electronic filters, that played an important role in the early development of Linear Control and System theory. Systematic design methods were developed in particular cases, such as for LC-ladder filters, but do not enable to tackle the case of AW filters. Our aim is then to revisit and generalise these methods using a modern System approach, in order to develop systematic and efficient design methods of passive electronic filters, with a special focus on AW filters. To achieve this, the paradigm of convex optimisation, and especially the sub-class of Linear Matrix Inequality (LMI) optimisation, appears for us a natural candidate. It is a powerful framework, endowed with efficient solvers, able to optimally solve a large variety of engineering problems in a low computational time. In order to link the design problem with this framework, it is proposed to use modern tools such as the Linear Fractional Transformation (LFT) representation and a mathematical characterisation coming from Dissipative System theory. Reviewing the different design methods, two design approaches stand out. The first approach consists in directly tuning the characteristic values of the components until the frequency requirements are satisfied. While very flexible and close to the original problem, this typically leads to a complex optimisation problem with important convergence issues. Our first main contribution is to make explicit the sources of this complexity and to significantly reduce it, by introducing an original representation resulting from the combination of the LFT and the Port-Hamiltonian Systems (PHS) formalism. A sequential algorithm based on LMI relaxations is then proposed, having a decent convergence rate when a suitable initial point is available. The second approach consists of two steps. First, a transfer function is synthesised such that it satisfies the frequency requirements. This step is a classical problem in Control and Signal Processing and can be efficiently solved using LMI optimisation. Second, this transfer function is realised as a passive circuit in a given topology. To this end, the transfer function needs to satisfy some conditions, namely realisation conditions. The issue is to get them with a convex formulation, in order to keep efficient algorithms. As this is generally not possible, an idea is to relax the problem by including common practices of designers. This leads to solve some instances of a general problem denoted as frequency LFT filter synthesis. Our second main contribution is to provide efficient synthesis methods, based on LMI optimisation, for solving these instances. This is achieved by especially generalising the spectral factorisation technique with extended versions of the so-called KYP Lemma. For particular electronic passive filters, such as bandpass LC-ladder filters, this second approach allows to efficiently solve the design problem. More generally, it provides an initial point to the first approach, as illustrated on the design of a particular AW filter
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Rousseau, Xavière. "Optimisation de l'utilisation de phosphore alimentaire chez le porc et le poulet en croissance." Thesis, Tours, 2013. http://www.theses.fr/2013TOUR4057/document.

Повний текст джерела
Анотація:
La réduction des apports alimentaires de phosphore (P) ainsi que l’optimisation de son utilisation par les animaux représentent des enjeux majeurs pour assurer la durabilité des filières avicole et porcine. Le développement de systèmes d’alimentation assurant une utilisation efficace du phosphore est donc crucial en particulier durant la période de finition. Ce travail de thèse a permis de redéfinir le besoin en P des animaux durant cette phase et ce en lien avec les autres constituants de la matrice alimentaire reconnus pour impacter de façon majeure sur l’utilisation globale de P (Ca, phytase microbienne). Ce travail a également permis de quantifier l’impact du Ca et de la phytase microbienne sur les flux digestifs et métaboliques de P. Les connaissances générées contribuent à développer d’une part, des modèles mécanistes simulant le devenir de P à l’échelle de l’animal et d’autre part, de nouveaux systèmes d’alimentation répondant aux enjeux de la durabilité
The reduction of dietary phosphorus (P) and the optimisation of its utilisation by the animals represent major challenges for the sustainability of poultry and pig production. The development of new feeding strategies ensuring an efficient utilization of P appears crucial particularly during the finishing period. The present work contributed to redefine the requirement of P of the animals during this phase in conjunction with the other constituents of the feed matrix well-known to significantly impact on the overall utilisation of P (Ca, microbial phytase). Moreover, this work quantified the impact of Ca and microbial phytase on the digestive and metabolic flows of P. On one hand, generated knowledge helps developing mechanistic models simulating the fate of P in the scale of the animal and on the other hand new feeding systems to meet the challenges of sustainability
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Cagin, Stéphanie. "Méta-modèles réduits et séparés du comportement de balayage d'un moteur Diesel 2-temps pour l'exploration évolutionnaire des espaces de solutions." Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0383/document.

Повний текст джерела
Анотація:
L’utilisation de techniques numériques lors de la conception d’un produit s’est largement généralisée au cours des 30 dernières années. Pourtant, la lenteur des calculs et la spécialisation des modèles numériques restent problématiques.Nous avons donc choisi de développer des modèles réduits du comportement de balayage sur un moteur Diesel 2-temps à lumières. Ces modèles sont analytiques, génériques, rapides d’utilisation et permettent d’éliminer les problématiques de traitement numérique. Ils sont aussi des instruments performants dans la recherche de solutions de conception. Une modélisation CFD 2D a tout d’abord été développée pour servir de bases de données, avec la définition des paramètres primordiaux à suivre pour quantifier un balayage optimal.Le travail de recherche a dévoilé une méthodologie nouvelle fondée sur un méta-modèle du comportement dit « neuro-séparé » comprenant un modèle neuronal d’état, un modèle neuronal pseudo-dynamique et un modèle à variables séparées. Ensuite, un processus d'aide à la décision exploitant les modèles précédents a été mis en place au travers d’un processus d’optimisation évolutionnaire (fondé sur les algorithmes génétiques) puis de la simulation comportementale rapide des solutions optimales de conception par un krigeage.La démarche de conception multipoints de vue, multi-critères et multi-physiques appliquée au moteur intègre aussi une dimension cognitive : l’exploration évolutionnaire des espaces de solutions a été menée de façon libre et forcée. Afin de valider notre approche, nous avons mis en place des critères de qualification appliqués à chacun de nos modèles, permettant de quantifier les écarts visà-vis de la base initiale CFD qui a fondé nos modèles réduits.Notre démarche a mené à la création d’un outil d’aide à la modélisation et à la décision exploitant les modules Python et Matlab développés
The use of numerical methods to design a product became more and more commonover the past 30 years. However, numerical models are still specialized and they do not run fastwhich make their use problematic. So some reduced models of scavenging have been developed. These models are analytical andgeneric; they run quickly and avoid the numerical treatment problems. They are also some efficienttools in the search of design solutions.The work carried out has led to a new methodology based on a behavioral meta-model called“neuro-separated” including a neuronal model of state, a pseudo-dynamic neuronal model and amodel with separated variables. Then, a process of decision aids exploiting the models previouslydeveloped in evolutionary algorithms (genetic algorithms) and the fast behavioral simulation of theoptimal design solutions thanks to the kriging approach.This design approach is multi-viewpoints, multi-criteria and multi-physics. It also includes acognitive dimension: both free and controlled evolutionary explorations of solution spaces have beendone. To validate the method, some qualification criteria have been evaluated for each model. Theyallow to understand and to assume the gap between the reduced models and the initial CFD base(where the model are coming from). Our approach has led to the development of a tool of model and decision aids using Python and Matlab software programs
Стилі APA, Harvard, Vancouver, ISO та ін.
11

Jeanne, Thomas. "Caractérisation et optimisation des paramètres microbiens dans une pile bio-électrochimique fonctionnant au lisier de porc." Master's thesis, Université Laval, 2013. http://hdl.handle.net/20.500.11794/25230.

Повний текст джерела
Анотація:
Dans un contexte de croissance de la productivité agricole, de réduction du coût des intrants, de valorisation des ressources et de cohabitation harmonieuse en milieu agri-urbain par une réduction des odeurs et des sources de pollution agroenvironnementales, il est primordial de développer des technologies agroenvironnementales de valorisation énergétique et de réduction de l'impact environnemental de l'industrie agricole. Les recherches sur les piles bio-électrochimiques connaissent un développement important ces dernières années. Les piles bio-électrochimiques produisent directement de l'électricité tout en traitant un effluent pour en réduire les nuisances environnementales contribuant ainsi à amener des solutions intéressantes à ces enjeux. Il reste cependant à accroître leurs performances afin de rendre cette technologie utilisable à grande échelle. Dans cette étude, nous avons pu identifier les populations microbiennes intervenant dans le processus électrique et ainsi pu définir des paramètres de fonctionnement permettant d'accroître notablement les performances électriques lorsque le lisier de porc est le substrat utilisé dans la pile. Ce succès, rencontré dans l'application du traitement et de la valorisation énergétique du lisier de porc, permet d'être grandement optimiste en vue d'une mise à l'échelle industrielle non seulement pour cette application, mais également pour d'autres effluents organiques.
Стилі APA, Harvard, Vancouver, ISO та ін.
12

Germain, Simon. "Conception d'une mesure automatisée de détection des changements alimentaires chez le porc." Mémoire, Université de Sherbrooke, 2015. http://hdl.handle.net/11143/7925.

Повний текст джерела
Анотація:
Le mandat consiste à développer un outil afin de détecter les désordres alimentaires chez le porc, dans le but de prévenir des problèmes de croissance ou de maladie potentiels. L'outil proposé analyse les données récoltées sur 5 jours consécutifs (période mémoire) pour prédire la consommation de la journée suivante. Il utilise une régression polynomiale généralisée avec contraintes et lissage. L'outil calcule ensuite la différence entre la prédiction et les observations.
Стилі APA, Harvard, Vancouver, ISO та ін.
13

Tanneau, Olivier. "Modélisation de panneaux d'isolation aéronautiques : couplages poro-élastiques, élastodynamiques et acoustiques par méthodes analytiques, FEM et BEM." Paris 6, 2004. http://www.theses.fr/2004PA066401.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
14

Hattingh, Raina. "Framework to guide mine-related land use planning towards optimisation of the coal mining rehabilitated landscape." Diss., University of Pretoria, 2018. http://hdl.handle.net/2263/65312.

Повний текст джерела
Анотація:
The post-mining land use optimisation framework developed as part of this research underpins the need for examining site-specific decisions within the regional land planning context as well as in relation to the social, economic, and political perspectives within the mine’s localised planning domain. It emphasizes that the spatial and temporal planning and implementation of rehabilitation and land use-related activities remain continually changing throughout the mining life cycle. This implies that amendments, refinements or corrective action should be an integral aspect of this planning, improving the trajectory towards success as new site knowledge and learnings becomes available. Rehabilitation activities should be implemented as soon as site disturbance (construction) starts and maintained throughout the operational and decommissioning periods. More importantly, these activities remain even more pertinent to the monitoring and maintenance period, during which successful implementation of the pre-defined land use/s can be demonstrated. Rehabilitation-, land use and mine closure plans are hence ‘living’, changing tools, aligned towards a common goal – defining a resilient post-mining landscape that will, ultimately, enable harnessing the altered landscapes’ new characteristics to optimise services to post-mining communities that either provides similar resourcing needs from the land, or alternative resources that contribute to the long-term viability of the area.
Dissertation (MSc) - University of Pretoria, 2018.
Coaltech Research Institute, Chamber of Mines
Chamber of Mines
Geography, Geoinformatics and Meteorology
MSc
Unrestricted
Стилі APA, Harvard, Vancouver, ISO та ін.
15

Singh, Parminder. "Optimisation des processus de séparation de matière sèche à partir du lisier de porc en ajoutant du biochar." Thesis, Université Laval, 2013. http://www.theses.ulaval.ca/2013/29264/29264.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
16

Polo, Luz. "Caractérisation et optimisation de la performance des cartouches d'ancrage AMBEX sous chargement soutenu." Mémoire, Université de Sherbrooke, 2014. http://hdl.handle.net/11143/10138.

Повний текст джерела
Анотація:
Les systèmes d’ancrages adhésifs sont utilisés dans plusieurs applications en génie civil, notamment en réhabilitation et réparation des ouvrages d’infrastructure tels que des dalles de ponts, chaussées, tunnels, barrages, murs, poteaux, ainsi que dans certains travaux d’exploration géologique et minière. Un système d’ancrage adhésif comprend trois composants : l’élément d’ancrage : une barre d’armature ou une tige filetée ; le matériau adhésif : polymérique, cimentaire ou hybride ; et le substrat : en béton ou en maçonnerie. Les charges imposées sur les barres d’ancrage sont transmises au substrat par adhérence chimique (réactions) et liaison mécanique (interlock) entre les composants mentionnés. Le modèle de design d’adhérence uniforme établit que la performance structurale d’un système d’ancrage adhésif est déterminée par la contrainte de l’adhérence (τ), développée sur toute la surface de contact, entre les composants à l’intérieur du trou d’ancrage. Ce projet, en partenariat avec l’entreprise AMBEX, étudie et évalue la performance des systèmes d’ancrage avec adhésifs en matériau cimentaire, par rapport au comportement sous chargement continu. Pour ce faire, on a ancré des barres d’armature dans un substrat en béton conventionnel. Les deux adhésifs étudiés sont les cartouches d’ancrage AAC et ARC. On a tenu compte des paramètres géométriques et d’installation en assurant la rupture de l’adhérence lors des essais d’arrachement. On a évalué deux conditions en service: température ambiante (21ºC) et élevée (43ºC). On a effectué des essais statiques de traction et des essais sous chargement soutenu. Les résultats sont présentés dans des graphiques « chargedéplacement-temps », afin d’établir des prédictions futures de comportement. Le projet montre les avantages des ancrages adhésifs en matériau cimentaire, tels que le taux de fluage très faible sous chargement soutenu, et quelques limitations aussi, comme la variabilité des résultats à l’arrachement pour les ancrages avec la cartouche AAC.
Abstract : Adhesive anchoring systems are used in many civil engineering applications, including rehabilitation and repair of infrastructure such as bridge decks, roadways, tunnels, dams, walls, columns, and in some geological explorations and mining. An adhesive anchoring system consists of three components: the anchor: a reinforcing bar or a threaded rod; the adhesive material: polymeric, cementitious or hybrid; and a substrate of concrete or masonry. The loads applied on the anchor rods are transmitted by a chemical adhesion to the substrate (reactions) and mechanical interlock between the components mentioned. The design pattern of uniform adhesion establishes that the structural performance of an adhesive anchoring system is determined by the bond strength (τ) developed across the contact surface, between the components within the anchor hole. This project, in partnership with AMBEX, investigates and assesses the performance of an anchoring system, with an adhesive of cementitious material, related to the creep behaviour. To achieve this, steel rebars were anchored in a conventional concrete substrate. Two adhesives were evaluated: AAC and ARC cartridges. Geometrical and installation parameters were taken into account, to ensure bond failure during pullout tests. Two service conditions were studied: room temperature (21ºC) and high temperature (43ºC). Static tensile tests and creep tests were performed. The results are presented in graphs “load-displacement-time”, in order to make predictions of future behavior. The project shows the advantages of adhesive anchors made of cementitious material, as a feeble creep rate at sustained load, and also some limitations, as the variability of tension test results for anchors tested with AAC cartridge.
Стилі APA, Harvard, Vancouver, ISO та ін.
17

Collonge, Julien. "Analyse post-Pareto en optimisation vectorielle stochastique et déterministe : étude théorique et algorithmes." Thesis, Nouvelle Calédonie, 2014. http://www.theses.fr/2014NCAL0061/document.

Повний текст джерела
Анотація:
Cette thèse relate certains aspects liés à l'analyse post-Pareto issue de Problèmes d'Optimisation Vectorielle Stochastique. Un problème d'optimisation Vectorielle Stochastique consiste à optimiser l'espérance d'une fonction vectorielle aléatoire définie sur un ensemble arbitraire et à valeurs dans un espace sectoriel ordonné. L'ensemble des solutions de ce problème (appelé ensemble de Pareto) est composé des solutions admissibles qui assurent un certain équilibre entre les objectifs : il est impossible d'améliorer la valeur d'un objectif sans détériorer celle d'un autre. D'un point de vue technique, chaque solution de Pareto est acceptable. Nous nous posons alors le problème de la sélection de l'une d'entre elles : en supposant l'existence d'un décideur qui aurait son propre critère de décision, nous considérons le problème post-Pareto Stochastique qui vise à minimiser cette fonctionnelle sur l'ensemble de Pareto associé à un Problème d'Optimisation Vectorielle Stochastique
This thesis explore related aspects to post-Pareto analysis arising from Stochastic Vector Optimization Problem. A Stochastic Vector Optimization Problem is to optimize a random vector objective function defined on an arbitrary set, and taking values in a partially ordered set. Its solution set (called Pareto set) consists of the feasible solutions which ensure some sort of equilibrium amongst the objectives. That is to say, Pareto solutions are such that noneof the objectives values can be improved further without deterioring another. Technically speaking, each Pareto solution is acceptable. The natural question that arises is : how to choose one solution ? One possible answer is to optimize an other objective over the Pareto set. Considering the existence of a decision-maker with its own criteria, we deal with the post-Pareto Stochastic Optimization Problem of minimizing its real-valued criteria over the Pareto set
Стилі APA, Harvard, Vancouver, ISO та ін.
18

Diab, Hassan. "Modélisation et optimisation de structures flottantes pour l'aide à la décision d'aménagement portuaire." Thesis, Troyes, 2016. http://www.theses.fr/2016TROY0022/document.

Повний текст джерела
Анотація:
L’objectif de cette thèse était de proposer une contribution dans le domaine de la modélisation du comportement de digues flottantes permettant d’optimiser le positionnement et le dimensionnement de ces structures. La finalité étant de participer à la définition d’outils d’aide à la décision pour l’aménagement portuaire destiné à la protection des installations. Nous avons proposé un nouveau modèle de comportement de digues flottantes. Ce modèle de comportement simple et efficace combine deux modèles. Le premier est un modèle de Berkhoff étendu et amélioré qui prend en compte les effets de frottement au fond, de bathymétrie fortement variable et de déferlement. Il permet d’évaluer dans le plan horizontal du port la propagation de la houle. Le second est un modèle décrivant le comportement hydrodynamique d’une digue flottante dans le plan vertical de sa section transversale. Une étude paramétrique a permis de valider globalement ce nouveau modèle. Nous avons proposé ensuite une démarche d’optimisation spécifique basée sur une formulation multicritère du problème d’optimisation et utilisant des techniques de méta modélisation et un algorithme stochastique pour accélérer les calculs. Le front de Pareto obtenu permet pour un port donné, de déterminer la capacité maximale d’absorption de la houle et les dimensions de la plus petite digue
The objective of this thesis is to add a contribution in the field of modeling of the behavior of floating breakwaters, in order to optimize the positioning and sizing of these structures. It is aimed to participate in the definition of the decision making techniques in harbor development intended to the protection of installations. A new model for the behavior of floating breakwaters is proposed. This simple and efficient behavior model combines two models: The first is an extended and improved Berkhoff model that takes into account the effects of bed friction, highly variable bathymetry and wave breaking so that the propagation of waves in the horizontal plane of harbor is evaluated. The second model describes the hydrodynamic behavior of a floating breakwater in the vertical plane of its cross section. A parametric study is used to globally validate the new model, after which a specific optimization approach based on a multi criteria formulation of the optimization problem is proposed. Meta-modeling techniques and stochastic algorithm are together employed to speed up the calculations. The obtained Pareto front allows, for a given harbor, to determine the maximum absorption capacity of waves and the dimensions of the smallest breakwater
Стилі APA, Harvard, Vancouver, ISO та ін.
19

Mullath, Aravind. "Process simulation and optimisation of thin wall injection moulded components." Thesis, Loughborough University, 2013. https://dspace.lboro.ac.uk/2134/13521.

Повний текст джерела
Анотація:
Integrally moulded hinges and tension bands are important features in packaging components for plastic closures and their function is critically dependent on the flow induced micromorphology in the hinge section. Polymer characteristics and processing of the hinge also have an influence on the hinge properties obtained. This study is aimed at obtaining interrelationships between polymer characteristics, in-cavity flow, microstructure development and hinge properties, to produce hinges with enhanced functional properties. Three different virgin polypropylene (PP) grades were investigated (homopolymer PP-H, random copolymer PP-RC and impact copolymer PP-IC) and injection moulding simulation was carried out using Moldflow software. In-cavity data acquisition has been carried out for different sets of injection moulding conditions, using high performance transducers and a data acquisition system. A comparison between Moldflow simulation and practical injection moulding data suggests that, for thin wall injection moulded components the real time pressure data are in close agreement during the injection stage. During the packing stage there is some disagreement between these data, since the thickness of hinge and tension band sections are 0.4 mm and 0.5 mm respectively, suggesting that these dimensions are extending the capability of the software. An extensive study using a design of experiments (DoE) approach was carried out on both practical and predictive data. Injection velocity and melt temperature were the most influential factors on the component mechanical properties. From the optical micrographs it is observed that PP-RC has a finer micro-structure compared to PP-H and PP-IC and some micrographs confirm Moldflow simulation results in which hesitation effects are evident, as the flow converges into the thin hinge and tension band sections. PP-clay nanocomposites (PP-CN) were prepared using a twin screw compounder. Transmission electron microscopy (TEM) has shown some evidence of dispersion and exfoliation of the clay particles in the PP matrix. However, X-ray diffraction (XRD) results show a reduction in inter-layer spacing of PPCN s possibly due to clay compaction. The addition of nano-clay however has not resulted in any significant improvements in the mechanical properties of hinges and tension bands. The high degree of molecular orientation induced in the hinge and tension-band sections appears to mask any improvements attributed to the addition of nano-clay. From the reprocessed and post consumer recyclate (PCR) study conducted on hinges and tension bands, it is seen that with an increase in both the re-processing and PCR content there is a decrease in the component strength of around 14%, giving scope to potentially use PCR in future packaging applications. Investigations conducted on colour pigments (violet and green) reveal that the onset of crystallisation for green pigmented mouldings is considerably higher (16°C) than for natural and violet mouldings. Optical micrographs also reveal a finer microstructural texture for green components, indicating a high nucleating capability of the green pigment. Irrespective of the colour, both for hinges and tension bands, the yield stress values were around twice as high as the values quoted in the manufacturer s data sheet for isotropic PP, due to the high levels of molecular orientation in the hinge and tension band sections. In order to industrially validate the findings from the DoE study, commercial closures were produced in industry on a production tool then characterised. In the case of tension bands, there was a good agreement between the results obtained from lab scale and industrial study due to the relatively simple geometry. For hinges this agreement is not so clear. Finally a comparison of mechanical properties of the 3 PP grades shows that PP-H has a higher yield stress compared to PP-IC and PP-RC and yield stress is significantly higher (yield strain values are lower) than values quoted by the manufacturer. The PhD study has confirmed the process conditions that are able to optimise all the interactive effects to improve functional properties in high volume parts in the packaging industry.
Стилі APA, Harvard, Vancouver, ISO та ін.
20

Kerr-Conte, Julie. "Optimisation de la source de tissu endocrine pancréatique pour la transplantation chez les diabétiques de type 1." Lille 1, 1995. http://www.theses.fr/1995LIL10126.

Повний текст джерела
Анотація:
Le diabète insulinodépendant est une maladie fréquente et dont le traitement substitutif par l'insuline ne permet pas d'éviter l'apparition des complications chroniques. La greffe de cellules sécrétrices d'insuline apparaît comme le plus prometteur des potentiels traitements curatifs du diabète mais son développement clinique est limité par la source de tissu disponible. Ce travail avait pour but l'optimisation de la source de tissu endocrine disponible pour la transplantation chez l'homme. Isolement des îlots de Langerhans humains. Les îlots humains ont été isolés à partir de pancréas prélevés chez des donneurs en état de mort cérébrale par une technique semi-automatisée de digestion enzymatique par la collagénase. La description d'un test simple d'évaluation de la densité des îlots a permis d'optimiser les résultats de la purification. La qualité des îlots a été confirmée par l'analyse histologique (immunohistochimie) et leur fonction par la sécrétion d'insuline au cours d'épreuve de stimulation par le glucose. Développement d'une source xénogénique d'îlots. Le développement des membranes semi-perméables biocompatibles pourrait permettre d'isoler des cellules animales du système immunitaire chez l'homme. Le porc apparaît comme la source idéale d'îlots xénogéniques. L'isolement des îlots porcins qui ne sont pas encapsulés, a nécessité le développement d'une technique spécifique de prélèvement réduisant l'ischémie chaude. La qualité des îlots porcins a pu être affirmée par la normoglycémie prolongée obtenue après autotransplantation des îlots chez des porcs pancréatectomisés. Néogénèse de tissu pancréatique endocrine humain. L'environnement cellulaire jouant un rôle déterminant sur la différenciation, nous avons tenté d'induire la néogénèse de cellules endocrines à partir de tissu humain cultivé dans différentes matrices extra cellulaires. La culture dans le collagène a prolongé la survie des îlots et induit la prolifération de structures kystiques dont la nature canalaire a été confirmé par l'immunohistochimie. La présence de cellules endocrines observée au sein de ces structures laisse entrevoir la possibilité de leur différenciation.
Стилі APA, Harvard, Vancouver, ISO та ін.
21

Jarret, Guillaume. "Optimisation des stratégies alimentaires des porcs en vue de la maîtrise des émissions gazeuses (NH₃ et CH₄) via l’incorporation de coproduits de biocarburants." Rennes 1, 2010. http://www.theses.fr/2010REN1S202.

Повний текст джерела
Анотація:
L'augmentation du prix des céréales, le déficit en protéines végétales et la pression environnementale de plus en plus forte qui impose de limiter les rejets animaux constituent un contexte nouveau qui pourrait être favorable à l’utilisation de nouvelles matières premières telles que les co-produits des biocarburants. Le premier objectif était d'évaluer l’impact de régimes enrichis en co-produits chez le porc sur le bilan global des éléments excrétés (N et C) et sur le niveau de polluants atmosphériques émis au cours du stockage ou du traitement par méthanisation des effluents. Le second objectif était de contribuer à une meilleure connaissance des facteurs influençant les émissions en fonction de l'alimentation et du mode de gestion. L’incorporation de coproduits s'accompagne d'une diminution de la digestibilité de la matière organique, de l’azote, de carbone et de l’énergie. Le pH des effluents est diminué, conjointement à l'accroissement de la teneur en acides gras volatils et à la réduction de la teneur en N ammoniacal. L’incorporation des co-produits s'accompagne d'une réduction importante de la volatilisation d’ammoniac de 19 à 33%. Le potentiel maximum d’émissions de méthane par kg MO tend à diminuer pour les régimes enrichis en fibres mais la quantité de méthane produit par porc est fortement augmentée (+50 à 66%), compte tenu de l’augmentation de la quantité de MO excrétée. Le mode de gestion des effluents ainsi que le type de régime affectent la dynamique de production de méthane lors du stockage. Les valeurs de FCM sont plus faibles pour les régimes riches en protéines et plus fortes pour les régimes riches en fibres
The price increase of cereals, the shortfall in plant protein production and the increasingly strong environmental pressure relating to livestock wastes, together constitute a new situation which could be favourable to the use of new animal feed materials such as the biofuel by-products. The first objective was thus to evaluate the impact of pig diets that include certain by-products on the total N and C excreted and on the subsequent level of atmospheric pollutants emitted from the waste during storage or anaerobic treatment. The second objective was a better understanding of the processes involved and those factors influencing the emissions regarding animal feeding and effluent management strategies. The incorporation of by-products in animal diets reduced the digestibility of organic matter, of nitrogen, of carbon and of energy. The same diet change increased the amount of faeces excreted per pig per day and shifted the partition of nitrogen excreted from urine to faeces. Concurrently, the pH of the faeces and of the slurry decreased, concurrent with an increase in the volatile fatty acid content and a reduction of the ammoniacal N. The inclusion of by-products reduced the ammonia volatilization from the stored waste by between 19 and 33%. The B0 for the effluent produced tended to decrease for the pig diets rich in fibre but the quantity of methane produced by pig slurry was greatly increased (+50 to 66%). The effluent management, as well as the feeding strategies affected the dynamics of methane production during manure storage. The MCF values are lower for the diets rich in proteins and greater for the diets rich in fibres
Стилі APA, Harvard, Vancouver, ISO та ін.
22

Rousseau, Pierre. "Étude, modélisation et optimisation d’un procédé de traitement des lisiers de porcs par couplage de la digestion anaérobie et du traitement biologique de l’azote." Rennes 1, 2009. http://www.theses.fr/2009REN1S011.

Повний текст джерела
Анотація:
L’industrialisation de l’élevage a participé à la pollution de l’eau et les obligations réglementaires ont entraîné le développement de procédés de traitement biologique des effluents générés afin de réduire la charge azotée. Parallèlement, la digestion anaérobie des déjections animales est également une alternative de valorisation intéressante, mais n’affectant pas les quantités d’azote. Dans ce cadre, le couplage des procédés aérobie et anaérobie permettrait alors une réduction importante des coûts d’élimination de l’azote. La maîtrise des interactions entre ces 2 procédés et l’optimisation de l’utilisation de la matière organique représentent les principaux enjeux de cette thèse. Afin de répondre à ces enjeux, deux approches parallèles et complémentaires ont été menées : une approche expérimentale et une approche numérique. Les travaux expérimentaux, réalisés sur un pilote du procédé, ont permis de souligner (i) l’absence d’inhibition par l’ammoniac dans le digesteur, (ii) la lenteur des cinétiques de dégradation anaérobie du lisier de porcs et (iii) la faisabilité de l’obtention et du maintien d’un shunt des nitrates par limitation de l’apport en oxygène. Les travaux de modélisation ont abouti au couplage des modèles Activated Sludge Model n°1 (ASM1) et Anaerobic Digestion Model n°1 (ADM1) via la création de deux interfaces. Au travers de son calage sur des valeurs expérimentales, le modèle a également permis de mieux comprendre les interactions entre les processus/procédés et de définir les paramètres de fonctionnement permettant une optimisation de l’utilisation de la matière organique et notamment des conditions d’obtention du shunt des nitrates
Industrialization of animal production participated in the pollution of fresh water. So, biological treatment processes were developed to reduce the nitrogen load applied locally, At the same time, anaerobic digestion of livestock wastes is also an interesting alternative, but not affecting the nitrogen concentration. In this context, the development of a process combining both anaerobic digestion and biological nitrogen removal could allow converting organic matter into a valuable energy while respecting the environmental constraints as regards nitrogen. The management of the interactions between aerobic and anaerobic processes and the optimisation of organic matter use are the main issues of this project. In order to reach these challenges, two parallel and complementary approaches have been considered: an experimental approach and a numerical approach. Experimental work, carried out on a pilot process, highlighted (i) the absence of inhibition by ammonia into the digester, (ii) the slow kinetics of anaerobic degradation of pig manure and (iii) the feasibility to obtain and control nitrate short-cut by oxygen inflow reduction. The modelling framework resulted in a combination of the Activated Sludge Model No. 1 (ASM1) and Anaerobic Digestion Model No. 1 (ADM1) through two interfaces. The use of this model allowed a better understanding of the interactions between aerobic and anaerobic processes and to a better definition of the operating parameters to optimize the use of organic matter including conditions to obtain nitrate short-cut
Стилі APA, Harvard, Vancouver, ISO та ін.
23

Pham, Hoai Son. "Optimisation et comportement en fatigue de la connexion bois-BFUP pour de nouveaux ponts mixtes." Phd thesis, Ecole des Ponts ParisTech, 2007. http://pastel.archives-ouvertes.fr/pastel-00003725.

Повний текст джерела
Анотація:
On s'intéresse dans cette recherche à la valorisation du matériau bois dans les ouvrages d'art. Le concept retenu est une structure mixte bois-BFUP (Béton Fibré Ultra Performant). Ce type de conception possède des propriétés structurales qui ne sont théoriquement pas atteintes par l'utilisation seule du bois ou du béton. Ici, le béton est utilisé en compression et le bois essentiellement en traction. La résistance élevée du BFUP associée à la performance du bois en flexion permet d'espérer la conception d'ouvrages légers, faciles à construire, et utilisant un minimum de matière non renouvelable. Cependant, dans cette solution, la connexion à l'interface des deux matériaux est toujours un point extrêmement sensible, notamment sous les actions de fatigue. Du comportement de l'interface dépend le taux d'augmentation de la résistance et de la rigidité. Cette thèse présente des études théoriques et expérimentales sur la contribution des systèmes de connexion au comportement global de nouveaux ponts mixtes bois-BFUP. Après le chapitre de synthèse bibliographique, un modèle, appartenant à la famille des Modèles Multiparticulaires des Matériaux Multicouches (M4), est développé. Sa résolution analytique pour le cas de la poutre mixte a été réalisée et validée par un calcul aux éléments finis. On met en évidence la bonne prise en compte des déformations de cisaillement dans les couches et de glissement à l'interface. Dans la partie expérimentale, des essais exploratoires en flexion sur des poutres mixtes, équipées de différents systèmes de connexion couvrant toutes les familles, sont présentés. Les résultats ont montré que la solution par collage entre le bois et le BFUP est bien plus performante que les autres solutions, tant en rigidité qu'en résistance. Un prototype d'un tablier mixte bois-BFUP collé à l'échelle 1/3 a été ensuite conçu et quatre exemplaires ont été réalisés. Les tests ont permis de démontrer la bonne tenue en fatigue de la solution par collage. Les résultats positifs ont ainsi ouvert des perspectives pour de nouveaux ponts mixtes.
Стилі APA, Harvard, Vancouver, ISO та ін.
24

Villeger, Sandrine. "Optimisation d'une post décharge N2-O2 en vue d'une application à un procédé de stérilisation." Toulouse 3, 2004. http://www.theses.fr/2004TOU30301.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
25

Valleron, Arthur, and Arthur Valleron. "Etude et optimisation de capteurs de gaz a base de dioxyde d'etain en conditions d'une ligne d'echappement automobile." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2011. http://tel.archives-ouvertes.fr/tel-00740252.

Повний текст джерела
Анотація:
Cette étude est dédiée à l'optimisation de capteurs chimiques de gaz de type résistifs à base de dioxyde d'étain (SnO2) pour l'application en ligne d'échappement automobile. Les capteurs sont élaborés par la technique de sérigraphie qui permet la production en masse de capteurs robustes sur substrat alumine. En vue de l'application automobile visée, les capteurs ont été optimisés par l'ajout d'une couche protectrice poreuse déposée sur l'élément sensible de SnO2. Le comportement de ces capteurs a été étudié en fonction de différents paramètres, comme la température et la vitesse des gaz, représentatifs de conditions d'échappement automobile. De plus, une modélisation " simple " de la réponse électrique des capteurs en fonction de la concentration d'un ou plusieurs gaz polluants cibles a été proposée.
Стилі APA, Harvard, Vancouver, ISO та ін.
26

Longnos, Florian. "Etude et optimisation des performances électriques et de la fiabilité de mémoires résistives à pont conducteur à base de chalcogénure/Ag ou d'oxyde métallique/Cu." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENT046.

Повний текст джерела
Анотація:
Les mémoires non-volatiles sont devenues récemment un moteur clé de la croissance du secteur des semiconducteurs, et constituent un pivot pour les nouvelles applications et les nouveaux concepts dans le domaine des technologies de l'information et de la communication (TIC). Afin de surmonter les limites en termes de miniaturisation, de consommation électrique et de complexité de fabrication des mémoires non-volatiles à grille flottante (FLASH), l'industrie des semiconducteurs évalue actuellement des solutions alternatives. Parmi celles-ci, les mémoires résistives à pont conducteur ou CBRAM (Conductive Bridge Random Access Memory), qui reposent sur la commutation de résistance d'un électrolyte par migration et oxydo/réduction d'ions métalliques, semblent être des plus prometteuses. L'attractivité de cette technologie innovante vient d'une part de la simplicité de sa structure à deux terminaux et d'autre part de ses performances électriques très prometteuses en termes de consommation électrique et vitesse d'écriture/effacement. De surcroît la CBRAM is une technology mémoire qui s'intègre facilement dans le back end of line (BEOL) du procédé CMOS standard. Dans cette thèse, nous étudions les performances électriques et la fiabilité de deux technologies CBRAM, utilisant des chalcogénures (GeS2) ou un oxyde métallique pour l'électrolyte. Tout d'abord nous nous concentrons sur les CBRAM à base de GeS2, ou l'effet du dopage de l'électrolyte avec de l'argent (Ag) ou de l'antimoine (Sb) est étudié à la lumière d'une analyse des caractérisations électriques. Les mécanismes physiques gouvernant la cinétique de commutation et la stabilité thermique sont aussi discutés sur la base de mesures électrique, d'un modèle empirique et des résultats de calculs ab initio. L'influence des différentes conditions de set/reset est étudiée sur une CBRAM à base d'oxyde métallique. Grâce à cette analyse, les conditions permettant de maximiser la fenêtre mémoire, améliorer l'endurance et minimiser la variabilité sont déterminées
Non-volatile memory technology has recently become the key driver for growth in the semiconductor business, and an enabler for new applications and concepts in the field of information and communication technologies (ICT). In order to overcome the limitations in terms of scalability, power consumption and fabrication complexity of Flash memory, semiconductor industry is currently assessing alternative solutions. Among them, Conductive Bridge Memories (CBRAM) rely on the resistance switching of a solid electrolyte induced by the migration and redox reactions of metallic ions. This technology is appealing due to its simple two-terminal structure, and its promising performances in terms of low power consumption, program/erase speed. Furthermore, the CBRAM is a memory technology that can be easily integrated with standard CMOS technology in the back end of line (BEOL). In this work we study the electrical performances and reliability of two different CBRAM technologies, specifically using chalcogenides (GeS2) and metal oxide as electrolyte. We first focus on GeS2-based CBRAM, where the effect of doping with Ag and Sb of GeS2 electrolyte is extensively investigated through electrical characterization analysis. The physical mechanisms governing the switching kinetics and the thermal stability are also addressed by means of electrical measurements, empirical model and 1st principle calculations. The influence of the different set/reset programming conditions is studied on a metal oxide based CBRAM technology. Based on this analysis, the programming conditions able to maximize the memory window, improve the endurance and minimize the variability are determined
Стилі APA, Harvard, Vancouver, ISO та ін.
27

Streiff, Kathy. "Optimisation de la production de semences hybrides de blé tendre : détermination des facteurs limitants." Vandoeuvre-les-Nancy, INPL, 1997. http://www.theses.fr/1997INPL023N.

Повний текст джерела
Анотація:
Dans la perspective d'améliorer le niveau et la régularité du rendement en semences hybrides, nous nous sommes intéresses aux facteurs limitants le potentiel des 2 lignées parentales. En ce qui concerne la lignée porte graine, en conditions contrôlées, deux doses d'ACH sont testées et sont comparées à la castration manuelle. Quel que soit le traitement, les stigmates restent réceptifs (c'est à dire que les grains de pollen peuvent y germer) pendant au moins 12 jours. Par contre, au niveau de la réceptivité des ovaires, une période de 7 jours est dégagée. Durant cette période, à la fois la quantité et la qualité de la production de semences sont optimales. Sur maître brin, ni l'intensité, ni la durée de réceptivité ne sont affectées par les traitements ACH. Les talles sont en revanche plus sensibles au surdosage d'ACH. Au niveau de la lignée pollinisatrice, nous montrons au champ que la production en semences est directement corrélée à la quantité de grains de pollen disséminés. Cette dissémination dépend du nombre de grains de pollen émis par la lignée pollinisatrice mais aussi de la vitesse et surtout de la direction du vent. La comparaison de 11 variétés pollinisatrices suggère que le paramètre longueur des anthères est un bon critère de sélection des lignées males puisque plus les anthères sont longues plus le nombre de grains de pollen émis par un épi est élève. Des situations limitantes (en eau ou en azote) se produisant à la méiose provoquent une stérilité mâle alors que les organes femelles ne sont pas affectés. De la même manière, l'utilisation de produits phytosanitaires (substances de croissance et fongicides) réduit la quantité et la qualité des grains de pollen émis. Nous en concluons que dans le cadre de la production de semences hybrides de blé, il faut être beaucoup plus vigilant aux conditions de croissance de la plante que lors d'une culture classique
Стилі APA, Harvard, Vancouver, ISO та ін.
28

Valleron, Arthur. "Etude et optimisation de capteurs de gaz a base de dioxyde d’etain en conditions d’une ligne d’echappement automobile." Thesis, Saint-Etienne, EMSE, 2011. http://www.theses.fr/2011EMSE0613/document.

Повний текст джерела
Анотація:
Cette étude est dédiée à l’optimisation de capteurs chimiques de gaz de type résistifs à base de dioxyde d’étain (SnO2) pour l’application en ligne d’échappement automobile. Les capteurs sont élaborés par la technique de sérigraphie qui permet la production en masse de capteurs robustes sur substrat alumine. En vue de l’application automobile visée, les capteurs ont été optimisés par l’ajout d’une couche protectrice poreuse déposée sur l’élément sensible de SnO2. Le comportement de ces capteurs a été étudié en fonction de différents paramètres, comme la température et la vitesse des gaz, représentatifs de conditions d’échappement automobile. De plus, une modélisation « simple » de la réponse électrique des capteurs en fonction de la concentration d’un ou plusieurs gaz polluants cibles a été proposée
This study is dedicated to the optimization of chemical gas sensors based on resistive type tin dioxide (SnO2) for automotive exhaust application. The sensors were produced by screen-printing technique which allows mass production of robust sensors on alumina substrate. In regards of the automotive application, the sensors were optimized by adding a porous protective layer deposited on the sensing element SnO2. The behaviour of this type of gas sensors was studied depending on gas parameters such as gas temperature and velocity, representative of real operation conditions. In addition, a “simple” modelisation of the electrical response of sensors depending on the concentration of one or more gaseous targets is proposed
Стилі APA, Harvard, Vancouver, ISO та ін.
29

Tanguy, Philippe. "Etude et optimisations d'une communication à haut débit par courant porteur en ligne pour l'automobile." Rennes, INSA, 2012. http://www.theses.fr/2012ISAR0015.

Повний текст джерела
Анотація:
Les automoniles embarquent de plus en plus d'électronique pour améliorer notre confort, notre sécurité,. . . Cependant, les constructeurs et équipementiers assistent à un engorgement des faisceaux de câbles. Nous proposons d'étudier un nouveau type de réseau de communication haut débit n'ajoutant pas de nouveaux câbles: le courant porteur en ligne (CPL). Tout d'abord, nous avons fait une étude de faisabilité avec des modems Indoor (standard HPAV & HD-PLC). Puis, nous avons étudié et caractérisé le canal de propagation CPL à partir de mesures faites sur quatre véhicules. Ensuite, une étude en simulation sur les paramêtres d'une transmission multi-porteuse montre que que nous pouvons augmenter l'espacement entre porteuses et réduire la taille de l'intervalle de garde comparé au standard HPAV. Enfin, nous avons réalisé un démonstrateur flexible qui utilise une plateforme radio logicielle USRP2. Les premiers tests confirment les résultats obtenus en simulation
The automotive industry use more and more electronic for comfort, for the security,. . . However, the manufacturers observed a bottleneck in wiring harnesses. We propose to study a new communication network which does not need new wires: the power line communication (PLC). In a first step, we realized a study of feasibilty with indoor modem (HPAV & HD-PLC standard). Then, we studied and characterized the in-vehicle PLC channel thanks to measurements on four vehicles. Afterwards, a study (simulations) on the parameters of a multicarrier modulation showed that we can increase the inter-carrier spacing and reduce the guard intervall length compared with HPAV. Finally, we realized a flexible demonstrator which use a software-defined radio platform USRP2. The first results are similar with the simulations
Стилі APA, Harvard, Vancouver, ISO та ін.
30

Caballero, Monteso Ricard Josep. "Teoremes de No Free Lunch en el continu i el model del Pont Brownià en optimització." Doctoral thesis, Universitat Autònoma de Barcelona, 2016. http://hdl.handle.net/10803/382825.

Повний текст джерела
Анотація:
Aquesta tesi consta principalment de dues parts. A la primera part, es generalitza a variable contínua un famós teorema en l'àmbit tèoric de l'optimització: El No-Free-Lunch Theorem, el qual diu que tots els algorismes són igual de bons quan es fa la mitjana de la seva eficiència sobre totes les possibles funcions a optimitzar. Aquesta generalització utilitza de manera molt natural la teoria de processos estocàstics, i arriba a la conclusió que no hi ha teoremes de No-Free-Lunch en el continu, excepte en determinats casos extrems de poca importància pràctica. A la segona part, s'ha considerat el Pont Brownià com un model probabilístic per a problemes d'optimització tipus “caixa negra”, en què no es té cap forma analítica de la funció, sinó que aquesta només pot ser avaluada en un nombre determinat de punts, i a més a més, considerant que cadascuna d'aquestes avaluacions és molt costosa de fer, i per tant només se'n faran unes quantes. El model probabilístic considera que la funció a optimitzar és una trajectòria d'un procés amb una determinada llei. Des del punt de vista de la complexitat computacional, això correspon a estudiar el “average performance” d'algorismes, en front de l'habitual “worst-case performance”. Però això es fa sempre des del punt de vista asimptòtic, quan el nombre d'avaluacions tendeix a infinit, i un dels objectius d'aquesta tesi se centra en la millora de l'estimació del valor òptim quan només es pot avaluar la funció en pocs punts. En aquest sentit, i en un estudi que mancava a la literatura, es comparen i analitzen diverses heurístiques adaptatives i no-adaptatives, arribant a la conclusió de quina és més eficient. D'altra banda, el treball amb el Pont Brownià, ha donat lloc a dues fórmules no explicitades anteriorment, la densitat de l'argument del mínim del Pont Brownià i la densitat conjunta del Pont Brownià i del seu mínim. A més, en aquesta tesi es realitzen molts experiments de simulació per calcular quantitats que són molt difícils, costoses o impossibles d'obtenir analíticament. Seguint una filosofia de practicitat, s'han programat rutines, com per exemple l'histograma de l'argument del mínim d'un Pont Brownià condicionat a n punts, que obtenen una estimació probabilística raonable de l'error comès.
This Ph.D. thesis consists mainly of two parts. In the first part, a famous theorem in the field of theoretical optimisation is generalised to continuous variable: The No-Free-Lunch Theorem, which states that all algorithms are equally good when one averages its efficiency over all possible functions to optimise. This generalisation uses in a very natural way the theory of stochastic processes, and concludes that there are no No-Free-Lunch theorems in the continuum, except for certain extreme cases of little practical significance. In the second part, the Brownian Bridge has been considered as a probabilistic model for optimisation problems of the "black box" type, in which we do not have an analytical form of the function, but that the latter can only be evaluated in a certain number of points. Moreover, we consider that each of these evaluations are very expensive, so that only a few of them will be made. The probabilistic model considers that the function to optimise is a path of a stochastic process with a given probability law. From the point of view of computational complexity, this study corresponds to the "average performance" of algorithms, versus the usual "worst-case performance". But this has always been done before from the asymptotic standpoint, when the number of evaluations tends to infinity, and one of the goals of this thesis focuses on improving the estimation of the optimal value when the function can only be evaluated in a few points. In this regard, in a study that was missing in the literature, we compare and analyze several heuristics, adaptive and non-adaptive, concluding which one is most efficient. Moreover, in working with Brownian bridge, we found two formulae not given explicitly before, namely the density of the argument of the Brownian bridge (in the general setting) and the joint density of a bridge and its minimum. In addition, in this thesis many simulation experiments have been performed to calculate quantiites that are difficult, expensive or impossible to obtain analytically. Following a philosophy of practicality, some routines have been programmed, such as the histogram of the argument of the minimum of the Brownian Bridge conditioned to n points, that get a reasonable probabilistic estimate of the error incurred.
Стилі APA, Harvard, Vancouver, ISO та ін.
31

Garcia, Lorca Federico. "Filtres récursifs temps réel pour la détection de contours : optimisations algorithmiques et architecturales." Paris 11, 1996. http://www.theses.fr/1996PA112439.

Повний текст джерела
Анотація:
Dans cette thèse on s'intéresse à deux aspects différents : conceptuel et réalisationel, sur lesquels portent les quatre innovations présentées. Si celles-ci sont illustrées par une application au détecteur de contours de Deriche, elles sont facilement généralisables à d'autres détecteurs qu'ils soient basés sur le calcul de maxima locaux de la dérivée première, ou le calcul des passages par zéro du laplacien. Les filtres à réponse impulsionnelle infinie symétriques ou anti-symétriques peuvent être réalisés sous forme cascade. Le filtre de lissage peut être défini par intégration numérique du filtre dérivateur optimal. Tout filtre détecteur de contours à noyau large peut être considéré comme un filtre de lissage bidimensionnel à noyau large suivi d'un simple filtre Sobel. L’utilisation d'opérateurs blocs série offre le meilleur compromis surface rapidité pour l'intégration en ASICS ou FPGAS. Nous proposons une architecture câblée temps réel optimale en compacité et simplicité de la version récursive du filtre détecteur de contours de Deriche. Nous exposons la méthode qui conduit à notre solution. A travers cette expérience, nous souhaitons transmettre aux concepteurs d'outils de CAO un certain nombre d'idées qui doivent à notre avis être exploitées afin que des outils tels que les graphes flots de données ou les langages synchrones assistent efficacement l'architecte dans les problèmes d'ordonnancement, d'allocation et de repliement temporel du graphe vers l'architecture.
Стилі APA, Harvard, Vancouver, ISO та ін.
32

Pham, Viet Nga. "Programmation DC et DCA pour l'optimisation non convexe/optimisation globale en variables mixtes entières : Codes et Applications." Phd thesis, INSA de Rouen, 2013. http://tel.archives-ouvertes.fr/tel-00833570.

Повний текст джерела
Анотація:
Basés sur les outils théoriques et algorithmiques de la programmation DC et DCA, les travaux de recherche dans cette thèse portent sur les approches locales et globales pour l'optimisation non convexe et l'optimisation globale en variables mixtes entières. La thèse comporte 5 chapitres. Le premier chapitre présente les fondements de la programmation DC et DCA, et techniques de Séparation et Evaluation (B&B) (utilisant la technique de relaxation DC pour le calcul des bornes inférieures de la valeur optimale) pour l'optimisation globale. Y figure aussi des résultats concernant la pénalisation exacte pour la programmation en variables mixtes entières. Le deuxième chapitre est consacré au développement d'une méthode DCA pour la résolution d'une classe NP-difficile des programmes non convexes non linéaires en variables mixtes entières. Ces problèmes d'optimisation non convexe sont tout d'abord reformulées comme des programmes DC via les techniques de pénalisation en programmation DC de manière que les programmes DC résultants soient efficacement résolus par DCA et B&B bien adaptés. Comme première application en optimisation financière, nous avons modélisé le problème de gestion de portefeuille sous le coût de transaction concave et appliqué DCA et B&B à sa résolution. Dans le chapitre suivant nous étudions la modélisation du problème de minimisation du coût de transaction non convexe discontinu en gestion de portefeuille sous deux formes : la première est un programme DC obtenu en approximant la fonction objectif du problème original par une fonction DC polyèdrale et la deuxième est un programme DC mixte 0-1 équivalent. Et nous présentons DCA, B&B, et l'algorithme combiné DCA-B&B pour leur résolution. Le chapitre 4 étudie la résolution exacte du problème multi-objectif en variables mixtes binaires et présente deux applications concrètes de la méthode proposée. Nous nous intéressons dans le dernier chapitre à ces deux problématiques challenging : le problème de moindres carrés linéaires en variables entières bornées et celui de factorisation en matrices non négatives (Nonnegative Matrix Factorization (NMF)). La méthode NMF est particulièrement importante de par ses nombreuses et diverses applications tandis que les applications importantes du premier se trouvent en télécommunication. Les simulations numériques montrent la robustesse, rapidité (donc scalabilité), performance et la globalité de DCA par rapport aux méthodes existantes.
Стилі APA, Harvard, Vancouver, ISO та ін.
33

Delaunay, Xavier. "Compression d'images satellite par post-transformées dans le domaine ondelettes." Phd thesis, Toulouse, INPT, 2008. http://oatao.univ-toulouse.fr/7746/1/delaunay.pdf.

Повний текст джерела
Анотація:
Le CNES s'intéresse aux nouvelles transformées pour accroître les performances de la compression d'images à bord des satellites d'observation de la Terre. Dans cette thèse nous étudions les post-transformées. Elles sont appliquées après la transformée en ondelettes. Chaque bloc de coefficients d'ondelettes est de nouveau transformé dans une base sélectionnée dans un dictionnaire par minimisation d'un critère débit-distorsion. Nous commençons par mettre en évidence des dépendances entre coefficients d'ondelettes qui limitent les performances en compression. Nous étudions ensuite la transformée en bandelettes par blocs, qui est à l'origine des post-transformées, et nous en optimisons les paramètres pour la compression d'images satellite. En particulier nous adaptons la méthode d'optimisation de Shoham et Gersho à la sélection de la meilleure base de bandelettes. Nous en déduisons une formule du multiplicateur de Lagrange optimal quiintervient dans le critère de sélection. Dans un deuxième temps, nous analysons les dépendances entre coefficients d'ondelettes qui ne sont pas prises en comptes par les bandelettes et nous définissons de nouvelles bases de post-transformées. Les bases construites par ACP minimisent les corrélations entre coefficients post-transformés et compactent l'énergie de chaque bloc sur un petit nombre de coefficients. Cette propriété est exploitée lors du codage entropique. Enfin, nous modifions le critère de sélection des bases pour adapter la post-transformée à une compression progressive. Nous employons alors la post-transformée de Hadamard dans le codeur du CCSDS le tout ayant une faible complexité calculatoire.
Стилі APA, Harvard, Vancouver, ISO та ін.
34

Herr, Nathalie. "Contribution à l'ordonnancement post-pronostic de plateformes hétérogènes et distribuées : approches discrète et continue." Thesis, Besançon, 2015. http://www.theses.fr/2015BESA2049/document.

Повний текст джерела
Анотація:
Cette thèse propose une approche originale d’ordonnancement de la production de plates-formes de machines hétérogènes et distribuées, utilisées en parallèle pour fournir un service global commun. L’originalité de la contribution réside dans la proposition de modifier les conditions opératoires des machines au cours de leur utilisation. Il est supposé qu'utiliser une machine avec des performances dégradées par rapport à un fonctionnement nominal permet d'allonger sa durée de vie avant maintenance. L’étude s’inscrit dans la partie décisionnelle du PHM (Prognostics and Health Management), au sein duquel une étape de pronostic permet de déterminer les durées de vie résiduelles des machines. Le problème d’optimisation consiste à déterminer à chaque instant l’ensemble des machines à utiliser et un profil de fonctionnement pour chacune d’entre elles de manière à maximiser l’horizon de production de la plate-forme avant maintenance. Deux modèles sont proposés pour la définition des profils de fonctionnement. Le premier traduit le comportement à l'usure de machines pouvant fournir un nombre discret de performances. Pour ce cas, la complexité de plusieurs variantes du problème d'optimisation est étudiée et plusieurs méthodes de résolution optimales et sous-optimales sont proposées pour traiter le problème d'ordonnancement. Plusieurs méthodes de résolution sous-optimales sont ensuite proposées pour le second modèle, qui s'applique à des machines dont le débit peut varier de manière continue entre deux bornes. Ces travaux permettent de déterminer la durée maximale d’utilisation avant défaillance d’un système à partir des durées de vie résiduelles des équipements qui le composent
This thesis addresses the problem of maximizing the production horizon of a heterogeneous distributed platform composed of parallel machines and which has to provide a global production service. Each machine is supposed to be able to provide several throughputs corresponding to different operating conditions. It is assumed that using a machine with degraded performances compared to nominal ones allows to extend its useful life before maintenance. The study falls within the decisional step of PHM (Prognostics and Health Management), in which a prognostics phase allows to determine remaining useful lives of machines. The optimization problem consists in determining the set of machines to use at each time and a running profile for each of them so as to maximize the production horizon before maintenance. Machines running profiles are defined on the basis of two models. First one depicts the behavior of machines used with a discrete number of performances. For this case, the problem complexity is first studied considering many variants of the optimization problem. Several optimal and sub-optimal resolution methods are proposed to deal with the scheduling problem. Several sub-optimal resolution methods are then proposed for the second model, which applies to machines whose throughput rate can vary continuously between two bounds. These research works allow to determine the time before failure of a system on the basis of its components remaining useful lives
Стилі APA, Harvard, Vancouver, ISO та ін.
35

Duran, Ozlem. "Evaluation of retrofitting strategies for post-war office buildings." Thesis, Loughborough University, 2018. https://dspace.lboro.ac.uk/2134/32268.

Повний текст джерела
Анотація:
The energy used in non-domestic buildings accounts for 18 % of the energy use in the UK. Within the non-domestic building stock, 11 % of office buildings have a very high influence on the energy use. Thus, the retrofit of office buildings has a significant potential for energy efficiency and greenhouse gas emissions reduction within the non-domestic building stock. However, the replacement rate of existing buildings by new-build is only around 1-3 % per annum. Post-war office buildings, (built between 1945 and 1985) represent a promising sector for retrofit and energy demand reduction. They have disproportionately high energy consumption because many were built before the building regulations addressed thermal performance. The aim of the research is to evaluate the retrofit strategies for post-war office buildings accounting for the improved energy efficiency, thermal comfort and hence, productivity, capital and the running costs. The research seeks to provide the optimal generic retrofit strategies and illustrate sophisticated methods which will be the basis for guidelines about post-war office building retrofit. For this, multiple combinations of heating and cooling retrofit measures were applied to representative models (Exemplar) of post-war office buildings using dynamic thermal simulation modelling. The retrofit strategies include; applying envelope retrofit to UK Building Regulations Part L2B and The Passivhaus Institue EnerPHit standards for heating demand reduction and winter comfort. Passive cooling interventions such as shading devices and night ventilation and active cooling intervention such as mixed-mode ventilation were applied to overcome summer overheating. All retrofit combinations were evaluated considering future climate, inner and outer city locations and different orientations. In summary, the results showed that under current weather conditions Part L2B standard retrofit with passive cooling provided the optimum solution. In 2050, however, both Part L2B retrofit naturally ventilated cases with the passive cooling measures and EnerPHit retrofit mixed-mode ventilation cases provide the requisite thermal comfort and result in a similar range of energy consumption. It was concluded that to create generic retrofit solutions which could be applied to a given typology within the building stock is possible. The methodology and the Exemplar model could be used in future projects by decision-makers and the findings and analysis of the simulations could be taken as guidance for the widespread retrofit of post-war office buildings.
Стилі APA, Harvard, Vancouver, ISO та ін.
36

Benhidjeb, Ali. "Contribution à l'étude de la commande d'un système de type pont roulant : comparaison expérimentale des méthodes analytiques et floues." Mulhouse, 1995. http://www.theses.fr/1995MULH0370.

Повний текст джерела
Анотація:
Le problème du chargement consiste à optimiser la trajectoire ainsi que le temps mis pour parcourir celle-ci par une charge entre un point de prélèvement et un autre, de livraison. Dans ce contexte, différentes approches ont été envisagées, et différentes commandes telles que la commande classique, commande adaptative, commande non linéaire, commande en temps minimum, commande optimale (LQG), etc. Les travaux que nous avons entrepris dans ce domaine tiennent compte de ces trois impératifs de base suivants : utilisabilité des algorithmes en temps réel compte tenu des derniers progrès de la micro - électronique, hypothèses simplificatrices telles que le modèle reste représentatif du comportement réel et industriel du système, et prise en compte des diverses perturbations possibles. Ce dernier point nécessite une étude de robustesse des algorithmes de contrôle. Nous avons implémenté et comparé les deux types de contrôles suivants sur une maquette de pont roulant, contrôle analytique et contrôle flou. Ces expérimentations et leurs résultats nous ont permis de montrer les limites de la commande analytique face à des états non mesurables (ou partiellement mesurables), ou bien, face a des perturbations non modélisables. L'utilisation du contrôleur fondé sur la logique floue et la théorie des possibilités a permis de résoudre la majorité des problèmes rencontrés en commande analytique, à savoir l'erreur de mesure permanente sur l'angle de déviation de la charge, insensibilité du contrôleur face aux variations de la masse transportée, facilité d'implémentation du contrôleur, absence de modèle mathématique qui est en général restrictif, et bien sûr, contrôle de la position de la charge tout au long du trajet et au point de consigne, même en présence de perturbations constantes sur la charge
Стилі APA, Harvard, Vancouver, ISO та ін.
37

Carriço, Nuno Filipe Marques. "Transformer approaches on hyper-parameter optimization and anomaly detection with applications in stream tuning." Master's thesis, Universidade de Évora, 2022. http://hdl.handle.net/10174/31068.

Повний текст джерела
Анотація:
Hyper-parameter Optimisation consists of finding the parameters that maximise a model’s performance. However, this mainly concerns processes in which the model shouldn’t change over time. Hence, how should an online model be optimised? For this, we pose the following research question: How and when should the model be optimised? For the optimisation part, we explore the transformer architecture as a function mapping data statistics into model parameters, by means of graph attention layers, together with reinforcement learning approaches, achieving state of the art results. On the other hand, in order to detect when the model should be optimised, we use the transformer architecture to empower already existing anomaly detection methods, in this case, the Variational Auto Encoder. Finally, we join these developed methods in a framework capable of deciding when an optimisation should take part and how to do it, aiding the stream tuning process; Sumário: Abordagens de Transformer em Optimização de Hiper-Parâmetros e Deteção de Anomalias com Aplicações em Stream Tuning Optimização de hiper parâmetros consiste em encontrar os parâmetros que maximizam a performance de um modelo. Contudo, maioritariamente, isto diz respeito a processos em que o modelo não muda ao longo do tempo. Assim, como deve um modelo online ser optimizado? Para este fim, colocamos a seguinte pergunta: Como e quando deve ser o modelo optimizado? Para a fase de optimização, exploramos a arquitectura de transformador, como uma função que mapeia estatísticas sobre dados para parâmetros de modelos, utilizando atenção de grafos junto de abordagens de aprendizagem por reforço, alcançando resultados de estado da arte. Por outro lado, para detectar quando o modelo deve ser optimizado, utilizamos a arquitectura de transformador, reforçando abordagens de detecção de anomalias já existentes, o Variational Auto Encoder. Finalmente, juntamos os métodos desenvolvidos numa framework capaz de decidir quando se deve realizar uma optimização e como o fazer, auxiliando o processo de tuning em stream.
Стилі APA, Harvard, Vancouver, ISO та ін.
38

Parra, Martinez Juan Pablo. "On multilayered system dynamics and waves in anisotropic poroelastic media." Doctoral thesis, KTH, VinnExcellence Center for ECO2 Vehicle design, 2016. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-195801.

Повний текст джерела
Анотація:
The mechanical and acoustic anisotropy of media is a governing factor in the behaviour of multilayered systems including such media. The understanding of the mechanisms conditioning the dynamic behaviour of multilayered systems is of paramount importance. In particular, the intrinsic anisotropy of poroelastic media presents a potential for the optimal design of systems for multifunctional performances. Indeed, these multilayered systems are bound by stiffness, thermal and acoustic performance constraints in simultaneously. A plane wave method is presented to study the influence of material orientation in the dynamic behaviour of multilayered systems composed of anisotropic poroelastic media. The method is applied to a system composed of an anisotropic open-celled melamine foam core in between two metal sheets. This particular multilayered configuration allows to shed light on phenomena intrinsic to layers composed of anisotropic poroelastic materials, such as the frequency shift of the fundamental resonance of the panel, or the compression-shear coupling effects taking place in the poroelastic core layers. The latter phenomena is of particular importance, as it is evidenced on the unconventional polarisation of waves in anisotropic poroelastic media. Finally, the method is adapted to the optimisation of multilayered systems for acoustic performance. the design variables are consequently the core material orientations with respect to the global coordinate system. The solutions to the optimisation problem are analysed in terms of dynamic behaviour, thus allowing to correlate acoustic performance of the overall structure, and the response of each individual layer.

QC 20161110

Стилі APA, Harvard, Vancouver, ISO та ін.
39

Bosco, Gilles. "Synthèse et décomposition technologique sur réseaux programmables et ASICs." Phd thesis, Grenoble INPG, 1996. http://tel.archives-ouvertes.fr/tel-00346210.

Повний текст джерела
Анотація:
Cette thèse s'intéresse d'une part au problème de décomposition technologique orienté surface sur des réseaux programmables de type FPGAs (Field Programmable Gate Arrays) et d'autre part à la synthèse des macro-générateurs sur ASICs et plus précisément de la synthèse des additionneurs. La décomposition s'articule autour de deux axes essentiels: tout d'abord, il s'agit d'optimiser la taille de la représentation des fonctions booléennes. Les représentations de base choisies ici sont les ROBDDs (Reduced Ordered Binary Decision Diagrams) ainsi qu'une structure dérivée, les ITE (If Then Else). La deuxième étape concerne la décomposition proprement dite. Les technologies cibles sont ici des FPGAs à base de LUT-k (Look Up Table), en particulier les FPGAs XC5200 de Xilinx et Orca de AT&T. Les deux méthodes de décomposition technologique orienté surface proposées permettent une décomposition hétérogène en prenant en compte non pas une seule configuration mais un ensemble de configurations possibles de la cellule cible. La première méthode est fondée sur un parcours descendant et optimisé du ROBDD. La seconde méthode s'appuie sur une modélisation en recouvrement d'hypergraphe du problème de décomposition technologique. Dans les deux méthodes, le coût exact en terme de surface finale du circuit est pris en compte à chaque étape de la décomposition. L'étude menée dans la deuxième partie de la thèse sur la macro-génération conduit dans un premier temps à l'exploration de l'espace des solutions possibles puis à l'optimisation d'une solution sélectionnée par un algorithme de dérivation discrète. L'utilisation d'un filtre permet la restriction de l'espace des solutions à explorer et d'autre part guide le processus de dérivation en éliminant les solutions trivialement médiocres. La combinaison des processus d'exploration et de dérivations permet la génération de macros dont les caractéristiques physiques sont les plus proches possibles de celles fixées par un utilisateur potentiel. Ces méthodes ont été intégrées au sein d'un outil universitaire ASYL+ développé au laboratoire CSI
Стилі APA, Harvard, Vancouver, ISO та ін.
40

McFerran, Ethna. "Health economic evaluation of alternatives to current surveillance in colorectal adenoma at risk of colorectal cancer." Thesis, Queen's University Belfast, 2018. https://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.766286.

Повний текст джерела
Анотація:
The thesis provides a comprehensive overview of key issues affecting practice, policy and patients, in current efforts for colorectal cancer (CRC) disease control. The global burden of CRC is expected to increase by 60% to more than 2.2 million new cases and 1.1 million deaths by 2030. CRC incidence and mortality rates vary up to 10-fold worldwide, which is thought to reflect variation in lifestyles, especially diet. Better primary prevention, and more effective early detection, in screening and surveillance, are needed to reduce the number of patients with CRC in future1. The risk factors for CRC development include genetic, behavioural, environmental and socio-economic factors. Changes to surveillance, which offer non-invasive testing and provide primary prevention interventions represent promising opportunities to improve outcomes and personalise care in those at risk of CRC. By systematic review of the literature, I highlight the gaps in comparative effectiveness analyses of post-polypectomy surveillance. Using micro-simulation methods I assess the role of non-invasive, faecal immunochemical testing in surveillance programmes, to optimise post-polypectomy surveillance programmes, and in an accompanying sub-study, I explore the value of adding an adjunct diet and lifestyle intervention. The acceptability of such revisions is exposed to patient preference evaluation by discrete choice experiment methods. These preferences are accompanied by evidence generated from the prospective evaluation of the health literacy, numeracy, sedentary behaviour levels, body mass index (BMI) and information provision about cancer risk factors, to highlight the potential opportunities for personalisation and optimisation of surveillance. Additional analysis examines the optimisation of a screening programme facing colonoscopy constraints, highlighting the attendant potential to reduce costs and save lives within current capacity.
Стилі APA, Harvard, Vancouver, ISO та ін.
41

Tasselli, Josiane. "Etude et realisation de structures bipolaires particulieres a heterojonction gaas-gaaias : application aux circuits integres de type ecl." Toulouse 3, 1986. http://www.theses.fr/1986TOU30019.

Повний текст джерела
Анотація:
Ce memoire presente l'etude et la realisation d'un circuit integre bipolaire de type ecl sur arseniure de gallium. Une etude theorique de transistors bipolaires a double heterojonction a montre l'influence determinante de la jonction collecteur-base, notamment de sa gradualite, sur leur comportement electrique. Ces resultats ont pu etre confirmes par une analyse experimentale a partir de structures realisees par epitaxie en phase liquide. La simulation et l'optimisation d'un oscillateur en anneau a base de simples heterotransistors et mettant en oeuvre le logiciel astec iii, ont permis de calculer des temps de propagation par porte de 20 ps pour une puissance consommee de 4 mw; ceci confirme les potentialites de la filiere logique bipolaire sur asga. Enfin, un oscillateur en anneau a 3 portes ecl a ete concu et realise par les technologies d'epitaxie en phase liquide et d'attaques mesas, a partir d'un processus nouveau sur substrat semi-isolant. La faisabilite d'un circuit integre bipolaire asga a ainsi ete montree
Стилі APA, Harvard, Vancouver, ISO та ін.
42

Kelareva, Elena. "Ship scheduling with time-varying draft restrictions: a case study in optimisation with time-varying costs." Phd thesis, 2014. http://hdl.handle.net/1885/12367.

Повний текст джерела
Анотація:
In the last few decades, optimisation problems in maritime transportation have received increased interest from researchers, since the huge size of the maritime transportation industry means that even small improvements in efficiency carry a high potential benefit. One area of maritime transportation that has remained under-researched is the impact of draft restrictions at ports. Many ports have restrictions on ship draft (distance between the waterline and the keel) which vary over time due to variation in environmental conditions. However, existing optimisation problems in maritime transportation ignore time variation in draft restrictions, thus potentially missing out on opportunities to load more cargo at high tide when there is more water available for the ship to sail in, and more cargo can be loaded safely. This thesis introduces time-varying restrictions on ship draft into several optimisation problems in the maritime industry. First, the Bulk Port Cargo Throughput Optimisation Problem is introduced. This is a novel problem that maximises the amount of cargo carried on a set of ships sailing from a draft-restricted bulk export port. A number of approaches to solving this problem are investigated, and a commercial system - DUKC Optimiser - based on this research is discussed. The DUKC Optimiser system won the Australia-wide NASSCOM Innovation Student Award for IT-Enabled Business Innovation in 2013. The system is now in use at Port Hedland, the world's largest bulk export port, after an investigation showed that it had the potential to increase export revenue at the port by $275 million per year. The second major contribution of this thesis is to introduce time-varying restrictions on ship draft into several larger problems involving ship routing and scheduling with speed optimisation, starting from a problem involving optimising speeds for a single ship travelling along a fixed route, and extending this approach to a cargo routing and scheduling problem with time-varying draft restrictions and speed optimisation. Both the Bulk Port Cargo Throughput Optimisation Problem and the speed optimisation research shows that incorporating time-varying draft restrictions into maritime transportation problems can significantly improve schedule quality, allowing more cargo to be carried on the same set of ships and reducing shipping costs. Finally, this thesis also considers issues beyond time-varying draft restrictions in the maritime industry, and investigates approaches in the literature for solving optimisation problems with time-varying action costs. Several approaches are investigated for their potential to be generalisable between different applications, and faster, more efficient approaches are found for both the Bulk Port Cargo Throughput Optimisation problem, and another problem in maritime transportation - the Liner Shipping Fleet Repositioning Problem.
Стилі APA, Harvard, Vancouver, ISO та ін.
43

Lopes, Lucas Matheus Caldas Vicente. "Development and optimisation of a prefabricated modular house for the Porto region." Master's thesis, 2021. http://hdl.handle.net/1822/76947.

Повний текст джерела
Анотація:
Dissertação de mestrado em Sustainable Built Environment
The building stock is responsible for 40% of the energy consumption and 36% of greenhouse gas emissions in Europe. The European Energy Performance of Building Directive (EPBD) established instructions to promote building energy performance to mitigate this problem. Since its first publication in 2002, energy efficiency has been increasingly promoted. In particular, the 2010 recast introduced the nearly zero energy building concept (nZEB), a cost-effective building with low energy demand while having most of its energy demand supplied by renewable energy sources (RES). The procedure for developing a nZEB building includes a cost-optimal assessment of the elements and systems of the buildings, which is the cost-effective comparison between reference building solutions and the proposed building solutions. The cost-optimal assessment has fomented researches aiming to find more cost-effective and energy-efficient building solutions. Furthermore, building methods such as modular and offsite construction have been studied for their possible contribution to increasing cost-effectiveness, energy efficiency, and sustainability. In this context, this study focused on developing a modular solution for the external walls to be used in prefabricated housing. The methodology developed in this dissertation includes developing a catalogue for existing modular solutions, designing the studied building, simulating, and optimizing results, and the cost-optimal analysis of the achieved results for a single-family housing. The data was gathered through a Building Energy Model (BEM) analysis in the software Design-Builder running the Energy-Plus engine simulation. The cost-optimal analysis was performed by comparing different combinations of optimised external envelope options and building solutions. The study analysis shows that an external building envelope can be achieved with lower initial and global costs and lower energy needs than traditional construction. This study shows that the cost-optimal solution for the designed building is a light steel frame panel with an MDF wood façade panel of 22mm, an internal OSBIII panel of 15mm and 90mm Mineral wool insulation material.
O ambiente construído é responsável por 40% da energia consumida e 36% das emissões de gases com efeito de estufa na Europa. A Diretiva para o Desempenho Energéticos dos Edifícios (EPBD) estabeleceu instruções para promover o desempenho energético e térmico de edifícios para mitigar este problema. Desde a primeira publicação em 2002, a eficiência energética vem sendo fomentada. Em particular, a reformulação em 2010 introduziu o conceito de edifícios com necessidades quase nulas de energia (nZEB), um edifício custoeficaz com baixas necessidades energética que tem a maior parte dessas necessidades sendo fornecida por energias renováveis. O procedimento de desenvolvimento de um nZEB inclui a análise de custo óptimo dos sistemas e elementos do edifício, comparando entre a solução de referência e as soluções propostas. A análise de custo óptimo fomenta pesquisas focadas em achar mais soluções de melhor custo eficácia e de eficiência energética. Ademais, métodos de construção como edifícios modulares e pré-fabricados são estudados por possíveis contribuições para aumento de custo eficácia, eficiência energética e sustentabilidade. Neste contexto, este estudo focou-se no desenvolvimento de uma solução modular para paredes externas para ser utilizada em habitações pré-fabricadas. A metodologia desenvolvida nesta dissertação inclui o desenvolvimento de um catálogo para soluções modulares existentes, a criação do projeto de estudo, simulação e optimização, e análise de custo ótimo para uma habitação unifamiliar. Os dados foram recolhidos por meio de uma análise de um modelo energético de construção (BEM) pelo software Design-Builder utilizando o motor de simulação do Energy-Plus. A análise de custo óptimo foi feita comparando diferentes combinações de envolvente externa optimizada. A análise de estudo mostrou que é possível alcançar uma envolvente com custo inicial, custo total e necessidades energéticas menores quando comparada com a construção tradicional que se pratica no contexto português. Este estudo mostra que a solução de custo óptimo para o edifício projetado é um painel com estrutura em construção metálica leve (LSF), com um placa de madeira MDF de 22 mm na fachada, uma placa interna de painel estrutural com fibras orientadas de madeira (OSB) III de 15 mm, e o isolamento em lã mineral de 90 mm.
Стилі APA, Harvard, Vancouver, ISO та ін.
44

Alves, Vítor Hugo Pereira. "Optimisation of synthesis, purification and reformulation of (R)-[N-methyl-¹¹C] PK11195 for in vivo PET imaging studies." Master's thesis, 2012. http://hdl.handle.net/10316/26005.

Повний текст джерела
Анотація:
A inflamação, em geral, é uma resposta fisiológica do corpo para com diferentes tipos de lesão do tecido, provocando uma cascata coordenada de reacções celulares e bioquímicas. Distúrbios neurodegenerativos, inflamatórios e neoplásicos envolvem reacções neuroinflamatórias que isolam o tecido danificado e promovem respostas imunitárias. Da mesma forma, a neuroinflamação (NI) implica uma complexa e orquestrada resposta a vários estímulos no sistema nervoso central (SNC), com vista para a preservação do tecido e sua restauração. Reacções neuroinflamatórias envolvem uma resposta celular através da activação de células da linhagem do monócito, residentes ou circulantes. Microglia são as células residentes da linhagem dos monócitos no SNC e a sua activação, constitui uma característica principal da neuroinflamação. O processo envolve uma sobre expressão dos receptores da proteína translocadora de 18 kDa (TSPO) em células da linhagem dos monócitos/macrófagos e, no sistema nervoso central (SNC), pela activação da microglia. PK11195 é um ligando selectivo para o receptor da TSPO e, portanto, um identificador da microglia activada. O enantiómero (R) marcado radioactivamente com carbono-11, (R)-[N-metil-11 C]PK11195, é o radiotraçador mais utilizado para imagiologia in vivo da TSPO com PET. Neste trabalho, reportamos a optimização da síntese, purificação e reformulação de (R)-[N-metil-11 C] PK11195 pelo ‘captive solvente method’ com a finalidade de ser utilizado para imagem in vivo em estudos de PET. Carbono-11 é obtido sob a forma de [ 11 C]CO2 por irradiação de um alvo de gás (N2+O2 0,5%), utilizando a reacção nuclear 14 N(p,α) 11 C num ciclotrão. [ 11 C]CH3I é produzido por redução de [ 11 C]CO2 com LiAlH4/THF (0,1 M) via ‘fase liquida’ a [ 11 C]CH3OLi, e pela adição posterior de HI em um sistema de produção de iodeto de metilo, o [ 11 C]CH3I é destilado a 120ºC. Ao mesmo tempo, o [ 11 C]CH3I destilado é aprisionado num loop previamente carregado com uma solução da molécula precursora desmetilada (R)-[N-desmetil]PK11195 (dissolvida em 100μl de DMSO e saturada com 30mg de KOH), iniciando-se a reacção ao mesmo tempo que se aprisiona o [ 11 C]CH3I. Produtos da reacção ([11C]-X) passam por uma coluna HPLC semipreparativa de fase reversa (C18) para purificação. Finalmente, (R)-[N-metil-11 C]PK11195 foi formulado em 9ml de soro fisiológico (0,9%) e 1ml de EtOH e filtrado através de um filtro esterilizado de membrana de 0,22μm. O processo de síntese realiza-se em cerca de 35 minutos, e testes de controlo de qualidade foram realizados para garantir a boa qualidade do produto. 149,71±50,25mCi de vi (R)-[ 11 C]PK11195 foram obtidos no final da síntese com actividades específicas entre 15-25GBq/μmol num curto período de síntese. O ‘captive solvente loop’ proporciona uma maneira fácil e reprodutível para automatizar a produção de rotina de radiofármacos marcados com 11 C para uso humano. O método de produção é rápida, tendo em conta a curta meia-vida do carbono-11 (20,4 min), podendo-se produzir produtos finais com elevada pureza radioquímica e boa actividade específica. Palavras Chave: [ 11 C]PK11195, carbono-11, captive solvent loop, ‘wet’ method, [ 11 C]CO2, [ 11 C]CH3I, neuroinflamação, microglia, TSPO, PET
Стилі APA, Harvard, Vancouver, ISO та ін.
45

Marchão, Carla Alexandra da Cruz. "Optimisation and design of post-tensioning anchorage corner blisters in concrete box girder bidges." Doctoral thesis, 2015. http://hdl.handle.net/10362/16071.

Повний текст джерела
Анотація:
The design of anchorage blisters of internal continuity post-tensioning tendons of bridges built by the cantilever method, presents some peculiarities, not only because they are intermediate anchorages but also because these anchorages are located in blisters, so the prestressing force has to be transferred from the blister the bottom slab and web of the girder. The high density of steel reinforcement in anchorage blisters is the most common reason for problems with concrete cast in situ, resulting in zones with low concrete compacity, leading to concrete crushing failures under the anchor plates. A solution may involve improving the concrete compression and tensile strength. To meet these requirements a high-performance fibre reinforced self-compacting mix- ture (HPFRC) was used in anchorage corner blisters of post-tensioning tendons, reducing the concrete cross-section and decreasing the reinforcement needed. To assess the ultimate capacity and the adequate serviceability of the local anchorage zone after reducing the minimum concrete cross-section and the confining reinforcement, specified by the anchorage device supplier for the particular tendon, load transfer tests were performed. To investigate the behaviour of anchorage blisters regarding the transmission of stresses to the web and the bottom slab of the girder, and the feasibility of using high performance concrete only in the blister, two half scale models of the inferior corner of a box girder existing bridge were studied: a reference specimen of ordinary reinforced concrete and a HPFRC blister specimen. The design of the reinforcement was based in the tensile forces obtained on strut-and-tie models. An experimental program was carried out to assess the models used in design and to study the feasibility of using high performance concrete only in the blister, either with casting in situ, or with precast solutions. A non-linear finite element analysis of the tested specimens was also performed and the results compared.
Стилі APA, Harvard, Vancouver, ISO та ін.
46

Silva, Magda Filipa Carvalho. "Application of ICP-MS in the optimisation of a new methodology for 68Ga production in a PET dedicated cyclotron." Master's thesis, 2016. http://hdl.handle.net/10316/32960.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
47

Popovici, Crina Anca. "Caractérisation de la post-décharge à pression réduite d'un plasma de N₂-O₂ : optimisation des conditions opératoires et maximisation de l'intensité UV émise dans la chambre de stérilisation." Thèse, 2006. http://hdl.handle.net/1866/17378.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
48

Freitas, Diogo Nuno Teixeira. "Nature-inspired algorithms for solving some hard numerical problems." Master's thesis, 2020. http://hdl.handle.net/10400.13/3010.

Повний текст джерела
Анотація:
Optimisation is a branch of mathematics that was developed to find the optimal solutions, among all the possible ones, for a given problem. Applications of optimisation techniques are currently employed in engineering, computing, and industrial problems. Therefore, optimisation is a very active research area, leading to the publication of a large number of methods to solve specific problems to its optimality. This dissertation focuses on the adaptation of two nature inspired algorithms that, based on optimisation techniques, are able to compute approximations for zeros of polynomials and roots of non-linear equations and systems of non-linear equations. Although many iterative methods for finding all the roots of a given function already exist, they usually require: (a) repeated deflations, that can lead to very inaccurate results due to the problem of accumulating rounding errors, (b) good initial approximations to the roots for the algorithm converge, or (c) the computation of first or second order derivatives, which besides being computationally intensive, it is not always possible. The drawbacks previously mentioned served as motivation for the use of Particle Swarm Optimisation (PSO) and Artificial Neural Networks (ANNs) for root-finding, since they are known, respectively, for their ability to explore high-dimensional spaces (not requiring good initial approximations) and for their capability to model complex problems. Besides that, both methods do not need repeated deflations, nor derivative information. The algorithms were described throughout this document and tested using a test suite of hard numerical problems in science and engineering. Results, in turn, were compared with several results available on the literature and with the well-known Durand–Kerner method, depicting that both algorithms are effective to solve the numerical problems considered.
A Optimização é um ramo da matemática desenvolvido para encontrar as soluções óptimas, de entre todas as possíveis, para um determinado problema. Actualmente, são várias as técnicas de optimização aplicadas a problemas de engenharia, de informática e da indústria. Dada a grande panóplia de aplicações, existem inúmeros trabalhos publicados que propõem métodos para resolver, de forma óptima, problemas específicos. Esta dissertação foca-se na adaptação de dois algoritmos inspirados na natureza que, tendo como base técnicas de optimização, são capazes de calcular aproximações para zeros de polinómios e raízes de equações não lineares e sistemas de equações não lineares. Embora já existam muitos métodos iterativos para encontrar todas as raízes ou zeros de uma função, eles usualmente exigem: (a) deflações repetidas, que podem levar a resultados muito inexactos, devido ao problema da acumulação de erros de arredondamento a cada iteração; (b) boas aproximações iniciais para as raízes para o algoritmo convergir, ou (c) o cálculo de derivadas de primeira ou de segunda ordem que, além de ser computacionalmente intensivo, para muitas funções é impossível de se calcular. Estas desvantagens motivaram o uso da Optimização por Enxame de Partículas (PSO) e de Redes Neurais Artificiais (RNAs) para o cálculo de raízes. Estas técnicas são conhecidas, respectivamente, pela sua capacidade de explorar espaços de dimensão superior (não exigindo boas aproximações iniciais) e pela sua capacidade de modelar problemas complexos. Além disto, tais técnicas não necessitam de deflações repetidas, nem do cálculo de derivadas. Ao longo deste documento, os algoritmos são descritos e testados, usando um conjunto de problemas numéricos com aplicações nas ciências e na engenharia. Os resultados foram comparados com outros disponíveis na literatura e com o método de Durand–Kerner, e sugerem que ambos os algoritmos são capazes de resolver os problemas numéricos considerados.
Стилі APA, Harvard, Vancouver, ISO та ін.
49

Rodrigues, David Manuel de Sousa. "Reading the news through its structure: new hybrid connectivity based approaches." Doctoral thesis, 2013. http://hdl.handle.net/10071/8803.

Повний текст джерела
Анотація:
In this thesis a solution for the problem of identifying the structure of news published by online newspapers is presented. This problem requires new approaches and algorithms that are capable of dealing with the massive number of online publications in existence (and that will grow in the future). The fact that news documents present a high degree of interconnection makes this an interesting and hard problem to solve. The identification of the structure of the news is accomplished both by descriptive methods that expose the dimensionality of the relations between different news, and by clustering the news into topic groups. To achieve this analysis this integrated whole was studied using different perspectives and approaches. In the identification of news clusters and structure, and after a preparatory data collection phase, where several online newspapers from different parts of the globe were collected, two newspapers were chosen in particular: the Portuguese daily newspaper Público and the British newspaper The Guardian. In the first case, it was shown how information theory (namely variation of information) combined with adaptive networks was able to identify topic clusters in the news published by the Portuguese online newspaper Público. In the second case, the structure of news published by the British newspaper The Guardian is revealed through the construction of time series of news clustered by a kmeans process. After this approach an unsupervised algorithm, that filters out irrelevant news published online by taking into consideration the connectivity of the news labels entered by the journalists, was developed. This novel hybrid technique is based on Qanalysis for the construction of the filtered network followed by a clustering technique to identify the topical clusters. Presently this work uses a modularity optimisation clustering technique but this step is general enough that other hybrid approaches can be used without losing generality. A novel second order swarm intelligence algorithm based on Ant Colony Systems was developed for the travelling salesman problem that is consistently better than the traditional benchmarks. This algorithm is used to construct Hamiltonian paths over the news published using the eccentricity of the different documents as a measure of distance. This approach allows for an easy navigation between published stories that is dependent on the connectivity of the underlying structure. The results presented in this work show the importance of taking topic detection in large corpora as a multitude of relations and connectivities that are not in a static state. They also influence the way of looking at multi-dimensional ensembles, by showing that the inclusion of the high dimension connectivities gives better results to solving a particular problem as was the case in the clustering problem of the news published online.
Neste trabalho resolvemos o problema da identificação da estrutura das notícias publicadas em linha por jornais e agências noticiosas. Este problema requer novas abordagens e algoritmos que sejam capazes de lidar com o número crescente de publicações em linha (e que se espera continuam a crescer no futuro). Este facto, juntamente com o elevado grau de interconexão que as notícias apresentam tornam este problema num problema interessante e de difícil resolução. A identificação da estrutura do sistema de notícias foi conseguido quer através da utilização de métodos descritivos que expõem a dimensão das relações existentes entre as diferentes notícias, quer através de algoritmos de agrupamento das mesmas em tópicos. Para atingir este objetivo foi necessário proceder a ao estudo deste sistema complexo sob diferentes perspectivas e abordagens. Após uma fase preparatória do corpo de dados, onde foram recolhidos diversos jornais publicados online optou-se por dois jornais em particular: O Público e o The Guardian. A escolha de jornais em línguas diferentes deve-se à vontade de encontrar estratégias de análise que sejam independentes do conhecimento prévio que se tem sobre estes sistemas. Numa primeira análise é empregada uma abordagem baseada em redes adaptativas e teoria de informação (nomeadamente variação de informação) para identificar tópicos noticiosos que são publicados no jornal português Público. Numa segunda abordagem analisamos a estrutura das notícias publicadas pelo jornal Britânico The Guardian através da construção de séries temporais de notícias. Estas foram seguidamente agrupadas através de um processo de k-means. Para além disso desenvolveuse um algoritmo que permite filtrar de forma não supervisionada notícias irrelevantes que apresentam baixa conectividade às restantes notícias através da utilização de Q-analysis seguida de um processo de clustering. Presentemente este método utiliza otimização de modularidade, mas a técnica é suficientemente geral para que outras abordagens híbridas possam ser utilizadas sem perda de generalidade do método. Desenvolveu-se ainda um novo algoritmo baseado em sistemas de colónias de formigas para solução do problema do caixeiro viajante que consistentemente apresenta resultados melhores que os tradicionais bancos de testes. Este algoritmo foi aplicado na construção de caminhos Hamiltonianos das notícias publicadas utilizando a excentricidade obtida a partir da conectividade do sistema estudado como medida da distância entre notícias. Esta abordagem permitiu construir um sistema de navegação entre as notícias publicadas que é dependente da conectividade observada na estrutura de notícias encontrada. Os resultados apresentados neste trabalho mostram a importância de analisar sistemas complexos na sua multitude de relações e conectividades que não são estáticas e que influenciam a forma como tradicionalmente se olha para sistema multi-dimensionais. Mostra-se que a inclusão desta dimensões extra produzem melhores resultados na resolução do problema de identificar a estrutura subjacente a este problema da publicação de notícias em linha.
Стилі APA, Harvard, Vancouver, ISO та ін.
Ми пропонуємо знижки на всі преміум-плани для авторів, чиї праці увійшли до тематичних добірок літератури. Зв'яжіться з нами, щоб отримати унікальний промокод!

До бібліографії