To see the other types of publications on this topic, follow the link: Optimisation de route.

Dissertations / Theses on the topic 'Optimisation de route'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Optimisation de route.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Mrazovic, Petar. "Crowdsensing-driven route optimisation algorithms for smart urban mobility." Doctoral thesis, Universitat Politècnica de Catalunya, 2018. http://hdl.handle.net/10803/663456.

Full text
Abstract:
Urban rörlighet anses ofta vara en av de främsta möjliggörarna för en hållbar statsutveckling. Idag skulle det dock kräva ett betydande skifte mot renare och effektivare stadstransporter vilket skulle stödja ökad social och ekonomisk koncentration av resurser i städerna. En viktig prioritet för städer runt om i världen är att stödja medborgarnas rörlighet inom stadsmiljöer medan samtidigt minska trafikstockningar, olyckor och föroreningar. Att utveckla en effektivare och grönare (eller med ett ord; smartare) stadsrörlighet är en av de svåraste problemen att bemöta för stora metropoler. I denna avhandling närmar vi oss problemet från det snabba utvecklingsperspektivet av ITlandskapet i städer vilket möjliggör byggandet av rörlighetslösningar utan stora stora investeringar eller sofistikerad sensortenkik. I synnerhet föreslår vi utnyttjandet av den mobila rörlighetsavkännings, eng. Mobile Crowdsensing (MCS), paradigmen i vilken befolkningen exploaterar sin mobilkommunikation och/eller mobilasensorer med syftet att frivilligt samla, distribuera, lokalt processera och analysera geospecifik information. Rörlighetavkänningssdata (t.ex. händelser, trafikintensitet, buller och luftföroreningar etc.) inhämtad från frivilliga i befolkningen kan ge värdefull information om aktuella rörelsesförhållanden i stad vilka, med adekvata databehandlingsalgoriter, kan användas för att planera människors rörelseflöden inom stadsmiljön. Såtillvida kombineras i denna avhandling två mycket lovande smarta rörlighetsmöjliggörare, eng. Smart Mobility Enablers, nämligen MCS och rese/ruttplanering. Vi kan därmed till viss utsträckning sammanföra forskningsutmaningar från dessa två delar. Vi väljer att separera våra forskningsmål i två delar, dvs forskningssteg: (1) arkitektoniska utmaningar vid design av MCS-system och (2) algoritmiska utmaningar för tillämpningar av MCS-driven ruttplanering. Vi ämnar att visa en logisk forskningsprogression över tiden, med avstamp i mänskligt dirigerade rörelseavkänningssystem som MCS och ett avslut i automatiserade ruttoptimeringsalgoritmer skräddarsydda för specifika MCS-applikationer. Även om vi förlitar oss på heuristiska lösningar och algoritmer för NP-svåra ruttproblem förlitar vi oss på äkta applikationer med syftet att visa på fördelarna med algoritm- och infrastrukturförslagen.
La movilidad urbana es considerada una de las principales desencadenantes de un desarrollo urbano sostenible. Sin embargo, hoy en día se requiere una transición hacia un transporte urbano más limpio y más eficiente que soporte una concentración de recursos sociales y económicos cada vez mayor en las ciudades. Una de las principales prioridades para las ciudades de todo el mundo es facilitar la movilidad de los ciudadanos dentro de los entornos urbanos, al mismo tiempo que se reduce la congestión, los accidentes y la contaminación. Sin embargo, desarrollar una movilidad urbana más eficiente y más verde (o en una palabra, más inteligente) es uno de los temas más difíciles de afrontar para las grandes áreas metropolitanas. En esta tesis, abordamos este problema desde la perspectiva de un panorama TIC en rápida evolución que nos permite construir movilidad sin la necesidad de grandes inversiones ni sofisticadas tecnologías de sensores. En particular, proponemos aprovechar el paradigma Mobile Crowdsensing (MCS) en el que los ciudadanos utilizan sus teléfonos móviles y dispositivos, para nosotros recopilar, procesar y analizar localmente información georreferenciada, distribuida voluntariamente. Los datos de movilidad recopilados de ciudadanos que voluntariamente quieren compartirlos (por ejemplo, eventos, intensidad del tráfico, ruido y contaminación del aire, etc.) pueden proporcionar información valiosa sobre las condiciones de movilidad actuales en la ciudad, que con el algoritmo de procesamiento de datos adecuado, pueden utilizarse para enrutar y gestionar el flujo de gente en entornos urbanos. Por lo tanto, en esta tesis combinamos dos prometedoras fuentes de movilidad inteligente: MCS y la planificación de viajes/rutas, uniendo en cierta medida los distintos desafíos de investigación. Hemos dividido nuestros objetivos de investigación en dos etapas: (1) Desafíos arquitectónicos en el diseño de sistemas MCS y (2) Desafíos algorítmicos en la planificación de rutas aprovechando la información del MCS. Nuestro objetivo es demostrar una progresión lógica de la investigación a lo largo del tiempo, comenzando desde los fundamentos de los sistemas de detección centrados en personas, como el MCS, hasta los algoritmos de optimización de rutas diseñados específicamente para la aplicación de estos. Si bien nos centramos en algoritmos y heurísticas para resolver problemas de enrutamiento de clase NP-hard, utilizamos ejemplos de aplicaciones en el mundo real para mostrar las ventajas de los algoritmos e infraestructuras propuestas.
APA, Harvard, Vancouver, ISO, and other styles
2

Kajgård, Emil. "Route Optimisation for Winter Road Maintenance using Constraint Modelling." Thesis, Uppsala universitet, Institutionen för informationsteknologi, 2015. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-268025.

Full text
Abstract:
Planning of routes for the many kinds of road maintenance problems is essential. These problems can be generalised to the vehicle routing problem, where a num- ber of available vehicles should be assigned to objectives in an optimised order. With different kinds of winter-based maintenance tasks come many variations of the problem, making the flexibility of an optimisation system an important aspect. The problem is approached using constraint programming technology with the modelling language MiniZinc. A model is presented for route opti- misation of winter road maintenance related problems. The model has been tested against an existing system written in C# using guided local search as search strategy, in terms of quality of the solution and solving time. Several back-end solvers have been tested with the model in a black-box manner; CPX Opturion, Gecode, or-tools, and OscaR/CBLS, where or-tools performed well compared to the others. The advantages of using constraint modelling with MiniZinc are shown when the problem specifications are not clear beforehand, since adapting a model for new scenarios is done with little effort. However, the presented model can not compete in terms of solving time when the problem size increases. A proposed solution to this is to cluster objectives together and generalising the problem, making the problem sizes smaller.
APA, Harvard, Vancouver, ISO, and other styles
3

Durand, Nicolas. "Optimisation de trajectoires pour la résolution de conflits aériens en route." Toulouse, INPT, 1996. https://tel.archives-ouvertes.fr/tel-01293710.

Full text
Abstract:
L'augmentation du trafic aerien genere des problemes d'optimisation tres complexes pour le controle aerien. Le probleme d'optimisation de trajectoires pour la resolution de conflits en route reste aujourd'hui ouvert. Dans cette these, l'approche initiale est d'etudier le probleme de conflit a deux avions comme un probleme de commande optimale avec contrainte sur l'etat. Cette approche permet de degager certaines proprietes des trajectoires optimales. L'etude theorique de la structure de l'ensemble des trajectoires admissibles fait apparaitre le caractere fortement combinatoire du probleme. Des applications numeriques effectuees avec un algorithme de type gradient permettent alors d'illustrer les resultats theoriques et de constater l'inefficacite des methodes locales. Dans un deuxieme temps, les resultats theoriques sont exploites afin de definir les premiers elements de modelisation du probleme reel permettant de tenir compte des contraintes operationnelles liees au contexte du controle du trafic aerien. Le caractere global et fortement combinatoire du probleme d'optimisation conduit a utiliser les algorithmes genetiques. Ceux-ci permettent d'approcher plusieurs solutions differentes proches de l'optimum. Un operateur de croisement adapte aux fonctions partiellement separables est introduit dans les algorithmes genetiques de maniere a pouvoir resoudre des conflits pouvant impliquer jusqu'a une vingtaine d'avions en temps reel avec de faibles populations. Les resultats sont illustres par plusieurs exemples
APA, Harvard, Vancouver, ISO, and other styles
4

Djannaty, Farhad. "Network based heuristics for the set covering problem." Thesis, Brunel University, 1997. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.320547.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Boje, E. P., and B. J. Kotze. "An integrated control system for an Automatic Guided Vehicle (AGV)." Interim : Interdisciplinary Journal, Vol 7, Issue 1: Central University of Technology Free State Bloemfontein, 2008. http://hdl.handle.net/11462/376.

Full text
Abstract:
Published Article
An immense amount of research is currently, being done on the development and use of Automatic Guided Vehicles (AGVs) in industry. An important component of this research often involves navigation and route-optimization of such AGVs. In this paper the design and control of an AGV, using a stationary control system and a GPS-like navigational system, is discussed. Substantial provision has also been made for the display of operational characteristics of the AGV on the stationary control unit.
APA, Harvard, Vancouver, ISO, and other styles
6

Kemloh, Wagoum Armel Ulrich [Verfasser]. "Route Choice Modelling and Runtime Optimisation for Simulation of Building Evacuation / Armel Ulrich Kemloh Wagoum." Wuppertal : Universitätsbibliothek Wuppertal, 2013. http://d-nb.info/1037086201/34.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Kandirakis, Ioannis. "Route optimisation for mobile IPV6 using the return routability procedure: test bed implementation and security analysis /." Monterey, Calif. : Naval Postgraduate School, 2007. http://bosun.nps.edu/uhtbin/hyperion.exe/07Mar%5FKandirakis.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
8

Zawahreh, Yousef 'Issa. "A novel microwave synthesis of calcium hydroxyapatite : optimisation and investigation of a microwave assisted reaction route." Thesis, Queen Mary, University of London, 2001. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.251711.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Zhou, Jun. "Optimisation des procédures de départ et d'arrivée dans une zone terminale." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30033/document.

Full text
Abstract:
Cette thèse s'intéresse au problème de conception optimale des routes de départ et d'arrivée dans une zone terminale autour d'un aéroport. Cette conception prend en compte la configuration et l'environnement autour des aéroports, et les différentes contraintes sous-jacentes, notamment l'évitement des obstacles et la séparation des routes. Nous proposons une formulation mathématique conduisant à un problème d'optimisation combinatoire, ainsi que des méthodes de résolution ad hoc efficaces pour le problème. Pour la résolution du problème, nous procédons en deux étapes. Nous considérons d'abord la conception d'une route de longueur minimale évitant les obstacles, en utilisant la méthode de Branch and Bound (B&B). Ensuite, nous nous intéressons à la conception de plusieurs routes en assurant en plus la séparation des routes. Deux approches différentes sont appliquées : une méthode basée sur la méthode B&B pour construire les routes séquentiellement suivant un ordre fixé à l'avance, et une méthode de recuit simulé pour construire les routes simultanément. Les résultats sur un ensemble de problèmes tests (artificiels et réels) montrent l'efficacité de notre approche
This thesis proposes a methodology for the optimization of departure and arrival routes in the Terminal Maneuvering Area (TMA). The design of these routes takes into account the configuration and environment around airports, and the related constraints, in particular the avoidance of obstacles and the separation between routes. We propose a mathematical formulation leading to a combinatorial optimization problem, as well as efficient ad hoc resolution methods for the problem. The problem is solved in two steps. First, we design an individual route avoiding obstacles with respect to minimum route length by using a Branch and Bound (B&B) method. Afterwards, the design of multiple routes is solved by two different approaches: a B&B-based approach (where routes are generated sequentially in a given order) and a Simulated Annealing approach (where routes are generated simultaneously). The simulation results of a set of (artificial and real) test problems show the efficiency of our approach
APA, Harvard, Vancouver, ISO, and other styles
10

Berntsson, Simon, and Mattias Andreasson. "Efficient Route-based Optimal Energy Management for Hybrid Electric Vehicles." Thesis, Linköpings universitet, Fordonssystem, 2018. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-148565.

Full text
Abstract:
The requirements on fuel consumption and emissions for passenger cars are getting stricter every year. This has forced the vehicle industry to look for ways to improve the performance of the driveline. With the increasing focus on electrification, a common method is to combine an electrical driveline with a conventional driveline that uses a petrol or diesel engine, thus creating a hybrid electric vehicle. To fully be able to utilise the potential of the driveline in such a vehicle, an efficient energy management strategy is needed. This thesis describes the development of an efficient route-based energy management strategy. Three different optimisation strategies are combined, deterministic dynamic programming, equivalent consumption minimisation strategy and convex optimisation, together with segmentation of the input data. The developed strategy shows a decrease in computational time with up to more than one hundred times compared to a benchmark algorithm. When implemented in Volvo's simulation tool, VSim, substantial fuel savings of up to ten percent is shown compared to a charge-depleting charge-sustain strategy.
APA, Harvard, Vancouver, ISO, and other styles
11

Loyer, Bruno. "Conception fonctionnelle robuste par optimisation multicritère de systèmes de suspension automobile passifs et semi-actifs." Ecully, Ecole centrale de Lyon, 2009. http://bibli.ec-lyon.fr/exl-doc/TH_T2152_bloyer.pdf.

Full text
Abstract:
La conception de systèmes équipant les véhicules automobiles est de plus en plus contrainte, tant pour des questions de concurrence et de réduction des coûts et délais de développement qu’en raison d’évolutions techniques et réglementaires des produits (amélioration généralisée de la qualité et de la sécurité, introduction de prestations nouvelles, etc. ). Dans un tel contexte, la satisfaction du client impose aux constructeurs de prendre en compte, très tôt dans les projets, la robustesse des véhicules qu’ils proposent, c’est-à-dire la stabilité des niveaux de performances annoncés vis-à-vis des incertitudes dues à la variabilité des conditions d’utilisation, aux dispersions de fabrication (géométrie, assemblage ou propriétés mécaniques) ou encore, au vieillissement des composants. En plus du grand nombre de paramètres, de contraintes et de prestations à considérer, cette conception robuste, qui suppose la simulation numérique de ces incertitudes, impose de recourir à une stratégie de conception « à coût faible et à coup sûr », hiérarchisée, s’intégrant parfaitement dans le contexte du cycle en V de l’Ingénierie Système. La démarche First Design, mise en oeuvre dans de précédents travaux est une stratégie possible. L’objectif de cette thèse est d’en étendre certains aspects et de l’appliquer à l’optimisation fonctionnelle robuste de niveau 5 (dans le jargon Renault) des systèmes définissant la Liaison au sol des véhicules automobiles : trains roulants et variables fondamentales des pneumatiques. Il s’agit donc de développer les modèles ainsi que les outils d’optimisation et d’aide à la décision associés qui permettront de définir une procédure globale et fiable de spécification de ces systèmes, intégrant de façon quantifiée cette notion de robustesse. L’approche utilisée, fondée notamment sur des modèles physiques simplifiés et des estimateurs de sensibilité directement intégrés aux algorithmes d’optimisation, a amélioré de façon significative la robustesse des solutions et permis de mettre en évidence les gains associés à la prise en compte en amont de la présence de systèmes pilotés
In the last few years, extreme competition between car manufacturers led to higher quality and safety standards, and reduction of costs and delays in product development. Together with technical and regulation evolutions, this caused the design of vehicle subsystems to become more and more constraint. In such a context, designers who want to meet customer requirements have to take the robustness of their products into account, even at early stages of the design process. Indeed, due to the variability of the product itself (in terms of geometrical or mechanical properties, of assembly or ageing of components), or its operating conditions, the stability of the announced performance levels has to be specified and guaranteed, in presence of uncertainty. In addition to high numbers of design variables, constraints and objectives, this ‘robust design’ requires a numerical simulation of this uncertainty. Therefore, a reliable, hierarchized and computationally efficient methodology that fully complies with the V-diagram of Systems Engineering is needed. The First Design methodology is one possible approach. It was successfully used in previous works. The aim of the present thesis is to extend some of its features, and apply it to the robust optimization of the ‘level 5’ functional architecture of automotive suspension systems: front and rear axle design parameters and primary variables of the tires. For this purpose, models and associated tools for optimization and computer-aided decision have to be developed in order to define a global and reliable procedure for the specification of these systems, with a fully integrated and quantified notion of the robustness. The proposed technique, partly relying on physical simplified models and sensitivity estimators directly integrated in the used optimization algorithms, improved the robustness of the solutions significantly, and emphasized the performance gains achieved by taking the presence of semi-active components into account, at early phases of the project
APA, Harvard, Vancouver, ISO, and other styles
12

Portaz, Christophe. "Contribution à la conception d'un superviseur de Contrôle Global Châssis." Lyon, INSA, 2008. http://www.theses.fr/2008ISAL0112.

Full text
Abstract:
Les systèmes actifs du châssis sont utilisés pour améliorer les performances dynamiques des automobiles, lever les compromis habituels de la conception automobile, proposer de l’adaptabilité aux situations de roulage et aux styles de conduite. Dès lors que deux systèmes actifs cohabitent, il s’agit de combiner leurs actions et de tirer le meilleur de cette combinaison, pilotée en Contrôle Global. . L’objectif de cette étude est de démontrer l’intérêt d’une supervision des actions des systèmes actifs (en opposition à des actionneurs ne communiquant pas entre eux ou insuffisamment) et de proposer des outils pour améliorer la performance de l’ensemble créé. Après avoir présenté les situations de conduite habituellement utilisées pour l’évaluation du comportement dynamique d’un véhicule par l’essai ou la simulation, nous présentons les actionneurs actifs du châssis. Nous mettons en place les outils de simulation nécessaires à l’étude et à l’évaluation des performances des systèmes actifs. Lorsque cette évaluation est faite nous mettons en place une méthode d’optimisation des consignes envoyées aux actionneurs en utilisant différents algorithmes d’optimisation numérique. Les méthodes et outils mis en place dans cette étude permettent pour la suite du développement du Contrôle Global du Châssis de proposer des points de fonctionnement et des répartitions de tâches entre les actionneurs, utiles au développement de lois de commande
The active chassis systems are used to improve the dynamic performance of car, remove the usual compromise of automotive design, offer the adaptability to situations and taxi driving styles. Where two active systems coexist, it combines their actions and make the best of this combination led to Control Global. . The objective of this study is to demonstrate the value of supervision of the actions of active systems (as opposed to the actuators is not communicating with each other or not) and provide tools to improve the performance of all created. After introducing the driving conditions typically used for evaluating the dynamic behavior of a vehicle testing or simulation, we present the active chassis actuators. We put in place the necessary simulation tools to study and evaluate the performance of active systems. When this assessment is done we set up a method of optimizing instructions sent to the actuators using different numerical optimization algorithms. The methods and tools developed in this study allow for further development of the Global Control Chassis propose operating points and distribution of tasks between the actuators, for the development of control laws
APA, Harvard, Vancouver, ISO, and other styles
13

Voller, Gordon Paul. "Analysis of heat dissipation from railway and automotive friction brakes." Thesis, Brunel University, 2003. http://bura.brunel.ac.uk/handle/2438/5558.

Full text
Abstract:
The thesis presents research into the understanding and improvement of heat dissipation from friction brakes. The investigations involved two brake types, considered to be the most thermally loaded and therefore most challenging; axle mounted high speed railway and commercial vehicle disc brakes. All three modes of heat transfer (conduction, convection and radiation) and airflow characteristics have been analysed experimentally and theoretically in order to increase the understanding of heat dissipation. Despite the very practical aspects of this research, a 'generic heat transfer approach' was applied, enabling wider engineering applications of the results. Experimental analyses conducted on a specially developed Spin Rig allowed measurements of cooling and airflow characteristics for different designs. Methodologies have been developed to determine thermal contact resistance, heat transfer coefficients, emissivity and aerodynamic (pumping) losses. Established values and relationships compared very favourably with theoretical work. Analytical, FE and CFD analyses were employed to further investigate design variations and perform sensitivity studies. Inertia dynamometer route simulations provided disc temperatures for validation of the overall work. Recommendations have been made for optimising heat dissipation, by proposing practically acceptable and economically viable design solutions. A proposed ventilated disc design efficiency ratio allows large, high speed ventilated disc designs, to be efficiently and accurately evaluated and compared, providing a valuable disc design optimisation tool. The determination of the methodologies, parameters and functions defining cooling characteristics, enable heat dissipation to be predicted confidently and accurately for brakes and other engineering assemblies at early design stages.
APA, Harvard, Vancouver, ISO, and other styles
14

Afanga, Khalid. "Modélisation systémique des filières sidérurgiques en vue de leur optimisation énergétique et environnementale." Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0268/document.

Full text
Abstract:
Ce travail de recherche porte sur la modélisation mathématique des principaux procédés sidérurgiques en suivant une approche systémique. L’objectif est d’élaborer un outil de modélisation de l’ensemble de la filière destiné à l’optimiser du point de vue énergétique et environnemental. Nous avons développé des modèles physico-chimiques du haut fourneau, de la cokerie, de l’agglomération et du convertisseur. Ces modèles ont ensuite été reliés entre eux sous forme d’un diagramme de flux unique en utilisant le logiciel ASPEN Plus. Dans une première partie, nous nous sommes particulièrement intéressés au haut fourneau à recyclage, une variante innovante du haut fourneau dans laquelle les gaz de gueulard sont recyclés et réinjectés aux tuyères après capture du CO2. Nous avons testé une réinjection à un niveau (aux tuyères) et à deux niveaux (tuyères et ventre). Les résultats ont été comparés avec succès à des données expérimentales issues d’un réacteur pilote et montrent que le recyclage permet une baisse de plus de 20 % des émissions de CO2 du haut fourneau. Le recyclage à deux niveaux ne semble pas plus performant que celui à un seul niveau. Dans un deuxième temps, nous avons simulé le fonctionnement d’une usine sidérurgique intégrée dans son ensemble. Différentes configurations ont été testées, pour un haut fourneau classique ou un haut fourneau à recyclage, en considérant un éventuel recyclage du laitier de convertisseur à l’agglomération, et en étudiant l’influence de la teneur en silicium de la fonte sur toute la filière. On montre notamment qu’il est possible de réduire le prix de revient de la tonne d’acier en substituant et recyclant différents sous-produits
This research study deals with mathematical modeling of the main steelmaking processes following a systems approach. The objective was to build a modeling tool of the whole steelmaking route devoted to its energetic and environmental optimization. We developed physical-chemical models for the blast furnace, the coke oven, the sintering plant and the basic oxygen furnace. These models were then linked together in a single flow sheet using the ASPEN Plus software. First, we focused on the top gas recycling blast furnace, a novel variant of the blast furnace in which the top gas is recycled and re-injected into the tuyeres after CO2 removal and capture. We tested both a reinjection at one level (tuyeres only) and at two levels (tuyeres and shaft). The results were successfully compared with experimental data from a pilot reactor and demonstrate that recycling can lower the blast furnace CO2 emissions by more than 20%. Recycling at two levels does not seem more efficient than at a single level. Second, we simulated the operation of an entire integrated steelmaking plant. Different configurations were tested, using a conventional blast furnace or a top gas recycling blast furnace, considering a possible recycling of the converter slag to the sintering plant, and studying the influence of Si content in the hot metal on the entire steelmaking plant operation. We show that it is possible to reduce the cost of producing steel by substituting and recycling various by-products
APA, Harvard, Vancouver, ISO, and other styles
15

Afanga, Khalid. "Modélisation systémique des filières sidérurgiques en vue de leur optimisation énergétique et environnementale." Electronic Thesis or Diss., Université de Lorraine, 2014. http://docnum.univ-lorraine.fr/prive/DDOC_T_2014_0268_AFANGA.pdf.

Full text
Abstract:
Ce travail de recherche porte sur la modélisation mathématique des principaux procédés sidérurgiques en suivant une approche systémique. L’objectif est d’élaborer un outil de modélisation de l’ensemble de la filière destiné à l’optimiser du point de vue énergétique et environnemental. Nous avons développé des modèles physico-chimiques du haut fourneau, de la cokerie, de l’agglomération et du convertisseur. Ces modèles ont ensuite été reliés entre eux sous forme d’un diagramme de flux unique en utilisant le logiciel ASPEN Plus. Dans une première partie, nous nous sommes particulièrement intéressés au haut fourneau à recyclage, une variante innovante du haut fourneau dans laquelle les gaz de gueulard sont recyclés et réinjectés aux tuyères après capture du CO2. Nous avons testé une réinjection à un niveau (aux tuyères) et à deux niveaux (tuyères et ventre). Les résultats ont été comparés avec succès à des données expérimentales issues d’un réacteur pilote et montrent que le recyclage permet une baisse de plus de 20 % des émissions de CO2 du haut fourneau. Le recyclage à deux niveaux ne semble pas plus performant que celui à un seul niveau. Dans un deuxième temps, nous avons simulé le fonctionnement d’une usine sidérurgique intégrée dans son ensemble. Différentes configurations ont été testées, pour un haut fourneau classique ou un haut fourneau à recyclage, en considérant un éventuel recyclage du laitier de convertisseur à l’agglomération, et en étudiant l’influence de la teneur en silicium de la fonte sur toute la filière. On montre notamment qu’il est possible de réduire le prix de revient de la tonne d’acier en substituant et recyclant différents sous-produits
This research study deals with mathematical modeling of the main steelmaking processes following a systems approach. The objective was to build a modeling tool of the whole steelmaking route devoted to its energetic and environmental optimization. We developed physical-chemical models for the blast furnace, the coke oven, the sintering plant and the basic oxygen furnace. These models were then linked together in a single flow sheet using the ASPEN Plus software. First, we focused on the top gas recycling blast furnace, a novel variant of the blast furnace in which the top gas is recycled and re-injected into the tuyeres after CO2 removal and capture. We tested both a reinjection at one level (tuyeres only) and at two levels (tuyeres and shaft). The results were successfully compared with experimental data from a pilot reactor and demonstrate that recycling can lower the blast furnace CO2 emissions by more than 20%. Recycling at two levels does not seem more efficient than at a single level. Second, we simulated the operation of an entire integrated steelmaking plant. Different configurations were tested, using a conventional blast furnace or a top gas recycling blast furnace, considering a possible recycling of the converter slag to the sintering plant, and studying the influence of Si content in the hot metal on the entire steelmaking plant operation. We show that it is possible to reduce the cost of producing steel by substituting and recycling various by-products
APA, Harvard, Vancouver, ISO, and other styles
16

Buob, Marc-Olivier. "Routage intradomaine et interdomaine dans les réseaux de coeur." Phd thesis, Université d'Angers, 2008. http://tel.archives-ouvertes.fr/tel-00450680.

Full text
Abstract:
Le routage Internet repose sur le partage d'informations entre les différents équipements constituant le coeur du réseau. Ces équipements communiquent grâce au protocole BGP afin de réagir en cas de modifications du réseau (modification de la structure du réseau, pannes. . . ). Dès lors, il est possible de router le trafic vers n'importe quelle destination de l'Internet. Aujourd'hui le protocole BGP posent un certain nombre de problèmes au sein des réseaux d'opérateurs. Ces problèmes sont généralement dus à une mauvaise diffusion des informations de routages dans le réseau. Dans ce genre de situation le trafic peut être amené à suivre des chemins sous-optimaux ou inconsistants. Qui plus est, ces comportements inattendus peuvent être particulièrement difficiles à détecter ou à anticiper. Pour répondre à cette problématique, on se propose d'aborder le protocole BGP comme suit. – Quels problèmes pose aujourd'hui le protocole BGP? Comment modéliser la diffusion des informations de routage ? – Comment valider la structure BGP d'un réseau ? Comment prévoir le comportement d'un réseau ? – Comment concevoir une structure BGP permettant de garantir que le comportement du réseau est valide, y compris en cas de panne ? – Comment modifier le protocole BGP afin d'avoir un réseau ayant toujours le comportement attendu ? Ce mémoire met en évidence les limites du protocole actuel. Il propose des outils de validation, de simulation et de conception BGP dans ce contexte. Il propose enfin une évolution simple et réalisable du protocole BGP permettant d'aboutir à un réseau fiable, efficace et simple à configurer.
APA, Harvard, Vancouver, ISO, and other styles
17

Cailean, Alin-Mihai. "Etude, réalisation et optimisation d'un système de communication par lumière visible. : Application au domaine de l'automobile." Thesis, Versailles-St Quentin en Yvelines, 2014. http://www.theses.fr/2014VERS0048/document.

Full text
Abstract:
La problématique scientifique de cette thèse est centrée sur le développement decommunications par lumière visible (Visible Light Communications - VLC) dans lesapplications automobiles. En permettant la communication sans fil entre les véhicules, ou entreles véhicules et l’infrastructure routière, la sécurité et l'efficacité du transport peuvent êtreconsidérablement améliorées. Compte tenu des nombreux avantages de la technologie VLC,cette solution se présente comme une excellente alternative ou un complément pour lescommunications actuelles plutôt basées sur les technologies radio-fréquences traditionnelles.Pour réaliser ces travaux de recherche, un système VLC à faible coût pour applicationautomobile a été développé. Le système proposé vise à assurer une communication très robusteentre un émetteur VLC à base de LED et un récepteur VLC monté sur un véhicule. Pour l'étudedes communications véhicule à véhicule (V2V), l'émetteur a été développé sur la base d’un pharearrière rouge de voiture, tandis que pour l'étude des communications de l'infrastructure auvéhicule (I2V), l'émetteur a été développé sur la base d'un feu de circulation. Considérant lerécepteur VLC, le problème principal réside autour d’un capteur approprié, en mesured'améliorer le conditionnement du signal et de limiter les perturbations dues des conditionsenvironnementales. Ces différents points sont abordés dans la thèse, d’un point de vue simulationmais également réalisation du prototype.La validation expérimentale du système VLC a été réalisée dans différentes conditions etscénarii. Les résultats démontrent que la VLC peut être une technologie viable pour lesapplications envisagées
The scientific problematic of this PhD is centered on the usage of Visible LightCommunications (VLC) in automotive applications. By enabling wireless communication amongvehicles and also with the traffic infrastructure, the safety and efficiency of the transportation canbe substantially increased. Considering the numerous advantages of the VLC technologyencouraged the study of its appropriateness for the envisioned automotive applications, as analternative and/or a complement for the traditional radio frequency based communications.In order to conduct this research, a low-cost VLC system for automotive application wasdeveloped. The proposed system aims to ensure a highly robust communication between a LEDbasedVLC emitter and an on-vehicle VLC receiver. For the study of vehicle to vehicle (V2V)communication, the emitter was developed based on a vehicle backlight whereas for the study ofinfrastructure to vehicle (I2V) communication, the emitter was developed based on a traffic light.Considering the VLC receiver, a central problem in this area is the design of a suitable sensorable to enhance the conditioning of the signal and to avoid disturbances due to the environmentalconditions, issues that are addressed in the thesis. The performances of a cooperative drivingsystem integrating the two components were evaluated as well.The experimental validation of the VLC system was performed in various conditions andscenarios. The results confirmed the performances of the proposed system and demonstrated thatVLC can be a viable technology for the considered applications. Furthermore, the results areencouraging towards the continuations of the work in this domain
APA, Harvard, Vancouver, ISO, and other styles
18

Zgaya, Hayfa. "Conception et optimisation distribuée d'un système d'information d'aide à la mobilité urbaine : Une approche multi-agent pour la recherche et la composition des services liés au transport." Phd thesis, Ecole Centrale de Lille, 2007. http://tel.archives-ouvertes.fr/tel-00160802.

Full text
Abstract:
Les travaux de recherche présentés dans cette thèse s'intègrent dans le cadre du projet national VIATIC.MOBILITE du pôle de compétitivité I-TRANS « Le ferroviaire au cœur des systèmes de transports innovants » (http://www.i-trans.org/index.htm). De nos jours, les informations liées au déplacement et à la mobilité dans un réseau de transport représentent sans aucun doute un potentiel important. En effet, on peut imaginer une infinité de services innovants liés à la mobilité, non seulement à destination du grand public, mais également à des entreprises, dans le conseil en mobilité pour leurs plans de déplacement. Le but de cette thèse est donc de fournir un système d'aide à la mobilité qui s'articule autour des motifs de déplacements quotidiens, occasionnels, de tourisme, de culture, etc. avec la possibilité de pouvoir bénéficier d'une information pertinente et exploitable.
Ces travaux de recherche visent à mettre en œuvre un Système d'Information de Transport Multimodal (SITM) pour optimiser la gestion de flux des requêtes utilisateurs qui peuvent être nombreuses et simultanées. Dans ce cas, le SITM doit pouvoir procéder par des processus de décomposition des requêtes simultanées en un ensemble de tâches indépendantes. Chaque tâche correspond à un service qui peut être proposé par plusieurs fournisseurs d'information, en concurrence, avec différents couts, formats et temps de réponse. Un fournisseur d'information voulant proposer ses services via le SITM, doit d'abord y enregistrer son système d'information, en assumant la responsabilité des aspects juridiques et qualitatifs de ses données. Le SITM est donc lié à un Réseau informatique Etendu et distribué de Transport Multimodal (RETM) qui comporte plusieurs sources d'information hétérogènes des différents services proposés aux utilisateurs de transport.
L'aspect dynamique, distribué et ouvert du problème, nous a conduits à adopter une modélisation multi-agent pour assurer au système une évolution continue et une flexibilité pragmatique. Le système multi-agent proposé s'appuie sur les métaheuristiques pour la recherche et la composition des services; la recherche des services se base sur le paradigme Agent Mobile (AM) utilisant un algorithme d'optimisation dynamique de construction des Plans De Routes (PDR). Cette première étape d'optimisation prépare les parcours des AMs en prenant en considération l'état du RETM. La composition des services utilise les algorithmes évolutionnistes pour optimiser les réponses en termes de coût et de temps, sachant qu'une réponse à une requête utilisateur ne doit pas dépasser un temps maximum autorisé et qu'un utilisateur cherche toujours à avoir le meilleur rapport qualité prix pour les services qu'il demande.
Enfin, le SITM prend en considération les éventuelles perturbations sur le RETM (pannes, goulets d'étranglements, etc.) pour satisfaire les requêtes utilisateurs dans tous les cas de figure. Dans ce contexte, nous avons créé un protocole de négociation entre les agents mobiles et les agents responsables des choix des fournisseurs d'information pour les services demandés, ces agents sont appelés agents Ordonnanceurs. Le protocole proposé dépasse les limites d'une communication agent traditionnelle, ce qui nous a incités à associer au système une ontologie flexible qui permet d'automatiser les différents types d'échanges entre les agents grâce à un vocabulaire approprié.
Les résultats expérimentaux présentés dans cette thèse justifient l'utilisation du paradigme agent mobile dans notre système qui remplace parfaitement bien les paradigmes classiques telle que l'architecture client/serveur. Les simulations présentées montrent différents scénarios de gestion d'un nombre des requêtes simultanées plus ou moins important. En effet, quelque soit le nombre de requêtes utilisateurs formulées pendant un court laps de temps , le système se charge de leur décomposition, de l'identification des services demandés et des fournisseurs d'information susceptibles d'y répondre.
APA, Harvard, Vancouver, ISO, and other styles
19

Tian, Wenhui. "Transition énergétique et inégalité de carbone : une analyse prospective des feuilles de route technologique pour la Chine, la France et les États-Unis d’Amérique." Thesis, Université Paris-Saclay (ComUE), 2015. http://www.theses.fr/2015SACLC001/document.

Full text
Abstract:
Dans le contexte du réchauffement climatique global, les institutions académiques et internationales comme GIEC et de nombreux pays ont proposé des objectifs de réduction des émissions de CO2. L'objectif de cette thèse est d'évaluer ces objectifs gouvernementaux en les comparants avec les objectifs globaux à l'aide de différentes méthodes d'allocations lesquelles correspondent à différents principes d'équité en matière d'émissions carbones.Afin d'évaluer les feuilles de route technologique permettant d'obtenir les réductions d'émission de CO2 nécessaires, un modèle qualifié de flexible est proposé à destination des décideurs. Notre modèle permet d'éviter les opérations informatiques complexes et peut être personnalisé en fonction de différents besoins. Les simulations sont réalisées jusqu'à l'horizon 2050 lequel est souvent considéré comme un pivot dans les habitudes de consommation d'énergies notamment. Dans cette thèse, des feuilles de route technologique pour les différents objectifs gouvernementaux en matières d'émissions de CO2 sont étudiées pour trois pays : la Chine, la France et les États-Unis. Le modèle couvre les principaux secteurs responsables des émissions de CO2 et étudie l'influence de différentes technologies sur le mix énergétique. Diverses méthodes et approches sont utilisées dans notre modélisation. L'identité IPAT est utilisée pour la décomposition des émissions dans les secteurs de l'énergie. Le modèle STIRPAT permet quant à lui d'évaluer l'évolution des émissions de CO2 dans les scénarios Business-as-Usual. Le modèle SVR est utilisé dans le cadre des projections de production d'électricité. Enfin, l'indice de Theil est employé pour mesurer les inégalités d'émissions de CO2 par tête. A la différence des modèles plus classiques en économie de l'énergie, notre modèle propose des feuilles de route technologiques selon différents critères, comme par exemple avec le développement « équilibré » de la technologie entre les secteurs, ou le critère de disponibilité des ressources énergétiques. Par ailleurs, l'équité carbone, avec la convergence des technologies dans les secteurs à long terme, peut être mise en œuvre dans notre modèle et joue, dans ce cas, comme une contrainte supplémentaire dans l'optimisation multi-objectifs.Nos résultats montrent que les objectifs gouvernementaux en France et aux États-Unis sont « très stricts » car, pour les atteindre, tous les secteurs doivent réaliser des efforts importants de réduction de CO2. En revanche, l'objectif gouvernemental de la Chine s'avère « plus facile » à réaliser car les progrès dans les technologies qui sont nécessaires sont moins exigeants.Plus précisément, si on prévoit que le mix énergétique reste inchangé en Chine et aux États-Unis, le CSC deviendra indispensable dans le secteur de l'énergie. Pour la France, 80% des voitures devront être remplacées par des véhicules électriques afin d'atteindre son objectif en matière de CO2.Toutefois, en considérant l'équité carbone entre secteurs, la combustion du charbon est censée être réduite de deux tiers en Chine et devra être pratiquement éliminée aux États-Unis. Par contre, le gaz peut être encouragé dans son utilisation dans le secteur de l'énergie en particulier aux États-Unis. Concernant le secteur du transport, plus de 60 % des véhicules doivent être remplacés par des véhicules électriques en Chine. Cette part serait d'environ 90 % en France et aux États-Unis.Enfin, la sensibilité des paramètres du modèle a été testée pour simulations, à chaque étape du travail, et pour toutes les roadmaps technologiques. Les résultats des tests de sensibilité montrent que la production d'électricité et l'intensité d'émissions sont les deux paramètres dont l'influence est la plus importante sur les émissions futures de CO2. Ainsi l'amélioration de l'efficacité de la combustion du charbon et de l'efficacité énergétique de l'électricité joueront un rôle central dans la réductions des émissions de CO2
In the context of global warming, academic institutes, international institutions such as the IPCC, and governments of numerous countries have proposed global objectives of reducing CO2 emissions and announced national targets. The purpose of this thesis is to assess the governmental targets in comparing with the global objectives of various allocation methods, which correspond to different carbon equity principles.In order to evaluate the technology roadmaps which are necessary to achieve these reductions of CO2 emissions, a flexible modeling framework is proposed for policy makers. Our sectoral model avoids the complex computing operations. It can be customized according to different requirements and situations. We simulate the model up to the horizon 2050, which is often seen as a turning point in energy use patterns worldwide – forced by the probable decline in hydrocarbons extraction.In the thesis, the technology roadmaps for the governmental targets on CO2 emissions are studied for three typical countries: China, France, and the United States. The model covers the sectors responsible for the greatest part of CO2 emissions: power, transport, residence and industry sector, in studying the impacts of the principle energy technologies, such as energy mix, Carbon Capture and Storage (CCS), electric vehicles and energy efficiency.Various methods and approaches are used in our modeling. IPAT identity - which assumes the environment Impact is the results of Population, Affluence and Technology - is employed in the power sector emission decomposition. Besides STIRPAT - for Stochastic Impacts by Regression on Population, Affluence and Technology - model is used for the projection of CO2 emissions in the Business-as-Usual scenario. Then SVR - for Support Vector Regression - is used to forecast electricity production. Finally, the Theil index is employed as the measurement of per capita CO2 emission inequality. Different from classic cost-effective energy system models, our model provides the technology pathways for different criteria, such as balanced development of energy technology across sectors, availability of energy resources, etc. Besides, the carbon equity is employed as one of the constraints in the multi-objective optimization, under the consideration of the convergence of technologies in sectors in the long-term.Our results show that the governmental targets in France and the United States prove very strict, as they require all sectors to make large efforts in reducing CO2 emissions. In contrast, the governmental target in China seems more easily achievable, as the necessary advances of technologies are less demanding. More precisely: if the energy mix is expected to be kept unchanged in China and in the United States of America, the CCS prove indispensable in the power sector. In France, 80% of automobiles are required to be changed into electric vehicles, in order to get the target of CO2 emissions.However, under the sectoral carbon equity consideration, coal combustion is projected to be reduced by two thirds in China, and it will have to be almost eliminated in the United States to achieve their CO2 reduction target. But gas is encouraged to be used in the power sector, especially in the United States. Regarding the transport sector, more than 60% of vehicles should be replaced to electric vehicles in China, and this share will be about up to 90% in France and the United States.Finally the sensitivity of parameters in the model is tested for a robust simulation, at each step of the work, and for all technology roadmaps. The results of the sensitivity tests show that electricity production and the emission intensity of production are the two parameters with the most important influence on CO2 emissions. Thus improving the efficiency of coal combustion and the energy efficiency of electricity will play an important role in the CO2 emission reductions
APA, Harvard, Vancouver, ISO, and other styles
20

Ghedira, Mohamed Chadli. "Le guidage routier et les algorithmes de routage dans les réseaux véhiculaires." Thesis, Evry, Institut national des télécommunications, 2011. http://www.theses.fr/2011TELE0019.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à deux types d’architectures dans les réseaux véhiculaires : les réseaux à infrastructure et les réseaux sans infrastructure. L’objectif de ce travail est de définir des solutions améliorant la connectivité des passagers des véhicules dans des environnements à densité variable en points d’accès. Pour ceci, dans un premier temps, nous nous intéressons aux algorithmes de guidage routier (dont l’objet est de guider un véhicule d’un point de départ vers un point d’arrivée) en prenant en compte les emplacements des points d’accès le long des routes. Notre première contribution est de définir un algorithme de guidage qui offre une connectivité supérieure au chemin par défaut (en général le plus court chemin) tout en maintenant une distance parcourue raisonnable pour les passagers du véhicule. Nous nous intéressons également à la minimisation du nombre de handovers afin d’améliorer la qualité de service du réseau. Nous avons évalué notre algorithme en termes de distance couverte et du nombre de handovers, tout en s’assurant de garder une distance totale parcourue raisonnable. Nous avons étudié dans un deuxième temps l’impact du choix de l’algorithme du guidage routier sur les performances de la couche réseau, où nous avons pris en compte deux types de protocoles de routage de données : réactif et proactif. Ensuite, nous avons étudié une problématique récurrente dans les réseaux véhiculaires qui est le routage des données de véhicule à véhicule. Ceci est particulièrement utile en absence d’une infrastructure disponible sur la route. Nous proposons une solution inter-couches («cross-layer») qui tire profit des caractéristiques des réseaux sans fil pour offrir un protocole de routage multi-sauts. Contrairement à la plupart des propositions de protocoles de routage, notre solution ne requiert pas un échange de messages de signalisation entre les voisins, ce qui améliore les performances du réseau en termes de charge utile et efficacité, surtout pour un réseau à forte mobilité comme c’est le cas pour des réseaux véhiculaires où les voisins changent d’une seconde à une autre, rendant problématique la mise à jour des informations de chaque nœud mobile sur son entourage
In this thesis, we focus on two types of architectures in vehicular networks: infrastructure networks and networks without infrastructure. The goal of this work is to define solutions to improve connectivity for passengers of vehicles in environments with variable density of access points. For this, we start by studying route guidance systems (whose purpose is to guide a vehicle from a starting point to a destination point), taking into account the locations of access points along roads. Our first contribution is to define a route guidance algorithm that offers superior connectivity compared to the default path (usually the shortest path) while maintaining a reasonable distance for passengers. We dealt also another issue which consists in minimizing the number of handovers to improve the quality of network service. We evaluated our algorithm in terms of covered distance and the number of handovers, while making sure to keep a reasonable traveled distance. After that, we studied the impact of the choice of route guidance algorithm in the performance of the network layer, where we took into account two types of routing protocols data: reactive and proactive. Next, we studied a recurrent problem in vehicular networks which is routing data from vehicle to vehicle. This is particularly useful in the absence of available infrastructure on the road. We propose a cross-layer architecture that takes advantage of the characteristics of wireless networks to design a multi-hops routing protocol. Unlike most proposals for routing protocols, our solution does not require an exchange of signaling messages between neighbors, and so improves network performance in terms of overhead and efficiency, especially for networks with high mobility such as vehicular networks, where neighbors change frequently, making it difficult to update information from each mobile node on its surroundings
APA, Harvard, Vancouver, ISO, and other styles
21

Ghasemi, Dehkordi Sepehr. "Towards an optimal model for green and safe driving." Thesis, Queensland University of Technology, 2019. https://eprints.qut.edu.au/131162/1/Sepehr_Ghasemi%20Dehkordi_Thesis.pdf.

Full text
Abstract:
Driver behaviour, route choice, road geometry and vehicle characteristics all influence vehicle consumption, gas emission and safety. This thesis designed an optimum driving model that considers the simultaneous needs of an environmentally friendly and safe (eco-safe) driving behaviour. This research was grounded on optimisation techniques in control theory as well as graph theory to obtain the optimal route and speed profile to assist drivers in eco-safe driving. The joint consideration of optimal benefits in terms of road safety and energy consumption was the key innovation of this dissertation.
APA, Harvard, Vancouver, ISO, and other styles
22

Anaya, Castro Maria Antonieta. "Optimisation de la pH-sensibilité de protéines végétales en vue d'améliorer leurs capacités d'encapsulation de principes actifs destinés à la voie orale." Thesis, Toulouse, INPT, 2018. http://www.theses.fr/2018INPT0017/document.

Full text
Abstract:
Dans le domaine pharmaceutique, la voie orale demeure la voie d’administration de prédilection, car plus simple et mieux acceptée par les patients. Cependant, ce mode d’administration pose problème pour de nombreux principes actifs (PA) présentant une faible solubilité, une faible perméabilité et/ou une instabilité dans l’environnement gastro-intestinal. Leur micro-encapsulation dans des matrices polymériques peut permettre d’y répondre, notamment si les microparticules générées résistent aux environnements rencontrés lors du tractus gastro-intestinal et jouent alors un rôle protecteur, tant pour le principe actif que pour les muqueuses rencontrées. La recherche de nouveaux excipients, issus des agro-ressources tels que les polymères naturels, est en plein essor. Les protéines végétales, grâce à leurs propriétés fonctionnelles telles qu’une bonne solubilité, une viscosité relativement basse, et des propriétés émulsifiantes et filmogènes, représentent des candidats privilégiés. De plus, la grande diversité de leurs groupements fonctionnels permet d’envisager des modifications chimiques ou enzymatiques variées. L’objectif de ce travail était d’étudier l’intérêt de la protéine de soja en tant que matériau enrobant de principes actifs pharmaceutiques destinés à la voie orale, et plus particulièrement en tant que candidat pour l’élaboration de formes gastro-résistantes. Un isolat protéique de soja (SPI) été utilisé comme matière enrobante et l’atomisation comme procédé. L’ibuprofène, anti-inflammatoire non stéroïdien, a été choisi comme molécule modèle du fait de sa faible solubilité nécessitant une amélioration de sa biodisponibilité, et de ses effets indésirables gastriques nécessitant une mise en forme entérique. Deux modifications chimiques des protéines (l’acylation et la succinylation) ont été étudiées dans le but de modifier la solubilité de la protéine de soja. Ces modifications ont été effectuées dans le respect des principes de la Chimie Verte, notamment en absence de solvant organique. Les microcapsules obtenues par atomisation ont été caractérisées en termes de taux et efficacité d'encapsulation, morphologie et distribution de tailles des particules, état physique du PA encapsulé et capacité de libération en milieu gastrique et intestinal simulé. Les résultats obtenus ont permis de valider l’intérêt des modifications chimiques de la protéine de soja pour moduler les cinétiques de libération d’actif. Les modifications chimiques sont apparues particulièrement adaptées pour l’encapsulation de principes actifs hydrophobes, et ont permis de l’obtention de cinétiques de libération d’ibuprofène ralenties à pH acide (gastrique). La dernière partie de ce travail a permis de valider cette dernière hypothèse par la réalisation de formes gastro-résistantes sur le modèle des comprimés MUPS (multiple unit pellet system). Les résultats de ce travail exploratoire démontrent que les protéines de soja, associées à un procédé de mise en forme multi-particulaire couplé à de la compression directe, peuvent constituer une alternative biosourcée, respectueuse de l’environnement (manipulation en solvant aqueux, temps de séchage et étapes de compression réduits) et sûre à l’enrobage utilisé dans les formes gastro-résistantes traditionnelles
In the pharmaceutical field, the oral route remains the preferred route of administration because it is simpler and better accepted by patients. However, this mode of administration is problematic for many active pharmaceutical ingredients (API) with low solubility, low permeability and/or instability in the gastrointestinal environment. Their microencapsulation in polymeric matrices can make them able to respond to these factors, especially if the microparticles generated resist the environments encountered during the gastrointestinal tract and then play a protective role, both for the API and for the mucous membranes encountered. The search for new excipients, from agroresources such as natural polymers, is booming. Vegetable proteins, thanks to their functional properties such as good solubility, relatively low viscosity, and emulsifying and film-forming properties, are preferred candidates. In addition, the great diversity of their functional groups makes it possible to envisage various chemical or enzymatic modifications. The aim of this work was to study the interest of soy protein as a coating material for API intended for the oral route, and more particularly as a candidate for the development of gastro-resistant forms. A soy protein isolate (SPI) was used as a coating material and the atomization as a process. Ibuprofen, a nonsteroidal anti-inflammatory drug, was chosen as a model molecule because of its low solubility requiring an improvement in its bioavailability, and its gastric side effects requiring an enteric shaping. Two chemical modifications of proteins (acylation and succinylation) have been studied in order to modify the solubility of the soy protein. These modifications were carried out in accordance with the principles of Green Chemistry, especially in the absence of organic solvent. The microcapsules obtained by spray-drying were characterized in terms of rate and encapsulation efficiency, morphology and size distribution of the particles, physical state of the encapsulated API and capacity of release in simulated gastric and intestinal medium. The results obtained validated the interest of the chemical modifications of the soy protein to modulate the release kinetics of API. The chemical modifications appeared particularly suitable for the encapsulation of hydrophobic active ingredients, and allowed to obtain ibuprofen release kinetics decreased to acidic pH (gastric). The last part of this work allowed to validate this last hypothesis by the realization of gastro-resistant forms on the model of MUPS tablets (multiple unit pellet system). The results of this exploratory work demonstrate that soy protein, combined with a multiparticle shaping process coupled with direct compression, can be a biosourced, environmentally friendly alternative (aqueous solvent handling, drying and compression steps reduced) and confident to the coating used in traditional gastroresistant forms
APA, Harvard, Vancouver, ISO, and other styles
23

Liang, Man. "Optimisation du réseau de routes en zone terminale." Thesis, Toulouse 3, 2018. http://www.theses.fr/2018TOU30003/document.

Full text
Abstract:
La congestion dans les Terminal Manoeuvring Area (TMA) des aéroports en hub est le principal problème dans le transport aérien chinois. Face au trafic extrêmement dense dans les TMAs, nous pouvons envisager d'automatiser une grande partie des opérations de routine, comprenant la planification, le séquencement et la séparation. Nous proposons dans cette thèse un nouveau système automatisé de séquencement des avions et de fusion des flux vers des pistes parallèles, qui sont utilisées dans la plupart des aéroports chinois. Notre méthodologie intègre un réseau de route 3D nommé Multi-Level and Multi-Point Merge System (MLMPMS) basé sur le concept de l'Area Navigation (RNAV) et un algorithme d'optimisation heuristique hybride pour trouver une solution correcte, opérationnellement acceptable. Un algorithme de Simulated Annealing (SA) spécifique et un module de génération de trajectoire collaborent pour rechercher la solution quasi optimale. Notre objectif est de générer en temps réel des trajectoires sans conflit, minimisant la consommation de carburant et permettant des méthodes de contrôle faciles et flexibles. Dans ce but, nous explorons en permanence les solutions possibles avec le moins de retard et assuront l'atterrissage le plus rapide. Nous déterminons quatre variables de décision pour contrôler chaque vol : l'heure et la vitesse d'entrée dans la TMA, le temps de vol sur l'arc de séquencement et le choix de la piste utilisée. La simulation de trajectoire dans les différentes phases de vol est basée sur le modèle de performances BADA. Dans le cas de l'aéroport de Beijing Capital International Airport (BCIA), les résultats numériques montrent que notre système d'optimisation de bonnes performances sur le séquencement et la fusion des trajectoires. Tout d'abord, il permet d'assurer des performances de résolution conflit très stables pour gérer les flux de trafic continuellement denses. Par rapport à l'algorithme Hill Climbing (HC), le SA peut toujours trouver une solution sans conflit, non seulement pour l'approche parallèle mixte ou séparée~(pour les arrivées), mais aussi pour les configurations parallèles indépendantes~ (départs et arrivées intégrés). Ensuite, avec un réseau d'itinéraires Multi-Level Point Merge (ML-PM) unique, il peut fournir une bonne solution de contrôle de la trajectoire pour traiter efficacement et économiquement différents types de flux d'arrivée. Il peut réaliser un temps de vol plus court et une descente vers le bas en Continuous Descent Approach (CDA) pour l'avion d'arrivée. Il peut réaliser un re-séquencement plus facile des avions avec un déplacement de position plus relâché. Théoriquement, les Maximum Position Shifting (MPS) peuvent atteindre 6 positions, surpassant la contrainte difficile de 3 positions. Troisièmement, l'algorithme montre son efficacité dans un modèle d'approche parallèle séparé avec une capacité de séquencement plus relâché. Par rapport au décalage de position forcé dur, qui est souvent utilisé dans le système actuel Arrival Manager (AMAN) et la méthode First Come First Served (FCFS) utilisé par les contrôleurs, il peut réduire le délai et le temps de transit moyens dans une situation d'arrivée très dense. Le palier par vol est inférieur à 12\% du temps de transit total dans la TMA. Quatrièmement, en configuration parallèle indépendant, il peut fournir des informations différentes concernant la valeur objectif associée, le temps de vol moyen, les trajectoires de croisement en point chaud entre les arrivées et les départs, l'efficacité avec différents arcs de séquencement conçus dans le réseau de route ML-PM etc
Congestion in Terminal Manoeuvring Area (TMA) at hub airports is the main problem in Chinese air transportation system. Facing extremely dense operations in complex TMA, we can consider reducing traffic complexity by solving all potential conflicts in advance with a feasible trajectory control for controllers, or automating a large proportion of routine operations, such as sequencing, merging and spacing. As parallel runways are a common structure of Chinese hub airports, in this thesis, we propose a novel system to integrated sequencing and merging aircraft to parallel runways. Our methodology integrates a Area Navigation (RNAV)-based 3D Multi-Level and Multi-Point Merge System (MLMPMS), a hybrid heuristic optimization algorithm and a simulation module to find good, systematic, operationally-acceptable solutions. First, a Receding Horizon Control (RHC) technique is applied to divide 24-hour traffic optimization problem into several sub- problems. Then, in each sub-problem, a tailored Simulated Annealing (SA) algorithm and a trajectory generation module worn together to find a near-optimal solution. Our primary objective is to rapidly generate conflict-free and economical trajectories with easy, flexible and feasible control methods. Based on an initial solution, we continuously explore possible good solutions with less delay and shorter landing interval on runway. Taking Beijing Capital International Airport (BCIA) as a case to study, numerical results show that our optimization system performs well. First, it has very stable de-conflict performance to handle continuously dense traffic flows. Compared with Hill Climbing (HC), the tailored SA algorithm can always guarantee a conflict-free solution not only for the mixed or segregated parallel approach (arrivals only) pattern, but also for the independent parallel operation (integrated departures and arrivals) pattern. Second, with its unique Multi-Level Point Merge (ML-PM) route network, it can provide a good trajectory control solution to efficiently and economically handle different kinds of arrival flows. It can realize a shorter flying time and a near-Continuous Descent Approach (CDA) descent for arrival aircraft, compared with baseline. It also realizes an easier re-sequencing of aircraft with more relaxed position shifting as well, compared with conventional sequencing method. Theoretically, the Maximum Position Shifting (MPS) can be up to 6 positions, overcoming the hard constraint of 3 position shifts (MPS <= 3). Third, it is efficient for the segregated parallel approach patterns. Compared with hard constrained position shifting, which is often used in current Arrival Manager (AMAN) system and controller's manual-control First Come First Served (FCFS) method, it can reduce the average delay, average additional transit time in super dense arrival situations. The average time flown level per flight is less than 12% of total transit time in TMA. Fourth, in independent parallel patterns, it can provide a range of useful information concerning the associated objective value, the average flying time, crossing trajectories in hot spots between arrivals and departures, the efficiency of using different designed sequencing legs in ML-PM route network
APA, Harvard, Vancouver, ISO, and other styles
24

Letrouit, Vincent. "Optimisation du réseau des routes aériennes en Europe." Grenoble INPG, 1998. http://www.theses.fr/1998INPG0141.

Full text
Abstract:
Le reseau aerien actuel est compose d'un ensemble de segments qui s'intersectent en des points particuliers definis par des balises emettant des signaux a partir du sol. Ce reseau conduit a un exces des distances parcourues par les avions estime a 8% en europe. Or il est desormais possible grace aux systemes de type gps de concevoir un nouveau reseau independant de moyens au sol. Dans ces conditions, un nouveau reseau aerien pourrait integrer d'une part des lignes aeriennes en ligne droite entre les aeroports et d'autre part la possibilite donnee aux avions de changer de niveau une ou plusieurs fois entre l'origine et la destination en des points pre-definis, afin d'eviter les points de conflit potentiel. Dans cette these, nous presentons principalement des problemes combinatoires sur les ensembles de segments, lies a la conception d'un reseau de ce type. Nous proposons des heuristiques pour le probleme de la clique maximum, de la coloration, de la coloration avec n couleurs d'un ensemble de segments, et un algorithme pour la coloration des segments par portion avec 2 couleurs. Nous proposons ensuite des indicateurs tres simplifies nous permettant d'evaluer facilement la charge de l'espace aerien et la quantite de conflits generees par le deplacement des avions sur nos reseaux. Dans ce cadre, nous effectuons une modelisation des retards au decollage par une loi log-normale et nous adaptons un modele de conflit existant. Finalement, nous donnons des resultats sur des donnees reelles du trafic aerien europeen representant jusqu'a 50% des flux.
APA, Harvard, Vancouver, ISO, and other styles
25

Laarabi, Mohamed Haitam. "Optimisation multicritère des itinéraires pour transport des marchandises dangereuses en employant une évaluation en logique floue du risque et la simulation du trafic à base d'agents." Thesis, Paris, ENMP, 2014. http://www.theses.fr/2014ENMP0074/document.

Full text
Abstract:
Chaque jour des milliers de camions transportant des centaines de milliers de tonnes de marchandises dangereuses par diverses modalités. Toutefois, le terme “dangereux” indique une adversité intrinsèque qui caractérise ces produits transportés, et qui peuvent se manifester lors d'un accident entraînant la fuite d'une substance dangereuse. Dans une telle situation, les conséquences peuvent nuire à l'environnement et létal pour l'humain.L'importance des marchandises dangereuses revient aux bénéfices économiques considérables générés. En fait, on ne peut nier la contribution du transport des produits dérivés de combustibles fossiles, ce qui représente plus de 60% des marchandises dangereuses transportées en Europe. Eni, la société italienne leader de pétrochimie, gère chaque jour une flotte d'environ 1.500 camions, qui effectuent de nombreuses expéditions. Pourtant la distribution de produits pétroliers est une activité à grande risques, et tout accident lors du transport peut entraîner de graves conséquences.Consciente des enjeux, la division Eni R&M - Logistique Secondaire, historiquement actif au siège de Gênes, collabore depuis 2002 avec le DIBRIS à l'Université de Gênes, et le CRC à Mines ParisTech, dans le but d'étudier les améliorations possibles en matière de sûreté dans le transport de marchandises dangereuses. Au fil des ans, cette collaboration a permis le développement d'un système d'information et décisionnel. Le composant principal de ce système est une plate-forme de surveillance de la flotte Eni appelé TIP (Transport Integrated Platform), pour livrer les produits vers les points de distributions. Ces véhicules sont équipés d'un dispositif capable de transmettre des flux de données en temps réel en utilisant un modem GPRS. Les données transmises peuvent être de nature différente et contenir des informations sur l'état du véhicule, le produit et les événements détectés durant l'expédition. Ces données sont destinées à être reçues par des serveurs centralisés puis traitées et stockées, afin de soutenir diverses applications du TIP.Dans ce contexte, les études menées tout au long de la thèse sont dirigés vers le développement d'une proposition visant à réduire davantage les risques liés au transport de marchandises dangereuses. En d'autres termes, un modèle basé sur le compromis entre les facteurs économiques et sûretés pour le choix de l'itinéraire. L'objectif est motivé par la nécessité de soutenir les règlements et les normes de sécurité existantes, car ils ne garantissent pas totalement contre les accidents entrainant des marchandises dangereuses.L'objectif est effectué en prenant en compte le système existant comme base pour l'élaboration d'un système de transport intelligent (STI) regroupant plusieurs plates-formes logicielles. Ces plates-formes doivent permettre aux planificateurs et aux décideurs de suivre en temps réel leur flotte, à évaluer les risques et tous les itinéraires possibles, de simuler et de créer différents scénarios, et d'aider à trouver des solutions à des problèmes particuliers.Tout au long de cette thèse, je souligne la motivation pour ce travail de recherche, les problématiques, et les défis de transport de marchandises dangereuses. Je présente le TIP comme le noyau de l'architecture proposée du STI. Pour les besoins de la simulation, les véhicules virtuels sont injectés dans le système. La gestion de la collecte des données a été l'objet d'une amélioration technique pour plus de fiabilité, d'efficacité et d'évolutivité dans le cadre de la surveillance en temps réel. Enfin, je présente une explication systématique de la méthode d'optimisation des itinéraires considérant les critères économiques et de risques. Le risque est évalué en fonction de divers facteurs notamment la fréquence d'accidents entrainant des marchandises dangereuses, et ses conséquences. La quantification de l'incertitude dans l'évaluation des risques est modélisée en utilisant la théorie des ensembles flous
Everyday thousands of trucks transporting hundreds of thousands of tons of dangerous goods by various modalities and both within and across nations. However, the term “dangerous” indicates an intrinsic adversity that characterize these products, which can manifest in an accident leading to release of a hazardous substance (e.g. radioactive, flammable, explosive etc.). In this situation, the consequences can be lethal to human beings, other living organisms and damage the environment and public/private properties.The importance of dangerous goods boils down to the significant economic benefits that generates. In fact, one cannot deny the contribution of the transport of all fossil fuel derived product, which represents more than 60% of dangerous goods transported in Europe. Eni, the Italian leading petrochemical company, every day operates a fleet of about 1,500 trucks, which performs numerous trips from loading terminals to filling stations. Distribution of petroleum products is a risky activity, and an accident during the transportation may lead to serious consequences.Aware of what is at stake, the division Eni R&M - Logistics Secondary, historically active in Genoa headquarters, is collaborating since 2002 with the DIBRIS department at University of Genoa, and the CRC at Mines ParisTech, with the purpose of studying possible improvements regarding safety in transport of dangerous goods, particularly petroleum products. Over years, this collaboration has led to the development of different technologies and mainly to an information and decision support system. The major component of this system is a platform for monitoring Eni fleet, at the national level, to deliver the products to the distribution points, called the Transport Integrated Platform (TIP). These vehicles are equipped with a device capable of transmitting data stream in real-time using a GPRS modem. The data transmitted can be of different nature and contain information about the state of the vehicle and occurred events during the trip. These data are intended to be received by centralized servers then get processed and stored, in order to support various applications within the TIP.With this in mind, the studies undertaken throughout the thesis are directed towards the development of a proposal to further minimize the risk related to the transportation of dangerous goods. In other words, a trade-off based model for route selection taking into consideration economic and safety factors. The objective is prompted by the need to support existent regulations and safety standards, which does not assure a full warranty against accidents involving dangerous goods.The goal is carried out by considering the existent system as basis for developing an Intelligent Transportation System (ITS) aggregating multiple software platforms. These platforms should allow planners and decision makers to monitor in real-time their fleet, to assess risk and evaluate all possible routes, to simulate and create different scenarios, and to assist at finding solutions to particular problems.Throughout this dissertation, I highlight the motivation for such research work, the related problem statements, and the challenges in dangerous goods transport. I introduce the TIP as the core for the proposed ITS architecture. For simulation purposes, virtual vehicles are injected into the system. The management of the data collection was the subject of technical improvement for more reliability, efficiency and scalability in real-time monitoring of dangerous goods shipment. Finally, I present a systematic explanation of the methodology for route optimization considering both economic and risk criteria. The risk is assessed based on various factors mainly the frequency of accident leading to hazardous substance release and its consequences. Uncertainty quantification in risk assessment is modelled using fuzzy sets theory
APA, Harvard, Vancouver, ISO, and other styles
26

Ghedira, Mohamed Chadli. "Le guidage routier et les algorithmes de routage dans les réseaux véhiculaires." Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2011. http://www.theses.fr/2011TELE0019.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à deux types d’architectures dans les réseaux véhiculaires : les réseaux à infrastructure et les réseaux sans infrastructure. L’objectif de ce travail est de définir des solutions améliorant la connectivité des passagers des véhicules dans des environnements à densité variable en points d’accès. Pour ceci, dans un premier temps, nous nous intéressons aux algorithmes de guidage routier (dont l’objet est de guider un véhicule d’un point de départ vers un point d’arrivée) en prenant en compte les emplacements des points d’accès le long des routes. Notre première contribution est de définir un algorithme de guidage qui offre une connectivité supérieure au chemin par défaut (en général le plus court chemin) tout en maintenant une distance parcourue raisonnable pour les passagers du véhicule. Nous nous intéressons également à la minimisation du nombre de handovers afin d’améliorer la qualité de service du réseau. Nous avons évalué notre algorithme en termes de distance couverte et du nombre de handovers, tout en s’assurant de garder une distance totale parcourue raisonnable. Nous avons étudié dans un deuxième temps l’impact du choix de l’algorithme du guidage routier sur les performances de la couche réseau, où nous avons pris en compte deux types de protocoles de routage de données : réactif et proactif. Ensuite, nous avons étudié une problématique récurrente dans les réseaux véhiculaires qui est le routage des données de véhicule à véhicule. Ceci est particulièrement utile en absence d’une infrastructure disponible sur la route. Nous proposons une solution inter-couches («cross-layer») qui tire profit des caractéristiques des réseaux sans fil pour offrir un protocole de routage multi-sauts. Contrairement à la plupart des propositions de protocoles de routage, notre solution ne requiert pas un échange de messages de signalisation entre les voisins, ce qui améliore les performances du réseau en termes de charge utile et efficacité, surtout pour un réseau à forte mobilité comme c’est le cas pour des réseaux véhiculaires où les voisins changent d’une seconde à une autre, rendant problématique la mise à jour des informations de chaque nœud mobile sur son entourage
In this thesis, we focus on two types of architectures in vehicular networks: infrastructure networks and networks without infrastructure. The goal of this work is to define solutions to improve connectivity for passengers of vehicles in environments with variable density of access points. For this, we start by studying route guidance systems (whose purpose is to guide a vehicle from a starting point to a destination point), taking into account the locations of access points along roads. Our first contribution is to define a route guidance algorithm that offers superior connectivity compared to the default path (usually the shortest path) while maintaining a reasonable distance for passengers. We dealt also another issue which consists in minimizing the number of handovers to improve the quality of network service. We evaluated our algorithm in terms of covered distance and the number of handovers, while making sure to keep a reasonable traveled distance. After that, we studied the impact of the choice of route guidance algorithm in the performance of the network layer, where we took into account two types of routing protocols data: reactive and proactive. Next, we studied a recurrent problem in vehicular networks which is routing data from vehicle to vehicle. This is particularly useful in the absence of available infrastructure on the road. We propose a cross-layer architecture that takes advantage of the characteristics of wireless networks to design a multi-hops routing protocol. Unlike most proposals for routing protocols, our solution does not require an exchange of signaling messages between neighbors, and so improves network performance in terms of overhead and efficiency, especially for networks with high mobility such as vehicular networks, where neighbors change frequently, making it difficult to update information from each mobile node on its surroundings
APA, Harvard, Vancouver, ISO, and other styles
27

Royat, Sujana. "Affectation des investissements en infrastructures de transports et aménagement de l'espace. Le cas de programmation d'investissements de routes locales dans le développement rural de la province de Java-Est, Indonésie." Phd thesis, Ecole Nationale des Ponts et Chaussées, 1989. http://tel.archives-ouvertes.fr/tel-00529717.

Full text
Abstract:
Les approches actuelles de choix d'investissements en infrastructures de transports mettent surtout l'accent sur la réduction de coûts de transports comme critère unique de sélection d'investissements rentables. De plus, ces approches s'appuient souvent sur les conditions et réalités socio-économiques des pays développés qui sont très différentes de celles des pays en développement. Pourtant, à l'heure actuelle, la réduction des coûts de transport n'est plus le seul objectif recherché lors de la réalisation d'un projet en infrastructures de transports. Elargissement du marché; facilité d'accès à des endroits éloignés, propagation du développement vers les régions moins développées et développement spatial harmonieux, sont autant d'effets importants que doivent entraîner les infrastructures de transports, par leur rôle de formation et d'aménagement de l'espace. Pour les pays en développement, de telles approches d'évaluation des investissements en infrastructures de transports doivent aussi être adaptables à la résolution de problèmes propres à ces pays, tels que : dichotomie du secteur moderne et du secteur traditionnel ou dichotomie urbain - rural, étroitesse des marchés de produits agricoles et d'industries artisanales, limitations de budgets d'infrastructures, et répartition spatiale inégale des infrastructures et équipements sociaux. Pour ces raisons, cette étude se propose d'élaborer la procédure AFFINAE : d'affectation des investissements en infrastructures de transports par référence à l'aménagement de l'espace. Cette procédure considère les infrastructures de transports comme instruments d'aménagement de l'espace. Elle se concentre sur la disparité de niveaux de services des infrastructures de transports entre les régions. Cette disparité est d'ailleurs considérée comme cause importante du développement inégal entre les régions, problème fondamental de l'aménagement de l'espace dans les pays en développement. L'application de cette procédure au cas de programmation des investissements de routes locales en province de Java-Est en Indonésie a permis de trouver une efficacité suffisante pour l'affectation spatiale de budgets disponibles, particulièrement dans une situation de limitation budgétaire pour réaliser les « targets » d'investissements correspondants. Néanmoins, un développement ultérieur de cette procédure est indispensable pour qu'elle soit plus performante au niveau de la conception et des résultats. L'amélioration de la conception des variables prises en compte adaptées aux situations des pays en développement et du mode de calcul aux programmes d'optimisation dans cette procédure pourra être un sujet à aborder dans des recherches ultérieures.
APA, Harvard, Vancouver, ISO, and other styles
28

Chevalier, Jérémie. "Optimisation des routes de départ et d'arrivée aux approches des grands aéroports." Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30092.

Full text
Abstract:
Les TMAs (Terminal Maneuvering Areas) sont aujourd'hui un goulot d'étranglement de l'espace aérien, dans lequel les avions quittent leur phase de croisière pour atterrir à un aéroport, ou au contraire effectuent leur montée pour rejoindre leur route de croisière. Afin d'éviter la congestion de ces zones, il est nécessaire de construire des routes de départ et d'arrivée efficaces. Dans ce travail, une solution pour la création de routes de départ et d'arrivée est proposée, prenant en compte la configuration des pistes, les environs de l'aéroport, ainsi qu'un ensemble de contraintes opérationnelles telles que les angles de montée ou de virages limités. Les routes sont en deux parties : un chemin horizontal construit dans un graphe discrétisant la TMA, auquel est associé un cône d'altitudes. L'ensemble des routes est optimisé à l'aide d'un algorithme de recuit simulé. Dans ce processus, à chaque itération, chaque route est construite en valuant les arcs du graphe, puis en effectuant une recherche de chemin dans celui-ci. Les coûts des arcs sont choisis de manière à éviter autant que possible les phénomènes de zigzag. Plusieurs tests ont été effectués : un sur un cas artificiel créé spécifiquement pour cette approche, et trois autres sur des cas tirés de la littérature. Les résultats obtenus sont satisfaisants au regard de l'état actuel de la gestion du trafic aérien et des contraintes afférentes
The bottleneck of today's airspace is the Terminal Maneuvering Areas (TMA), where aircraft leave their routes to descend to an airport or take off and reach the en-route sector. To avoid congestion in these areas, an efficient design of departure and arrival routes is necessary. In this work, a solution for designing departure and arrival routes is proposed, which takes into account the runway configuration, the surroundings of the airport and operational constraints such as limited slopes or turn angles. The routes consist of two parts: a horizontal path in a graph constructed by sampling the TMA around the runway, to which is associated a cone of altitudes. The set of all routes is optimized by the Simulated Annealing metaheuristic. In the process and at each iteration, each route is computed by defining adequately the cost of the arcs in the graph and then searching a path on it. The costs are chosen so as to avoid zigzag behaviors as much as possible. Several tests were performed, one on an artificial problem designed specifically to test this approach and the three others on instances taken from the literature. The obtained results are satisfying with regard to the current state of air operations management and constraints
APA, Harvard, Vancouver, ISO, and other styles
29

Geraldo, Issa Cherif. "On the consistency of some constrained maximum likelihood estimator used in crash data modelling." Thesis, Lille 1, 2015. http://www.theses.fr/2015LIL10184/document.

Full text
Abstract:
L'ensemble des méthodes statistiques utilisées dans la modélisation de données nécessite la recherche de solutions optimales locales mais aussi l’estimation de la précision (écart-type) liée à ces solutions. Ces méthodes consistent à optimiser, par approximations itératives, la fonction de vraisemblance ou une version approchée. Classiquement, on utilise des versions adaptées de la méthode de Newton-Raphson ou des scores de Fisher. Du fait qu'elles nécessitent des inversions matricielles, ces méthodes peuvent être complexes à mettre en œuvre numériquement en grandes dimensions ou lorsque les matrices impliquées ne sont pas inversibles. Pour contourner ces difficultés, des procédures itératives ne nécessitant pas d’inversion matricielle telles que les algorithmes MM (Minorization-Maximization) ont été proposées et sont considérés comme pertinents pour les problèmes en grandes dimensions et pour certaines distributions discrètes multivariées. Parmi les nouvelles approches proposées dans le cadre de la modélisation en sécurité routière, figure un algorithme nommé algorithme cyclique itératif (CA). Cette thèse a un double objectif. Le premier est d'étudier l'algorithme CA des points de vue algorithmique et stochastique; le second est de généraliser l'algorithme cyclique itératif à des modèles plus complexes intégrant des distributions discrètes multivariées et de comparer la performance de l’algorithme CA généralisé à celle de ses compétiteurs
Most of the statistical methods used in data modeling require the search for local optimal solutions but also the estimation of standard errors linked to these solutions. These methods consist in maximizing by successive approximations the likelihood function or its approximation. Generally, one uses numerical methods adapted from the Newton-Raphson method or Fisher’s scoring. Because they require matrix inversions, these methods can be complex to implement numerically in large dimensions or when involved matrices are not invertible. To overcome these difficulties, iterative procedures requiring no matrix inversion such as MM (Minorization-Maximization) algorithms have been proposed and are considered to be efficient for problems in large dimensions and some multivariate discrete distributions. Among the new approaches proposed for data modeling in road safety, is an algorithm called iterative cyclic algorithm (CA). This thesis has two main objectives: (a) the first is to study the convergence properties of the cyclic algorithm from both numerical and stochastic viewpoints and (b) the second is to generalize the CA to more general models integrating discrete multivariate distributions and compare the performance of the generalized CA to those of its competitors
APA, Harvard, Vancouver, ISO, and other styles
30

HOUSSSEINI, TEHERANT FERECHTEH. "Optimisation et elaboration de couches minces supraconductrices : application a la detection infra-rouge." Paris 11, 1991. http://www.theses.fr/1991PA112199.

Full text
Abstract:
Ce travail consiste en l'etude de films minces supraconducteurs d'ybacuo. Il comprend essentiellement 4 parties: une recherche bibliographique sur l'etat de l'art des recherches sur l'ybacuo, l'etude et l'optimisation des depots de films ybacuo amorphes par la technique de la pulverisation cathodiques diode rf-obtention par la technique de recuit rapide de la phase supraconductrice sur des substrats de zircone stabilise a l'yttrium (et polycristallins) et de silicium (avec differents types de couches tampons), mise en evidence de la detection bolometrique dans l'infra-rouge moyen par ces films. Les points originaux de ce travail sont: l'utilisation de la technique de recuit rapide, utilisation avec succes de substrat de si, avec des couches tampons de nitrure de silicium et la concretisation de nos recherches en une application industrialisable: un detecteur bolometrique
APA, Harvard, Vancouver, ISO, and other styles
31

Chauveau, Estelle. "Optimisation des routes maritimes : un système de résolution multicritère et dépendant du temps." Electronic Thesis or Diss., Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0139.

Full text
Abstract:
Les compagnies d'affrètement maritime cherchent à utiliser les prévisions météorologiques pour optimiser les déplacements de leurs bateaux. La détermination d'une route optimale en durée et en consommation de carburant constitue un problème difficile au sens de la théorie de la complexité, et cette route peut évoluer pendant le trajet, rendant le problème pratique encore plus complexe. Pour répondre à ce besoin, des logiciels de routage existent, mais dès lors qu'il s'agit de prendre en considération plusieurs critères qui parfois sont contradictoires, on se rend compte de l'absence dans l'état de l'art d'algorithmes efficaces. L'objectif de cette thèse est de répondre à cette problématique en proposant un cadre de modélisation adéquat et des algorithmes efficaces dans des conditions industrielles. Le premier travail réalisé porte sur la mise en place d'une méthodologie permettant de transformer les données brutes - en entrée - en un modèle mathématique exploitable. Cette première étape conditionne ensuite les algorithmes utilisés, et donc leur efficacité. Ainsi, le problème est modélisé par un graphe prenant en compte le temps. La seconde contribution est la proposition d'un algorithme multi-objectif et time-dependent permettant d'identifier les chemins pareto-optimaux dans ce graphe. Un troisième apport concerne le traitement de ces chemins, de sorte à optimiser la vitesse le long d'un trajet. Enfin, un système logiciel opérationnel intégrant l'ensemble de ces contributions permet de valider expérimentalement, sur des données réelles, le modèle de représentation proposé ainsi que les algorithmes qui l'exploitent
Maritime charter companies try to use weather forecast in order to optimize the journeys of their fleet. Let consider a boat transporting merchandise (or goods) from a port to another. Given the date and time of departure and trying to minimize fuel consumption, determining the best route to take is a difficult problem in the meaning of complexity theory. Moreover, the best route likely changes during the journey leading to an even more difficult problem. To tackle this type of issues, many routing software are available. However, to our knowledge, the state of the art still lacks of algorithms capable of efficiently solving the problem while considering multiple and sometime contradictory criteria.The aim of the this PhD thesis is to build a relevant modelling framework to solve this problem as well as to develop algorithms to be used and validated in industrial conditions.The first task undertaken was the development of a methodology to format raw data, mainly spatial and weather data, into usable input data for mathematical model. This first step was essential as it conditioned which algorithms could be used, and consequently their efficiency. We chose to model the problem as a graph that takes time into account.The second task was the development of a multi-objective and time dependent algorithm. This algorithm identifies pareto-optimum paths within the graph.A third work focused on processing the paths in order to optimize speed during the whole journey, and as a consequence, fuel consumption
APA, Harvard, Vancouver, ISO, and other styles
32

Chauveau, Estelle. "Optimisation des routes maritimes : un système de résolution multicritère et dépendant du temps." Thesis, Aix-Marseille, 2018. http://www.theses.fr/2018AIXM0139/document.

Full text
Abstract:
Les compagnies d'affrètement maritime cherchent à utiliser les prévisions météorologiques pour optimiser les déplacements de leurs bateaux. La détermination d'une route optimale en durée et en consommation de carburant constitue un problème difficile au sens de la théorie de la complexité, et cette route peut évoluer pendant le trajet, rendant le problème pratique encore plus complexe. Pour répondre à ce besoin, des logiciels de routage existent, mais dès lors qu'il s'agit de prendre en considération plusieurs critères qui parfois sont contradictoires, on se rend compte de l'absence dans l'état de l'art d'algorithmes efficaces. L'objectif de cette thèse est de répondre à cette problématique en proposant un cadre de modélisation adéquat et des algorithmes efficaces dans des conditions industrielles. Le premier travail réalisé porte sur la mise en place d'une méthodologie permettant de transformer les données brutes - en entrée - en un modèle mathématique exploitable. Cette première étape conditionne ensuite les algorithmes utilisés, et donc leur efficacité. Ainsi, le problème est modélisé par un graphe prenant en compte le temps. La seconde contribution est la proposition d'un algorithme multi-objectif et time-dependent permettant d'identifier les chemins pareto-optimaux dans ce graphe. Un troisième apport concerne le traitement de ces chemins, de sorte à optimiser la vitesse le long d'un trajet. Enfin, un système logiciel opérationnel intégrant l'ensemble de ces contributions permet de valider expérimentalement, sur des données réelles, le modèle de représentation proposé ainsi que les algorithmes qui l'exploitent
Maritime charter companies try to use weather forecast in order to optimize the journeys of their fleet. Let consider a boat transporting merchandise (or goods) from a port to another. Given the date and time of departure and trying to minimize fuel consumption, determining the best route to take is a difficult problem in the meaning of complexity theory. Moreover, the best route likely changes during the journey leading to an even more difficult problem. To tackle this type of issues, many routing software are available. However, to our knowledge, the state of the art still lacks of algorithms capable of efficiently solving the problem while considering multiple and sometime contradictory criteria.The aim of the this PhD thesis is to build a relevant modelling framework to solve this problem as well as to develop algorithms to be used and validated in industrial conditions.The first task undertaken was the development of a methodology to format raw data, mainly spatial and weather data, into usable input data for mathematical model. This first step was essential as it conditioned which algorithms could be used, and consequently their efficiency. We chose to model the problem as a graph that takes time into account.The second task was the development of a multi-objective and time dependent algorithm. This algorithm identifies pareto-optimum paths within the graph.A third work focused on processing the paths in order to optimize speed during the whole journey, and as a consequence, fuel consumption
APA, Harvard, Vancouver, ISO, and other styles
33

Bilodeau, Jean-Pascal. "Optimisation de la granulométrie des matériaux granulaires de fondation des chaussées." Thesis, Université Laval, 2009. http://www.theses.ulaval.ca/2009/26136/26136.pdf.

Full text
Abstract:
Dans la majorité des agences de transports, il est commun de restreindre la distribution de la taille des grains des MG 20 par l’utilisation de fuseaux granulométriques. Pourtant, des variations de la performance allant de subtiles à très marquées peuvent être mesurées à l’intérieur d’un même fuseau granulaire. Ceci est vrai malgré le fait que certains fuseaux sont relativement serrés, comme c’est le cas entre autres au Québec, particulièrement en termes de pourcentage de particules fines, pour contrer les effets du gel. Il semble donc nécessaire d’arriver à mieux comprendre et expliquer l’influence des modifications granulométriques sur diverses qualités que doivent présenter les MG 20. Cette thèse présente donc la synthèse d’une étude détaillée en laboratoire analysant l’effet de la granulométrie sur la performance globale des MG 20, quantifiée par la sensibilité aux contraintes mécaniques et environnementales. En caractérisant le comportement mécanique, hydrique et thermique de six courbes granulométriques de formes variées, il a été possible d’identifier les principaux indicateurs, directement ou indirectement reliés à la granulométrie, en lien avec divers types de performance des MG 20 pour trois sources de granulats typiquement retrouvées au Québec. Les résultats montrent que la sensibilité aux contraintes environnementales peut être globalement décrite par un paramètre lié à la volumétrie des particules fines et que la sensibilité aux contraintes mécaniques est reliée à divers indicateurs granulométriques liés à diverses fractions granulométriques. Afin d’arriver à proposer des matériaux ayant un comportement global bonifié pour divers contextes de performance, il a été suggéré de subdiviser la plage de variation maximale de chaque paramètre de performance en quatre niveaux de performance. Ceci permet, pour des contextes de performance typiques au Québec et leurs principaux mécanismes de dégradation associés, de suggérer des zones granulométriques relativement continues et définissant des matériaux ayant un comportement optimisé pour ces divers contextes. Cette approche offre une latitude nécessaire permettant de prendre en compte les diverses caractéristiques souhaitables des MG 20, pour les divers paramètres de performance, qui sont souvent complémentaires.
APA, Harvard, Vancouver, ISO, and other styles
34

Keryakos, Youssef. "Detection and management of stressful situations to help the blind persons in their daily lives." Electronic Thesis or Diss., Bourgogne Franche-Comté, 2024. http://www.theses.fr/2024UBFCD043.

Full text
Abstract:
Le stress, une expérience commune à diverses activités humaines, affecte de manière significative la vie quotidienne des individus, en particulier ceux ayant des déficiences visuelles. Défini comme un état de tension physique ou mentale, le stress provient de situations qui induisent frustration, nervosité ou colère. Le Syndrome d'Adaptation Générale (SAG) décrit la réponse du corps au stress, englobant les phases d'Alarme, de Résistance et d''Epuisement, et implique la libération d'hormones de stress comme le cortisol et l'adrénaline. Identifier et gérer le stress chez les personnes aveugles est particulièrement difficile en raison de leur dépendance aux indices sensoriels non visuels pour la navigation.Les personnes aveugles éprouvent un stress accru lors de la navigation en raison de l'incapacité à voir les obstacles et les changements dans leur environnement. Ce stress est exacerbé dans les environnements extérieurs et intérieurs inconnus ou complexes, où les aides traditionnelles à la navigation, telles que les GPS et les images satellites, sont inefficaces. Les résultats de notre travail ont établi que la présence d'obstacles et la complexité des itinéraires de navigation sont directement corrélées à des niveaux de stress accrus. Malgré le développement de divers outils d'assistance, tels que les compas en braille et les cannes blanches, ces solutions sont souvent insuffisantes pour fournir un soutien complet.En réponse à ces défis, nous proposons un nouveau système de navigation hybride conçu pour aider les personnes aveugles en intégrant la détection du stress en temps réel et une aide à l'orientation lors de la navigation. Notre système utilise une canne blanche intelligente équipée d'un réseau de capteurs biologiques pour surveiller les indicateurs physiologiques du stress, notamment la fréquence cardiaque, la conductance de la peau et l'activité musculaire. En analysant ces biosignaux, le système vise à identifier les situations induisant du stress et à recommander des itinéraires de navigation moins stressants.Le système proposé répond aux défis de la navigation en extérieur et en intérieur. Pour les environnements extérieurs, le système génère des indices de difficulté et de stress des itinéraires, permettant aux utilisateurs de choisir et de suivre le chemin le moins stressant. La détection en temps réel des obstacles est réalisée grâce à des techniques avancées de traitement d'images, et les utilisateurs reçoivent des indications vocales pour naviguer efficacement. Pour les environnements intérieurs, où les données GPS et satellites sont indisponibles, le système utilise la réalité augmentée (RA) et un système de gestion de contenu (SGC) pour créer des cartes virtuelles basées sur des images de plans d'étage. Des codes QR dans l'espace intérieur permettent aux utilisateurs de charger et d'interagir avec ces cartes virtuelles via une application mobile.L'intégration de la détection du stress en temps réel et du soutien à la navigation représente un avancement significatif dans la technologie d'assistance. En réduisant le stress et en améliorant l'efficacité de la navigation, le système vise à améliorer la qualité de vie des personnes malvoyantes. Les recherches futures se concentreront sur l'évaluation des performances du système, l'analyse des retours des utilisateurs et le raffinement de la technologie pour garantir une fonctionnalité optimale et la satisfaction des utilisateurs. Cette approche améliore non seulement l'indépendance, mais fournit également une expérience de navigation plus gérable et moins stressante pour les utilisateurs aveugles
Stress is a universal human experience that has a substantial impact on people's day-to-day functioning, particularly for those who are visually impaired. Stress is characterized as a condition of tension, either bodily or mental, that results from events that cause anxiety, agitation, or frustration. The alarm, resistance, and exhaustion phases of the body's reaction to stress are outlined by the General Adaptation Syndrome (GAS), which also includes the release of stress hormones like cortisol and adrenaline. Blindness makes it especially difficult to recognize and manage stress, as blind people rely on non-visual sensory signals to navigate.Being unable to notice barriers and changes in their surroundings causes blind persons to experience more stress when navigating. In unfamiliar or complicated outdoor and indoor environments, when conventional navigational aids like GPS and satellite images are useless, this stress is increased. Our research's findings have demonstrated a clear relationship between higher stress levels and the difficulty of navigation routes and the existence of barriers. Even with the invention of numerous assistive devices, such as white canes and braille compasses, these solutions frequently fail to offer complete assistance.We address these issues by putting forth a novel hybrid navigation system that combines real-time stress detection with navigation assistance to help blind people. Our method makes use of a smart white cane that is outfitted with a network of biosensors to keep an eye on physiological stress markers including heart rate, muscular activity, and skin conductance. The system's goal is to identify stressful conditions and suggest less stressful navigation routes by evaluating these biosignals.The suggested solution tackles navigational issues in both indoor and outdoor environments. The system creates stress and route difficulty indices for outdoor surroundings, enabling users to select and follow the least stressful path. Advanced image processing techniques are used to detect obstacles in real-time, and verbal commentary is provided to users to help them navigate safely. The technology uses augmented reality (AR) and a content management system (CMS) to build virtual maps based on floor plan photos for indoor environments where GPS and satellite data are not available. Thanks to a mobile application, users can load and interact with these virtual maps by scanning QR codes located within the indoor space.Real-time stress detection and navigation support are integrated into the system, which is a major leap in assistive technology. The system's goal is to make navigation more efficient and less stressful for people who are blind or visually impaired. Subsequent studies will concentrate on assessing the system's effectiveness, examining user input, and improving the technology to guarantee peak performance and user contentment. For blind individuals, this method not only increases independence but also makes navigation easier and less stressful
APA, Harvard, Vancouver, ISO, and other styles
35

Rivière, Thomas. "Optimisation de graphes sous contrainte géométrique : création d'un réseau de routes aériennes pour un contrôle Sector-Less." Phd thesis, Toulouse, INPT, 2006. http://oatao.univ-toulouse.fr/7432/1/riviere.pdf.

Full text
Abstract:
Alors que le système de gestion du trafic aérien arrive à saturation, de nouveauxconcepts sont étudiés afin de trouver une alternative. Cette thèse s'applique à vérifier la validité d'un de ces nouveaux concepts, le concept Sector-Less qui envisage un contrôle des aéronefs par flux, c'est-à-dire depuis leur aéroport de départ jusqu'à leur aéroport d'arrivée, par opposition au contrôle actuel effectué par zone géographique. La validation est faite à travers la construction et la validation d'un réseau de routes aériennes adapté à ce concept. La définition de ce nouveau réseau est donnée uniquement en fonction des contraintes imposées par le concept Sector-Less, sans utiliser de base préexistante. Ce réseau initial de routes est optimisé par deux méta-heuristiques différentes, recuit simulé et algorithme génétique. Le processus d'optimisation vise à minimiser la longueur de la trajectoire pour chaque flux d'aéronefs. Il intègre en particulier des algorithmes dynamiques de calcul des plus courts chemins dans un graphe. Pour prendre en compte les capacités de navigation des aéronefs, deux techniques ont été utilisées pour intégrer au processus d'optimisation des contraintes géométriques. La première technique consiste à exprimer les contraintes géométriques directement à travers la structure du graphe et à utiliser les algorithmes classiques pour calculer les plus courts chemins. La seconde est basée sur un nouvel algorithme permettant, sans altérer le graphe, de calculer une approximation des plus courts chemins. Le réseau de routes ainsi construit est testé du point de vue gestion du trafic aérien en simulant, à l'aide d'un simulateur de trafic en temps discret, le trafic dans l'espace aérien européen sur une journée complète. L'évaluation estime en particulier la charge de travail des contrôleurs aériens. L'analyse des résultats montre que le concept Sector-Less, tel qu'il est actuellement proposé, ne peut pas ˆetre mis en oeuvre.
APA, Harvard, Vancouver, ISO, and other styles
36

Rivière, Thomas Noailles Joseph. "Optimisation de graphes sous contrainte géométrique création d'un réseau de routes aériennes pour un contrôle sector-less /." Toulouse : INP Toulouse, 2006. http://ethesis.inp-toulouse.fr/archive/00000250.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

Grand, Christophe. "Optimisation et commande des modes de déplacement des systèmes locomoteurs hybrides roue-patte : application au robot Hylos." Paris 6, 2004. http://www.theses.fr/2004PA066460.

Full text
APA, Harvard, Vancouver, ISO, and other styles
38

Phalippou, Pierre. "Data-enabled, reduced-order simulation of dynamical systems with application to vehicle crash simulation." Thesis, Compiègne, 2020. http://www.theses.fr/2020COMP2544.

Full text
Abstract:
Lors de la conception de nouveaux véhicules, les constructeurs automobiles font face à de nombreuses contraintes telles que la sécurité, le confort, le poids et la consommation de carburant. La simulation numérique, et plus précisément la méthode des éléments finis, y est très largement utilisée car elle permet de tester l'influence des différents paramètres sur le comportement du système. Ainsi, de nombreux tests réels sur prototypes sont évités. La conception de nouveaux véhicules est néanmoins ralentie par l'utilisation de modèles de plus en plus complexes, en particulier dans les applications au crash. De nombreuses méthodes de réduction de modèles sont développées dans le but d'accélérer les simulations en tirant parti de l'énorme quantité de données disponibles et de la répétitivité des calculs réalisés avec de petites variations dans les paramètres de conception. Cette thèse vise à appliquer de telles méthodes aux simulations de crash automobiles comprenant des non linéarités matérielles et géométriques ainsi que de nombreux contacts. Effectuée en étroite collaboration entre le groupe PSA, le développeur de logiciel Altair Engineering et le laboratoire de mécanique UTC CNRS Roberval, ce projet met l'accent sur les méthodes de réduction intrusives nécessitant des modifications dans le code source du solveur éléments finis. Une base réduite de fonctions de forme globales est formée pendant une phase d'apprentissage hors ligne sur un ensemble de données et utilisée en ligne pour réduire la taille du modèle et permettre l'hyper-réduction des forces internes et l'accélération du temps de calcul. Les contributions de cette thèse concernent trois aspects de la phase d'apprentissage. Les modifications apportées à la décomposition en valeurs singulières incrémentale la rendent plus facile à utiliser tout en accélérant le temps d'apprentissage des bases réduites. Le critère sparse est proposé pour la sélection des fonctions de base réduite, offrant de meilleures performances dans la phase de réduction ainsi qu'une meilleure corrélation entre l'erreur d'apprentissage hors ligne et l'erreur d'approximation en ligne. Une formulation innovante du problème d'optimisation d'hyper-réduction tirant parti de la programmation en variables mixtes est suggérée comme référence pour le développement d'heuristiques. Additionnellement, de nouvelles contraintes sur l'intégration polynomiale et la conservation du volume sont utilisées. Tous les développements informatiques sont réalisés dans le solveur éléments finis explicite industriel Altair Radioss avec un accès complet au code source. À la connaissance de l'auteur, cette caractéristique constitue un différentiateur majeur de la présente contribution. Les difficultés relatives à cet aspect sont discutées. Enfin, des recommandations et perspectives pour l'application robuste de la méthode à l'étude de véhicules automobiles en tenue de crash sont données
Vehicle manufacturers face numerous constraints regarding security, comfort, weight, and fuel consumption when designing new automotive vehicles. Numerical simulation, and more precisely, the finite element method, is extensively used in the process to achieve cost reduction while allowing to test the impact of multiple design parameters on the system behavior. Nevertheless, industrial finite element models of automotive crash are growing prohibitively expensive in computation time, slowing down the design process. Numerous model order reduction methods have been developed in order to speed-up simulations by making use of the humongous amount of collected data and the repetitiveness of computations with slight changes to the design variables. This thesis aims to apply model order reduction methods to finite element simulations of automotive crash, involving material and geometric nonlinearity as well as contact. This project, conducted in close collaboration between the car manufacturer PSA group, the software developer Altair engineering, and the computational mechanics group at the UTC-CNRS joint laboratory Roberval, targets intrusive methods necessitating modifications in the finite element solver source code. Amongst different promising methods reviewed in the state-of-the-art, our work focuses on projection-based reduced order modeling and hyper-reduction. A reduced-basis of global shape functions is built upon relevant data in the online training phase and used online to reduce the model size, enabling the hyper-reduction of internal forces and computational speed-up. The contributions of this thesis concern three aspects of the training phase. Developments of the incremental singular value decomposition allow for a more flexible and faster reduced-basis training. The proposed sparse criterion enables the formation of basis functions subsets with enhanced performances and better correlation between the online training phase approximation error and the actual error in the online reduction phase. An innovative formulation of the hyper-reduction optimization problem involving mixed-integer programming, added constraints on polynomial integration, and volume conservation is suggested for the benchmarking of future heuristic methods. All implementations are performed in the industrial explicit finite element solver Altair Radioss with complete access to the source code. To the author's best knowledge, the implementation of such a method in industrial explicit finite element solver represents a significant differentiator of the present contribution. Implementation specific difficulties relevant to this aspect of the thesis are discussed. Finally, recommendations, as well as perspectives and further developments required for the robust application of the method to industrial numerical simulations of vehicle crash, are given
APA, Harvard, Vancouver, ISO, and other styles
39

Hichri, Ichrak. "Optimisation de l'extraction des polyphénols sans pesticides ainsi que leurs caractérisations dans les extraits d'oignon jaune et rouge." Master's thesis, Université Laval, 2019. http://hdl.handle.net/20.500.11794/35000.

Full text
Abstract:
L’oignon est riche en composés phénoliques antioxydants qui sont largement étudiés pour leurs effets sur la santé, notamment sur les maladies cardiovasculaires et le diabète, etc. La récupération des polyphénols à partir de la matière première ayant été exposés à l’application de pesticides présente un risque d’enrichir les fractions en ces composés toxiques. L’objectif de la présente étude était d’optimiser les paramètres d’extraction des polyphénols d’oignons jaune et rouge afin d’obtenir un produit riche en composés phénoliques et sans pesticides. Cette étude a été menée sur différentes parties d’oignons : tige, racine, bulbe et pelure. Les analyses des extraits de pesticides pour les différentes parties d’oignon jaune et rouge ont été faites par GC/MS. Les résultats obtenus ont montré que seules les racines des oignons jaunes contiennent 0,7 mg/kg matière sèche de PENDIMETHALIE, une teneur qui dépasse la norme européenne exigée (0,1 mg/kg de matière sèche). Par conséquent, l’étude de la caractérisation des polyphénols des différentes parties d’oignons jaune et rouge a été faite sur des variétés d’oignons n’ayant pas reçu de pesticides. Ainsi, l’analyse des polyphénols par UPLC-MS a montré que la tige des oignons rouges, en contenait beaucoup et contenait en particulier de grande quantité de quercétine (7810,33 mg équivalent quercétine/kg matière séchée). Afin d'augmenter le rendement en polyphénols, quatre paramètres d’extraction ont été optimisés : le temps de macération (0h, 0,5h et 1h), la température (22, 50 et 78 °C), la concentration en éthanol (0%, 50% et 100%) et le ratio soluté/solvant (1:10,1:30 et 1:50g/ml) en utilisant un plan d’expérience statistique D-optimal. Le travail d’optimisation a été fait sur le plateau de tallage des oignons rouges dépourvue en pesticides et riche en polyphénols. L’extrait éthanolique a montré un meilleur rendement pour un temps d’extraction de 50 minutes et une concentration en éthanol de 53,75%. L’extraction a été répétée avec les conditions optimisées et a donné un rendement de 119,45g polyphénols/kg matière sèche.
The onion possesses a specificity by the antioxidant phenolic compounds. The latter is widely studied for their diverse effects on the health in particular on the cardiovascular diseases, the diabetes, etc. The objective of the present study was to optimize the parameters of extraction of the polyphenols from yellow and red onions to obtain a product rich in antioxidizing molecules without pesticides. This study was led on the various parts of onions : stalk, root, bulb and peel. The analyses of the extracts of pesticides for the various parts of yellow and red onions was made with GC / MS. The result showed that only the roots of the yellow onions contain a pesticide : the PENDIMETHALIN with a quantity of 0,7 mg / kg dry material, which exceeds the European require standard (0,1 mg / kg of dry material). Consequently, the study of the characterization of the polyphenols of the various parts of yellow and red onions established was made on varieties of onions devoid of pesticides. So, analysis of the polyphenols by UPLC-MS/MS showed the wealth of the part stalk of the red onions in the latter, in particular in quercetin (7810,33 mg / kg in dry material). To increase the kinetics of extraction of polyphenols, four parameters of extraction were optimized : the time (0h, 0,5h and 1h), the temperature (22°C, 50°C and 78°C), the ethanol concentration (0%, 50% and 100%) and the solute/solvent ratiog / ml (1:10, 1:30 and 1:50) by using a plan of statistical experience D-optimal. After the statistical study, the ethanolic extract showed a better yield for awhile on extraction of 50 min and a ethanol concentration in 53,75%. The extraction was repeated with the optimized conditions and gave a yield on 119,45g of polyphenols totals / kg dry material.
APA, Harvard, Vancouver, ISO, and other styles
40

Hiltcher, Yann. "Simulation et optimisation du taillage des engrenages roue et vis tangentes : étude selon la portée de denture." Lyon, INSA, 1998. http://www.theses.fr/1998ISAL0125.

Full text
Abstract:
Les engrenages roue et vis tangentes présentent de nombreux avantages : grands rapports de conduite dans un encombrement réduit, inertie faible, fonctionnement silencieux. Par contre leur réalisation et leur montage sont très délicats, particulièrement le taillage de la roue creuse. Les performances du couple roue-vis dépendent de la qualité de la fabrication. Actuellement, des méthodes empiriques sont utilisées à l'atelier pour visualiser la portée de denture, qualifiant ainsi le taillage réalisé. Plusieurs reprises sont souvent nécessaires avant d'obtenir un résultat acceptable. Dans un souci économique, il est donc important d'optimiser les paramètres de réglage des machines. L'objet de ce travail est de développer une méthode numérique générale, capable de simuler la portée de denture dans la majeure partie des cas pratiques : différents profils de roue et de vis, outils envisagés (fraise mère ou outil mouche), plusieurs cas de taillage (tangentiel, radial). Un modèle de simulation numérique de la portée de denture a été réalisé à l'aide de l'étude des paramètres de taillage de la roue et de la vis, ainsi que d'une étude cinématique sans charge du couple roue et vis. Des méthodes existantes ont été généralisées en intégrant : l'erreur cinématique à vide, la vitesse d'avance de l'outil lors d'un taillage tangentiel, l'inclinaison et le décalage de l'outil pour le taillage de la roue dans le cas d'un outil mouche. Une étude d'influence des paramètres de taillage a été menée. Elle a permis de constater l'importance de certains paramètres négligés jusqu'à présent tels que le décalage de l'outil pour la roue, l'inclinaison de la meule pour la rectification de la vis ainsi que le couplage des différents profils. Finalement, un algorithme d'optimisation des paramètres de taillage basé sur la qualité de la portée de denture numérique est proposé
Worm gears present a lot of advantages: large contact ratios with limited gear box dimensions, small inertia, silent meshing. On the other hand, their cutting and assembling are difficult, particularly the wormwheel manufacturing. The performance of the worm gear is relating to the quality of the cutting. Nowadays, empirical methods are used in the workshop hall to visualize the contact pattern, qualifying in this way the manufacturing. Several passages through a machine are often necessary before obtaining-an acceptable result. For a economic aim, it is important firstly to optimize the setting of the machine tool. The purpose of this work is to develop a general numerical method, which is able to simulate the contact pattern for most of the practical cases: various type of gear and worm profiles, possibility of different cutting tools (hob or fly cutter), several cases of manufacturing methods (tangential, radial). A study of the cutting parameters of the wheelworm and worm allowed the realization of a numerical model that simulate the worm-gear contact surface topology. An unloaded kinematics study has been also achieved. Existing methods have been generalized taking into account different parameters: the unloaded kinematics error, the tool feed speed in case of tangential cutting, the inclination and the tool offset for the wheel manufacturing in case of f1y cutter. A study of the parameters influences has been performed. It pointed out the importance of particular parameters, neglected up to now, such as the offset for the wormwheel, the inclination of the grinding wheel for the worm grinding and the coupling of the different profiles. Finally, an algorithm is proposed in order to optimize the cutting parameters. It is based on the quality of the numerical contact surface topology achieved in this work
APA, Harvard, Vancouver, ISO, and other styles
41

Nakouzi, Sawsane. "Modélisation du procédé de cuisson de composites infusés par chauffage infra rouge." Toulouse 3, 2012. http://thesesups.ups-tlse.fr/1865/.

Full text
Abstract:
L'utilisation des matériaux composites dans les secteurs aéronautique et aérospatial a évolué au cours des dernières années. Ces matériaux à hautes performances présentent des propriétés mécaniques et physiques élevés. Une nouvelle méthode de mise en œuvre de ces matériaux qui pourrait amener un gain en temps et d'énergie est la polymérisation du composite à l'aide d'un four infrarouge. Cette technique de chauffage infrarouge peut s'appliquer en particulier au processus d'infusion de résine LRI (Liquid Resin Infusion) où la résine est infusée à pression atmosphérique dans un demi moule qui contient le renfort fibreux et ayant une surface de recouvrement semi-transparente aux rayons infrarouges. L'injection se fait à l'aide d'une pompe à vide et le composite est placé face aux émetteurs infrarouges. Ces émetteurs sont de type halogène et sont fournis par la société TOSHIBA LIGHTING. Le chauffage commence après injection totale de la résine et sa stabilisation dans le moule. Par conséquent, le composite est soumis à un flux radiatif incident, lequel est absorbé par le premier pli de carbone présent à sa surface. Ceci est due au fait que les fibres de carbone présentent une absorptivité assez élevée qu'on peut donc considérer le composite opaque vis-à-vis de l'infrarouge. Un modèle de calcul par éléments finis basé sur la méthode des radiosités a été développé afin de prédire le flux radiatif absorbé par le composite. Ce modèle a été validé par une solution référence basée sur les algorithmes de lancer de rayons. Ce flux radiatif absorbé est imposé comme condition aux limites dans le logiciel commercial COMSOLMULTIPHYSICS. Celui ci résout par la méthode des éléments finis l'équation de chaleur couplée avec la cinétique de réticulation de la résine afin de modéliser la polymérisation par infrarouge. La température et le degré de réticulation au sein du composite sont ainsi calculées. Un algorithme d'optimisation a été couplé avec le modèle radiatif afin d'obtenir une distribution de température optimale dans le composite. Ces données issues de l'optimisation en été utilisée dans le protocole expérimental. Ce montage expérimental permettant le chauffage infrarouge du composite instrumenté a été réalisé au laboratoire afin de valider les résultats numériques de l'étape de chauffage à l'aide de thermocouple et de la thermographie infrarouge pour le cas d'une plaque composite et le cas d'une pièce 3D
Epoxy resins have several applications in the aerospace and automobile industry. Because of their good adhesive properties, superior mechanical, chemical and thermal properties, and resistance to fatigue and microcracking, they produce high performance composites. In the technology presented here, the composite is cured in an IR oven which includes halogen lamps. The liquid resin infusion (LRI) process is used to manufacture the composite, whereby liquid resin is infused through a fiber reinforcement previously laid up in a one-sided mold. These epoxy resins release an exothermic heat flux during the curing process, which can possibly cause an excessive temperature in the thickness. Consequently, for the production of high performance composites, it is necessary to know the thermal behavior of the composite during curing. In our work, we studied IR interactions with the composite, which is placed in an IR oven. Using an IR spectrometer Bruker Vertex 70 (1-27 µm), we measured radiative properties and determined the fraction of IR rays absorbed by the composite. Since it is necessary to optimize the manufacturing time and costs and to determine the performance of these composites, the purpose of this study is to model the IR curing of a composite part (carbon fiber reinforced epoxy matrix) in the infrared oven. The work consists in two parts. In the first part, a FE thermal model based on radiosity method was developed, for the prediction of the infrared incident heat flux on the top surface of the composite during the curing process. This model was validated using a reference solution based on ray tracing algorithms developed in Matlab(r) (In-lab software called Rayheat based on ray tracing algorithms is used to compute the radiative heat flux that impacts the composite). Through the FE thermal model, an optimization study on the percentage power of each infrared heater is performed in order to optimize the incident IR heat flux uniformity on the composite. This optimization is performed using the Matlab(r) optimization algorithms based on Sequential Quadratic Programming method. In a second part, the optimized parameters set is used in a three-dimensional numerical model which is developed in the finite element software, where the heat balance equation is coupled with the cure kinetic model of the resin. This numerical model allows calculation of the temperature distribution in the composite during curing, which is a key parameter that affects its mechanical properties. In this model, we can predict also the evolution of the degree of cure as function of time
APA, Harvard, Vancouver, ISO, and other styles
42

Pierre, Jarrault. "Optimisation des capacités de franchissement des robots mobiles hybrides "roues-pattes"." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2013. http://tel.archives-ouvertes.fr/tel-00867306.

Full text
Abstract:
On considère qu'un robot est en mesure de franchir un obstacle s'il est capable, pour chaque configuration géométrique des contacts rencontrée durant le franchissement, d'équilibrer les actions extérieures qu'il subit tout en préservant l'adhérence des contacts. Notre approche consiste à optimiser la répartition des efforts de contact afin de maximiser un critère qualifiant la performance du franchissement. Pour cela, nous mettons à profit deux caractéristiques des robots poly-articulés. D'une part, la redondance d'actionnement permet l'application de forces internes modifiant la répartition des efforts entre les différents points de contact. D'autre part, la redondance cinématique permet de changer la position du point d'application des forces de gravité en déplaçant le centre de masse relativement à la position des contacts, modifiant ainsi l'espace des solutions au problème de distribution des forces. Le critère utilisé qualifie la robustesse du franchissement vis-à-vis des incertitudes de la commande en efforts. Elle est choisie à partir d'une analyse comparative des différents critères utilisés dans le domaine de la préhension dextre. L'algorithme de commande que nous développons permet le contrôle simultané des mouvements du robot et des efforts aux contact. Il est d'abord validé par une série de simulations dynamiques puis vérifié sur le prototype de robot hybride HyLoS 2. Ce robot à 4 "roues-pattes" possède 16 ddl et est en mesure de franchir un obstacle représenté par une pente de 60\char6 ayant une hauteur de 19 cm alors que le rayon de ses roues est de 7 cm.
APA, Harvard, Vancouver, ISO, and other styles
43

Nguyen, Huu Phuoc Trang. "Optimisation du procédé d’hydrolyse enzymatique appliqué à l’extraction du pigment rouge, la R-phycoérythrine à partir de Mastocarpus stellatus et Gracilaria gracilis." Thesis, Nantes, 2017. http://www.theses.fr/2017NANT4028/document.

Full text
Abstract:
Mastocarpus stellatus et Gracilaria gracilis sont des algues rouges présentes à la fois sur les côtes atlantiques françaises et vietnamiennes. Elles constituent une biomasse disponible et valorisable au travers de leur pigment la R-PE. L’objectif de ce travail est d’une part d’acquérir des connaissances sur la composition biochimique de ces macroalgues et d’autre part d’optimiser les paramètres d’extraction de la R-PE à partir de ces deux modèles d’étude. Ainsi, deux méthodes d’extraction ont été mises en œuvre: la macération classique (eau, tampon) et l’extraction assistée par enzyme (cellulase, xylanase, B-glucanase). Le prétraitement de l’algue a aussi été étudié. Les meilleurs rendements d’extraction de la R-PE ont été obtenus à partir des algues lyophilisées et cryobroyées en mettant en œuvre le génie enzymatique. L’utilisation des plans d’expérience utilisant la méthodologie des surfaces de réponse ont permis d’optimiser les conditions d’hydrolyse (température, pH, rapport E/S). L’enzyme ainsi que les conditions d’hydrolyse différent selon l’espèce. Parallèlement, un protocole de purification par chromatographie échangeuse d’anions a permis d’obtenir un pigment concentré et purifié (IP = 3,25) à partir d’un extrait de Gracilaria gracilis
Mastocarpus stellatus and Gracilaria gracilis are endemic red seaweeds commonly funded in French Atlantic and the coast of Vietnam. They represent an available and usable biomass through the extraction of their original proteinic pigment R-Phycoerythrin. The purpose of this work was to increase the scientific knowledge on the biochemical characterization of these two species on one side. On the other side, this work dealt with the optimization of the extraction parameters of the R-PE. Hence, two extraction procedures have been compared: conventional maceration (with investigation of extracting solution) and enzymatic-assisted extraction (cellulase, xylanase, B-glucanase). Algal prior treatment has also been studied. Highest R-PE extraction yields have been obtained when enzymatic-assisted extraction had been employed on cryo-ground seaweeds. The use of response surface methodology analysis allowed to improve simultaneously the hydrolysis conditions (temperature, pH, E/S ratio) and the purity and extraction yields of R-PE. Finally, a one-step chromatographic method by anion-exchange chromatography had been developed to obtain a concentrated and purified (PI = 3.25) pigment from Gracilaria gracilis
APA, Harvard, Vancouver, ISO, and other styles
44

Ju, Min. "Optimisation de la protection des réseaux optiques de nouvelle génération." Thesis, Avignon, 2018. http://www.theses.fr/2018AVIG0226/document.

Full text
Abstract:
La tolérance aux pannes est une propriété très importante des réseaux optiques de nouvelle génération. Cette thèse aborde la conception des mécanismes de protection contre des pannes liées à la défaillance d’une fibre optique ou à une catastrophe naturelle. Deux systèmes de protection classiques, à savoir la protection par des cycles préconfigurés(p-cycles) et la protection du chemin de secours, sont étudiés pour atteindre une efficacité de protection élevée, tout en considérant le coût de l’équipement optique,la consommation d’énergie et l’utilisation de la ressource spectrale. Ces problèmes de survivabilité sont d’abord formulés en utilisant la programmation linéaire en nombres entiers (PLNE), et ensuite résolus soit par algorithmes heuristiques, soit par une approche de décomposition.La panne d’une seule fibre optique est le scénario le plus courant. Nous allons donc considérer d’abord des pannes liées à la défaillance d’une fibre optique dans les réseaux optiques multi-débit. Pour réduire le coût des transpondeurs, un système de protection par p-cycles de longueur adaptable et peu coûteux est proposé. Spécifiquement, les p cycles de longueur limitée sont conçus pour utiliser un débit approprié en fonction du coût du transpondeur et de la portée de transmission. Un modèle de programmation linéaire en nombres entiers (PLNE) sans énumération des cycles candidats est formulé pour générer directement les p-cycles de coût dépenses d’investissement minimum. De plus, un algorithme GPA (Graph Partitioning in Average) et un algorithme d’estimation des nombres de cycles (EI) sont développés pour rendre le modèle PLNE plus efficace au niveau du temps de calcul. En ce qui concerne la consommation d’énergie des réseaux optiques élastiques résilients,nous proposons d’utiliser un schéma de p-cycles dirigés, efficaces en énergie,pour protéger le trafic asymétrique. En raison de l’avantage de distinguer du volume de trafic dans les deux directions, les p-cycles dirigés consomment peu d’énergie en attribuant de créneaux ou slots du spectre et des formats de modulation différents à chaque direction.Un modèle PLNE est formulé pour minimiser la consommation d’énergie totale sous contraintes de génération du cycle dirigée, d’allocation de spectre, d’adaptation de modulation et de capacité de protection. Pour le passage à l’échelle, le modèle PLNE est décomposé en deux sous-problèmes: une méthode d’énumération de cycles améliorée et un modèle PLNE simplifié pour la sélection des cycles. Nous avons montré que les p-cycles dirigés obtiennent une meilleure performance comparant les p-cyclesiii non-dirigés pour le trafic asymétrique en termes de la consommation d’énergie et de l’utilisation du spectre.Afin d’améliorer l’efficacité d’utilisation du spectre dans réseaux optiques élastiques, une protection par p-cycles (SS-p-cycle) à spectre partagé est proposée. Les SS-p-cycles permettent de réduire l’utilisation du spectre et le taux de fragmentation spectrale en exploitant un partage de spectre spécial entre plusieurs p-cycles ayant des liens communs.Les modèles PLNE est conçus dans les cas "sans" ou "avec" conversion spectrale afin de minimiser l’utilisation du spectre. Ces modèles peuvent obtenir la solution optimale pour un petit réseaux optiques élastiques, et une heuristique efficace est développée pour résoudre les instances à grande échelle. Les résultats de simulations montrent que les SS-p-cycles ont des avantages significatifs pour réduire l’utilisation de la ressource spectrale et la défragmentation des fréquence. De plus, la conversion du spectre aide les SS-p-cycles à acquérir une meilleure utilisation du spectre
Network survivability is a critical issue for optical networks to maintain resilience against network failures. This dissertation addresses several survivability design issues against single link failure and large-scale disaster failure in optical networks. Twoclassic protection schemes, namely pre-configured Cycles (p-Cycle) protection and path protection, are studied to achieve high protection capacity efficiency while taking intoaccount the equipment cost, power consumption and resource usage. These survivable network design problems are first formulated by mathematical models and then offered scalable solutions by heuristic algorithms or a decomposition approach.We first consider single link failure scenario. To cut the multi-line rates transponderscost in survivable Mixed-Line-Rate (MLR) optical networks, a distance-adaptive andlow Capital Expenditures (CAPEX) cost p-cycle protection scheme is proposed withoutcandidate cycle enumeration. Specifically, path-length-limited p-cycles are designed touse appropriate line rate depending on the transponder cost and transmission reach.A Mixed Integer Linear Programming (MILP) model is formulated to directly generate the optimal p-cycles with the minimum CAPEX cost. Additionally, Graph Partitioning in Average (GPA) algorithm and Estimation of cycle numbers (EI) algorithm are developed to make the proposed MILP model scalable, which are shown to be efficient.Regarding the power consumption in survivable Elastic Optical Networks (EONs),power-efficient directed p-cycle protection scheme for asymmetric traffic is proposed.Owing to the advantage of distinguishing traffic amount in two directions, directedp-cycles consume low power by allocating different Frequency Slots (FSs) and modulation formats for each direction. An MILP model is formulated to minimize total power consumption under constraints of directed cycle generation, spectrum assignment,modulation adaptation and protection capacity allocation. To increase the scalability, the MILP model is decomposed into an improved cycle enumeration and a simplified Integer Linear Programming (ILP) model. We have shown that the directedp-cycles out perform the undirected p-cycles in terms of power consumption and spectrum usage.In order to improve the spectrum usage efficiency in p-cycle protection, a SpectrumShared p-cycle (SS-p-cycle) protection is proposed for survivable EONs with and without spectrum conversion. SS-p-cycles permit to reduce spectrum usage and Spectrum Fragmentation Ratio (SFR) by leveraging potential spectrum sharing among multiplep-cycles that have common link(s). The ILP formulations are designed in both cases of with and without spectrum conversion to minimize the spectrum usage of SS-p-cycleswhich can obtain the optimal solution in small instance, and a time-efficient heuristic algorithm is developed to solve large-scale instances. Simulation results show that SSp-cycles have significant advantages on both spectrum allocation and defragmentation efficiency, and the spectrum conversion does help SS-p-cycle design to acquire better spectrum utilization
APA, Harvard, Vancouver, ISO, and other styles
45

Geoffroy, Thibaud. "Valorisation de l'écorce d'érable rouge et d'érable à sucre : optimisation de la production d'extraits à l'eau chaude et caractérisation de leur potentiel antioxydant." Doctoral thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/34940.

Full text
Abstract:
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2018-2019
Résidu généré en fortes quantités par l’industrie forestière, l’écorce est principalement valorisée par combustion pour la production d’énergie. Pourtant, des projets de bioraffineries sont en développement croissant pour proposer de nouvelles voies de valorisation telle que l’extraction. L’écorce pouvant contenir des molécules extractibles potentiellement bioactives en quantités appréciables, les industries agro-alimentaire, cosmétique et pharmaceutique s’intéressent de près à de telles initiatives. Cette vaste gamme de composés bioactifs propose en effet des alternatives séduisantes à des ingrédients de synthèse de moins en moins prisés. De tels extractibles démontrant des activités antioxydantes, antibactériennes, anti-cancer ou encore anti-inflammatoires ont été isolés au sein de l’écorce des deux essences d’érables, Acer rubrum L. (érable rouge) et Acer saccharum Marsh. (érable à sucre). Ces hétérosides phénoliques ainsi que d’autres extractibles d’intérêt sont susceptibles d’être extraits à l’eau, un solvant vert apprécié pour des applications finales ayant trait à la santé humaine. La thèse présentée s’intéresse donc à la valorisation de l’écorce de l’érable rouge et de l’érable à sucre par récupération et caractérisation d’extractibles hydrosolubles potentiellement antioxydants. Le premier axe de la recherche est centré sur l’optimisation d’un procédé d’extraction à l’eau chaude. En variant les paramètres de granulométrie de l’écorce, de température, de durée de l’extraction et de ratio écorce/solvant, le but a été d’obtenir des valeurs optimales de rendement, teneur en phénols totaux, capacité antioxydante et consommation énergétique estimée. Partant des résultats obtenus, les conditions suivantes : granulométrie de 250–500 μm, température de 90°C, durée de 1 h, ratio écorce/solvant de 1/10, ont été jugées pertinentes pour une mise à l’échelle. Ainsi, des traitements post-extraction ont été investigués à échelle laboratoire pilote pour la production d’extraits secs. Combinant plusieurs méthodes de concentration (osmose inverse, évaporation sous vide) et de séchage (atomisation, lyophilisation), ces traitements ont été évalués selon différentes variables réponses : récupération de l’extrait, capacité antioxydante, teneurs en protéines, en composés phénoliques, en sucres totaux et énergie nécessaire aux opérations unitaires des différents procédés. Pour les extraits des deux essences d’érable, les combinaisons osmose inverse/atomisation et osmose inverse/lyophilisation se sont avérées les plus prometteuses. De qualité supérieure en termes d’antioxydants phénoliques, l’extrait d’écorce d’érable rouge lyophilisé a été choisi pour l’investigation de tels composés par criblage antioxydant. L’approche basée sur des techniques couplant test antioxydant in vitro au radical DPPH et séparation chromatographique par HPLC a permis de mieux comprendre les mécanismes radicalaires en présence des dérivés galloyl-glucitols de l’érable rouge. Le phénomène d’auto-oxydation mis en évidence chez ces dérivés testés purs n’a pas été observé lorsque ceux-ci ont été évalués dans des mélanges tertiaires ou directement dans l’extrait. L’effet de mixture/matrice associé à ce comportement a orienté la suite des travaux vers l’étude de fractions de composés plutôt que vers l’isolement de composés purs. Pour cela, la technique d’ultrafiltration a été investiguée pour la production de fractions concentrées. Ce dernier volet a donc permis d’explorer des classes de composés peu, voire non étudiés au sein des deux érables (protéines, tannins). Même si les résultats demeurent préliminaires, la caractérisation des tannins a révélé certaines similarités chez les deux essences, à savoir la présence de tannins de type proanthocyanidine en quantités comparables. En termes de différences, contrairement à l’érable à sucre, l’érable rouge semble riche en gallotannins de hautes masses moléculaires. Toutefois, des analyses complémentaires seraient nécessaires pour confirmer ce résultat. Au final, cette thèse fournit une base substantielle pour l’établissement d’une voie de valorisation viable des extractibles des écorces d’érable rouge et d’érable à sucre. Elle propose un défrichage des principales problématiques intrinsèques à la production d’extraits pour des applications alimentaire, cosmétique ou pharmacologique. Si les connaissances des composés présents dans l’écorce d’érable ont été améliorées, de nombreuses étapes restent nécessaires à la création d’une filière de bioraffinerie pérenne. Pour aller dans ce sens, la suite de la recherche prévoit, entre autres, des tests de toxicité et d’activités in vivo, ainsi que l’étude de l’intégration des extraits dans des matrices alimentaires.
Bark is a high-volume residue from the forest industry that is mostly incinerated for its calorific value. However, biorefineries are increasingly gaining importance by providing new alternatives, such as solvent extraction. As bark is usually rich in extractives susceptible to exhibit bioactivities, agro-food, cosmetic and pharmaceutical industries keep a close eye on such opportunities. This high diversity of bioactive natural compounds in extracts provides a valuable substitute to synthetic ingredients, currently losing popularity. Phenolic extractives associated to antioxidant, antibacterial, anti-cancer or anti-inflammatory activities have been found in red maple (Acer rubrum L.) and sugar maple (Acer saccharum Marsh.) bark. In addition to other promising extractives, these phenolic glycosides could be recovered using water. This non-toxic extraction solvent is usually privileged for human-health related applications. This thesis investigates the valorisation of red maple and sugar maple bark by recovery and antioxidant characterisation of their water-soluble extractives. First, the research was focused on hot-water extraction optimisation. By varying several parameters (particle size of bark, extraction temperature and duration, bark/solvent ratio), optimal values were determined in terms of extraction yield, phenolic content, antioxidant capacity and estimated energy consumption. From these results, a 250–500 μm particle size, 90°C temperature, 1 h duration and a 1/10 bark/water ratio were found relevant for a scale-up. Therefore, post-extraction treatments were investigated at semi-pilot scale aiming to produce dry extracts. Combining concentration (reverse osmosis, vacuum evaporation) and drying (spray-drying, freeze-drying) methods, treatments were evaluated based upon several response variables: extract recovery, antioxidant capacity, protein, phenolic and carbohydrate contents and power consumption induced by the operation units of the process. In regards to these variables, extracts from both maple species seemed more potent when processed using reverse osmosis, associated to spray-drying or freeze-drying. The higher potential in terms of antioxidant phenolics determined for the red maple bark extract obtained using reverse osmosis and freeze-drying led us to perform antioxidant screening on this extract. An approach based on in vitro DPPH radical scavenging test associated to HPLC separation allowed for a better understanding of radical scavenging mechanisms related to galloyl-glucitol derivatives from red maple. Autoxidation of these compounds tested individually was not observed when evaluated in a tertiary mixture or in the crude extract. This mixture/matrix effect helped us define the next step as a study focusing rather on the production of fractions than on the isolation of pure compounds. To this end, ultrafiltration was studied as a tool for extract fractionation. Thus, this last part of the project allowed us to explore different classes of compounds in both sugar and red maple (proteins, tannins), which have rarely been studied. Although preliminary, the obtained results indicated the similarities between the characteristics of tannins found in both species i.e. proanthocyanidins in comparable amounts. However, only the high molecular fraction form red maple bark extract seemed to contain substantial amounts of high-molecular-weight gallotannins. Supplementary analyses would be required to confirm this result. To conclude, this thesis provides solid information to promote the extraction of red and sugar maple bark at a commercial level. This work offers valuable findings and insights about extract production for application in foods, cosmetics or pharmaceutics. The results obtained help enhance the knowledge about maple bark phytochemicals. Yet, further studies would be required before creating a sustainable biorefinery project based on maple bark. Such investigations, including in vivo toxicity, activity testing, as well as studies about food enrichment using maple extracts are planned for the continuation of this research.
APA, Harvard, Vancouver, ISO, and other styles
46

Gousset, Silvère. "Optimisation d'un système d'Optique Adaptative pour l'observation de l'espace et mise en oeuvre d'un détecteur proche infra-rouge innovant en analyse de front d'onde." Sorbonne Paris Cité, 2015. https://hal.science/tel-01297334.

Full text
Abstract:
L'Optique Adaptative (OA) est une technologie mature qui permet de corriger les effets de l'atmosphère sur la formation des images. Les futurs systèmes nécessitent toutefois des développements dans le domaine de l'astronomie afin d'augmenter la couverture du ciel. L'avènement des matrices de PhotoDiodes à Avalanche (APD) est en ce sens prometteur, en permettant l'analyse de front d'onde faible flux du visible au proche infra-rouge. D'autres domaines cherchent également à bénéficier de l'OA, tels que la surveillance de l'espace ou les télécommunications optiques en espace libre. L'intégration du banc d'OA ODISSEE à l'OCA offre un accès au ciel pour valider les nouveaux concepts dans chacun de ces domaines. Nous présentons dans ce mémoire la démarche suivie afin d'étalonner et optimiser le banc. Une analyse fine des sources d'erreur est réalisée à partir d'une caractérisation complète du système et de ses résultats en fonctionnement, appuyée par une modélisation au préalable recalée. Ces travaux permettent de guider les améliorations futures du banc en termes d'optimisation, et représentent de plus un gain en opérabilité dans les domaines de la surveillance et des télécommunications, où ODISSEE a acquis un statut unique en Europe. Parallèlement, nous préparons la mise en oeuvre en analyse de front d'onde d'un détecteur APD, autour de l'étude de la caméra RAPID. Il s'agit d'étudier l'impact en OA des défauts de cosmétique, et du bruit spatial fixe. Nous en proposons une modélisation et simulons sa propagation. Ces travaux ouvrent la voie à la conception d'un ASO RAPID optimisé, exploitant l'avancée majeure pour l'OA que constitue cette nouvelle génération de détecteurs
Adaptive Optics (AO) allows the correction of the atmospheric effects on the images. This technic is today mature in astronomy. However the future systems require more advanced developments to increase sky coverage. In that, recent Avalanche PhotoDiodes (APD) arrays are promising by providing possible low flux wave-front sensing from visible to near infra-red. Other applications are also searching for take advantage of AO, like space observation or free space optical telecommunications. The integration of the ODISSEE AO bench at the OCA provides a sky acces for new concepts validation in many fields. We present in this PhD thesis the approach to calibrate and optimize the bench. We carry out a detailed analysis of error sources from a complete characterization of the system and of its results in operation, supported by a fitted modeling. These works enable guide future bench optimization works, and represent a gain in terms of operability for space observation and telecom, where ODISSEE has an unique status in Europe. In parallel we prepare the implementation of APD array for Wave-Front Sensing (WFS), by studying the RAPID camera. This involves analysing the impact of cosmetic and Fixed Pattern Noise (FPN) propagation on WFSensing in AO. Therefore we propose a FPN modeling and its propagation in AO. These works allow to design an optimize a RAPID wave-front sensor, taking advantage of the major breakthrough of APD arrays for AO
APA, Harvard, Vancouver, ISO, and other styles
47

Espanet, Christophe. "Modélisation et conception optimale de moteurs sans balais à structure inversée - Application au moteur-roue." Phd thesis, Université de Franche-Comté, 1999. http://tel.archives-ouvertes.fr/tel-00565544.

Full text
Abstract:
Depuis une quinzaine d'années, le véhicule électrique est redevenu une problématique importante dans le domaine du génie électrique. L'objectif est maintenant de concevoir de vrais véhicules électriques exploitant notamment la grande souplesse de gestion de cette énergie. Dans cette optique, nous nous sommes intéressé au moteur-roue car il présente plusieurs avantages, en particulier de compacité de la fonction motrice. Cependant la conception d'un tel système impose de très nombreuses contraintes. Entre autres, il faut modéliser le système dans sa globalité et réaliser un compromis entre la masse du moteur et son rendement afin d'optimiser l'autonomie du système. La structure de moteur-roue retenue dans ce travail est un moteur synchrone à aimants permanents Nd-Fe-B, à structure inversée, à forces électromotrices trapézoïdales et alimenté par un onduleur de tension produisant des créneaux de courant, car cette structure présente à la fois un fort couple massique mais aussi un bon rendement. Pour dimensionner ce système, nous avons proposé une procédure originale et efficace comportant deux phases : − une optimisation de structure sur la base de modèles analytiques ; − une validation du dimensionnement optimal à l'aide d'une analyse fine par des modèles numériques. L'approche globale (batterie, convertisseur et moteur) nécessite des modèles analytiques et numériques de l'ensemble du système dans les trois domaines magnétiques, électromécaniques et thermiques. La procédure d'optimisation utilise le logiciel Pascosma, développé par le Laboratoire d'Electrotechnique de Grenoble, pour programmer automatiquement un logiciel de dimensionnement du moteur-roue modélisé. Les modèles ont été validés sur des moteurs de puissances 30 kW et 200 W et la méthodologie de conception a permis l'amélioration d'un moteur d'assistance au pédalage intégré dans le moyeu d'une roue de vélo, nous avons pu diminuer la masse du moteur de près de 50 % tout en améliorant son rendement de trois points.
APA, Harvard, Vancouver, ISO, and other styles
48

Mahaman, Moutari Mahaman Salissou. "Modélisation mathématique et numérique du trafic automobile." Nice, 2007. http://www.theses.fr/2007NICE4088.

Full text
Abstract:
Afin de simuler de façon pertinente le trafic sur les réseaux routiers de grande taille, l'utilisation des outils théoriques permettant une modélisation adéquate de chaque élément du réseau est indispensable. En réponse à ce besoin, plusieurs techniques de modélisation existent à ce jour. Cependant, l'ajout de contraintes supplémentaires notamment liées à l'évolution des infrastructures routières et à l'intensification du trafic, impose le développement de nouveaux outils de modélisation. Les travaux de cette thèse s'inscrivent dans cette perspective. Plus précisément, l'objet de nos recherches est d'introduire des méthodes et des modèles à la fois simples et rigoureux, permettant une description plus pertinente du trafic sur un réseau routier en tenant compte de sa spécificité au niveau des éléments singuliers tels que les intersections, les bretelles d'accès à l'autoroute, les gares de péage, etc… A l'issue de ce travail, plusieurs techniques de modélisation ont été proposées. La première approche utilise les modèles purement macroscopiques, et est basée sur la résolution du problème de Riemann, tout en optimisant le flux de véhicules au niveau des intersections. Par la suite nous proposons une extension de cette approche aux modèles macroscopiques multiflots. Une deuxième approche qui a été abordée dans cette étude, est la modélisation hybride. Nous avons proposé dans un premier temps un modèle hybride basé sur un couplage classique Eulérien-Lagrangien du modèle macroscopique du second ordre de Aw & Rascle et une classe de modèles microscopiques. Dans ce type d'approche, les interfaces entre les modèles couplés sont fixes en coordonnées eulériennes, ce qui entraîne une certaine complexité pour la mise en oeuvre de leur fonctionnement. Afin de contourner ce problème, nous avons proposé une approche purement lagrangienne. L'originalité de cette nouvelle approche hybride est que les interfaces sont mobiles en coordonnées lagrangiennes. Cette propriété confère au modèle une grande simplicité dans sa mise en oeuvre. Enfin, nous avons proposé un modèle sur la formation et l'évolution de bouchons, dérivé du modèle macroscopique de Aw & Rascle qui est basé sur une formulation réaliste de la dynamique des bouchons. Nous avons analysé les solutions du problème de Riemann associé et nous avons étudié le problème d'existence de solutions pour ce modèle
In order to simulate in a relevant way vehicular traffic on large road networks, an essential ingredient is using theoretical tools which allow for an adequate modelling of each component of the network. To achieve this goal, several modelling methods exist to date. However, due to some additional constraints, in particular those related to the development of the road networks infrastructures and the increasing concentration of traffic, the investigation of new modelling tools is necessary. In this work, we have introduced some methods and models, which enable a relevant description of the traffic on road networks, by taking into account its specificity through some particular components of the network such as intersections, highway on and off ramps, toll stations, etc…. The presented approaches are expected to be theoretically rigorous, numerically reliable, and computationally efficient. The first approach we have proposed concerns macroscopic models. It is based on the resolution of the Riemann problem whereas the flux at the junction is optimized. Thereafter we have extended this approach to macroscopic multiclass models. The second approach studied in this work is the hybrid modelling. First, we have proposed a hybrid model based on the classical Eulerian-Lagrangian coupling of the Aw & Rascle second order macroscopic model and a class of microscopic models. In a such hybrid model, the interfaces between the coupled models are fixed in eulerian coordinates. Thereby, the interfaces’ functioning is somehow complex and tedious to work out. In order to circumvent this problem, we have proposed a fully lagrangian coupling approach. The novelty of this new hybrid approach is that the interfaces are moving in lagrangian coordinates. This particular property makes the model much simpler than in the previous case and leads to a rigorous and easy computational model. Finally we have proposed a model describing the formation and evolution of traffic jams. This model is derived from the Aw & Rascle second order macroscopic model and based on a realistic formulation of clusters dynamics. We have analysed the solutions to the associated Riemann problem and we have proved the existence of solutions for this model
APA, Harvard, Vancouver, ISO, and other styles
49

Bernard, Jean-Philippe. "Observations sub-millimetriques a grande sensibilite : optimisation photometrique et evaluation des performances de l'instrument spm-pronaos; observations et modelisation numerique de l'emission infra-rouge et sub-millimetrique du milieu inter-stellaire dense." Paris 7, 1991. http://www.theses.fr/1991PA077275.

Full text
Abstract:
Les observations astrophysiques a grande sensibilite dans le domaine des longueurs d'ondes infrarouge lointain et submillimetrique (de 100 microns a 1 millimetre) sont rendues difficiles, au sol, par l'opacite de l'atmosphere terrestre, et necessitent l'utilisation d'observatoires de haute altitude. Le spectro photometre multibande (spm), du projet national d'observation sub-millimetrique (pronaos), est destine a l'observation de ce rayonnement aux altitudes stratospheriques accessibles en ballon. La mesure des fluctuations du rayonnement cosmologique a 2,7 kelvin et, en particulier, de l'effet sunyaev-zel'dovich en direction d'amas de galaxies, constitue un objectif scientifique majeur de cette experience. La premiere partie de la these regroupe l'analyse des sources de bruit et le calcul des flux astrophysiques attendus, ainsi que l'optimisation de l'instrument lors de sa phase de conception. L'instrument spm permettra egalement la detection de l'emission thermique des poussieres froides presentes dans le milieu inter-stellaire. Un modele d'emission des phases denses du milieu inter-stellaire a ete developpe. Il permet le calcul du transfert radiatif des photons responsables du chauffage de la poussiere et inclue la presence de tres petits grains de poussieres qui fluctuent en temperature tels que les molecules polycycliques aromatiques hydrocarbonees (pah). Les resultats de cette modelisation montrent que les mesures disponibles dans l'infra-rouge lointain ne permettent generalement pas, a elles seules, de determiner la masse totale des structures observees; des mesures sub-millimetriques sont indispensables. La comparaison des predictions du modele aux observations montre que de brutales variations spatiales de l'abondance ou des proprietes des plus petites particules de poussiere existent au sein des nuages moleculaires, qu'ils soient isoles ou soumis au champ de radiation des etoiles jeunes formees a partir du materiaux dense. La correlation de ces variations avec l'abondance d'autres molecules est interpretee en termes d'existence de reactions chimiques entre phase gazeuse et petits grains de poussiere
APA, Harvard, Vancouver, ISO, and other styles
50

Alou, Oumarou Aïcha. "Approches bi-niveaux de la tarification des services de la navigation aérienne." Toulouse, INSA, 2009. http://www.theses.fr/2009ISAT0035.

Full text
Abstract:
Au cours des dernières décennies, de nombreuses études dans le domaine de la Recherche Opérationnelle, de la Gestion des Systèmes et de l’Economie Appliquée ont été dévolues à la planification du transport aérien, la tarification ainsi que divers aspects de la gestion de ses opérations. Généralement, les analyses réalisées ont été centrées sur les effets directs, de telle sorte que le cadre des modèles retenus est resté assez limité. Ainsi les phénomènes d’interaction entre les différents acteurs impliqués dans les activités du transport aérien n’ont pas pu être pris en compte de façon suffisante pour qu’une analyse pertinente soit réalisée et que des politiques efficaces soient définies, en particulier dans un contexte où la multiplicité des agents entraîne la pluralité des objectifs voire le conflit entre certains d’entre eux. La réflexion sur l’amélioration des cadres d’analyse est par ailleurs alimentée par la commercialisation et la privatisation de nombreuses activités du secteur considéré, ainsi que par le besoin de dessiner des méthodes collaboratives de prise de décision en vue de favoriser le développement du transport aérien tout en limitant les effets externes négatifs tant pour les décideurs principaux (institutions régulatrices, prestataires de services, compagnies aériennes) que pour tous les autres agents économiques impliqués à différents niveaux, à savoir les usagers finaux des services (en l’occurrence les passagers et le fret aérien), les riverains des activités et la société dans son ensemble. Dans cette étude, nous proposons un cadre basé sur une modélisation en réseaux et la programmation multi-niveaux afin d’analyser la problématique de la tarification des services ATC/ATM et étudier les schémas de décision des autorités de gestion du trafic aérien. Le cadre proposé est construit sur un ensemble de modèles de réseaux associés à la perception qu’à chaque acteur du système du transport aérien de l’environnement dans lequel il évolue. Ceci conduit à une analyse multi-niveaux du problème de tarification des services de la navigation aérienne laquelle débouche sur la formulation de problèmes d’optimisation multi-niveaux. Il est alors possible d’aborder le processus de tarification des services ATC/ATM sous différentes hypothèses organisationnelles. Le cas où lesdits services sont réalisés par une entité publique ou par une entité privée sont notamment considérés, en tenant compte des différences entre les objectifs. L’analyse développée est illustrée de façon schématique dans le cas de la zone A. S. E. C. N. A
Along the last decades, many studies in the fields of Operations Research, Systems Management and Applied Economics have been devoted to air transportation planning, tariffs and operations related issues. In general the analysis performed have been limited to direct effects so that the scope of the adopted models remained quitly too limited. This implies that feedback phenomena between the different actors and involved air transportation activities cannot be fully taken into account to perform a comprehensive analysis and to design efficient policies. Furthermore, the greating place of privatized organizations in air transport activities fosters reflexion on better collaborative decision making process that take into account both performance and the need of reducing environnmental nuisances. In this study, a global framework, based on multi-level programming and networks modelling is proposed to analyze the ATC/ATM charges definition problem and to study charging schemes implying airlines and the ATM authorities. This framework is composed of a set of network models associated to the different perceptions each interacting organization inside the air transportation system has of its own environment. The pricing issue is then described from different point of view, both when the services provider is a private organization or a public entity. The resulting analysis is then illustrated in the case of the ASECNA region
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography