Dissertations / Theses on the topic 'Méthode de tri'

To see the other types of publications on this topic, follow the link: Méthode de tri.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Méthode de tri.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Barbut, Charlotte. "Méthode d'évaluation de l'intérêt d'un tri basée sur les bilans de valeurs." Compiègne, 2005. http://www.theses.fr/2005COMP1605.

Full text
Abstract:
Nous présentons une méthode pour évaluer l'intérêt d'un tri. Cette méthode utilise des bilans de valeurs. Nous les appliquons à des tris générant deux types d'ensembles de matériaux, l'un destiné au recyclage et l'autre à l'incinération. Nous étudions trois propriétés: l'énergie fournie par les trieurs, la recyclabilité d'un ensemble de matériaux et sa combustibilité. Pour définir la recyclabilité d'un ensemble de matériaux, nous choisissons l'entropie, synonyme de niveau d'ordre. Par analogie avec la thermodynamique, nous définissons aussi l'énergie fournie par les trieurs. Ensuite, nous utilisons l'exergie pour évaluer l'énergie contenue dans un combustible. Enfin, nous attribuons des valeurs à ces trois propriétés. Seule une valeur totale du système de tri supérieure à la valeur de l'ensemble initial désigne un tri intéressant. Toutefois, si cette valeur totale passe par un maximum au cours du tri, continuer le tri après ce maximum devient inintéressant
We present a method to estimate the interest of sorting. This method is based on values assessments. We apply them to sortings producing two types of mixtures of materials , for recycling or for incineration. We study three properties : the energy provided by the operators, the recyclability of a mixture of materials and its combustibility. To define the recyclability of a mixture of materials, we choose entropy, synonymous of order level. By analogy with thermodynamics, we define the energy provided by the operators. Next, we use exergy to estimate the energy in a fuel. Finally, we assign values to these three properties. Only a total value of a sorting system above the value of the initial mixture points out an interesting sorting. However, if this total value peaks during sorting, continuing to sort after this maximum becomes uninteresting
APA, Harvard, Vancouver, ISO, and other styles
2

Aboulam, Smaïl. "Recherche d'une méthode d'analyse du fonctionnement des usines de tri-compostage des déchets ménagers : fiabilité des bilans matière." Toulouse, INPT, 2005. http://ethesis.inp-toulouse.fr/archive/00000156/.

Full text
Abstract:
L'expertise d'une usine de tri-compostage des déchets ménagers a pour objectif la réalisation d'un bilan matière et l'analyse du fonctionnement de la chaîne de traitement. Un bilan matière précis permet de réaliser une analyse économique fine. La méthode proposée se base sur l'analyse de chaque équipement avant l'établissement du bilan global de la plate-forme. Cela permet, en cas de rendement insuffisant, de cibler les interventions et d'améliorer le rendement sans mettre en cause la totalité de la chaîne de traitement. Pour y arriver, des méthodes normalisées d'échantillonnage et de caractérisation des déchets ménagers et du compost ont été adaptées aux flux intermédiaires, une base de donnée pour le calcul d'erreurs selon les formules de Gy est proposée et le logiciel BILCO pour l'établissement des bilans matière statistiquement cohérents est utilisé. Durant notre travail on a testé les équipements les plus utilisés dans les usines de tri-compostage : l'aire de compostage, les trommels à maille moyenne de 20 à 50 mm et à maille plus fine de 8 à 15 mm, le tapis sélectionneur, la table densimétrique et le tube rotatif de compostage. Tous les équipements ont été testés en grandeur réelle, dans des usines différentes, sauf le tube rotatif et le trommel moyen qui ont fait l'objet d'une étude au laboratoire. Une simulation de criblage dans un trommel à 20 mm a permis de détecter l'origine des erreurs d'échantillonnage commises lors de l'évaluation de ce genre d'équipement. Un pilote d'un volume de 750 l a été élaboré pour suivre la perte de masse et le dégagement de CO2, CH4, NH3 et N2O durant le compostage dans les tubes rotatifs. Les résultats obtenus lors des essais sur le tube expérimental ont été validés sur un tube industriel. L'hypothèse de la conservation de la matière minérale durant le compostage et la précision de la mesure de la teneur en matière organique totale par perte au feu à 550°C ont fait l'objet d'un essai parallèle. A partir des équipements étudiés, une chaîne type de traitement des déchets ménagers par tri-compostage est proposée et une simulation de traitement des déchets d'une collectivité bretonne est réalisée. Une variante de la chaîne proposée adaptée au contexte socio-économique des pays en voie de développement est disponible aussi
The assessment of a municipal solid waste composting plant aims at the realisation of the material balance and the analysis of the operation of the processing sequence. A precise material balance makes it possible to carry out a fine economic analysis. The method suggested is based on the analysis of each equipment before the establishment of the total assessment of the platform. That allows, in the event of insufficient output quality, to target the interventions and to improve the output without blaming the totality of the processing line. To arrive there, standardised methods of sampling and characterisation of municipal solid waste and compost were adapted to intermediate flows. A database, for the error analysis according to the formulas of Gy, is proposed and the software BILCO is used for the establishment of the statistically coherent material balance. During our work, we tested the equipments most used in composting plants : the composting area, the screens with average mesh from 20 to 50 mm and with finer mesh from 8 to 15 mm, the selective conveyor, the densimetric table and the rotating drum. All the equipments are tested in real size, in different plants, except the rotating drum and the average screen which were the subject of a study at the laboratory. A simulation of screening at 20 mm shows it is possible to detect the origin of the sampling errors made at the time of the analysis of this kind of equipment. A composting pilot of 750 l was worked out, to follow the loss of mass and the CO2, CH4, NH3 and N2O outputs, during composting in rotating drums. The results obtained by the tests on the experimental drum were validated on an industrial drum. The hypothesis of the conservation of the mineral matter during the composting and the accuracy of the total organic matter content determination (ignition loss at 550°C) were the subject of a parallel test. From the studied equipments, a standard processing line of municipal solid waste composting is proposed and a simulation of treatment of waste in a small Breton facility is carried out. An alternative of the processing line is proposed to adapt it to the socio-economic context of the developing countries
APA, Harvard, Vancouver, ISO, and other styles
3

Senet, Philippe. "Simulation en régime permanent de procédés de séparation multiétagés de systèmes di-et tri-phasiques." Toulouse, INPT, 1987. http://www.theses.fr/1987INPT042G.

Full text
Abstract:
Le progamme developpe permet de simuler tout type de colonne de distillation diphasiques ou triphasique (deux phases liquide et une phase vapeur). Le programme tient compte d'eventuelles contraintes de fonctionnement (purete, taux de recuperation. . . ) differentes methodes globales sont proposees : la methode quasi lineaire, la methode de quasi newton basee sur la formule recurrente de schubert, la methode de newton-raphson
APA, Harvard, Vancouver, ISO, and other styles
4

Leleu, Claire. "Sismique très haute résolution tri-dimensionnelle : identification de la position du dispositif d'acquisition par une reformulation en temps." Paris 9, 2001. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2001PA090021.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Delfour, Christophe. "Mise au point d'un protocole d'analyse du cycle par méthode tri paramétrique en cytométrie de flux : application au cancer du côlon." Montpellier 1, 2000. http://www.theses.fr/2000MON11111.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Alaoui, Ismaili Naima. "Nouvelle méthode numérique de résolution d'un problème inverse : application à l'estimation des paramètres caractéristiques d'un adhésif dans une structure tri-couche." Le Havre, 2009. http://www.theses.fr/2009LEHA0005.

Full text
Abstract:
Le travail présenté concerne l’identification de paramètres acoustiques dans des structures élastiques planes. Le chapitre 1 présente la propagation des ondes de Lamb se propageant dans une plaque. Le chapitre 2 consiste principalement à la présentation d’une méthode simple de résolution de problème inverse. Il s’agit d’identifier les célérités du matériau si les courbes de dispersion sont connues. Une étude expérimentale est proposée ; elle concerne des plaques d’aluminium et de verre. Le chapitre 3 présente une structure tri-couche du type A/C/A où C est un film mince à caractériser. Il s’agit ici de résoudre un problème inverse à 3 inconnues (célérités et épaisseur). Le chapitre 4 reprend une structure A/C/A mais les conditions de contact entre le film mince et les plaques « A » ne sont pas parfaites. Un modèle de Jones est utilisé. Une étude expérimentale est réalisée. La méthode de résolution du problème inverse permet de déterminer les constantes rhéologiques
This work deals with the identification of acoustics parameters for plane elastic structures. The propagation of Lamb waves is studied in chapter 1. Chapter 2 deals with the presentation of a new simple method for solving the inverse problem. This one consists in the determination of the celerities of an isotropic material once the dispersion curves are known. An experimental study is performed on aluminium and glass plates. In chapter 3, a trilayer A/C/A where C is a thin film is studied. The parameters of C are determined (celerities and thickness): The inverse problem has 3 unknown parameters. Chapter 4 deals also with the previous trilayer but the boundary conditions between A and C are not perfect. The model of Jones is used and an experimental study is performed. The proposed method for the resolution of the inverse problem allows us to determine the parameters of Jones
APA, Harvard, Vancouver, ISO, and other styles
7

Zbierska, Inga Jolanta. "Study of electrical characteristics of tri-gate NMOS transistor in bulk technology." Thesis, Lyon 1, 2014. http://www.theses.fr/2014LYO10282/document.

Full text
Abstract:
Afin de dépasser la limite d'échelle, il existe une solution innovante qui permet de fabriquer des structures multi-grilles. Ainsi, un NMOSFET composé de trois grilles indépendantes fabriquées dans la technologie CMOS. En dehors de leur forme, géométrique, le transistor multi-grille est similaire à une structure classique. Une multi-grille NMOSFET peut être fabriquée par l'intégration de tranchées de polysilicium. Ces tranchées sont utilisées dans diverses applications telles que les mémoires DRAM, électronique de puissance ou de capteurs d'image. Les capteurs d'image présentent le problème des charges parasites entre les pixels, appelées diaphonie. Les tranchées sont l'une des solutions qui réduisent ce phénomène. Ces tranchées assurent l'isolation électrique sur toute la matrice des pixels. Nous avons étudié ses caractéristiques en utilisant des mesures I-V, méthode du split C-V et de pompage de charge à deux et à trois niveaux. Son multi-seuil caractéristique a été vérifié. Nous n'avons observé aucune dégradation significative de ces caractéristiques grâce à l'intégration des tranchées. La structure a été simulée par la méthode des éléments finis en 3D via le logiciel TCAD. Ses caractéristiques électriques ont été simulées et confrontées avec les résultats obtenus à partir de mesures électriques. La tension de seuil et la longueur de canal effective ont été extraites. Sa mobilité effective et les pièges de l'interface Si/SiO2 ont également été simulés ou calculés. En raison des performances électriques satisfaisantes et d'un bon rendement, nous avons remarqué que ce dispositif est une solution adéquate pour les applications analogiques grâce aux niveaux de tension multi-seuil
One of the recent solutions to overcome the scaling limit issue are multi-gate structures. One cost-effective approach is a three-independent-gate NMOSFET fabricated in a standard bulk CMOS process. Apart from their shape, which takes advantage of the three-dimensional space, multi gate transistors are similar to the conventional one. A multi-gate NMOSFET in bulk CMOS process can be fabricated by integration of polysilicon-filled trenches. This trenches are variety of the applications for instance in DRAM memories, power electronics and in image sensors. The image sensors suffer from the parasitic charges between the pixels, called crosstalk. The polysilicon - filled trenches are one of the solution to reduce this phenomenon. These trenches ensure the electrical insulation on the whole matrix pixels. We have investigated its characteristics using l-V measurements, C-V split method and both two- and three-level charge pumping techniques. Tts tunable-threshold and multi-threshold features were verified. Tts surface- channel low-field electron mobility and the Si/SiO2 interface traps were also evaluated. We observed no significant degradation of these characteristics due to integration of polysilicon-filled trenches in the CMOS process. The structure has been simulated by using 3D TCAD tool. Tts electrical characteristics has been evaluated and compared with results obtained from electrical measurements. The threshold voltage and the effective channel length were extracted. Tts surface-channel low-field electron mobility and the Si/SiO2 interface traps were also evaluated. Owing to the good electrical performances and cost-effective production, we noticed that this device is a good aspirant for analog applications thanks to the multi-threshold voltages
APA, Harvard, Vancouver, ISO, and other styles
8

Zeghadi, Ilhem. "Effet de la mophologie tri-dimensionnelle et de la taille de grain sur le comportement mécanique d’agrégats polycristallins." Paris, ENMP, 2005. http://www.theses.fr/2005ENMP1351.

Full text
Abstract:
Les modèles continus de plasticité cristalline appliqués aux calculs de polycristaux métalliques sont efficaces pour voir le comportement mécanique global du polycristal à partir des lois de comportement du monocristal. On obtient également les champs de contraintes et déformations locaux dans les grains. Ceci est rendu possible à l’aide de simulations par éléments finis sur un volume élémentaire représentatif d’agrégat et les modèles d’homogénéisation numérique. Ces approches échouent néanmoins pour décrire les effets d’échelle classiquement observés en métallurgie physique et dont l’archétype est l’effet de taille de grain. Un modèle de plasticité cristalline de Cosserat appliqué dans le cas du comportement élastoplastique d’agrégats polycristallins d’acier IF ferriques est proposé. Il introduit dans sa formulation un terme associé à la courbure de réseau et permet de reproduire numériquement un effet analogue à la loi de Hall-Petch. Une autre limite de la plasticité cristalline est liée à l’étape de validation expérimentale locale. L’information expérimentale est en général, disponible à la surface de l’éprouvette. La géométrie des grains sous la surface est inconnue et est le plus souvent introduite dans les calculs par extension des joints de grains perpendiculairement à la surface. L’écart observé entre les résultats du calcul et expérimentaux peut être expliqué par l’erreur qu’introduit ce choix. On donne ici un minorant de cette dispersion qui est de l’ordre de 30% en élasticité et supérieure à 50% en élastoplasticité ce qui amène à considérer avec prudence l’identification d’une loi de comportement à partir des seules mesures de surface.
APA, Harvard, Vancouver, ISO, and other styles
9

Culot, François. "Développement d'une méthode de calcul ab initio adaptée à l'étude de couplages entre modes normaux de vibration. Application aux molécules tri-et tétra -atomique." Doctoral thesis, Universite Libre de Bruxelles, 1993. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/212838.

Full text
APA, Harvard, Vancouver, ISO, and other styles
10

Philippe, Christelle. "Analyse de la pollution atmosphérique aux échelles locale et régionale. Modélisation spatiale et temporelle à l'aide d'une méthode de scénarii épisodiques." Phd thesis, INSA de Rouen, 2004. http://tel.archives-ouvertes.fr/tel-00006789.

Full text
Abstract:
Pour évaluer l'impact d'une exposition à long terme à une pollution atmosphérique, il est nécessaire de procéder à des simulations sur de longues périodes (plusieurs mois, voir plusieurs années). Dans certains cas comme la pollution photochimique, le temps de calcul est rédhibitoire. Cela pousse soit vers une intensification des calculs grâce à la parallélisation, soit vers la simulation de scénarios représentatifs. Durant cette thèse, nous avons procédé à la parallélisation du code TRANSCHIM. L'efficacité obtenue pour des simulations avec une chimie photo oxydante est satisfaisante, mais le gain de temps reste limité pour des simulations inertes. De plus, dans le cadre du projet CITY DELTA, une méthode de scénarios épisodiques à été développée pour évaluer les concentrations de fond sur la région parisienne. Cette méthode, basée sur le tri statistique de journées météorologiques, a été validée par confrontation aux mesures de capteurs pour la période étudiée (avril à septembre 1999).
APA, Harvard, Vancouver, ISO, and other styles
11

Almecija, Benjamin. "Apports des connaissances métiers pour la conception d'un système multi-capteurs de tri qualité Billon." Thesis, Université de Lorraine, 2013. http://www.theses.fr/2013LORR0264/document.

Full text
Abstract:
Ce travail de thèse se place dans le cadre d'une convention université/industrie de type CIFRE entre le CRAN et la scierie Siat-Braun. Le processus de transformation d'une scierie est divisé en deux parties. Tout d'abord, le parc à grumes tronçonne une grume en billons (bois ronds de longueur standard) qui sont triés en lots homogènes en dimensions et qualité. Ensuite, la ligne de sciage transforme ces billons en produits finis (sciages) également triés par dimensions et qualité. Le tri qualitatif des billons ayant une influence directe sur la qualité des produits finis vendus, les scieries visent à optimiser cette étape afin de réduire le taux de déclassement des produits finis. Dans cet objectif, la scierie Siat-Braun a investi dans un nouveau parc à grumes. Les travaux de cette thèse contribuent au développement et à la mise en oeuvre de ce système dédié au tri Qualité des billons. Le premier chapitre de ce mémoire positionne le projet dans la filière Bois puis explicite les contraintes et les besoins d'une scierie en termes de Qualité. Une étude bibliographique met en évidence les différents systèmes d'observation permettant la mesure des caractéristiques du bois dans le but de faire un classement qualité, aussi bien des billons que des produits finis. Le système d'observation choisi par notre partenaire industriel est ensuite présenté. L'objectif de la seconde partie du mémoire est d'expliciter et de définir la Qualité Billons pour le nouveau système de tri. Cette notion de qualité étant détenue par les opérateurs de tri, nous avons proposé d'extraire, de formaliser et de modéliser cette connaissance en utilisant la méthode NIAM-ORM. Cette méthode a permis d'obtenir deux ontologies structurées : la Qualité Billon et la Qualité Sciage que nous avons exploitées dans le chapitre 3 afin de mettre en avant 50 liens entre les deux qualités généralement appréhendées séparément. Cette étude a également permis d'extraire 34 critères pertinents pour spécifier la Qualité Billon en 9 classes, au regard de la Qualité Sciage. De plus, l'exploitation des modèles de connaissance fournit un paramétrage initial pour la mise en service du système d'observation (critères d'entrée, classes de sortie, seuils de décision). Ce paramétrage est alors éprouvé lors des premières exploitations. Les premiers tests sur les produits finis et l'exploitation des données délivrées par le capteur nous servent à valider et à affiner le paramétrage pour améliorer le classement des billons en fonction de la qualité des produits finis obtenus. Ces travaux de thèse ont donc permis de capitaliser la connaissance Experte des acteurs du projet puis d'obtenir une configuration initiale pertinente pour la première mise en service du système de tri. Les premières analyses ont permis d'améliorer le paramétrage du système de tri Qualité Billon. Dans un futur proche, nous envisageons d'approfondir l'analyse des données fournies par le système afin d'améliorer la sélection des critères pertinents
This study takes place in the frame of a university/industry convention between the CRAN and Siat-Braun sawmill. Sawmill transformation process is divided in two parts. First, the log yard cuts down stem in logs (round timber with standard length) which are sorted out in homogeneous batches by dimensions and quality. Then, the sawing line transforms those logs in end products sorted out by dimensions and quality too. The qualitative sort out of log has a direct impact on sold product quality, so sawmills try to optimize this production step in order to reduce the product downgrading rate. In this goal, Siat-Braun sawmill invested in a new log yard. This study contributes to the development and the commissioning of this system dedicated to log Quality sort out. The first chapter of this thesis places the project into wood industry then explicates sawmill constraints and needs in term of Quality. A literature review points out different observation systems allowing measurement of wood characteristics in order to make a product and log quality rankings. Observation system chosen by our industrial partner is then presented. The objective of the second chapter is to clarify and defines Log Quality to the new log yard. This quality notion being held by the sorting operator, we suggested extract, formalize and model this knowledge using NIAM-ORM method. This method allowed obtaining two structured ontologies: the Log Quality and the Product Quality which we used in the chapter three in order to underlying 50 links between both qualities usually tackle separately. This study allowed also extracting 34 relevant criteria to specify Log Quality in 9 classes, regarding Product Quality. In addition, knowledge model analysis gives an initial set up to the first commissioning of the Observation system (input criteria, output classes, decision thresholds). This set up is so proven during system exploitation. The first tests on end products and data processing delivered by the sensor are used to validate and refine the set up to improve the log sort out regarding the obtained product quality. So, this study allowed capitalizing Expert knowledge of the project actors and then, obtaining a relevant initial configuration of the sort system for the first use. First analysis allowed improving Log Quality sort out system set up. In a near future, we want to go deeper in analysis of data given by the system in order to improve relevant criteria selection
APA, Harvard, Vancouver, ISO, and other styles
12

Demésy, Guillaume. "Modélisation électromagnétique tri-dimensionnelle de réseaux complexes. Application au filtrage spectral dans les imageurs CMOS." Phd thesis, Université Paul Cézanne - Aix-Marseille III, 2009. http://tel.archives-ouvertes.fr/tel-00436046.

Full text
Abstract:
L'évolution de la technologie CMOS autorise la réduction des dimensions transverses du pixel d'imageur qui atteignent aujourd'hui 1.75μm. Son épaisseur, en revanche, ne peut être réduite sans modifier le principe de filtrage existant, assuré par des résines colorées absorbantes dont l'épaisseur fixe le profil spectral en transmission. Ces résines ont, de plus, une faible tenue en température et doivent être positionnées au sommet de l'empilement métallo-diélectrique que constitue le pixel. Ces deux facteurs contribuent à la dégradation de la résolution optique du capteur. Dans ce mémoire, nous discutons des possibilités de les remplacer par des structures diffractives métalliques bi-périodiques, moins épaisses et plus résistantes aux traitements thermiques. Pour cela, une nouvelle formulation de la Méthode des Eléments Finis a été introduite. Cette technique, très générale, de résolution d'équations aux dérivées partielles est adaptée, de par sa flexibilité, à la richesse géométrique du pixel CMOS et à la complexité des structures diffractives pressenties. Dans un premier temps, cette méthode a été validée numériquement dans le cas scalaire, puis expérimentalement grâce à des photodiodes de test munies de réseaux mono-dimensionnels. Dans un second temps, la formulation a été généralisée au cas vectoriel de la diffraction d'une onde plane d'incidence et de polarisation arbitraires par un réseau bi-dimensionnel quelconque. Enfin, ce modèle est exploité pour dégager un jeu de paramètres opto-géométriques de réseaux croisés permettant de filtrer la lumière dans ses composantes Rouge, Verte et Bleue.
APA, Harvard, Vancouver, ISO, and other styles
13

Pivetal, Jérémy. "Développement et premières applications d'une méthode de tri de cellules bactériennes par marquage de l'ADN avec des nanoparticules magnétiques pour l'étude de la diversité bactérienne environnementale et des transferts horizontaux de gènes in situ." Thesis, Ecully, Ecole centrale de Lyon, 2013. http://www.theses.fr/2013ECDL0010/document.

Full text
Abstract:
En dépit de leur importance, la caractérisation des communautés bactériennes dans l’environnement reste encore très incomplète. Les principales raisons sont, d’une part, la difficulté d’appréhender la totalité de la communauté bactérienne quand plus de 99% des bactéries demeurent récalcitrantes à la culture in vitro et ne peuvent donc être étudiées par les approches classiques de microbiologie. D’autre part, la métagénomique, censée contourner cette méthode de culture en s’intéressant à l’ensemble des génomes extraits des milieux d’études, demeure elle aussi imparfaite du fait de limitations techniques (biais d’extraction de l'ADN, de clonage, de PCR, de séquençage et d’assemblage des génomes etc.) et conceptuelles, inhérentes à la complexité et l’hétérogénéité des environnements. Pour compenser les limites de chacune de ces techniques, des méthodes de tri cellulaire appliquées en conjonction avec les deux premières pourraient aider à un meilleur décryptage de la diversité microbienne. Basée sur la sélection spécifique (taxonomique et/ou fonctionnelle) et l’isolement direct des cellules bactériennes ciblées à partir d’un échantillon environnemental complexe, l’étude est restreinte à une population spécifique, voire à une cellule isolée. Pourront alors être appliquées les approches classiques de mise en culture ou d’extraction de l’ADN pour une étude restreinte à l’ADN ou l’ARN, leur répétition sur les différentes populations devant à terme (lointain) approcher l’exhaustivité. C’est dans ce contexte que s’est positionné ce travail de thèse visant dans un premier temps à mettre au point un nouvel outil de tri cellulaire basé sur l’intégration de micro-aimants permanents dans un canal microfluidique. A partir de ce système de tri magnétique miniaturisé, offrant de nombreux avantages (dispositif portable, peu coûteux, nécessitant de faibles volumes réactionnels et potentiellement intégrable en « laboratoire sur puce »), une technique d’isolement sélectif de cellules bactériennes marquées magnétiquement a alors été développée. Ciblées sur des critères taxonomiques après hybridation in situ avec des sondes d’acides nucléiques biotinylés complémentaires d’une région spécifique du gène 23S rRNA, des cellules bactériennes ont été marquées magnétiquement après réaction de la sonde avec des nanoparticules magnétiques fonctionnalisées par des molécules de streptavidine. Les premiers résultats montrent l’établissement d’une méthode de tri suffisamment spécifique et sensible pour piéger les cellules marquées diluées (0,04%) au sein d’une suspension, à des niveaux compatibles avec l’isolement futur de populations d’intérêt à partir de communautés d’environnements complexes. Sur un principe comparable, l’approche a été adaptée à l’étude des transferts horizontaux de gènes in situ. Les applications d’un tri cellulaire grâce au marquage par des nanoparticules magnétiques et l’emploi de micro-aimants intégrés dans des microsystèmes fluidiques semblent donc très prometteuses pour le développement de la microbiologie environnementale
Despite their importance, bacterial communities in the environment remain poorly characterized. On the one hand, it is difficult to gain knowledge of the community as a whole because over 99% of bacteria are recalcitrant to in vitro culture, rendering classic microbiological approaches imposible to carry out. On the other hand, metagenomics, which can be used to circumvent culture-based approaches by extracting all the genomes from a given environment, is also problematic given the associated technical limitations (biases related to DNA extraction, cloning, PCR, genome sequencing and assembling etc.), and conceptual difficulties related to the complexity and the homogeneity of the environments. In order to overcome some of the limitations of these approaches, bacterial cell selection methods have been developed and can be used to improve our understanding of microbial diversity. Based on taxonomic and/or functional selection and the direct isolation of bacterial cells from an environmental sample, bacterial cell selection can be used to reduce microbial community complexity by targeting specific populations, or even an isolated cell. A variety of classic approaches such as cultivation or DNA/RNA extraction can then be carried out. This cycle can theoretically be repeated until all members of the community are characterized. The aim of this doctoral thesis was to design a novel cell selection tool based on the permanent integration of micro-magnets into a microfluidic canal. In conjunction with a new miniaturized magnetic selection system that provides several advantages over larger systems (portable, low cost, requiring smaller reaction volumes and can be potentially integrated on “laboratory on a chip” systems), a method for selective bacterial cell isolation using magnetic labeling was developed. The bacterial cells were targeted based on taxonomic criteria; biotin-labeled probes were developed for a specific region of the 23S rRNA gene. Following in situ hybridization with the probes, baceterial cells were labeled with streptavidin-functionalized magnetic nanoparticles. First results showed that the tool was specific and sensitive enough to trap labeled and diluted (0,04%) cells from a suspension at levels that are comparible to populations of interest found in complex environmental communities. This tool has also been adapted to study in situ horizontal gene transfer as well. The application of a cellular selection tool that labels targets with magnetic nanoparticles coupled to fluidic microsystems with integrated nano-magnets looks very promising for future studiesin environmental microbiology
APA, Harvard, Vancouver, ISO, and other styles
14

Viverge, Kevin. "Modèle de plaques stratifiées à fort contraste : application au verre feuilleté." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSET005/document.

Full text
Abstract:
Le verre feuilleté est constitué de deux ou plusieurs feuilles de verre assemblées par une ou plusieurs couches de polymères viscoélastiques intermédiaires qui sont à l’origine des interactions entre les mécanismes de cisaillement, de flexion locale et de flexion globale qui régissent le comportement d’ensemble du verre feuilleté. Dans ces travaux, nous proposons un modèle de plaques dites "fortement contrastées" intégrant ces différents mécanismes et leur couplage. Dès lors qu’il existe une séparation d’échelle entre l’épaisseur de la plaque et la taille caractéristique des variations des champs cinématiques, la méthode des développements asymptotiques est applicable pour l’étude des stratifiées. Le comportement effectif de la plaque est dérivé de la loi de comportement 3D des matériaux, associée à une formulation de développements asymptotiques et à une mise à l’échelle appropriée du contraste de rigidité entre les couches raides de verre et des couches souples de polymère viscoélastique. Le procédé fournit une formulation explicite et cohérente, intégrant les efforts duaux des descripteurs macroscopiques (équations constitutives), les équations d’équilibres hors-plan et dans le plan et les différentes lois de comportements du stratifié. Le modèle est d’abord construit dans le cas d’une plaque de verre feuilleté à 2 couches raides puis différents cas de chargements statiques et dynamiques sont appliqués. Il est ensuite étendu aux plaques à 3 couches raides puis généralisé aux plaques à N couches raides. Des campagnes expérimentales sont mises en place pour valider les modèles obtenus. Enfin un cas d’étude de dimensionnement de plancher en verre feuilleté est proposé
Widely used in recent years, the glass material makes it possible to erect light, aesthetic and resistant structures, in particular with glass lamination method, which consists in assembling two or more sheets of glass by one or more intermediate viscoelastic polymers layer. These viscoelastic interface layers are the source of interactions between the shear, the local bending and the global bending mechanisms that govern the overall behavior of laminated glass. For an optimal dimensioning and an accurate determination of the different fields, we propose a "highlycontrasted" plates model encapsulating these different mechanisms and their coupling. As long as a scale separation between the plate thickness and the caracteristic size of kinematics field variations exists, the asymptotic expansion method can be applied for the study of laminates. The effective plate behaviour is derived from the 3D constitutive law of the materials combined with an asymptotic expansion formulation and an appropriate scaling the tiffness contrast between stiff glass layers and soft viscoelastic polymer layers. The method provides a synthetic and consistent formulation, integrating the dual efforts of the macroscopic descriptors, in-plane and out-of-plane balance equations and the constitutive laws of the laminate. First the model is developped for a 2 stiff layers laminated glass plates, then different static and dynamic loading cases are applied. It is then extended to plates with 3 stiff layers and then generalized to plates with N stiff layers. Experimental campaigns are set up in order to validate the models. Finally, a case study of laminated glass floor design is proposed
APA, Harvard, Vancouver, ISO, and other styles
15

Ogier, Arnaud. "Méthodes de restauration en imagerie médicale tri-dimensionnelle." Rennes 1, 2005. http://www.theses.fr/2005REN1S100.

Full text
Abstract:
L'objectif des deux premières parties de cette thèse est d'une part de décrire les ondes ultrasonores et d'autre part d'étudier les différents bruits engendrés par ce système cohérent d'imagerie. Pour cela, une étude statistique est effectuée. L'étude statistique mène à des lois compliquées et nous proposons d'utiliser la transformation de Mellin qui permet dans certains cas de simplifier les calculs. Un simulateur de ces différentes lois est ainsi généré. De plus, des expériences sur un fouillis de billes indiquent que la loi normale peut s'avérer suffisante comme première approximation. Dans la troisième partie de cette thèse, nous retraçons l'état de l'art en restauration d'images issues de capteurs cohérents (laser, SAR, ultrasons,. . . ) et incohérents (optiques). Nous nous attardons sur les méthodes développées ces dix dernières années telles que les EDP, les ondelettes et les filtres de voisinage. La quatrième et dernière partie de cette thèse décrit nos contributions basées sur les travaux de Rudin, Osher et Fatemi portant sur la variation totale. Nous proposons dans une première approche, une modification du schéma originel en adaptant le Lagrangien aux statistiques d'ordres supérieurs de l'image. Ensuite, nous projetons l'image sur une base d'ondelettes et minimisons la variation totale sur les coefficients d'ondelettes. Nous appliquons ces méthodes aux images IRM et ultrasonores, démontrant ainsi la généricité de nos schémas.
APA, Harvard, Vancouver, ISO, and other styles
16

Montagner, Florian. "Nouvelles méthodes de tri des déchets par rayons X." Phd thesis, INSA de Lyon, 2012. http://tel.archives-ouvertes.fr/tel-00932692.

Full text
Abstract:
Les travaux proposés portent sur la caractérisation par rayons X des matériaux, en vue du tri de certains d'entre eux dans un flux de déchets. L'objectif final du tri est la valorisation de certains matériaux par le biais des circuits de recyclage. Deux méthodes d'analyse utilisant les rayons X sont décrites : la méthode par transmission bi-énergie et la fluorescence X. Ces deux méthodes sont abordées sous un angle théorique et expérimental. Le mémoire se compose de trois parties. La première partie présente le contexte général de l'étude, les différents scénarios de tri envisagés, les différentes méthodes existantes ainsi que les machines de tri industrielles déjà commercialisées. La seconde partie est consacrée à l'analyse par transmission X bi-énergie. Dans cette partie nous présentons tout d'abord le principe de la décomposition d'un matériau dans une base de deux autres matériaux. Ensuite nous utilisons un code de simulation analytique développé au laboratoire afin d'une part d'optimiser la géométrie du détecteur mais également de prévoir les performances de cette méthode en fonction des scénarios et des matériaux recherchés. Nous avons introduit un critère permettant de quantifier la performance d'un scénario donné. Cette méthode a permis de montrer que plusieurs scénarios de tri et en particulier celui du tri des retardateurs de flamme dans un flux de plastiques sont envisageables par cette méthode. Un prototype de machine industrielle a été construit par la société Bertin Technologies et installé dans les locaux de la société Pellenc ST pour réaliser des tests en conditions réelles de tri. Les résultats de simulation ont été comparés aux essais en conditions réelles. Cette partie se conclue avec une introduction aux méthodes multi-énergie. La troisième et dernière partie s'intéresse à la fluorescence X. L'objectif est de mettre au point une méthode permettant d'identifier la nature du matériau en tenant compte des contraintes industrielles (temps d'acquisition faible), c'est-à-dire lorsque le niveau de signal contenu dans le spectre de fluorescence est faible et bruité. Un banc expérimental a été mis au point au laboratoire et a permis de définir la limite de détection qui dépend du matériau analysé et du temps d'acquisition pour réaliser la mesure. Le second point développé dans cette partie est la mise au point d'une technique de simulation de fluorescence combinant le calcul analytique et le calcul par méthode Monte Carlo. L'avantage de cette technique est d'avoir une méthode de simulation plus rapide par rapport à un calcul qui serait réalisé entièrement par Monte Carlo. En conclusion, nous discutons de la complémentarité des informations issues de ces différentes techniques ainsi que leurs avantages et inconvénients.
APA, Harvard, Vancouver, ISO, and other styles
17

Couturier, Raphaël. "Utilisation des méthodes formelles pour le développement de programmes parallèles." Nancy 1, 2000. http://docnum.univ-lorraine.fr/public/SCD_T_2000_0001_COUTURIER.pdf.

Full text
Abstract:
Le travail décrit dans cette thèse a pour but d'étudier comment on peut appliquer les méthodes formelles à la parallélisassions, pour développer des programmes parallèles corrects. Comme un de nos objectifs est de travailler sur des applications en grandeur nature, nous avons, durant ce travail, collaboré avec des physiciens et chimistes de notre université afin de paralléliser trois de leurs applications. Ces applications ont été parallélisées, sur l'origin 2000 du centre Charles Hermite, soit avec openmp, soit avec mpi, soit avec ces deux paradigmes à la fois. Afin de prouver qu'une parallèlisation basée sur une décomposition de domaines est correcte, nous avons développé une méthodologie adéquate qui demande à l'utilisateur d'abstraire son code séquentiel afin d'en obtenir une post-condition. Celle-ci nécessite d'être généralisée pour le code parallèle. Ensuite, on doit prouver que les post-conditions du code parallèle, plus la post-condition du code réalisant le collage des informations obtenues en parallèle, impliquent la post-condition du programme séquentiel. Si on ne spécifie pas la post-condition du code réalisant le collage, la preuve échoue, mais les obligations de preuves constituent la post-condition du code d'assemblage des calculs parallèles. Nous avons appliqué cette méthodologie à deux des parallelisations que nous avons effectuées. Pour montrer que l'on peut élaborer un programme à partir d'une spécification formelle et en faire la preuve, nous avons prouvé que le tri bitonique, facilement parallelisable, est correct en utilisant pvs. Nous avons également construit un compilateur qui permet de transformer une spécification unity d'un programme parallèle déterministe en un programme fortran que l'on peut exécuter sur une machine avec openmp.
APA, Harvard, Vancouver, ISO, and other styles
18

Kadri, Anis. "La méthode de tir pour des problèmes de programmation linéaire bicritères." Mémoire, Université de Sherbrooke, 2011. http://savoirs.usherbrooke.ca/handle/11143/4917.

Full text
Abstract:
Ce travail consiste à étudier les problèmes de programmation linéaires bicritère. En raison de la nature de ces problèmes, il existe un ensemble de solutions optimales et non pas une unique solution au problème, ce qui pose la question de la manière de visualiser et d'analyser cet ensemble de solutions. Nous avons utilisé les bases de l'optimisation multicritère et la méthode de la somme pondérée et nous avons développé une méthode de résolution : la méthode de tir utilisant la méthode de simplexe à un critère. Tous ces outils nous ont permis d'identifier et de visualiser l'ensemble des solutions : la surface de Pareto.
APA, Harvard, Vancouver, ISO, and other styles
19

Saoudi, Kamel. "Etude de quelques problèmes quasilinéaires elliptiques singuliers." Toulouse 1, 2009. https://tel.archives-ouvertes.fr/tel-00412365v2.

Full text
Abstract:
L'objet de cette thèse concerne l'étude de quelques problèmes elliptiques singuliers. Précisément, dans le chapitre 2, nous abordons la question de la multiplicité de solutions pour un problème elliptique critique singulier en dimension N = 3. Dans le chapitre 3, Nous discutons la validité de la proprieté C1 versus W0 1;p minimiseurs de l'energie pour un problème quasilinéaire elliptique singulier. Enfin, dans le chapitre 4, nous présentons des résultats de bifurcation globale pour un problème semilinéaire elliptique singulier et critique en dimension 2 avec croissance sur-exponentielle
This thesis concerns the study od some singular elliptic problems. Precisely, in Chapter 2, we investigate the question of multiplicity of solutions for a singular problem with critical growth in dimension N = 3. In Chapter 3, we investigate the validity of C1 versus W0 1;p energy minimisers for a quasilinear elliptic singular problem. In Chapter 4, we present global bifurcation results for a semilinear elliptic singular problem with critical growth in dimension 2 with exponentiel growth
APA, Harvard, Vancouver, ISO, and other styles
20

Saez, Fabien. "Détermination de la structure tri-dimensionnelle de la couronne solaire." Aix-Marseille 1, 2005. http://www.theses.fr/2005AIX11019.

Full text
Abstract:
Cette thèse présente une nouvelle méthode de simulation directe de la ceinture de grands jets, structure principale de la couronne solaire. Cette méthode présente l'avantage de fournir des résultats à la fois qualitatifs et quantitatifs, et prend en compte l'évolution temporelle de la couronne. Elle débute par le calcul du champ magnétique à la surface source pour un instant précis, nécessaire à la localisation de la ceinture de grands jets. Un modèle mathématique de densité électronique liée à la ceinture de grands jets est ensuite présenté. La densité 3D résultante est alors compressée sous forme d'octree qui permet un échantillonnage non uniforme de l'espace et un gain considérable en temps de calcul et en espace mémoire. Les images de radiance sont calculées à partir de l'octree par lancer de rayons en intégrant la diffusion Thomson. L'évolution temporelle est simulée par l'utilisation de 9 octrees calculés pour 9 configurations différentes du champ magnétique dans une rotation complète du Soleil (rotation Carrington). Enfin, la méthode se termine par un ajustement des paramètres liés à la densité électronique. L'ensemble de cette méthode est appliqué à la simulation de la ceinture de grands jets pour les périodes de minimum et de maximum d'activité. Les résultats sont comparés aux observations du coronographe LASCO-C2 à bord du satellite SOHO. Ils permettent de déduire de nouveaux modèles de densité électronique et d'étudier l'évolution de la couronne
This thesis proposes a new forward modeling method of the streamer belt, the main structure of the solar corona. This method provides both qualitative and quantitative results, and take into account the time evolution of the corona. It begins with the computation of the magnetic field at the source surface at a given time, required to locate the streamer belt. A simple geometric model of electron density is used to describe the streamer belt. The full 3D electron density is represented by an octree compressed form allowing a non uniform sampling of the 3D space, allowing a gain in memory space and in time computation. Radiance images are computed using a ray-tracing algorithm including the Thomson scattering. The time evolution of the corona is simulated by 9 octrees, representing 9 different configurations of the magnetic field during a full rotation of the solar corona (Carrington rotation). The method ends by a fitting process of the electron density parameters. The whole method is applied to simulate the streamer belt during minimum and maximum activity periods. Resulting images are compared to LASCO-C2 observations, a coronagraph onboard SOHO spacecraft. They allows to determine new models of electron density and to study the temporal evolution of the solar corona
APA, Harvard, Vancouver, ISO, and other styles
21

Limayem, Frej. "Modèles de pondération par les méthodes de tri croisé pour l'aide à la décision collaborative en projet." Phd thesis, Ecole Centrale Paris, 2001. http://tel.archives-ouvertes.fr/tel-00011948.

Full text
Abstract:
En gestion de projet, les procédures de pondération sont associées à l'évaluation de paramètres intervenant dans les processus de décision. Malgré cet enjeu les outils du terrain sont très souvent peu adaptés aux exigences projet. Certains conduisent même à des résultats inexacts. Parallèlement, les solutions disponibles dans le monde de la recherche ne présentent pas toujours la souplesse nécessaire à leur exploitation immédiate sur le terrain. Ce travail de thèse apporte des éléments de réponse tant sur le plan théorique que pratique. Il s'inscrit dans le cadre plus particulier des outils dit de tri croisé. Cette désignation englobe toute méthode ramenant le problème à un ensemble de comparaisons binaires des éléments à pondérer pour simplifier la tâche du groupe de décision.
Nos apports consistent tout d'abord en une plus grande flexibilité dans la prise en compte des opinions des décideurs. Une formulation mathématique générale du problème est proposée ainsi que des perspectives, basées sur la logique floue, en vue d'une meilleure gestion de l'imprécision inhérente au jugement. Notre contribution se situe aussi au niveau de la détection et du traitement de l'incohérence induite par l'agrégation de comparaisons binaires comportant le plus souvent une part d'information redondante sans être nécessairement concordante. Un indicateur de cohérence original est proposé de même qu'une procédure itérative en vue de l'amélioration de cette cohérence. De plus, l'introduction de la notion d'entité votante permet d'envisager une plus grande variété de stratégies de vote et de cibler l'assistance apportée au groupe de décision. Enfin sur le plan pratique, un concept original de plate-forme de tri croisé asynchrone et réparti est proposé. Il offre une grande souplesse au niveau de la conception et de la conduite d'une procédure de tri croisé en projet. Une maquette informatique a été développée en vue de valider une partie de ses fonctionnalités.
APA, Harvard, Vancouver, ISO, and other styles
22

Yu, Wei. "Aide multicritère à la décision dans le cadre de la problématique du tri : concepts, méthodes et applications." Paris 9, 1992. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1992PA090032.

Full text
Abstract:
Ce travail s'inscrit dans le domaine d'aide à la décision. Il vise à contribuer aux fondements conceptuels et méthodologiques d'une approche multicritère dans le cadre de la problématique du tri et à étudier spécifiquement une classe de problèmes de tri, c'est-à-dire les problèmes de segmentation multicritères (SMC). Apres avoir souligné quelques faiblesses des méthodes "classique", nous adoptons principalement l'approche du sur classement de synthèse. Quelques concepts de base et une méthodologie générale sont introduits. Considérant les problèmes de SMC simple et en suivant la méthodologie proposée, plusieurs procédures d'affectation, fondées sur des modes de raisonnement différents, sont présentées et analysées. La modélisation des préférences sur des sous-ensembles d'actions nous permet de généraliser celles-ci pour qu'elles puissent s'appliquer aux problèmes de SMC généralisée. Dans la dernière partie, nous présentons, à l'aide d'un exemple pratique, le logiciel Electre tri que nous avons développé à partir de la méthode Electre tri précédemment présentée
This research is concerned by the field of multiple criteria decision aid. It aims at providing some elements of a general methodology for multiple criteria sorting problems and, more specifically, multiple criteria segmentation (MCS) problems. After showing some drawbacks of "classical" approaches, we focus our attention on the outranking approach. Some basic concepts and a general methodology are introduced. Considering elementary MCS problems, we develop and analyze several sorting procedures. By enlarging preference modelling to subsets of alternatives. We extended these procedures to the case of generalized MCS problems. In he last part, we present and illustrate, on a practical example, our software Electre tri, which is based on the Electre tri method described previously
APA, Harvard, Vancouver, ISO, and other styles
23

Martinon, Pierre. "Résolution numérique de problèmes de contrôle optimal par une méthode homotopique simpliciale." Phd thesis, Toulouse, INPT, 2005. http://oatao.univ-toulouse.fr/7406/1/martinon.pdf.

Full text
Abstract:
On s'intéresse ici à la résolution numérique de problèmes de contrôle optimal peu réguliers. On utilise à la base les méthodes dites indirectes, à la fois précises et rapides, mais en pratique parfois très sensibles à l'initialisation. Cette difficulté nous amène à utiliser une démarche homotopique, dans laquelle on part d'un problème apparenté plus facile à résoudre. Le "suivi de chemin" de l'homotopie connectant les deux problèmes, est ici réalisé par un algorithme de type simplicial. On s'intéresse en premier lieu à un problème de transfert orbital avec maximisation de la masse utile, puis à deux problèmes présentant des arcs singuliers. Les perspectives futures liées à ces travaux comprennent en particulier l'étude de problèmes à contraintes d'état, également délicats à résoudre par les méthodes indirectes. Par ailleurs, on souhaite comparer cette approche avec les méthodes directes, qui impliquent la discrétisation totale ou partielle du problème.
APA, Harvard, Vancouver, ISO, and other styles
24

Chianea, Thierry. "Méthodes de fractionnement par couplage flux-force de sédimentation : contributions instrumentales et méthodologiques aux applications de tri cellulaire." Limoges, 1999. http://www.theses.fr/1999LIMO0024.

Full text
Abstract:
Les methodes de fractionnement par couplage flux-force (f. F. F. ) sont caracterisees par la distribution differentielle dans l'epaisseur d'un canal de faible epaisseur, de molecules ou de particules, sous l'action d'un champ externe applique perpendiculairement a la grande surface du canal. La f. F. F. De sedimentation utilise comme champ externe soit la gravite terrestre soit une force centrifuge. Le but de ce travail est d'apporter des solutions innovantes en vue de l'amelioration des prototypes de f. F. F. Existants, et d'etudier les conditions d'elution de particules d'origine biologique. Le premier chapitre de ce memoire traite des aspects theoriques de la separation par fractionnement flux-force. Le deuxieme, aborde les applications de la f. F. F. Et plus particulierement celles qui relevent du domaine des sciences de la vie. La troisieme partie insiste sur l'importance de la prise en compte des interactions particules/paroi afin d'optimiser les performances de separation de l'appareillage, et presente les tests a mettre en uvre afin de qualifier les prototypes de f. F. F. Realises. Enfin le quatrieme chapitre est consacre a l'etude de l'impact des proprietes physico-chimiques d'une population cellulaire multipolydisperse (erythrocytes) sur les conditions d'elution, ainsi qu'a l'etude in situ de la cinematique des globules rouges, marques au 9 9 mtc, en fonction de leur condition d'injection.
APA, Harvard, Vancouver, ISO, and other styles
25

Guilbaud, Thérèse. "Méthodes numériques pour la commande optimale." Paris 6, 2002. http://www.theses.fr/2002PA066167.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Martin, Hugo. "Optimisation multi-objectifs et élicitation de préférences fondées sur des modèles décisionnels dépendants du rang et des points de référence." Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS101.

Full text
Abstract:
Cette thèse se situe dans le cadre de la théorie de la décision algorithmique, domaine de recherche à l'intersection de la théorie de la décision, de l'intelligence artificielle et de la recherche opérationnelle. Nous nous intéressons à la prise en compte de comportements sophistiqués dans des environnements complexes (décision multicritère, décision collective, décision dans le risque et l'incertain). Nous proposons d'abord des méthodes d'optimisation multi-objectifs sur domaine implicite lorsque les préférences sont représentées par des modèles dépendants du rang (intégrale de Choquet, bipolar OWA, Cumulative Prospect Theory et intégrale de Choquet bipolaire). Ces méthodes reposent sur des approches de programmation mathématique et d'algorithmique discrète. Ensuite, nous présentons des méthodes d'élicitation incrémentale des paramètres de modèles dépendants du rang permettant de prendre en compte la présence d'un point de référence dans les préférences d'un décideur (bipolar OWA, Cumulative Prospect Theory, intégrale de Choquet avec capacités et bicapacités). Finalement, nous abordons la modification structurelle de solutions sous contraintes (coût, qualité) dans des méthodes de tri à plusieurs points de référence. Les différentes approches proposées dans cette thèse ont été testées et nous présentons les résultats numériques obtenus afin d'illustrer leur efficacité pratique
This thesis work falls within the research field of algorithmic decision theory, which is defined at the junction of decision theory, artificial intelligence and operations research. This work focuses on the consideration of sophisticated behaviors in complex decision environments (multicriteria decision making, collective decision making and decision under risk and uncertainty). We first propose methods for multi-objective optimization on implicit sets when preferences are represented by rank-dependent models (Choquet integral, bipolar OWA, Cumulative Prospect Theory and bipolar Choquet integral). These methods are based on mathematical programming and discrete algorithmics approaches. Then, we present methods for the incremental parameter elicitation of rank-dependent model that take into account the presence of a reference point in the decision maker's preferences (bipolar OWA, Cumulative Prospect Theory, Choquet integral with capacities and bicapacities). Finally, we address the structural modification of solutions under constraints (cost, quality) in multiple reference point sorting methods. The different approaches proposed in this thesis have been tested and we present the obtained numerical results to illustrate their practical efficiency
APA, Harvard, Vancouver, ISO, and other styles
27

Lautesse, Philippe. "Méthodes de tri dans les collisions d'ions lourds aux énergies de Fermi et modes de désexcitation avec le multidétecteur INDRA." Habilitation à diriger des recherches, Université Claude Bernard - Lyon I, 2005. http://tel.archives-ouvertes.fr/tel-00127989.

Full text
APA, Harvard, Vancouver, ISO, and other styles
28

Laza, Désiré. "Développpement et évaluation d'une méthode LC-MS/MS pour l'analyse de résidus de tir en criminalistique." Doctoral thesis, Universite Libre de Bruxelles, 2007. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/210735.

Full text
Abstract:
Ce travail de thèse rentre dans le cadre d’un projet de recherche appliquée mené à l’Institut National de Criminalistique et de Criminologie s’intitulant « développement d’un système intégral de détection et d’identification de résidus de tir » visant à doter le laboratoire de balistique chimique d’un outil performant pour la recherche et la caractérisation des résidus de tir aussi bien inorganiques qu’organiques. Comme nous l’expliquons dans le chapitre 1, l’analyse des résidus de tir est aujourd’hui essentiellement basée sur la mise en évidence par microscopie électronique à balayage des particules métalliques provenant de l’amorce. Cette pratique a des limites. Introductif, ce chapitre met en lumière la relation entre criminologie et criminalistique, donne un aperçu de la classification des armes et décrit les relations entre les armes de poing, les munitions, les résidus de tir et la criminalistique. La motivation de l’analyse de résidus organiques et plus particulièrement des stabilisants pour poudres propulsives y est aussi expliquée. Le but principal de ce travail étant le développement d’une méthode d’analyse des stabilisants par spectrométrie de masse en tandem couplée à la chromatographie liquide à haute performance (LC-MS/MS), ce premier chapitre aborde de façon détaillée le principe de fonctionnement d’un spectromètre de masse quadripolaire, qu’il soit avec simple quadripôle ou en tandem, et traite avec une attention particulière les aspects relatifs à la production d’ions, l’acquisition des données et la détection des ions.

Le chapitre 2 est consacré aux résultats et discussions. Comme point de départ de tous les travaux ultérieurs, l’optimisation du fonctionnement du spectromètre et plus particulièrement la détermination des « ions précurseurs » et des « ions produits » y est traitée en détails. De plus, l’étude de la fragmentation des ions précurseurs y occupe une place prépondérante et conditionne l’établissement d’une méthode de détection et d’acquisition des données. Dans ce même chapitre sont successivement traités la mise au point de la méthode chromatographique pour l’analyse des stabilisants par LC-MS/MS, le couplage LC-MS/MS, la collecte et préparation des échantillons, dont l’extraction sur phase solide (SPE). Disposant des procédures de traitement des échantillons et d’une méthode LC-MS/MS, il nous a été possible de mener l’étude de faisabilité de l’analyse des stabilisants dans les échantillons prélevés sur les mains d’un tireur. Cette étude fait l’objet d’une proposition de publication jointe en annexe. Pour être exploitable en criminalistique, ce travail est complété par une étude sur les fréquences d’observation des stabilisants pour poudres propulsives sur les mains des non-tireurs.

L’ensemble des résultats nous permet de dresser un bilan et proposer des perspectives décrites dans le chapitre 3. A cet égard, nous proposons de poursuivre les essais relatifs aux tests de persistance des résidus de stabilisant sur les mains des tireurs et d’entamer une étude sur la caractérisation des résidus de tir de la nitrocellulose. Du point de vue de l’exploitation des acquis de ce travail, nous suggérons que les méthodes et procédures développées soient mises à l’épreuve dans les affaires nécessitant l’analyse des prélèvements effectués sur les vêtements d’un suspect ou d’une victime. Cette mise à l’épreuve permettra de comparer l’efficacité de la méthode LC-MS/MS à celle de la technique SEM/EDX habituellement utilisée.

Le chapitre 4 est consacré aux matériels et méthodes détaillant notamment les procédures de collectes et de traitement des échantillons, les paramètres de fonctionnement du spectromètre de masse et les méthodes analytiques.



This thesis deals with a research project entitled "Development of an integral system of detection and identification of gunshot residues”, carried out at the Belgian National Institute of Criminalistics and Criminology (NICC). This project aims at providing the Laboratory of Chemical Ballistics, a powerful tool to detect and identify organic gunshot residues. For instance, the analyses of gunshot residues is presently performed mainly for characterizing metallic particles originating from the primer, using scanning electron microscopy coupled to energy dispersive X-ray microanalysis (SEM-EDX). However this technique has its limits and the goal of the thesis was the development of a method for the analysis of the stabilizers (and their derivatives) present in propellant powders with the use of tandem mass spectrometry coupled to high performance liquid chromatography (LC-MS/MS).

The introduction highlights the relations between Criminology and Criminalistics; it gives an outline of the classification of weapons, and describes how handguns, ammunitions, gunshot residues and Criminalistics can be linked when investigating criminal cases. The motivation of the analysis of organic gunshot residues and in particular the propellant powder stabilizers is also explained.

Chapter 1 deals in detail with the working principle of a quadrupole mass spectrometer, whether it is with a single quadrupole or composed of a tandem mass spectrometer. Important aspects connected with the ion production, the data acquisition and the ion detection are also considered.

Chapter 2 presents the results and discussions. It begins with the optimization of the operating conditions of the spectrometer, and focuses more specifically on the determination of “precursor ions" and "daughter ions”. The study of the precursor ion is more important because it is required for the choice of parameters involved in the data acquisition mode. The development of a liquid chromatography (LC) method and the procedures for collecting and preparing the samples are explained. Moreover, Chapter 2 summarizes the results of a feasibility study of the analyses of stabilizers in samples collected from the hands of a shooter. This study was published in a peer reviewed journal [1]. A complementary study on the frequencies of observation of stabilizers on the hands of non-shooter persons is reported at the end the Chapter.

The results allow also proposing perspectives which are described in Chapter 3. In this respect, the characterization of nitrocellulose residues and the study of the persistence of stabilizer residues on the hands of shooters should be undertaken. From the practical point of view, the developed methods and procedures should be tested in real cases which involve the analyses of the samples taken from the clothing of suspects and/or victims. These tests should allow an assessment of the LC-MS/MS method compared to the efficiency of the SEM/EDX technique currently used.

Chapter 4 is dedicated to the materials and methods; the sample collection and treatment procedures, as well as the working parameters of the mass spectrometer and the analytical methods are explained in detail.

[1]. Désiré Laza, Ph.D. Bart Nys, Ph.D. Jan De Kinder, Ph.D. Andrée Kirsch - De Mesmaeker, Ph.D. and Cécile Moucheron, Ph.D. Development of a Quantitative LC-MS/MS Method for the Analysis of Common Propellant Powder Stabilizers in Gunshot Residue. J. Forensic Sci, July 2007, Vol. 52, N° 4, 842-850.


Doctorat en Sciences
info:eu-repo/semantics/nonPublished

APA, Harvard, Vancouver, ISO, and other styles
29

Jabeur, Mohamed. "Méthodes géometriques en mécanique spatiale et aspects numériques." Phd thesis, Université de Bourgogne, 2005. http://tel.archives-ouvertes.fr/tel-00012145.

Full text
Abstract:
On présente dans cette thèse deux projets de
recherche sur le contrôle optimal de véhicules spatiaux.

Le premier est consacré au problème du transfert orbital. Le modèle étudié est celui du contrôle en temps minimal d'un satellite que l'on souhaite insérer sur une orbite géostationnaire. Ce type de problème classique a été réactualisé avec l'évolution de la technologie des moteurs à poussée faible et continue. Notre contribution est de deux ordres. Géométrique, tout d'abord, puisqu'on étudie la contrôlabilité du système ainsi que
la géométrie des transferts (structure de la commande) à l'aide d'outils de contrôle géométrique (principe du minimum). Sont ensuite présentés l'algorithme de tir et la méthode de continuation. Ces approches permettent de traiter numériquement le problème du transfert orbital dont la poussée est forte à faible.

Le second concerne le calcul des trajectoires de rentrée
atmosphérique pour la navette spatiale. Le problème
décrivant les trajectoires est de dimension $6,$ le contrôle est l'angle de gîte cinématique ou sa dérivée et le coût est l'intégrale du flux thermique. Par ailleurs, il y a des contraintes sur l'état (flux thermique, accélération normale et pression dynamique). Notre étude est fondée sur l'obtention des conditions nécessaires d'optimalité (principe du minimum avec contraintes sur l'état) applicables à notre cas, sur le calcul des
paramètres $(\eta,\nu,u_b)$ associées à la contrainte sur l'état et sur l'analyse des synthèses optimales au voisinage de la contrainte. Une fois la trajectoire optimale déterminée, on utilise l'algorithme de tir multiple et la méthode de continuation pour les évaluations numériques.
APA, Harvard, Vancouver, ISO, and other styles
30

Chupin, Maxime. "Interplanetary transfers with low consumption using the properties of the restricted three body problem." Thesis, Paris 6, 2016. http://www.theses.fr/2016PA066307/document.

Full text
Abstract:
Le premier objectif de cette thèse est de bien comprendre les propriétés de la dynamique du problème circulaire restreint des trois corps et de les utiliser pour calculer des missions pour satellites pourvus de moteurs à faible poussée. Une propriété fondamentale est l'existence de variétés invariantes associées à des orbites périodiques autour des points de \bsc{Lagrange}. En suivant l'idée de l'\emph{Interplanetary Transport Network}, la connaissance et le calcul des variétés invariantes, comme courants gravitationnels, sont cruciaux pour le \emph{design} de missions spatiales. Une grande partie de ce travail de thèse est consacrée au développement de méthodes numériques pour calculer le transfert entre variétés invariantes de façon optimale. Le coût que l'on cherche alors à minimiser est la norme $L^{1}$ du contrôle car elle est équivalente à minimiser la consommation des moteurs. On considère aussi la norme $L^{2}$ du contrôle car elle est, numériquement, plus facile à minimiser. Les méthodes numériques que nous utilisons sont des méthodes indirectes rendues plus robustes par des méthodes de continuation sur le coût, sur la poussée, et sur l'état final. La mise en œuvre de ces méthodes repose sur l'application du Principe du Maximum de Pontryagin. Les algorithmes développés dans ce travail permettent de calculer des missions réelles telles que des missions entre des voisinages des points de \bsc{Lagrange}. L'idée principale est d'initialiser un tir multiple avec une trajectoire admissible composée de parties contrôlées (des transferts locaux) et de parties non-contrôlées suivant la dynamique libre (les variétés invariantes). Les méthodes mises au point ici, sont efficaces et rapides puisqu'il suffit de quelques minutes pour obtenir la trajectoire optimale complète. Enfin, on développe une méthode hybride, avec à la fois des méthodes directes et indirectes, qui permettent d'ajuster la positions des points de raccord sur les variétés invariantes pour les missions à grandes variations d'énergie. Le gradient de la fonction valeur est donné par les valeurs des états adjoints aux points de raccord et donc ne nécessite pas de calculs supplémentaire. Ainsi, l'implémentation de algorithme du gradient est aisée
The first objective of this work is to understand the dynamical properties of the circular restricted three body problem in order to use them to design low consumption missions for spacecrafts with a low thrust engine. A fundamental property is the existence of invariant manifolds associated with periodic orbits around Lagrange points. Following the Interplanetary Transport Network concept, invariant manifolds are very useful to design spacecraft missions because they are gravitational currents. A large part of this work is devoted to designing a numerical method that performs an optimal transfer between invariant manifolds. The cost we want to minimize is the $L^{1}$-norm of the control which is equivalent to minimizing the consumption of the engines. We also consider the $L^{2}$-norm of the control which is easier to minimize numerically. The numerical methods are indirect ones coupled with different continuations on the thrust, on the cost, and on the final state, to provide robustness. These methods are based on the application of the Pontryagin Maximum Principal. The algorithms developed in this work allow for the design of real life missions such as missions between the realms of libration points. The basic idea is to initialize a multiple shooting method with an admissible trajectory that contains controlled parts (local transfers) and uncontrolled parts following the natural dynamics (invariant manifolds). The methods developed here are efficient and fast (less than a few minutes to obtain the whole optimal trajectory). Finally, we develop a hybrid method, with both direct and indirect methods, to adjust the position of the matching points on the invariant manifolds for missions with large energy gaps. The gradient of the value function is given by the values of the costates at the matching points and does not require any additional computation. Hence, the implementation of the gradient descent is easy
APA, Harvard, Vancouver, ISO, and other styles
31

Cots, Olivier. "Contrôle optimal géométrique : méthodes homotopiques et applications." Phd thesis, Université de Bourgogne, 2012. http://tel.archives-ouvertes.fr/tel-00742927.

Full text
Abstract:
Le contexte de ce travail est le contrôle optimal géométrique appliqué à la mécanique céleste et au contrôle quantique. On s'est tout d'abord intéressé au problème de transfert orbital de satellite autour de la Terre à consommation minimale, qui amena à la réalisation du code HamPath, permettant tout d'abord la résolution de problèmes de contrôle optimal dont la loi de commande est lisse. Il se base sur le Principe du Maximum de Pontryagin (PMP) et sur la notion de point conjugué. Ce programme combine méthodes de tir, méthodes homotopiques différentielles et calcul des conditions d'optimalité du deuxième ordre. Nous nous intéressons par la suite au contrôle quantique. On étudie tout d'abord le contrôle d'un système composé de deux types de particules de spin 1/2 ayant des temps de relaxation différents et dont la dynamique est gouvernée par les équations de Bloch. Ces deux sous-systèmes, correspondant aux deux types de particules, sont couplés par un même contrôle (un champ electromagnétique), le but étant alors d'amener la magnétisation des particules du premier type à zéro tout en maximisant celle du second (dans un système de coordonnées bien choisi). Ce modèle intervient en imagerie médicale par Résonance Magnétique Nucléaire et consiste à maximiser le contraste entre deux régions d'une même image. L'utilisation des outils géométriques et numériques aura permis de donner une très bonne synthèse sous-optimale pour deux cas particuliers (mélange sang oxygéné/désoxygéné et liquide cérébrospinal/eau). La dernière contribution de cette thèse porte sur l'étude d'un système quantique à deux niveaux d'énergie dont la dynamique est régie par les équations de Lindblad. Le modèle est basé sur la minimisation d'énergie du transfert. On se restreint à un cas particulier pour lequel le Hamiltonien donné par le PMP est Liouville intégrable. On décrit alors les lieux conjugué et de coupure pour ce problème riemannien avec dérive.
APA, Harvard, Vancouver, ISO, and other styles
32

Trompier, François. "Développement de méthodes de dosimétrie des rayonnements ionisants pour le tri de population : application de la spectroscopie par résonance paramagnétique électronique à la mesure sur les ongles." Paris 6, 2012. http://www.theses.fr/2012PA066128.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

Malaplate, Alain. "Radiométrie infrarouge : Développement et validation de méthodes utilisant la bande [3-5um] pour la détermination des paramètres de surface à haute résolution spatiale." Université Louis Pasteur (Strasbourg) (1971-2008), 2001. http://www.theses.fr/2001STR13227.

Full text
APA, Harvard, Vancouver, ISO, and other styles
34

Doche, Marielle. "Techniques formelles pour l'évaluation de systèmes critiques complexes : test et modularité." École nationale supérieure de l'aéronautique et de l'espace (Toulouse ; 1972-2007), 1999. http://www.theses.fr/1999ESAE0024.

Full text
Abstract:
L'intérêt des méthodes formelles est de permettre le développement rigoureux de systèmes informatiques critiques. Pour des systèmes complexes, elles peuvent être complétées par des formalismes de structuration et de modularité. Nous proposons ici une démarche pour la génération et l'évaluation de jeux de test fonctionnel à partir de spécifications formelles structurées ou modulaires. Nous nous appuyons sur un formalisme de spécification modulaire Moka-TRIO basé d'une part sur la théorie des catégories et le calcul des modèles défini par Ehrig et Mahr (qui permettent de structurer une modélisation et éventuellement d'encapsuler des données) et d'autre part sur la logique temporelle métrique TRIO (pour décrire des comportements réactifs). Des outils associés à ce formalisme permettent de définir et valider une spécification complexe. Nous montrons comment la structure d'une spécification Moka-TRIO permet de mettre en avant différents niveaux d'abstraction pour le test : unitaire, intégration, agrégat et système. Pour chacun de ces niveaux, nous décrivons un mécanisme de génération de jeux de test à partir d'une spécification complexe en s'appuyant sur la sémantique de celle-ci. Enfin, nous reprenons le cadre théorique d'évaluation défini par Bernot, Gaudel et Marre qui détermine la pertinence d'un jeu de test. En étendant la définition d'institution pour prendre en compte des catégories de cas de test, nous montrons comment nos mécanismes de génération permettent de définir des jeux pertinents. L'outil Moka-TRIO implémente les différents mécanismes de génération. L'approche a été appliquée à un système de contrôle de commandes électriques de vol.
APA, Harvard, Vancouver, ISO, and other styles
35

Denagbe, Samuel. "Thermoluminescence de CaSO4: TR3+ et Bi12 Ge O20 : luminescences et interactions de couplage réseau-dopant, à partir de 10K, dans un cristal dosimètre pour la datation et dans un cristal photoréactif industriel." Bordeaux 3, 1990. http://www.theses.fr/1990BOR30205.

Full text
Abstract:
Ce travail est une contribution a une meilleure comprehension des mecanismes a l'origine de la thermoluminescence des solides inorganiques a l'etat cristallin, en particulier le sulfate de calcium dope aux ions lanthanides ou au manganese, puissant dosimetre utilise notamment en datation par thermoluminescence et l'oxyde mixte de bismuth et de germanium, dont les applications industrielles sont nombreuses, notamment en holographie. Un dispositif de luminescence a tres basses temperatures, a partir de 10k (263#oc) a ete realise. Il permet une analyse spectrale fine des emissions. En ce qui concerne le sulfate de calcium, la nature des centres pieges associes aux pics dans le domaine des basses temperatures a ete proposee. Apres avoir montre l'insuffisance des relations habituelles reliant l'energie d'activation a la seule mesure de la temperature du maximum d'un pic, la mise en evidence d'une composante basse temperature dans le domaine de l'initial rise a permis de proposer un autre mode de traitement des courbes et de caracteriser la profondeur d'un piege par une seule valeur de l'energie d'activation. Nous avons montre que les ions lanthanides et manganese sont excites par un transfert d'energie non radiatif non resonnant. Grace a la resonance paramagnetique electronique, la presence systematique de deux impuretes presentes a l'etat de traces, a ete decelee dans tous les cristaux et la concentration relative impurete/dopant a permis de prevoir l'influence des constituants sur les mecanismes de luminescence. En ce qui concerne l'oxyde mixte de bismuth et de germanium, ce travail a permis d'identifier les niveaux electroniques responsables de ses proprietes opto-electroniques. Nous avons montre que le processus de thermoluminescence est caracterise par un ordre evoluant avec le degre de vidage d'un centre piege. Nous avons egalement montre que la thermoluminescence obeit a une loi expone
APA, Harvard, Vancouver, ISO, and other styles
36

Lagroue, Pierre-Yves. "Pilotage d'un centre de tri du courrier : vers une approche intégrée des systèmes d'information, de la gestion de production et du contrôle de gestion." Paris 1, 2001. http://www.theses.fr/2001PA010002.

Full text
Abstract:
Le pilotage des systèmes productifs travaillant à la commande et dont la charge de travail est fortement aléatoire, nous confronte à plusieurs problématiques tant du point de vue des systèmes d'information, que de celui de la gestion de production ou du contrôle de gestion. Pour cette classe de systèmes productifs organisés en ateliers spécialisés, les exigences de réactivité, de flexibilité et d'efficience sont associées aux problématiques de prévisibilité et de définition de la capacité de production. Dans ce contexte, le problème de la détermination de la capacité n'est pas dissociable de celui des caractéristiques de la charge de travail, et de l'organisation retenue. Les processus de pilotage et les instrumentations traditionnelles constituent des réponses peu adaptées à la satisfaction de ces exigences. L'objet de ce travail est de proposer une méthodologie d'analyse et conception des modes de pilotage reposant sur des approches simulatoires. La démarche retenue explicite comment la simulation peut constituer un outil d'intégration des préoccupations des pilotes et des contrôleurs de gestion. Cette recherche présente les dispositifs qui peuvent être développés pour répondre aux enjeux du pilotage, et précise les prérequis en termes de systèmes d'information, nécessaires à l' opérationnalisation de telles instrumentations
Information systems, operations management and management control problems can be encountered while controlling make-to-order production systems whose demand is heavily random. Requirements for reactivity , flexi- bility and efficiency are linked to predictibility and capacity definition for these kinds of job shop. In this context, capacity definition is dependent upon the nature of the demand as weIl as operations decisions. Traditional opera- tion management and management control tools do not satisfy these require- ments. The purpose of this paper is to present a methodology for the analysis and conception of management systems that rely on simulation. The approach utilised clarifies how simulation can be used as an integration tool for both operations management and management control. This research explains what can be implemented to respond to the needs of production managers. In addition, it also details how information systems must be conceived in order to provide the relevant information for such implementation
APA, Harvard, Vancouver, ISO, and other styles
37

Benvegnu, Carlotta. "Nelle officine della circolazione : un’etnografia del lavoro logistico tra il Grand Paris e la metropoli diffusa veneta." Thesis, Paris 8, 2018. http://www.theses.fr/2018PA080030.

Full text
Abstract:
Les entrepôts de la logistique, secteur charnière entre production et consommation, ne produisent pas une marchandise en particulier, mais un flux de marchandises. Partant du constat que le secteur, en forte croissance ces dernières années, a été le plus souvent étudié par les sciences sociales de manière globale, l’objectif de la thèse est d’analyser de manière intensive deux entrepôts logistiques appartenant à la même entreprise dans deux contextes nationaux et régionaux différents, le nord-est de l’Italie et la région parisienne. Plusieurs interrogations traversent cette enquête. Comment les entreprises multinationales de logistique s’adaptent-elles au contexte juridique, économique et social dans lequel elles opèrent et comment participent-elles à le transformer ? Quels sont les personnels mobilisés ? Quelles sont leurs conditions et pratiques de travail ? L’analyse porte donc sur l’organisation du travail, sur les effets des politiques de recrutement et de gestion sur les expériences sociales des ouvriers migrants et locaux, sur les interactions entre salariés et entre groupes, ainsi que sur les pratiques de résistances formelles et informelles. La recherche s’appuie sur une enquête ethnographique dans les deux entrepôts, ainsi que sur une série d’entretiens biographiques. La thèse se situe au croisement d’une sociologie du travail et d’une sociologie des organisations, d’une sociologie des mobilisations collectives et de la segmentation du marché de l’emploi, d’une sociologie des classes populaires, et plus secondairement d’une sociologie des espaces urbains
Zipper between production and consumption, the logistics warehouses, rather than a specific good, product a flow of commodities. The sector has been growing fastly in the last years, and it is usually studied from a global perspective within social sciences. The aim of this thesis is to elaborate an in depth analysis on two warehouses of the same multinational logistics company within two distinct national and regional contexts: the Italian North-East and the Paris metropolis. The thesis is structured around many research questions: How do the logistics multinational companies adapt to the juridical, economic, and social context where they operate? How do they contribute to its transformation? Which recruitment policies do they apply? What are the practices and the working conditions? The analysis is then focused on the organization of the labour process, on the specific effects that the recruitment policies and the labour-force management produce on the social experiences of local and migrant workers, on the interactions and relationships between groups within the workplace, as well as on the formal and informal resistance practices played by the workers. The research is based on an ethnographic enquiry inside the two warehouses and on a series of biographic interviews. The thesis is at the crossroad between different sociological approaches: sociology of work and organizations, collective mobilizations and the segmentation of labour market, popular classes and, to a lesser extent, sociology of urban spaces
APA, Harvard, Vancouver, ISO, and other styles
38

Cerf, Max. "Optimisation de trajectoires spatiales. Vol d'un dernier étage de lanceur - Nettoyage des débris spatiaux." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2012. http://tel.archives-ouvertes.fr/tel-00736748.

Full text
Abstract:
Ce travail porte sur deux problèmes d'optimisation de trajectoires spatiales: le vol d'un dernier étage de lanceur, et le nettoyage des débris spatiaux. L'objectif est de développer pour ces deux problèmes des méthodes de résolution et des logiciels utilisables dans un contexte industriel. Les travaux comportent une partie théorique de formulation et une partie appliquée de résolution numérique. Les domaines abordés sont la mécanique spatiale, l'optimisation discrète, l'optimisation continue en dimension finie et le contrôle optimal.
APA, Harvard, Vancouver, ISO, and other styles
39

Hermant, Audrey. "Sur l'algorithme de tir pour les problèmes de commande optimale avec contraintes sur l'état." Phd thesis, Ecole Polytechnique X, 2008. http://tel.archives-ouvertes.fr/tel-00348227.

Full text
Abstract:
Cette thèse s'intéresse au problème de commande optimale (déterministe) d'une équation différentielle ordinaire soumise à une ou plusieurs contraintes sur l'état, d'ordres quelconques, dans le cas où la condition forte de Legendre-Clebsch est satisfaite. Le principe du minimum de Pontryaguine fournit une condition d'optimalité nécessaire bien connue. Dans cette thèse, on obtient premièrement une condition d'optimalité suffisante du second ordre la plus faible possible, c'est-à-dire qu'elle est aussi proche que possible de la condition nécessaire du second ordre et caractérise la croissance quadratique. Cette condition nous permet d'obtenir une caractérisation du caractère bien posé de l'algorithme de tir en présence de contraintes sur l'état. Ensuite on effectue une analyse de stabilité et de sensibilité des solutions lorsque l'on perturbe les données du problème. Pour des contraintes d'ordre supérieur ou égal à deux, on obtient pour la première fois un résultat de stabilité des solutions ne faisant aucune hypothèse sur la structure de la trajectoire. Par ailleurs, des résultats sur la stabilité structurelle des extrémales de Pontryaguine sont donnés. Enfin, ces résultats d'une part sur l'algorithme de tir et d'autre part sur l'analyse de stabilité nous permettent de proposer, pour des contraintes sur l'état d'ordre un et deux, un algorithme d'homotopie dont la nouveauté est de déterminer automatiquement la structure de la trajectoire et d'initialiser les paramètres de tir associés.
APA, Harvard, Vancouver, ISO, and other styles
40

Harmouche, Mazid. "Modèle électrique de collatéralité coronarienne : amélioration de l'outil de simulation d'élargissement du panel de patients." Thesis, Rennes 1, 2015. http://www.theses.fr/2015REN1B009/document.

Full text
Abstract:
Les pontages aorto-coronaires sont réalisés afin d’assurer une reperfusion myocardique. Un modèle de circulation coronaire serait utile pour prédire les effets des interventions pharmacologiques et pathophysiologiques en particulier les pontages coronaires. Dans ce travail, nous étudions des patients avec des sténoses coronaires sévères. Nous avons créé un modèle basé sur l’analogie hydraulique/électrique qui décrit le système artériel coronaire mathématiquement. Les simulations permettant de calculer les pressions et les flux dans les artères natives sténosées, les branches collatérales et les capillaires. Dans notre modèle biomécanique, les capillaires sont représentés par leur résistance hydraulique ; la résolution des équations de mécanique des fluides dans un tel réseau est complexe raison pour laquelle nous avons utilisé un modèle électrique. Dans ce modèle, chaque segment d’artère coronaire est représenté par un modèle de circuit analogue avec une résistance R, une capacitance C et une inductance L. Notre système artériel coronaire a été modélisé en présence de pontages. Dans cette analogie hydraulique/électrique, les pressions et les flux correspondent au voltage électrique et au courant. L’imagerie diagnostique seule est insuffisante pour prédire les résultats d’un traitement donné pour un patient unique de par ses lésions. La notion de Pw (pression distale à la thrombose) est proportionnelle au flux collatéral dans cette région. Un index basé sur des mesures de pression a été proposé par Pijls afin de déterminer la significativité fonctionnelle de la collatéralité et de faciliter la prise de décision chez les patients avec une collatéralité équivoque. Cet index est nommé Collateral Flow Index (CFI). Toutefois, la relation entre le flux collatéral et la valeur de Pw n’est pas aussi simple en particulier lorsqu’il s’agit de vaisseaux multisténosés. Nous avons donc développé un CFI modifié et démontré que le nouvel index de pression du flux collatéral est plus sensible aux variations des pressions distales aux thromboses, Pw, pouvant ainsi décrire le rôle du flux collatéral plus précisément. De plus, ce nouvel index reflète la balance entre deux chutes de pression : (Pw-Pv) correspondant au flux distal à la thrombose et (Pao-Pw) correspondant au flux collatéral. Nous avons également analysé les facteurs les plus importants qui déterminent la perfusion du territoire droit. Sept nouveaux patients ont également été étudiés. Le caractère temps-dépendant des résistances capillaires a été introduit afin de prendre en compte le collapsus des vaisseaux coronaires en systole dû à la contraction ventriculaire. Une des conclusions majeures est que la revascularisation complète est totalement justifiée chez nos patients. Enfin, la dernière partie a été consacrée à l’étude du Fractional Flow Reserve (FFR). Notre modèle est maintenant utilisé afin d’évaluer la fonctionnalité de la circulation coronaire après revascularisation
Bypass grafting is performed to obtain myocardial reperfusion. Coronary artery diseases induce the development of a coronary collateral circulation. However, developed collaterals are a risk factor for restenosis. We study the case of severe coronary diseases. We proposed a model based on hydraulic/electric analogy. The simulations allow to know the pressures and flow rates with the hope that these computations will augment the surgeons experience. The reductions of the stenosed arteries were estimated from angiographic observations. Flow rates are measured with a flowmeter.In the biomechanical model of this coronary network, the capillaries are represented by their hydraulic resistances. Full resolution of the fluid mechanics equations in such a network is complicated, reason why we used an analog electrical model. In the electrical model, each segment of the coronary artery is simulated by an equivalent analog circuit model. Our coronary artery system was modeled in the presence of bypasses. In this hydraulic/electric analogy, pressure and flow rate correspond to electrical voltage and current. The so-called coronary wedge pressure Pw (pressure distal to the thrombosis) is proportional to collateral flow to this area. An index based on pressure measurements has been proposed. This index is called Collateral Flow Index (CFI). However, the relationship between the collateral flow and the Pw value is not simple. That’s why we developed another CFI and demonstrated that the proposed new pressure based index of collateral flow is more sensitive to the variations of the values of the pressure distal to the thrombosis and could thus describe the role of collateral flow. Moreover, this new index is likely to reflect the balance between the two pressure drops: (Pw- Pv) driving the flow distal to the thrombosis and (Pao- Pw), driving the collateral flow. We also studied the flow rate toward the right heart territory and demonstrated that the influence of capillary and collateral resistances cannot be analyzed separately. We also analysed the most important factors that determine the right territory perfusion using a mathematical analysis which confirmed that the CFI does not fully reflect the flow rate delivered to the occluded territory. In particular, the capillary and collateral resistances are demonstrated to have a major influence on the perfusion of the right occluded territory. Even if the CFI may be improved by a more appropriate combination of the measured pressure values, collateral flow and microvascular status determination in patients with three-vessel disease remains a challenge. Another part of this work integrated seven new patients. Simulated profiles of flow rates and pressures were obtained in case of fixed and variable resistances. The last part was dedicated to the study of the Fractional Flow Reserve. Our model is now used to evaluate the functionality of the coronary circulation after revascularization
APA, Harvard, Vancouver, ISO, and other styles
41

Le, Treust Loïc. "Méthodes variationnelles et topologiques pour l'étude de modèles non liénaires issus de la mécanique relativiste." Phd thesis, Université Paris Dauphine - Paris IX, 2013. http://tel.archives-ouvertes.fr/tel-00908953.

Full text
Abstract:
Cette thèse porte sur l'étude de modèles non linéaires issus de la mécanique quantique relativiste.Dans la première partie, nous démontrons à l'aide d'une méthode de tir l'existence d'une infinité de solutions d'équations de Dirac non linéaires provenant d'un modèle de hadrons et d'un modèle de la physique des noyaux.Dans la seconde partie, nous prouvons par des méthodes variationnelles l'existence d'un état fondamental et d'états excités pour deux modèles de la physique des hadrons. Par la suite, nous étudions la transition de phase reliant les deux modèles grâce à la Gamma-convergence.La dernière partie est consacrée à l'étude d'un autre modèle de hadrons dans lequel les fonctions d'onde des quarks sont parfaitement localisées. Nous énonçons quelques résultats préliminaires que nous avons obtenus.
APA, Harvard, Vancouver, ISO, and other styles
42

Truong, Ba Tam. "Formulation, performances mécaniques, et applications, d’un matériau TRC pour le renforcement et la réparation de structures en béton/et béton armé : Approches expérimentale et numérique." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSEI076/document.

Full text
Abstract:
Les présents travaux, à caractère expérimental et numérique, visent à approfondir la connaissance du comportement de structures en béton armé renforcées/réparées par matériau composite à matrice minérale. Ils s’inscrivent dans le cadre du projet FUI KENTREC qui vise la formulation, le développement, la caractérisation et la validation d’un nouveau revêtement d’étanchéité pour réservoirs d’eau potable. L’objectif principal de cette thèse est donc la mise au point d’un composite à matrice minérale qui réponde au cahier des charges établi sur la base de la destination de ce matériau, à savoir, l’étanchéité des réservoirs d’eau potable. La mise au point comprend la formulation du matériau, l’évaluation de ses performances mécaniques, ainsi que la qualification des performances atteintes quant au renforcement de structures en béton armé. Deux échelles d’étude ont donc été retenues dans le cadre de la partie expérimentale, l’échelle du matériau, dans le but de formuler une matrice de « TRC » (Textile Reinforced Concrete) en fonction du cahier des charges, et l’échelle de la structure, avec l’application de ce matériau pour le renforcement et la réparation de structures en béton et en béton armé. Une campagne expérimentale de flexion portant sur des éprouvettes en béton et sur douze « poutres » en béton armé a permis, au-delà de la mise en exergue des bonnes performances en termes de capacité portante, d’analyser à l’échelle locale l’efficacité du composite à ponter la fissure et d’endiguer son ouverture. L’application visée étant l’utilisation de ce composite en milieu humide (réservoirs d’eau), les effets de deux différentes conditions de conservation de la structure renforcée/réparée par composite, avec soit l’immersion dans l’eau soit dans l’air, sont étudiés. Pour la partie numérique, ce travail vise à établir une modélisation des structures en béton ou en béton armé renforcées par ce type de composite TRC. La modélisation établie, s’appuie sur des lois de comportement non-linéaires des matériaux constitutifs (béton, acier, composite TRC) est confrontée à plusieurs échelles, aux résultats expérimentaux. La bonne concordance qualitative et quantitative entre le modèle proposé et les résultats expérimentaux au niveau des courbes charge-flèche, permet de valider la modélisation proposée à l’échelle globale. Au niveau local, on constate une assez bonne concordance du numérique et de l’expérimental, au niveau de la déformation de l’acier longitudinal, du béton, du composite, du schéma de fissuration, du champ de déplacement horizontal. Enfin, une étude paramétrique a permis d’évaluer l’influence de l’épaisseur du renfort composite TRC sur le comportement global et local de la structure
This study, using both experimental and numerical approaches, will help to better understand the behavior of structure strengthened/repaired by composite based on mineral matrix. It especially focuses on the study of a new coating for drinkable water reservoirs without bisphenol A. The main objective of this thesis is development of a mineral matrix composite. Feasibility, performances and behavior of composite are examined. The experimental program involves different levels of analysis. At material level, the formulation and characterization of a mineral matrix are studied. At structure level, the application of this composite for the strengthening and repair of concrete and reinforced concrete structures is considered. A bending experiment on concrete specimens and the study of twelve reinforced concrete beams submitted to four point bending load, allows presenting good disposition in terms of bearing capacity. Secondly, the local analysis highlights the efficacy of the composite to bridge the crack and stop opening propagation. The effect of two different conservation conditions of beams with TRC (immersion in water compared to in air) was studied. The objective is evaluating the pertinence of TRC conserving in the water environment to apply in the concrete water reservoir structure. The effect evaluation of load history of structures on the efficacy strengthened/repaired of TRC composite is presented. It seems that the pre-cracking does not influence on the qualitative and quantitative behavior of the structure. Concerning the numerical approach, this work aims to establish a numerical model of concrete structure and reinforced concrete structure strengthened/repaired by TRC composite materials. The model, which is based on non-linear behavior laws for the constitutive materials (concrete, steel and TRC composite), is compared, at several scales, with experimental results. The good agreement, both qualitative and quantitative, between the model used and the results as expressed in the load-deflection curves validates the proposed model at a global scale. At local level (longitudinal deformation of the steel, deformation of the concrete, deformation of the TRC, cracks opening…) the digital-experimental comparison confirms a good qualitative and, the quantitative agreement. Finally, the parametric study allows to evaluate the influence of the thickness of the composite TRC (indirectly, the reinforcement ratio of beam), and the influence of the pre-cracking configuration on the global and local behavior of the structure
APA, Harvard, Vancouver, ISO, and other styles
43

Janin, Gabriel. "Contrôle optimal et applications au transfert d'orbite et à la géométrie presque-riemannienne." Phd thesis, Université de Bourgogne, 2010. http://tel.archives-ouvertes.fr/tel-00633197.

Full text
Abstract:
Cette thèse porte sur l'application de techniques de contrôle optimal et de contrôle géométriques au problème de transfert d'orbite de satellite et à la géométrie presque-riemannienne. Dans ces cas, le principe du maximum de Pontryagin permet d'étudier le flot extrémal pour des systèmes de contrôle affines.Dans le cas d'un satellite à faible poussée, la technique de moyennation permet d'approcher les trajectoires du système réel. La moyennation est explicite dans le cas de la minimisation de l'énergie et fait apparaître dans certains cas des problèmes presque-riemanniens. L'étude géométrique de tels problèmes est généralisée par l'étude de métriques sur la deux-sphère de révolution. On peut ainsi classifier les situations selon la transcendance des solutions et discuter l'optimalité selon la nature des lieux de coupure et de conjugaison.L'étude du problème moyenné du transfert orbital et de situations génériques sur la sphère de révolution est motivée par l'approche homotopique de résolution numérique du problème de transfert pour d'autres fonctions de coût. La méthode de continuation couplée à celle de tir simple est utilisée pour résoudre un problème de transfert à forte poussée à consommation minimale de carburant.Les outils géométriques sont aussi utilisés afin d'étudier la situation locale dans un voisinage des points de tangence en géométrie presque-riemannienne en dimension deux. On calcule pour les approximations nilpotente et d'ordre zéro le front d'onde, les sphères de petits rayons et les lieux de coupure et de conjugaison.
APA, Harvard, Vancouver, ISO, and other styles
44

Rouabhi, Ahmed. "Comportement et fragmentation dynamique des matériaux quasi-fragiles." Phd thesis, École Nationale Supérieure des Mines de Paris, 2004. http://pastel.archives-ouvertes.fr/pastel-00001084.

Full text
Abstract:
Le but de cette thèse est de trouver une méthodologie numérique pour simuler le comportement et la fragmentation des matériaux quasi-fragiles, tels que les roches et le béton, sous sollicitations dynamiques. Une telle méthodologie aidera à une meilleure compréhension des mécanismes de fragmentation des roches à l'explosif et, par conséquent, contribuera dans l'optimisation des performances du tir à l'explosif. Dans cette étude, on considère que le processus de fragmentation est une extension naturelle de celui de la rupture. Afin de décrire ce dernier processus, un modèle de comportement phénoménologique adapté aux matériaux considérés est développé et implémenté dans un code de calcul par éléments finis. Quant à la fragmentation dynamique, elle est traitée par une analyse en post-traitement basée sur l'historique de l'état thermodynamique du matériau. Pour reproduire le comportement macroscopique des matériaux quasi-fragiles incluant l'anisotropie induite par le chargement, la méthode des variables internes basée sur la thermodynamique des milieux continus est employée. Une variable interne de type scalaire est introduite pour modéliser, au niveau macroscopique, l'adoucissement du matériau suite à des chargements de compression. Sous des chargements de traction, un tenseur symétrique du second ordre est utilisé pour décrire l'endommagement anisotrope induit. Sous des chargements complexes, ces deux modèles sont couplés et l'effet de fermeture-réouverture des fissures est également traité. L'intégration du modèle développé dans le code éléments finis VIPLEF3D a conduit à l'élaboration d'une méthode de relaxation caractérisée par une actualisation explicite des variables d'état. Concernant la fragmentation dynamique, à partir d'essais de fragmentation au laboratoire, une formulation générale permettant de prédire la distribution des fragments est fournie. Dans cette formulation une taille moyenne de fragments est liée à une grandeur mécanique, supposée être l'origine du processus de fragmentation, par une fonction intrinsèque qui peut être identifiée en utilisant des essais adéquats de fragmentation. Cette grandeur mécanique est donnée par la résolution du problème aux limites où le modèle rhéologique est utilisé. Enfin, l'approche complète est alors appliquée à la modélisation des essais de rupture et de fragmentation en chambre, d'échantillons cylindriques de roches.
APA, Harvard, Vancouver, ISO, and other styles
45

Jaune, Renaud. "Le droit et la régulation des prix de transfert." Thesis, Paris 1, 2018. http://www.theses.fr/2018PA01D076/document.

Full text
Abstract:
La présente thèse de doctorat porte sur la fiscalité des prix de transfert. Dans un contexte mondial propice à la remise en cause des législations et des pratiques fiscales, elle traite de la question des instruments de régulation appropriés et du rôle du droit dans un tel édifice. En effet, nombre d'observateurs imputent les désordres majeurs de la régulation des prix de transfert à l'imprécision des règles qui la sous-tendent et à l'absence d'autorité mondiale contre la concurrence fiscale dommageable. En réponse, nous supposons que le principe de pleine concurrence ne se limite pas à la définition usuelle qui en est donnée. Nous montrons qu'il peut être considéré comme élément d'une norme universelle destinée à neutraliser les effets des particularismes fiscaux sur les échanges économiques internationaux. Une telle hypothèse fournit le critère d'évaluation des législations nationales et de a pertinence des politiques de prix de transfert des groupes. Nous analysons ensuite la législation et la jurisprudence française, et montrons qu'une transposition réelle du principe de pleine concurrence ne peut se résumer à copier l'article 9 § 1 des conventions modèles, mis suppose d'en traduire le contenu et l'esprit en instaurant les conditions d'une coopération réelle entre les acteurs. Nous exposons également la dialectique entre les lacunes de la régulation des prix de transfert et les tendances normatives à l'œuvre dans le monde entier, qui malgré leur hétérogénéité sont parfois présentées en réponse à la question des prix de transfert Nous fournissons une grille de lecture du plan BEPS et du développement des limitations légales imposées par les Etats ainsi que des obligations de conformité fiscale (compliance). Enfin, nous montrons que la reconstruction d'une régulation des prix de transfert en référence à la nonne universelle donnerait l'occasion d'instaurer un véritable partenariat entre l'Etat et les parties prenantes, ouvrant la voie vers une nouvelle manière de discuter la loi
This doctoral thesis deals with the tax aspects of transfer pricing. ln the context of a globalized economy where the transfer pricing policies and legislations are at stake, it raises the question whether proper instruments of regulation can be set, and if the law is the adequate tool to that end.Indeed, numerous people consider that the major disorders in the regulation of transfer pricing stem from the Arm's Length Principle itself, due to its lack of economic precision and the absence of a global authority against harmful tax competition.To address the issue, we assume that there is more to the Ann's Length Principle than its common definition. Indeed, we show that it can be considered as part of a universal law aimed at neutralizing the effects of the tax differences in the international economic exchange. Such an assumption provides for a criterium to assess the quality of national legislations as well as the relevance of the groups' transfer pricing policies.By analyzing the French legislation and case law, we show that a thorough implementation of the Ann's Length Principle implies not only to copy article 9 § 1 the convention models, but more generally to capture its content and essence by setting the conditions for a proper cooperation between actors. We also explain the relationship between the lacks in the regulation of transfer pricing and the process of setting new rules that takes place around the world, describing the rationale of the BEPS plan and of the various limitations and compliance obligations that Governments impose to the taxpayers. Lastly, we show that building a national legislation with reference to the universal Ann's Length Principle implies a true partnership between the Government and all stakeholders, paving the way to a new manner of debating the law
APA, Harvard, Vancouver, ISO, and other styles
46

Ashraf, Muhammad. "Catégorisation de graphiques par les enseignants et les élèves." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENH018/document.

Full text
Abstract:
Les graphiques ont pris de plus en plus d'importance dans le matériel pédagogique, les manuels scolaires ou encore les programmes informatiques. Malgré la coexistence de différents types de graphiques ou de genres graphiques, jusqu'à maintenant, les recherches sur l'apprentissage ont seulement pris en compte la distinction entre le texte et l'image. Cette thèse vise à éclaircir ce qui, dans la recherche sur l'apprentissage, semble être une catégorie globale et indivisible : les représentations visuelles. Nous nous sommes concentrées sur ce que pensent des enseignants et des étudiants de Master concernant différents types de représentations visuelles et leurs fonctions présumées dans l'enseignement et l'apprentissage. A l'heure actuelle, la recherche sur les graphiques est principalement axée sur la compréhension des élèves. Il existe très peu de recherches sur la compréhension des graphiques par les enseignants. En outre, la dimension de la formation des enseignants aux graphiques est, elle aussi, relativement ignorée. La thèse se présente en deux parties : une recherche théorique suivie d'une recherche empirique. La première partie du travail examine la littérature relative aux représentations graphiques dans l'histoire, dans les programmes scolaires à travers le monde ainsi que leur utilisation dans l'enseignement et l'apprentissage. Elle expose également les classifications des différents types de graphiques. La seconde partie de la thèse prend appui sur trois enquêtes menées auprès d'enseignants en activité et d'étudiants de Master en formation. La première investigue la compréhension des graphiques d'enseignants en activité en France et au Pakistan. Les deux autres ont été conduites auprès de futurs enseignants, en utilisant la méthode du tri de carte, afin d'identifier leurs compétences relatives à la catégorisation des différents types de graphiques.En conclusion, il semble que les programmes de formation des enseignants manquent d'un enseignement à la compréhension graphique. Même en géographie, pourtant considérée comme la discipline des graphiques et de leur enseignement, nous constatons que les enseignants sont peu familiers avec de nombreux genres graphiques. Dans l'ensemble, les graphiques génériques (camemberts, histogrammes, cartes et tableaux, etc.) ont été facilement identifiés par les enseignants alors que la classification des graphiques hybrides s'est révélée plus difficile pour la plupart d'entre eux
Visualizations have gained more importance in pedagogical material, in text books and in computer programs. Despite the co-existence of many different types of visualizations or graphical genres, learning research only has taken into account the distinction between text and pictures. This thesis aims at unpacking what, at least in learning research, seems to be one single holistic indivisible category of visualizations. We focused on teachers' and Masters students' thoughts on the existence of different types of visualizations and their presumed function in teaching and learning. Research on graphical representations is mainly focused on students' comprehension of graphical representations. However, there is very little research in extend of teachers' comprehension of graphical representations. In addition, the aspect of teacher training of graphical representations is also relatively ignored. There are two main parts in this thesis: theoretical and empirical. In theoretical part, we presented the literature on the existence of graphical representations in worldwide curricula. Remarkable works of cartographers who played important rule for the advancement of graphic representations in context of teaching and learning. And finally, classification of different genres of graphical representations was also exhibited. Empirical part on the other hand, based on three studies conducted with in-service teachers and Masters students' about their comprehension of graphical genres. First study was conducted with in-service teachers from France and Pakistan to investigate their basic understanding of graphical representations. Second and third study explores the Masters' students' categorization of graphical representations. In conclusion, it seems that the teacher training programs lack the training of graphic comprehension. Even in the domain of geography which is considered the major domain about graphics and graphic education, teachers were observed unfamiliar with many graphic genres. Overall, Generic graphical representations (i.e. line graph, pie charts, bar charts, maps and tables etc.) were identified more comfortably. However, classification of hybrid graphical representations (i.e. combination of map and bar graph or other hybrid graphics) was slightly difficult for the participants
APA, Harvard, Vancouver, ISO, and other styles
47

Daoud, Bilel. "Contribution au controle optimal du problème circulaire restreint des trois corps." Phd thesis, Université de Bourgogne, 2011. http://tel.archives-ouvertes.fr/tel-00696163.

Full text
Abstract:
Le contexte de ce travail est la mécanique spatiale. Plus précisément, on se propose de réaliser des transferts 'a faible poussée dans le système Terre- Lune modélise par le problème des trois corps restreint circulaire. Le but est de calculer la commande optimale de l'engin spatial pour deux critères d'optimisation: temps de transfert minimal et consommation de carburant minimale. Les contributions de cette thèse sont de deux ordres. Géométrique, tout d'abord, puisqu'on étudie la contrôlabilité du système ainsi que la géométrie des transferts (structure de la commande) à l'aide d'outils de contrôle géométrique. Numérique, ensuite, différentes méthodes homotopiques sont développées. En effet, une continuation deux-trois corps est considérée pour calculer des trajectoires temps minimales et puis une continuation sur la poussée maximale de l'engin pour atteindre des poussées faibles. Le problème de consommation minimale -- minimisation de la norme L1 du contrôle -- est connecté par une continuation différentielle au problème de minimisation de la norme L2 du contrôle. Les solutions trouvées sont comparées à celles calculées 'a l'aide d'une p pénalisation par barrière logarithmique. Ces méthodes sont ensuite appliquées pour la mission SMART-1 de l'Agence Européenne Spatiale.
APA, Harvard, Vancouver, ISO, and other styles
48

Bai, Lijie. "Ordonnancement des trains dans une gare complexe et à forte densité de circulation." Thesis, Ecole centrale de Lille, 2015. http://www.theses.fr/2015ECLI0017/document.

Full text
Abstract:
Cette thèse porte sur l'ordonnancement des trains dans les gares complexes en forte densité de circulation. L'objet se situe à la réalisation d'un outil pour aider les managers de la gare à générer un tableau des horaires sans-conflits dans un journée. Le management des circulations ferroviaires dans la gare demande l'ordonnancement soigneux pour adapter les ressources limités, en évitant les conflits entre les trains et satisfaisant l'objectif et les politiques économiques et de la sécurité en même temps. D'après les méthodes appliquées en recherche opérationnelle et les expériences professionnelles, une modèle mathématique applicable aux gares différentes est construit pour formaliser le problème de l'ordonnancement des trains contenant la topologie de la gare, activités des trains, contraintes de planification et objectives. Comme un problème à grande échelle, l'ordonnancement des trains dans un journée est décomposé en sous-problèmes traitables dans l'ordre du temps par sliding window algorithme accumulé. Chaque sous-problème est résolu par branch-and-bound de CPLEX. Afin d'accélérer le calcul des sous-problèmes, tri-level optimisation méthode est construit pour offrir une solution optimale locale dans un temps de calcul assez court. Cette solution est donnée à branch-and-bound comme une solution initiale.Ce système consiste à vérifier la faisabilité des horaires donnés à la gare. Les trains avec les conflits insolvables sont retournés à l'origine de ces trains avec les modifications des heures proposées. Déviations des trains commerciaux sont minimisées pour diminuer la propagation du délai dans le réseau ferroviaire
This thesis focuses on the trains platforming problem within busy and complex railway stations and aims to develop a computerized dispatching support tool for railway station dispatchers to generate a full-day conflict-free timetable. The management of rail traffic in stations requires careful scheduling to fit to the existing infrastructure, while avoiding conflicts between large numbers of trains and satisfying safety or business policy and objectives. Based on operations research techniques and professional railway expertise, we design a generalized mathematical model to formalize the trains platforming problem including topology of railway station, trains' activities, dispatching constraints and objectives. As a large-scale problem, full-day platforming problem is decomposed into tractable sub-problems in time order by cumulative sliding window algorithm. Each sub-problem is solved by branch-and-bound algorithm implemented in CPLEX. To accelerate calculation process of sub-problems, tri-level optimization model is designed to provide a local optimal solution in a rather short time. This local optimum is provided to branch-and bound algorithm as an initial solution.This system is able to verify the feasibility of tentative timetable given to railway station. Trains with unsolvable conflicts will return to their original activity managers with suggestions for the modification of arrival and departure times. Time deviations of commercial trains' activities are minimized to reduce the delay propagation within the whole railway networks
APA, Harvard, Vancouver, ISO, and other styles
49

Merabtine, Abdelatif. "Modélisation Bond Graphs en vue de l'Efficacité Énergétique du Bâtiment." Thesis, Université de Lorraine, 2012. http://www.theses.fr/2012LORR0121/document.

Full text
Abstract:
L'objectif des travaux présentés dans ce mémoire concerne le développement d'un modèle global représentant le couplage de l'enveloppe du bâtiment avec les équipements énergétiques. Une approche systémique appelée les Bond Graphs, peu employée jusqu'ici dans la modélisation des systèmes thermiques, est utilisée. Le modèle global du bâtiment, regroupant sous le même environnement de simulation, les modèles de l'enveloppe du bâtiment, les apports solaires, les émetteurs de chauffage et de rafraîchissement et le système de ventilation, est développé pour reconstituer l'ensemble des articulations énergétiques entre l'enveloppe et les environnements intérieur et extérieur. A travers la modélisation d'un bâtiment multizone, le couplage systémique des modèles de l'enveloppe et des apports solaires est présenté. Par ailleurs, un système combinant un plancher chauffant et un plafond rafraîchissant est étudié à l'aide des modèles des émetteurs de chauffage et de rafraîchissement. Le renouvèlement d'air dans le bâtiment est également concerné par la modélisation Bond Graph. Enfin, des éléments de validation expérimentale sont présentés. Pour cela, la plateforme de tri-génération d'énergie ENERBAT est exploitée. L'objectif est d'étudier le couplage optimal enveloppe du bâtiment - équipements énergétiques pour lequel les modèles BG sont développés. Une étude paramétrique tenant compte des interactions entre les paramètres étudiés est menée sur un projet réel de rénovation. Finalement, une combinaison appropriée des paramètres étudiés a été retenue afin de réduire la consommation énergétique selon la réglementation thermique française (RT2012)
Our works focus on the setting of reliable tools able to analyze the interaction between the building envelope and HVAC systems. The developed approach is based on Bond Graphs methodology, a graphical modeling language which is particularly suitable for energy exchanges. A numerical model gathering, under the same simulation environment, sub-models representing the building envelope, the solar gains, the floor heating, the chilled ceiling and the ventilation system, is developed in order to predict the energy interactions between these sub-systems. The multi-zone building model is developed in order to simulate and analyze the overall building thermal behavior. Then, the solar gains model is also included to predict the solar radiation exchanges in a way close to reality. The model of the heating and cooling system, combining the floor heating and the chilled ceiling, is developed in order to improve the thermal comfort of the building. Afterwards, the ventilation system is modeled in order to represent the air exchange inside the building. The experimental validation is carried out on the tri-generation unit integrated with a thermal solar system (platform ENERBAT). Furthermore, the parametrical study was realized in order to gain a better understanding according to the impact of some factors in the energy performance of the single-family building located in Meurthe-et-Moselle region (France). Optimization of several measures, such as insulation of the building envelope, type of glazing, building orientation and ventilation system, is performed to respond to the requirements of the French thermal standard (RT2012)
APA, Harvard, Vancouver, ISO, and other styles
50

Bonalli, Riccardo. "Optimal control of aerospace systems with control-state constraints and delays." Thesis, Sorbonne université, 2018. http://www.theses.fr/2018SORUS388.

Full text
Abstract:
Dans ce travail, on s'est concentré sur le guidage optimal en temps réel de véhicules lanceurs, avec comme objectif, de développer un algorithme autonome pour la prédiction de stratégies de contrôle optimal, basé sur les méthodes indirectes, et capable de s'adapter à tout changement imprévu de scenario. Pour cela, tout d'abord nous fournissons une analyse géométrique précise dans le cas de contraintes mixtes, pour obtenir un cadre bien posé, et donc, appliquer correctement les méthodes indirectes. L'intégration numérique du problème est proposée par une combinaison efficace des méthodes indirectes avec des procédures d'homotopie, en améliorant, ainsi, à la fois robustesse et vitesse de calcul. De plus, nous améliorons le modèle dynamique en considérant des retards. Plus précisément, nous introduisons un cadre rigoureux d'homotopie pour résoudre des problèmes de contrôle optimal avec retards, à l'aide des méthodes indirectes. Nos contributions ont rendu possible le développement d'un logiciel automatique, indépendant et auto-régulé, propriété de l'ONERA, pour des applications réalistes dans le cadre de véhicules lanceurs, focalisé, en particulier, sur des scenarii d'interception optimale
In this work, we address the real-time optimal guidance of launch vehicles with the objective of designing an autonomous algorithm for the prediction of optimal control strategies, based on indirect methods, able to adapt itself to unpredicted changes of the original scenario. To this aim, we first provide an accurate geometric analysis in the presence of mixed control-state constraints to recover a well-posed framework and correctly apply indirect methods. A practical numerical integration of the problem is proposed by efficiently combining indirect methods with homotopy procedures, increasing robustness and computational speed. Moreover, we improve dynamical models by considering delays. More specifically, we introduce a rigorous and well-posed homotopy framework to recover solutions for optimal control problems with delays via indirect methods. All our contributions made possible the development of a fully automatic, independent and self-regulating software, today property of ONERA-The French Aerospace Lab, for general realistic endo-atmospheric launch vehicle applications focused on optimal missile interception scenarios
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography