Dissertations / Theses on the topic 'Evaluation et Optimisation'

To see the other types of publications on this topic, follow the link: Evaluation et Optimisation.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Evaluation et Optimisation.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Malik, Salman. "Evaluation et Optimisation des Réseaux Sans Fil Denses." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2012. http://tel.archives-ouvertes.fr/tel-00719083.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif principal de cette thèse est d'analyser la performance des réseaux sans fil selon divers scénarios: réseaux fixes, réseaux mobiles, réseaux mono-saut, et réseaux multi-sauts. Dans les deux premières parties de cette thèse, nous nous focalisons sur le placement géométrique des émetteurs simultanés dans le réseau. Dans la première partie, par l'intermédiaire d'une méthode d'accès au médium, nous étudions l'impact de l'emplacement des émetteurs sur la performance du réseau sans fil mono-saut. Nous établissons une structure générale et nous étudions l'emplacement des émetteurs dans le réseau. Ensuite, on compare ces résultats aux résultats obtenus à l'aide d'un par processus ponctuels aléatoires tels que le processus ponctuel de Poisson, ALOHA, le coloriage des nœuds et CSMA. Notre analyse nous permet d'évaluer les gains en performance d'une méthode d'accès au médium efficace qui serait nécessaire pour mettre en œuvre le déploiement optimal des émetteurs. Par exemple, nous montrons que la capacité garantie par une méthode d'accès très complexe est au plus deux fois la capacité d'un contrôle d'accès avec une faible complexité comme ALOHA. Plus tard, nous utilisons des méthodes analytiques pour évaluer les heuristiques pour l'optimisation de la capacité et de la couverture d'un réseau cellulaire existant de façon optimale via l'ajout de stations de base supplémentaires. Dans la deuxième partie, nous étendons notre analyse à un réseau sans fil multi-sauts où nous évaluons la portée de transmission optimale et la capacité du réseau avec différentes méthodes d'accès au médium. Nos analyses dans les deux premières parties de cette thèse nous permettent d'avoir des perspectives par rapport aux limites théoriques de la performance d'une méthode optimisée d'accès au médium pour les réseaux sans fil mono-saut et multi-sauts. Dans la dernière partie, nous concentrons nos efforts sur l'étude du compromi entre les délais et la capacité dans le réseau mobile sans fil. Nous proposons un routage géographique et nous étudions ses propriétés de passage l'échelle. En se basant sur un modèle de mobilité réaliste et des informations disponibles au niveau des nœuds mobiles, notre méthode de routage permet d'obtenir des délais qui sont bornés par une constante lorsque la capacité du réseau augmente de façon quasi-linéaire et quand le nombre de nœuds dans le réseau augmente et tend vers l'infini.
2

Leclerc, Xavier. "Evaluation et optimisation de stratégies de correction génique." Thesis, Evry-Val d'Essonne, 2008. http://www.theses.fr/2008EVRY0029/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Une alternative attrayante à l’approche traditionnelle de la thérapie génique par addition de gène, ou thérapie par les gènes, consiste à corriger in situ le gène muté. Cette approche par thérapie du gène, ou correction génique, offre potentiellement de nombreux avantages comparée à la thérapie génique traditionnelle. Malheureusement, bien que nombreux agents correcteurs soient disponibles aujourd’hui, tels que des oligodéoxynucléotides simple-brins, des grands fragments d’ADN simple- et double-brins ainsi que des vecteurs rAAV, peu d’informations sont disponibles quant aux efficacités relatives de ces différentes approches sur un même système modèle. Nos travaux ont consisté tout d’abord à évaluer les efficacités de correction génique de ces approches. Puis, nous avons montré que le prétraitement des cellules par des agents causant des dommages à l’ADN permet d’augmenter l’efficacité de correction génique de ces approches
Current strategies for gene therapy of inherited diseases consist in adding functional copies of the gene that is defective. Yet, an attractive alternative would be to correct the mutated gene that already exists in the affected individual. While many gene correction agents were described for their ability to correct mutations, no direct comparison of the repair efficiency has ever been made. Here, we present a side by side quantitative comparison of the correction efficiency of different forms of donor nucleic acids, including synthetic DNA oligodeoxynucleotides, large DNA fragments and sequences carried by a recombinant adeno-associated virus. Also, we show that a pretreatment of cells with doxorubicin (a topoisomerase II inhibitor) or with phleomycin (a glycopeptide antibiotic), both substances known to induce DNA damages, can increase the correction efficiency of the different repair tools
3

Leclerc, Xavier Kichler Antoine. "Evaluation et optimisation de stratégies de correction génique." S. l. : S. n, 2008. http://www.biblio.univ-evry.fr/theses/2008/2008EVRY0029.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
4

Mambo, Shadrack. "Optimisation et évaluation des performance en traitement d'image." Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC1125/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Résumé : Thèse de DoctoratL’importance de l’imagerie médicale comme élément principal dans plusieurs application médicales et diagnostiques de soin de santé est indispensable. L’intégration des données utiles obtenues des diverses images est vitale pour une analyse appropriée de l’information contenues dans ces images sous observation. Pour que ce processus d’intégration réussisse, une procédure appelée recalage d’image est nécessaire.Le but du recalage d’image consiste à aligner deux images afin de trouver une transformation géométrique qui place une des deux images dans la meilleure correspondance spatiale possible avec l’autre image en optimisant un critère de recalage. Les deux images sont dites image cible et image source. Les méthodes de recalage d’image consistent à avoir référencées par des points de contrôle. Ceci est suivi d’une transformation de recalage qui associe les deux images et d’une fonction définie sur base de la mesure de similarité qui a pour but de mesurer la valeur qualitative de proximité ou encore de degré de concordance entre l’image cible et l’image source. Enfin, un optimisateur qui cherche à trouver la transformation optimale au sein du champ de solution de la recherche, est appliqué.Cette recherche présente un algorithme automatique de recalage d’image dont le but est de résoudre le problème du recalage d’image à multiple modes sur une paire des clichés de tomographie par ordinateur (CT) faite sur les poumons. Dans cette méthode, une étude comparative entre la méthode classique d’optimisation par algorithme du gradient à pas fixe et celle de l’algorithme évolutionniste est menée. L’objectif de cette recherche est d’effectuer l’optimisation par des techniques de recalage d’image ainsi qu’évaluer la performance de ces mêmes techniques afin de doter les spécialistes du domaine médical d’une estimation de combien précis et robuste le processus de recalage serait. Les paires des clichés obtenues de la tomographie par ordinateur faite sur les poumons sont recalées en utilisant l’information mutuelle comme mesure de similarité, la transformation affine ainsi que l’interpolation linéaire. Un optimisateur qui recherche la transformation optimale au sein de l’espace de recherche est appliqué afin de minimiser la fonction économique (fonction objectif).Les études de détermination d’un modèle de transformation qui dépend des paramètres de transformation et de l’identification des mesures de similarité basée sur l’intensité du voxel ont été menées. En alignant la transformation avec les points de control, trois modèles de transformation sont comparés. La transformation affine produit la meilleure reconstitution d’image en comparaison aux transformations non réfléchissantes et projectives. Les résultats de cette recherche sont assez comparables à celles rapportées dans le challenge de recherche EMPIRE 10 et sont conformes à la fois aux principes théoriques aussi bien qu’aux applications pratiques.La contribution de cette recherche réside dans son potentiel à améliorer la compréhension scientifique du recalage d’image des organes anatomiques du corps humain. Cette recherche établie ainsi une base pour une recherche avancée sur l’évaluation de la performance des techniques de recalage et la validation des procédures sur d’autres types d’algorithmes et domaines d’application du recalage d’images comme la détection, la communication par satellite, l’ingénierie biomédicale, la robotique, les systèmes d'information géographique (SIG) et de localisation parmi tant d’autres
D’Tech Thesis SummaryThe importance of medical imaging as a core component of several medical application and healthcare diagnosis cannot be over emphasised. Integration of useful data acquired from different images is vital for proper analysis of information contained in the images under observation. For the integration process to be successful, a procedure referred to as image registration is necessary.The purpose of image registration is to align two images in order to find a geometric transformation that brings one image into the best possible spatial correspondence with another image by optimising a registration criterion. The two images are known as the target image and the source image. Image registration methods consist of having the two images referenced with control points. This is followed by a registration transformation that relates the two images and a similarity metric function that aims to measure the qualitative value of closeness or degree of fitness between the target image and the source image. Finally, an optimiser which seeks an optimal transformation inside the defined solution search space is performed.This research presents an automated image registration algorithm for solving multimodal image registration on lung Computer Tomography (CT) scan pairs, where a comparison between regular step gradient descent optimisation technique and evolutionary optimisation was investigated. The aim of this research is to carry out optimisation and performance evaluation of image registration techniques in order to provide medical specialists with estimation on how accurate and robust the registration process is. Lung CT scan pairs are registered using mutual information as a similarity measure, affine transformation and linear interpolation. In order to minimise the cost function, an optimiser, which seeks the optimal transformation inside the defined search space is applied.Determination of a transformation model that depends on transformation parameters and identification of similarity metric based on voxel intensity were carried out. By fitting transformation to control points, three transformation models were compared. Affine transformation produced the best recovered image when compared to non-reflective similarity and projective transformations. The results of this research compares well with documented results from EMPIRE 10 Challenge research and conforms to both theoretical principles as well as practical applications.The contribution of this research is its potential to increase the scientific understanding of image registration of anatomical body organs. It lays a basis for further research in performance evaluation of registration techniques and validation of procedures to other types of algorithms and image registration application areas, such as remote sensing, satellite communication, biomedical engineering, robotics, geographical information systems and mapping, among others
5

Léger, Crémoux Séverine. "Evaluation et optimisation de chemins combinatoires de circuits VLSI." Montpellier 2, 1998. http://www.theses.fr/1998MON20129.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette these nous avons developpe une nouvelle technique incrementale de classification de chemins pour traiter du probleme de la selection et de l'optimisation de chemins. Cette technique permet l'enumeration du chemin de plus long (court) delai par ordre decroissant (croissant). Elle travaille sur un nombre limite de chemins, ce nombre est precise par l'utilisateur, ce qui facilite l'application de differents criteres de sensibilisation et d'optimisation. Le critere de sensibilisation permet de distinguer un vrai chemin d'un faux. Les conditions de la sensibilisation statique sont obtenues en cherchant le vecteur d'entree capable d'activer le chemin correspondant. Le chemin critique est le chemin le plus long sensibilisable du circuit, sur lequel nous appliquons differents criteres d'optimisation. Pour cela, nous utilisons un algorithme de redimensionnement pour satisfaire les contraintes de delai (puissance). Cet algorithme redimensionne les portes appartenant au chemin classe a l'aide de la technique incrementale. Le critere de selection pour le redimensionnement est defini grace au facteur de charge, evalue pour chaque porte et valide comme etant une metrique robuste. Ce parametre associe aux valeurs de capacite de charge active, de diffusion et de routage, permet d'estimer les rapports de charge d'une porte. Les resultats obtenus ont permis de definir des profils de distribution du delai facilitant la gestion du compromis de l'optimisation vitesse-puissance. Les phases d'evaluation et d'optimisation sont implementees dans l'outil pops (performance optimization by path selection). La validation est faite par comparaison aux outils industriels de la famille epic et a la reference hspice.
6

Roche, Gilles. "L'angiographie dynamique des membres inferieurs : evaluation, optimisation et protocoles." Rennes 1, 1992. http://www.theses.fr/1992REN1M036.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Lioris, Eugénie. "Evaluation et optimisation de systèmes de taxis collectifs en simulation." Marne-la-Vallée, ENPC, 2010. http://www.theses.fr/2010ENPC1009.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le développement économique d’une région urbaine est étroitement lié `a son accessibilité. Le rôle des taxis comme moyen de transport est reconnu mondialement comme le mode offrant la meilleure qualité de service à ses usagers dans des conditions normales ou d’urgence. Malheureusement c’est un moyen très coûteux qui ne peut pas être utilisé quotidiennement par toute la population. Pour abaisser les coûts, il faudrait faire partager le service par plusieurs utilisateurs tout en préservant ses qualités essentielles (trajet presque direct, service porte à porte) en accroissant en même temps la productivité de ces véhicules devenus “collectifs”. Cette idée n’est pas nouvelle : P. H. Fargier et G. Cohen l’avaient déjà étudiée en 1971, même si elle peut encore aujourd’hui être considérée comme révolutionnaire et un peu prématurée pour un marché strictement réglementé. Avec une révision de la réglementation, cette extension du service des taxis, si on lui donnait l’opportunité de se mettre en place, pourrait permettre aux taxis de prendre leur part du transport public en s’adressant à la majorité de la population et pas seulement à une minorité de privilégiés pouvant assumer le prix d’un transfert individuel. Le chapitre I de ce mémoire présente une revue des “transports `a la demande” dans le monde, des modèles développés à ce sujet, et des algorithmes en rapport avec ces problèmes. Il développe ensuite le projet de “taxis collectifs” ́etudié dans ce travail et se termine par un aperçu de l’ensemble du mémoire. Le chapitre II évoque les différents problèmes et questions qu’il faut aborder pour l’étude d’un système de taxis collectifs en ville, argumente sur la nécessité de construire un simulateur, décrit globalement sa structure avec une partie “mécanique” et une partie “algorithmique”, les choix informatiques, les différents modes d’exploitation de ce simulateur, les données d’entrée requises et les sorties brutes. Le chapitre III développe la gestion décentralisée correspondant à un système qui fonctionne sans réservation préalable auprès d’un dispatching central : les clients rencontrent les taxis directement au bord du trottoir. Ce chapitre décrit en détail le modèle de “simulation par événements” adapté à ce mode de gestion, puis les problèmes de décision qui concernent la gestion d’un tel système et les algorithmes utilisés pour résoudre ces problèmes. Le chapitre IV rend compte d’une longue campagne de simulations numériques sur un cas d’étude fictif mais réaliste. Il illustre d’abord comment une simulation peut être analysée en détail et il montre les nombreuses sorties qui peuvent être produites à partir des sorties brutes du simulateur pour évaluer la qualité de service offerte et les coûts de fonctionnement associés. Il se tourne ensuite vers l’exploitation de séries de simulations où on fait varier certains paramètres relatifs à la gestion temps réel et au dimensionnement du système afin de réaliser les meilleurs compromis possibles entre plusieurs critères contradictoires. A l’aide de cette démarche, il montre aussi l’influence sur les résultats de données exogènes comme la demande (intensité et géométrie). Le chapitre V traite de la gestion à partir d’un dispatching central, les clients appelant ce dispatching pour réserver un trajet. La gestion mixte est la superposition dans un même système des deux modes de gestion, centralisée et décentralisée. Le simulateur existant est réputé capable, pour sa partie “mécanique” qui gère et enchaîne les événements, de s’accommoder de tous les modes de gestion. Par contre, nous avons manqué de temps pour travailler suffisamment sur la partie algorithmique (la gestion temps réel du cas centralisé est bien plus difficile que le cas décentralisé) et il n’y a donc pas non plus d’expériences numériques relatives à cette situation. Le chapitre se contente donc de décrire le modèle par événements pour les gestions centralisée et mixte et évoque la question algorithmique jusqu’à un certain point. Le chapitre VI présente quelques conclusions de ce travail
The economical development of an urban region depends greatly on ease of access. The taxiis recognised throughout the world as a convenient means of transport providing a high qualitypersonal service for both normal and emergency purposes. Despite the advantages however,the taxi is also too expensive for most people to use routinely for their daily transport. If ataxi and hence the expense could be shared between passengers, there would be the potentialto preserve almost the original standard of service whilst increasing vehicle productivity bybecoming “collective”. This is not a new concept, it was studied in 1971 by P. H. Fargier andG. Cohen who suggested and studied such a system. Despite this, even today it may be regardedas a somewhat premature and revolutionary idea for a strictly regulated market. Reviewing theform of operation applied to this mode of transport could allow a collective taxi system to forman acceptable part of the public transport system by offering this service to the majority of thepopulation without being limited to the privileged on the basis of cost. Chapter Iof this document presents a review of existing “Transport on Demand” systemsat various locations in the world, describing the various models developed on this subject aswell as the corresponding algorithms treating the problems encountered. This is followed by anintroduction into the project of “Collective Taxis” studied in this work, and finally we give anoverview of the rest of this document. Chapter IIbrings up the multiple problems and questions that have to be dealt with duringthe study of a collective taxi system covering an entire urban area. At this point, the need toconstruct a simulator is justified and its architecture is explained : its design is comprised ofseparate mechanical and decision-making components connected to each other. The technicalchoices concerning the chosen programming language and software are discussed together withthe different exploitation modes of the simulator, the input data and the information producedby the simulation runs. Chapter IIIprovides an insight into the decentralised approach consisting of a system basedentirely on casual business obtained from clients at the roadside with no facility for advancedbooking available. This chapter extensively describes the modelling of a discrete event simulatorspecifically constructed for this management approach followed by the decision making issuesconcerning this approach and the algorithms developed to provide solutions and allow optimisedcontrol of the systemChapter IVis a thorough debrief of a long campaign of numerical simulations covering afictitious but realistic example. The principal idea of this study is to provide a firm method-ology from which one should be able to evaluate the applied strategy and measure the systemperformance. Initially, methods of analysing a single simulation are being illustrated whilst showing thevarious outcomes and conclusions that can be produced by dealing with the simulation results. Thus the quality of service provided by the given policy can be judged and quantified as well asthe associated functioning costs. Further on, a series of simulations, where the value of multiple parameters vary, are beingexplored with the aim of realising all possible compromises between contradictory criteria foroptimising real-time management and system dimensioning. This process also points out the influence of the exogenous data like the demand (geometry and intensity) to the performance ofthe system. Chapter Vhandles system management from the central dispatching point of view, whereprospective clients call a control centre to make a pre-booking (this is called the centralised modeof operation). A mixed mode can also be considered by superimposing the centralised mode ontothe decentralised one. The mechanical part of the present simulator, which is responsible for processing the systemevents, is designed to enable the management of the three possible approaches (decentralised,centralised and mixed). Nevertheless the decisional part of the mixed and centralised modes hasnot been completely developed because of the lack of time (the real time management of thecentralised approach is much more complex than the decentralised one). Consequently numerical results are not presented concerning the centralised and mixedmodes. For the moment, this chapter is making do with the description of the model and eventsof the centralised and mixed scenarios, evoking the algorithmic part up to a certain point. Chapter VIdevelops some conclusions regarding this work and future possible developments
8

Li, Jie Xie Xiaolan. "Evaluation et optimisation des performances des systèmes de production distribution." [S.l.] : [s.n.], 2006. ftp://ftp.scd.univ-metz.fr/pub/Theses/2006/Li.Jie.SMZ0610.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Le, Menn Frédéric. "Evaluation et optimisation de la locomotion de systèmes mobiles reconfigurables." Paris 6, 2007. http://www.theses.fr/2007PA066347.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse traite de l'évaluation et de l'optimisation de la locomotion de systèmes mobiles reconfigurables. Elle développe les aspects multimodaux pour des systèmes multipodaux. Un système robotique mobile doit être capable de se déplacer dans tous types d'environnements et sur tous types de terrains. Une des principales difficultés de la locomotion réside dans l'évitement ou du franchissement d'obstacles que le système peut rencontrer : monticules, cavités, pentes, marches, bâtiments effondrés,. . . Cette thèse introduit un nouveau système mobile utilisant ses mobilités internes pour réaliser le franchissement d'obstacles. Ce système est composé d'un assemblage de monocycles à roues activement articulés. Sa topologie reconfigurable permet une adaptation maximale au relief du terrain ainsi que plusieurs modes de locomotion lui permettant d'évoluer dans des environnements difficiles. Une étude quantitative basée sur la consommation énergétique moyenne d'un module permet de classifier ces modes en fonction de leurs performances face à divers obstacles. Une méthode basée sur le découplage des équations de la dynamique est mise en œuvre pour optimiser les mouvements lors de scénarios de locomotion. Elle permet de générer des couples quasi-optimaux pour franchir des obstacles durant les phases de locomotion. Une plateforme mobile autonome appelée RobuROC6, issue du projet MiniROC, est traitée comme exemple d'application. RobuROC6 est composé de trois monocycles à roues, passivement articulés. Une méthode de modélisation de systèmes multipodaux basée sur la théorie des vissages de mécanismes asymétriques, parallèles et contraints est proposée. Elle permet d'étudier et d'évaluer cinématiquement la manipulabilité du robot au cours du franchissement d'une marche. Du point de vue dynamique, une étude est menée sur la manœuvrabilité dans le plan horizontal de la plateforme mobile. Ses trajectoires sont simulées pour des évolutions sur des pentes avec des inclinaisons diverses ainsi que sur différents types de sol, pour un taux de glissement longitudinal fixé. Un ralliement de cible est ensuite expérimenté avec un taux de glissement variable durant la simulation, afin d'observer son influence tout au long de la trajectoire.
10

Aline, Michel. "Evaluation et optimisation de performances en délai en technologie CMOS submicronique." Montpellier 2, 2001. http://www.theses.fr/2001MON20075.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Vieille, Laurent. "Bases de donnees deductives : evaluation et optimisation de programmes logiques recursifs." Paris 6, 1988. http://www.theses.fr/1988PA066587.

Full text
APA, Harvard, Vancouver, ISO, and other styles
12

Yin, Fei. "Evaluation et optimisation de performance dans les réseaux IEEE 802. 16." Paris 6, 2009. http://www.theses.fr/2009PA066123.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
IEEE 802. 16 définit un mécanisme d’allocation de la bande passante basé sur réservation. Dans ce mécanisme, sont définis les deux principaux modes de polling : le polling mode unicast et le polling mode contention. Il faudrait avoir un mécanisme pour adopter les deux modes de polling afin d’optimiser la performance. Nous proposons un simple mais efficace mécanisme de polling pour adopter les deux modes de polling d’une manière efficiente et équitable, qui optimise enfin la performance. Le mode contention est utilisé par les applications comme nrtPS et BE pour demander la bande passante à lien montant. Le nombre de la bande passante alloué aux requêtes sur contention va influencer d’une façon significative la performance. Nous analysons et développons un simple modèle mathématique pour évaluer la performance. Une période optimale contention-request dans cette trame est introduite. La taille optimale est aussi influencée par le nombre des terminaux dans le réseau, ceci est aussi analysé
13

Martinez, Medina Lourdes. "Optimisation des requêtes distribuées par apprentissage." Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENM015.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les systèmes de gestion de données distribuées deviennent de plus en plus complexes. Ils interagissent avec des réseaux de dispositifs fixes et/ou mobiles, tels que des smartphones ou des tablettes, dispositifs hétérogènes, autonomes et possédant des limitations physiques. Ces dispositifs exécutent des applications permettant l'interaction des usagers (i.e. jeux virtuels, réseaux sociaux). Ces applications produisent et consomment des données à tout moment voire même en continu. Les caractéristiques de ces systèmes ajoutent des dimensions au problème de l'optimisation de requêtes, telles que la variabilité des objectifs d'optimisation, l'absence d'information sur les données (métadonnées) ou le manque d'une vision globale du système. Les techniques traditionnelles d'optimisation des requêtes n'abordent pas (ou très peu) les systèmes autonomes. Elles se basent sur les métadonnées et font des hypothèses très fortes sur le comportement du système. En plus, la majorité de ces techniques d'optimisation ciblent uniquement l'optimisation du temps d'exécution. La difficulté d'évaluation des requêtes dans les applications modernes incite à revisiter les techniques traditionnelles d'optimisation. Cette thèse fait face aux défis décris précédemment par l'adaptation du paradigme du Raisonnement à partir de cas (CBR pour Case-Based Reasoning) au problème de l'optimisation des requêtes. Cette adaptation, associée à une exploration pseudo-aléatoire de l'espace de solutions fournit un moyen pour optimiser des requêtes dans les contextes possédant très peu voire aucune information sur les données. Cette approche se concentre sur l'optimisation de requêtes en utilisant les cas générés précédemment dans l'évaluation de requêtes similaires. Un cas de requête et composé par : (i) la requête (le problème), (ii) le plan d'exécution (la solution) et (iii) les mesures de ressources utilisés par l'exécution du plan (l'évaluation de la solution). Cette thèse aborde également la façon que le processus CBR interagit avec le processus de génération de plan d'exécution de la requête qui doit permettre d'explorer l'espace des solutions. Ce processus utilise les heuristiques classiques et prennent des décisions de façon aléatoire lorsque les métadonnées viennent à manquer (e.g. pour l'ordre des jointures, la sélection des algorithmes, voire même le choix des protocoles d'acheminement de messages). Ce processus exploite également le CBR pour générer des plans pour des sous-requêtes, accélérant ainsi l'apprentissage de nouveaux cas. Les propositions de cette thèse ont été validées à l'aide du prototype CoBRA développé dans le contexte du projet UBIQUEST
Distributed data systems are becoming increasingly complex. They interconnect devices (e.g. smartphones, tablets, etc.) that are heterogeneous, autonomous, either static or mobile, and with physical limitations. Such devices run applications (e.g. virtual games, social networks, etc.) for the online interaction of users producing / consuming data on demand or continuously. The characteristics of these systems add new dimensions to the query optimization problem, such as multi-optimization criteria, scarce information on data, lack of global system view, among others. Traditional query optimization techniques focus on semi (or not at all) autonomous systems. They rely on information about data and make strong assumptions about the system behavior. Moreover, most of these techniques are centered on the optimization of execution time only. The difficulty for evaluating queries efficiently on nowadays applications motivates this work to revisit traditional query optimization techniques. This thesis faces these challenges by adapting the Case Based Reasoning (CBR) paradigm to query processing, providing a way to optimize queries when there is no prior knowledge of data. It focuses on optimizing queries using cases generated from the evaluation of similar past queries. A query case comprises: (i) the query, (ii) the query plan and (iii) the measures (computational resources consumed) of the query plan. The thesis also concerns the way the CBR process interacts with the query plan generation process. This process uses classical heuristics and makes decisions randomly (e.g. when there are no statistics for join ordering and selection of algorithms, routing protocols). It also (re)uses cases (existing query plans) for similar queries parts, improving the query optimization, and therefore evaluation efficiency. The propositions of this thesis have been validated within the CoBRa optimizer developed in the context of the UBIQUEST project
14

Hmad, Ouadie. "Evaluation et optimisation des performances de fonctions pour la surveillance de turboréacteurs." Thesis, Troyes, 2013. http://www.theses.fr/2013TROY0029.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse concerne les systèmes de surveillance des turboréacteurs. Le développement de tels systèmes nécessite une phase d’évaluation et d’optimisation des performances, préalablement à la mise en exploitation. Le travail a porté sur cette phase, et plus précisément sur les performances des fonctions de détection et de pronostic de deux systèmes. Des indicateurs de performances associés à chacune de ces fonctions ainsi que leur estimation ont été définis. Les systèmes surveillés sont d’une part la séquence de démarrage pour la fonction de détection et d’autre part la consommation d’huile pour la fonction de pronostic. Les données utilisées venant de vols en exploitation sans dégradations, des simulations ont été nécessaires pour l’évaluation des performances. L’optimisation des performances de détection a été obtenue par réglage du seuil sur la statistique de décision en tenant compte des exigences des compagnies aériennes exprimées en termes de taux de bonne détection et de taux d’alarme fausse. Deux approches ont été considérées et leurs performances ont été comparées pour leurs meilleures configurations. Les performances de pronostic de surconsommations d’huile, simulées à l’aide de processus Gamma, ont été évaluées en fonction de la pertinence de la décision de maintenance induite par le pronostic. Cette thèse a permis de quantifier et d’améliorer les performances des fonctions considérées pour répondre aux exigences. D’autres améliorations possibles sont proposées comme perspectives pour conclure ce mémoire
This thesis deals with monitoring systems of turbojet engines. The development of such systems requires a performance evaluation and optimization phase prior to their introduction in operation. The work has been focused on this phase, and more specifically on the performance of the detection and the prognostic functions of two systems. Performances metrics related to each of these functions as well as their estimate have been defined. The monitored systems are, on the one hand, the start sequence for the detection function and on the other hand, the oil consumption for the prognostic function. The used data come from flights in operation without degradation, simulations of degradation were necessary for the performance assessment. Optimization of detection performance was obtained by tuning a threshold on the decision statistics taking into account the airlines requirements in terms of good detection rate and false alarm rate. Two approaches have been considered and their performances have been compared for their best configurations. Prognostic performances of over oil consumption, simulated using Gamma processes, have been assessed on the basis of the relevance of maintenance decision induced by the prognostic. This thesis has allowed quantifying and improving the performance of the two considered functions to meet the airlines requirements. Other possible improvements are proposed as prospects to conclude this thesis
15

Gauvrit, Jean-Yves. "Evaluation et optimisation des techniques d'ARM avec injection en pathologie neuro-vasculaire." Lille 2, 2005. http://www.theses.fr/2005LIL2S010.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'IRM et les logiciels de post traitement occupent une place majeure dans l'exploration des malformations artérioveineuses cérébrales et des anévrismes intracrâniens. Pour l'étude des malformations artérioveineuses cérébrales (MAVc), les techniques d'angiographie non invasives (ARM et angioscanner) fournissent une étude anatomique précise mais contrairement à l'angiographie conventionnelle, elles n'apportent aucune information hémodynamique pourtant essentielle à la bonne compréhension de l'angioarchitecture de la malformation. Une nouvelle technique d'ARM, l'ARM dynamique, basée sur une des acquisitions répétées avec soustraction d'images avant et après injection de gadolinium, permet d'obtenir cette information cinétique. Nos travaux ont montré l'apport de cette technique non seulement pour l'exploration des MAVc mais également pour l'étude d'autres pathologies vasculaires intracrâniennes (fistules durales, anévrismes, thromboses veineuses). L'analyse dynamique de la vascularisation cérébrale permet un diagnostic rapide et fiable de la pathologie et apporte des arguments sur le pronostic, notamment sur le risque hémorragique. Initialement acquise en technique 2D, l'apparition de nouvelles antennes en réseau phasé et l'imagerie parallèle nous a permis de mettre au point une séquence d'ARM dynamique volumique (3D) conciliant haute résolution spatiale et courte résolution temporelle. Nos travaux ont montré l'intérêt de l'ARM dynamique 3D dans le suivi des MAVc radiothérapeés en analysant la réduction de taille du nidus ou la disparition du drainage veineux. Le traitement endovasculaire des anévrismes intracrâniens occupe, depuis quelques années, une place importante dans la prise en charge thérapeutique. Le suivi clinique et radiologique est essentiel car le risque de récidive reste encore mal documenté. Alors que l'ARM avec injection constitue la référence en pathologie vasculaire cervicale, cette technique est moins utilisée à l'étage intracrânien en raison du risque d'opacification veineuse. Le contraste élevé et la réduction des artefacts de flux en ARM avec injection de gadolinium en font cependant une technique très intéressante pour l'exploration des anévrysmes intracrâniens, en particulier après embolisation par coils. Nos travaux ont montré, l'apport de l'ARM avec injection de gadolinium pour la détection des récidives anévrismales post-embolisation et pour le suivi et la prise en charge des patients présentant une recanalisation précoce ou tardive
MRI and the whole of the software of post treatments hold a capital place in the exploration of cerebral arteriovenous malformations and intracranial aneurysms. In cerebral arteriovenous malformations (cAVM), the non-invasive techniques of angiography (MRA and AngioCT) provide a precise anatomical study but contrary to the conventional angiography do not bring any hemodynamic information however essential. A new technique of MRA, the dynamic MRA, based on a repeated acquisition of images and an image subtraction, makes it possible to obtain this kinetic information. Our work showed the interest of this technique in the exploration of cAVM but also in other intracranial vascular diseases (dural fistulas, aneurysms, venous thrombosis) at the same time in the detection of pathology but also in the definition of prognostic arguments in particular with the hemorrhagic risk. Initially acquired with 2D technique, the use of the techniques of parallel imagery, allowed the development of a three-dimensional (3D) dynamic MRA reconciling high space resolution and short temporal resolution. We showed the interest of the 3D dynamic MRA in the follow-up of radiosurgically treated cAVM by analyzing the reduction of size of the nidus or the disappearance of the venous drainage. The endovascular treatment of intracranial aneurysms has occupied, for a few years, an important place in the therapeutic assumption. The clinical and radiological follow-up is essential because the risk of repetitions remains badly documented. Whereas the techniques of MRA with injection are the sequences of reference in cervical vascular pathology, they are developed little in intracranial exploration because of venous overlaps. However, their capacities to obtain a high contrast and to reduce the flow artefacts make of them, techniques adapted to the monitoring of treated aneurysms by coils. Our work showed the contribution of the MRA with gadolinium injection in the detection of the aneurismal recurrences but also the interest in the management of the early and late recanalisations
16

Baskiotis, Nicolas. "Evaluation d'algorithmes pour et par l'apprentissage." Paris 11, 2008. http://www.theses.fr/2008PA112275.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Une des principales difficultés concernant les applications issues de l’apprentissage automatique est le choix a priori de l’algorithme susceptible de fournir les meilleures performances en termes de classification. Nos travaux se sont inspirés des recherches dans le domaine de l’optimisation combinatoire portant sur la notion de transition de phase pour proposer une approche duale au traitement usuel de ce problème par le méta-apprentissage. Notre objectif est d’établir une carte de compétence d’un système d’apprentissage selon des descripteurs sur l’espace des problèmes, permettant d’identifier les régimes dans lesquels les performances du système sont stables. Nous illustrons notre approche sur le système C4. 5. La deuxième partie de nos travaux concerne les problèmes d’apprentissage posés par le test logiciel, plus précisément par une méthode de test statistique structurel de logiciel, utilisant l’échantillonnage de chemins dit faisables dans le graphe de contrôle du programme à tester. Dans certains cas, la fraction de chemins faisables est très faible, pénalisant cette méthode. Notre objectif est de proposer un système d’apprentissage et d’optimisation permettant de construire un générateur aléatoire biaisé vers les chemins faisables et garantissant un bon échantillonage du concept cible. Nous proposons le système MLST réalisant de l’apprentissage actif dans un graphe. Nos travaux ont été évalués à la fois sur des problèmes réels et artificiels montrant un gain significatif en termes de couverture des concepts cibles par rapport aux données initiales
One of the main concerns involving machine learning applications is the a priori choice of an algorithm likely to yield the best classification performances. Our work is inspired by research in combinatorial optimisation on the phase transition problem. We suggest a dual approach to the standard view on this problem through metaleraning. Our goal is to build a competence map according to descriptors on the problem space which enables to identify the regimes where the system’s performance are steady. We assess this approach on C 4. 5. The second part of our work deals with machine learning problems in software testing. More precisely, we study a statistical structural method of software testing that uses the sampling of the so-called feasible paths in the control graph of the problems that is to be tested. In certain cases, the portion of feasible paths is very low, which hinders this method. Our goal is to design a learning and optimisation system that yields a random generator biaised towards the feasible paths and that warrantees a suitable sampling of the target concept. We designed the MLST system that implements active learning in a graph. We tested our work on both real and artificial problems and showed that our system achieves significantly improvement regarding the coverage of target concepts with respect to the initial data
17

Henriet, Julien. "Evaluation, optimisation et validation de protocoles distribués de gestion de la concurrence pour les interactions coopératives." Besançon, 2005. http://www.theses.fr/2005BESA2023.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le développement fulgurant de la télé-informatique a permis l'apparition de nombreux logiciels pour le travail de groupe d'où les vocables collecticiels, applications coopératives ou collaboratives. Mais le travail collaboratif sur Internet place des contraintes en terme de concurrence d'accès aux données partagées et de communication ; n utilisateurs accédant aux mêmes données doivent en avoir la même vision, une vision cohérente. La première partie de cette thèse est un état de l'art des protocoles de communication et de gestion de la cohérence des données, des outils de communication, ainsi qu'un tour d'horizon des applications et plates-formes dédiées plus particulièrement à la télé-médecine coopérative. La deuxième partie est l'étude et l'amélioration du protocole du Pèlerin. Ce protocole pessimiste est implémenté sur notre plate-forme coopérative nommée CAliF et une version optimiste est proposée, permettant aux utilisateurs de réaliser plus rapidement leurs modifications des objets partagés. Cette partie comporte aussi une étude théorique des performances de ce nouveau protocole par rapport aux performances du Pèlerin classique. La troisième partie présente, modélise et étudie le protocole de gestion des communications de CAliF : le Caméléon. Cette étude est faite au travers de Réseaux de Pétri. La quatrième partie est une étude pratique de ces protocoles à l'aide d'une implémentation basée sur l'intergiciel SOAP et leur adéquation avec les outils de la plate-forme du projet de télé-neurologie TéNeCi. Dans le cadre de ce projet, des neurologues des hôpitaux de Besançon et de Lausanne doivent pouvoir réaliser des diagnostics de manière coopérative en temps réel
Cooperative work over Internet introduces constraints in terms of access and modification of shared objects. Users need to access the same objects concurrently in real-time. At each moment, the same image of the production area is to be shared on each connected site. The first chapter of this thesis is a state of the art of communication protocols, consistency management protocols and telemedicine platforms that allow collaborative work. The second chapter presents an new protocol for consistency management over that kind of platform. A probabilistic study of this new protocol proves and evaluates the optimization and the cost of this new protocol called the Optimistic Pilgrim. An analysis, an optimization and a validation of the Chameleon protocol dedicated to communication management over a collaborative platform is presented in the third chapter. At last, the fourth chapter evaluates the performance of these protocols through an implementation of a prototype and also presents the adequation of each protocol to each tool of the collaborative teleneurological platform of the TéNeCi project
18

Grand, Christophe. "Optimisation et commande des modes de déplacement des systèmes locomoteurs hybrides roue-patte : application au robot Hylos." Paris 6, 2004. http://www.theses.fr/2004PA066460.

Full text
APA, Harvard, Vancouver, ISO, and other styles
19

Vallet, Gilles. "Evaluation et optimisation d'un programme de réentraînement à l'effort individualisé chez des bronchopneumopathes chroniques obstructifs." Montpellier 1, 1996. http://www.theses.fr/1996MON14002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
20

Dine, Abdelhamid. "Localisation et cartographie simultanées par optimisation de graphe sur architectures hétérogènes pour l’embarqué." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS303/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La localisation et cartographie simultanées connue, communément, sous le nom de SLAM (Simultaneous Localization And Mapping) est un processus qui permet à un robot explorant un environnement inconnu de reconstruire une carte de celui-ci tout en se localisant, en même temps, sur cette carte. Dans ce travail de thèse, nous nous intéressons au SLAM par optimisation de graphe. Celui-ci utilise un graphe pour représenter et résoudre le problème de SLAM. Une optimisation de graphe consiste à trouver une configuration de graphe (trajectoire et carte) qui correspond le mieux aux contraintes introduites par les mesures capteurs. L'optimisation de graphe présente une forte complexité algorithmique et requiert des ressources de calcul et de mémoire importantes, particulièrement si l'on veut explorer de larges zones. Cela limite l'utilisation de cette méthode dans des systèmes embarqués temps-réel. Les travaux de cette thèse contribuent à l'atténuation de la complexité de calcul du SLAM par optimisation de graphe. Notre approche s’appuie sur deux axes complémentaires : la représentation mémoire des données et l’implantation sur architectures hétérogènes embarquées. Dans le premier axe, nous proposons une structure de données incrémentale pour représenter puis optimiser efficacement le graphe. Dans le second axe, nous explorons l'utilisation des architectures hétérogènes récentes pour accélérer le SLAM par optimisation de graphe. Nous proposons, donc, un modèle d’implantation adéquat aux applications embarquées en mettant en évidence les avantages et les inconvénients des architectures évaluées, à savoir SoCs basés GPU et FPGA
Simultaneous Localization And Mapping is the process that allows a robot to build a map of an unknown environment while at the same time it determines the robot position on this map.In this work, we are interested in graph-based SLAM method. This method uses a graph to represent and solve the SLAM problem. A graph optimization consists in finding a graph configuration (trajectory and map) that better matches the constraints introduced by the sensors measurements. Graph optimization is characterized by a high computational complexity that requires high computational and memory resources, particularly to explore large areas. This limits the use of graph-based SLAM in real-time embedded systems. This thesis contributes to the reduction of the graph-based computational complexity. Our approach is based on two complementary axes: data representation in memory and implementation on embedded heterogeneous architectures. In the first axis, we propose an incremental data structure to efficiently represent and then optimize the graph. In the second axis, we explore the use of the recent heterogeneous architectures to speed up graph-based SLAM. We propose an efficient implementation model for embedded applications. We highlight the advantages and disadvantages of the evaluated architectures, namely GPU-based and FPGA-based System-On-Chips
21

Corsi, Marco. "Evaluation et optimisation de portefeuille dans un modèle de diffusion avec sauts en observations partielles : aspects théoriques et numériques." Paris 7, 2007. http://www.theses.fr/2007PA077038.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur l'optimisation de portefeuille en observations partielles. Le travail est organisé en trois parties qui analysent les sujets suivants: Partie 1. Optimisation de portefeuille en observations partielles dans un modèle de diffusion avec sauts. Part 2. Prix d'indifférence en observations partielles dans un modèle de diffusion avec sauts. Part 3. Approximation numérique par quantification de problèmes de contrôle en temps discret et observations partielles et applications en finance. Dans les deux premières parties on considère le cas des observations en temps continu alors que dans la troisième, on analyse le cas d'observations en temps discret
This thesis investigates some aspects of the portfolio optimization under incomplete observation. The work is organized in three parts that analyze the following topics: Part 1. Portfolio optimization under partial observation in a jump-diffusion model. Part 2 Indifference price under partial observations in a jump-diffusion model. Part 3 Numerical approximation by quantization of discrete time control problems under partial observations and applications in finance. In the first two parts we consider the case of continuous time observation while in the third one we analyze the case of discrete time observation
22

HEYER, MICHAEL. "Optimisation et evaluation d'un systeme photovoltaique relie au reseau en tenant particulierement compte de l'interface onduleur." Paris, ENMP, 1995. http://www.theses.fr/1995ENMP0598.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les systemes photovoltaiques relies au reseau constituent un moyen propre de production decentralisee de l'electricite. Il se pose a l'heure actuelle le probleme de leur rentabilite, de leur fiabilite technique et d'approvisionnement, voire de leur compatibilite avec le reseau. Afin de repondre a ces difficultes, les composants du systeme ont ete modelises et les flux d'energie simules sur la duree de vie. En parallele, un prototype a ete installe sur site pour en analyser la fiabilite technique. Il ressort que pour atteindre la rentabilite economique, ces systemes doivent subir une baisse de leur prix d'environ 80%. Au niveau technique, les onduleurs actuellement disponibles presentent un haut niveau de fiabilite mais des problemes de surchauffe limitent encore leurs performances. Une amelioration de ce dernier probleme est possible par l'application de nouvelles conceptions d'onduleurs: la commutation douce des interrupteurs de puissance de l'onduleur annonce des rendements plus eleves et de meilleurs courbes de courant de sortie. Une etude detaillee mene a une simulation d'un prototype d'onduleur permettant une comparaison avec les solutions traditionnelles
23

Raynal, Mathieu. "Systèmes de saisie de textes pour les personnes handicapées moteur : optimisation, interaction et mesure de l'utilisabilité." Toulouse 3, 2005. http://www.theses.fr/2005TOU30274.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse aborde des problèmes d’optimisation, de conception et d’utilisabilité de nouveaux systèmes d’aide à la communication pour personnes handicapées moteur des membres supérieurs. La problématique est de diminuer les distances à parcourir (avec le pointeur du dispositif de pointage) pour saisir du texte. Ces travaux s’articulent autour de 2 propositions d’optimisation : a) l’application des algorithmes génétiques pour optimiser la disposition des caractères sur le clavier logiciel ; b) le système KeyGlass qui propose au fur et à mesure de la saisie des caractères supplémentaires (grâce à des moteurs de prédiction de caractères) à proximité du dernier caractère saisi. Pour pouvoir mesurer l’apport des optimisations proposées et de leur utilisabilité, nous avons réalisé la plateforme d’évaluation E-Assiste qui a pour objectif de combler un manque de corpus de tests et d’environnements d’évaluation et permettre l’étude des usages de nos systèmes in situ
This thesis tackles problems of optimization, design and usability of new Augmentative and Alternative Communication systems (AAC) for motor disabled people. The problem is to decrease the covered distance (with the pointer of the pointing device) for keyboarding. This work suggests two optimizations: a) application of the genetic algorithms to optimize the character layout on soft keyboard; b) the KeyGlass system which proposes additional characters (thanks to systems of character prediction) near to the last character tapped. To be able to evaluate the contribution of the optimizations carried out and their usability, we designed the evaluation platform E-Assiste which aims to fill a lack of corpus of tests and environments of evaluation and to allow the study of the uses of our systems in situ
24

PLATONI, KALLIOPI. "Optimisation par l'analyse de decomposition en valeurs singulieres (svd) et evaluation quantitative des irradiations en conditions stereotaxiques." Toulouse 3, 1998. http://www.theses.fr/1998TOU30172.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
En radiotherapie conformationnelle stereotaxique, la meilleure adaptation possible entre le volume lesionnel et le volume irradie est particulierement cruciale car il s'agit de petites lesions intracraniennes et parfois de formes complexes entourees de structures critiques. Les deux axes de cette these sont : i) l'optimisation de la distribution de dose, envisagee comme un probleme inverse. Le but est de trouver la meilleure ponderation des minifaisceaux pour minimiser la difference entre la distribution de dose desiree et celle reconstruite par l'algorithme d'optimisation. L'algorithme d'inversion utilise est l'analyse de decomposition en valeurs singulieres (svd). Nous formulons le processus de formation des isodoses par une equation matricielle. Ce processus represente un probleme mal pose. Nous etudions l'influence de differents parametres d'irradiation et de discretisation sur le conditionnement du probleme inverse. Nos resultats montrent que le diametre du collimateur n'influence pas le conditionnement. En revanche, le conditionnement est deteriore par a) la diminution des dimensions de la matrice de dose, de l'echantillonnage angulaire entre les arcs, de la separation angulaire entre les minifaisceaux de meme ordre d'arcs voisins b) l'augmentation de la taille du voxel de la matrice de dose. Nous avons etudie la reconstruction inverse de la distribution de dose par troncature des composantes singulieres en fonction des parametres precedents. Selon les resultats, un mauvais conditionnement entraine une plus mauvaise reconstruction et un degre de troncature des composantes singulieres plus important. Ii) l'adaptation et l'utilisation de l'analyse receiver operating characteristics (roc) et de ses parametres pour l'evaluation quantitative de la distribution de dose. Pour son application, nous utilisons des donnees provenant des histogrammes dose-volume differentiels dans la lesion et les tissus sains. La validation est faite a travers une etude a posteriori d'une serie de 130 dossiers cliniques. Nous montrons l'efficacite de cette analyse a quantifier la conformite d'un plan de traitement et a proposer une isodose de prescription conformationnelle. Ces resultats vont etre exploites dans l'application clinique de la planification conformationnelle.
25

Ben, Cheikh Henda. "Evaluation et optimisation de la performance des flots dans les réseaux stochastiques à partage de bande passante." Thesis, Toulouse, INSA, 2015. http://www.theses.fr/2015ISAT0013/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous étudions des modèles mathématiques issus de la théorie des files d’attente pour évaluer et optimiser les performances des mécanismes de partage de ressources entre flots dans les réseaux. Dans une première partie, nous proposons des approximations simples et explicites des principales métriques de performance des flots élastiques dans les réseaux à partage de bande passante opérant sous le mode ”équité équilibré”. Nous étudions ensuite le partage de bande passante entre flux élastiques et flux de streaming en supposant que le nombre de ces derniers est limité par un mécanisme de contrôle d’admission et proposons des approximations de performance basées sur une hypothèse de quasi stationnarité. Les résultats de simulation montrent le bon niveau de précision des approximations proposées.Dans une deuxième partie, nous étudions le compromis entre délai et énergie dans les réseaux à partage de bande passante dont les noeuds peuvent réguler leur vitesse en fonction de la charge du système. En supposant que le réseau est initialement dans un état de congestion, on s’intéresse à la politique optimale d’allocation de débit permettant de le vider à coût minimal. L’analyse de la politique stochastique optimale via la théorie des processus de décision markoviens étant extrêmement difficile, nous proposons de l’approximer en utilisant un modèle fluide déterministe qui peut être résolu grâce à des techniques de contrôle optimal. Pour le cas d’un seul lien partagé par plusieurs classes de trafic, on montre que la politique optimale correspond à la règle cμ et on propose une expression explicite de la vitesse optimale. Enfin, dans une troisième partie, on s’intéresse aux plateformes de Cloud Computing dans le cadre du modèle SaaS. En supposant un partage équitable des ressources physiques entre machines virtuelles s’exécutant de manière concurrente, nous proposons des modèles de file d’attente simples pour prédire les temps de réponse des applications. Les modèles proposés prennent explicitement en compte le comportement des différentes classes d’application (tâches interactives, de calcul ou permanentes). Les expérimentations menées sur une plateforme réelle montrent que les modèles mathématiques obtenus permettent de prédire les temps de réponse avec une bonne précision
We study queueing-theoretic models for the performance evaluation and optimization of bandwidth-sharing networks. We first propose simple and explicit approximations for the main performance metrics of elastic flows in bandwidth-sharing networks operating under balanced fairness. Assuming that an admission control mechanism is used to limit the number of simultaneous streaming flows, we then study the competition for bandwidth between elastic and streaming flows and propose performance approximations based on a quasi-stationary assumption. Simulation results show the good accuracy of the proposed approximations. We then investigate the energy-delay tradeoff in bandwidth-sharing networks in which nodes can regulate their speed according to the load of the system. Assuming that the network is initially congested, we investigate the rate allocation to the classes that drains out the network with minimum total energy and delay cost. We formulate this optimal resource allocation problem as a Markov decision process which proves tobe both analytically and computationally challenging. We thus propose to solve this stochastic problem using a deterministic fluid approximation. For a single link sharedby an arbitrary number of classes, we show that the optimal-fluid solution follows thewell-known cμ rule and give an explicit expression for the optimal speed. Finally, we consider cloud computing platforms under the SaaS model. Assuming a fair share of the capacity of physical resources between virtual machines executed concurrently, we propose simple queueing models for predicting response times of applications.The proposed models explicitly take into account the different behaviors of the different classes of applications (interactive, CPU-intensive or permanent applications). Experiments on a real virtualized platform show that the mathematical models allow to predict response times accurately
26

Schemeleva, Kseniya. "Optimisation de la politique de lotissement et de séquencement pour une ligne de production soumise aux aléas." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2010. http://tel.archives-ouvertes.fr/tel-00667950.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux de recherche effectués dans le cadre de cette thèse concernent un problème delotissement et de séquencement pour une ligne de production imparfaite. Deux types d'aléas sont prisen compte : le rendement aléatoire (à cause des rebuts) et le temps d'exécution aléatoire (à cause despannes machines). Les temps de changement de série dépendant de la séquence des produits sontégalement pris en compte.Le problème est issu de d'une fabrication automatisée (usine-automate) des circuits impriméset il a été posé lors de la conception du système de gestion de production de l'atelier fabriquant lespartons conducteurs de plusieurs types. Étant donné que l'usine était complètement automatisée,l'atelier (comme le reste de l'usine) travaillait la plupart de la journée sans personnel autre que celui demaintenance, alors il fallait construire un planning de production pour les 24 heures suivantes. Ceplanning devait être répété chaque jour. Le problème consistait à définir les quantités optimales deproduits à traiter (tailles de lots) et l'ordre de passage des lots dans une ligne de production afind'optimiser un critère.Le problème traité appartient à trois domaines de recherche: 1) lotissement optimale pour lessystèmes de production imparfaits (ou lotissement sous incertitudes); 2) ordonnancement etlotissement déterministe; 3) ordonnancement avec des temps ou (et) coût de changement de série (setup).Dans la littérature scientifique nous trouvons beaucoup d'exemples de problèmes appartenant auun ou à l'intersection de deux de ces domaines. Par contre, nous n'avons pas trouvé les travaux quitraites de problèmes identiques au notre.Etant donné que le problème est trop compliqué tel qu'il est, nous avons cherché des façonsde son modélisation qui nous permettrons le résoudre. Nous avons trouvé trois cas où le problèmeinitial peut être décomposé en plusieurs parties, chacune entre lesquelles peut être transformé dans unproblème connu de la Recherche Opérationnelle. Ensuite nous avons travaillé que sur la partielotissement du problème décomposé tout en montrant comment les autres partis peuvent être résolus.Les problèmes de ce type sont très importants pour l'optimisation d'une chaine logistique.Ces résolutions aident d'organiser la production à la manière efficace, que permet aux entreprises defaire des gains financiers importants.
27

Ferré, Jean-Christophe. "Evaluation et optimisation de lʹacquisition et du post-traitement de lʹétude de la perfusion cérébrale par ʺ Arterial Spin Labeling ʺ." Rennes 1, 2011. http://www.theses.fr/2011REN1B149.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’étude de la perfusion cérébrale par marquage des protons artériels ou « arterial spin labeling » (ASL) est une technique IRM, qui utilise comme traceur endogène les protons du sang artériel marqués magnétiquement. Cette technique permet une quantification fiable et reproductible du débit sanguin cérébral sans injection de produit de contraste exogène ni rayonnement ionisant. Son principal inconvénient est son faible rapport signal-sur-bruit. Alors que cette technique devient disponible sur les IRM cliniques, l’objectif de ce travail a été d’évaluer et d’optimiser l’acquisition et le traitement des données ASL de séquences disponibles sur deux IRM 3T. Nous avons ainsi étudié l’influence des paramètres hémodynamiques carotidiens sur le choix de paramètres de la séquences et nous avons montré l’intérêt de l’utilisation d’une antenne 32 canaux et de l’imagerie parallèle sur la qualité des cartographies. Au niveau du traitement des images, de nouvelles méthodes de débruitage spécifique des images ASL ont été étudiées et la mise en œuvre d’une chaîne de traitement complète a permis la comparaison de l’ASL fonctionnelle à l’IRMf BOLD. Une approche « Template » a aussi été évaluée pour la détection de variations individuelles focales de la perfusion. Nous avons appliqué l’ASL à la phase aiguë de l’accident vasculaire constitué ischémique et dans un domaine où l’ASL a été peu utilisée, la psychiatrie. Nos résultats ont montré que la conjonction des conditions optimales d’acquisition et d’un traitement optimisé des données devrait rendre plus pertinente l’utilisation de l’ASL dans le domaine de la recherche clinique mais aussi en routine clinique
Arterial spin labeling (ASL) is a magnetic resonance perfusion imaging technique for measuring cerebral blood flow (CBF) which uses magnetically labeled arterial blood water as an endogenous tracer. ASL is completely noninvasive and can be repeated because it is performed without injection of contrast media, or radiation exposure. Moreover, CBF quantification is convenient and reproducible. However ASL is a low signal-to-noise ratio measurement technique. This technique becomes available on clinical MRI scanner. In this context, the aim of this work was to assess and optimize the image acquisition and the data processing acquired with two clinical techniques. We have demonstrated a correlation between acquisition parameters and hemodynamic parameters and we showed a maps’ quality improving using 32-channel coil combined with parallel imaging. New denoising methods were implemented and an optimized complete workflow was used to compare fASL and BOLD fMRI. A “template” approach was also assessed to detect individual increased perfusion area. Clinically, we used ASL to detect hypoperfusion defect on acute ischemic stroke and focal perfusion abnormalities in patients with chronic and resistant depression. Our results showed that a combination of optimized conditions acquisition and dedicated processing could help ASL to be more accurate in clinical research and practice
28

Tayeb, Jamel. "Optimisation des performances et de la consommation de puissance électrique pour architecture Intel Itanium/EPIC." Valenciennes, 2008. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/9eed6aef-dfaf-4a17-883f-d217a1d9a000.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse propose, dans sa première partie, d’étendre l’architecture EPIC des processeurs de la famille Itanium par l’ajout d’une pile matérielle. L’idée principale est qu’il est possible de combler l’écart de performance entre une architecture généraliste et les circuits spécialisés pour exécuter des machines virtuelles (FORTH,. NET, Java, etc. ). Pour ce faire nous proposons de réassigner dynamiquement un sous-ensemble des ressources existantes d’EPIC pour offrir une pile d’évaluation matérielle. Deux implémentations, non-intrusives et respectant la compatibilité binaire des applications existantes, sont proposées. La principale différence entre ces piles réside dans leur gestionnaire: logiciel ou matériel. La pile d’évaluation sous le contrôle du matériel présente des fonctions avancées comme le support des piles d’évaluation typées promues par la CIL de. NET. Ainsi, nous proposons un traducteur simple-passe de binaire CIL en binaire EPIC, utilisant la pile d’évaluation matérielle. Dans la seconde partie de cette thèse, nous avons étudié l’efficacité énergétique des applications sur les architectures Intel. Nous avons ainsi défini dans un premier temps une méthodologie et des outils de mesure de l’énergie consommée et la quantité de travail utile fournie par les logiciels. Dans un second temps, nous avons entamé l’étude de transformations de code source afin de réduire / contrôler la quantité d’énergie consommée par les logiciels
This thesis proposes, in its first part, to extend the EPIC architecture of the Itanium processor family by providing a hardware stack. The principal idea defended here is that it is possible to close the existing performance gap between generic architectures and application specific designs to run virtual machines (FORTH,. NET, Java, etc). With this intention, we propose to reallocate dynamically a subset of the EPIC architecture’s resources to implement a hardware evaluation stack. Two implementations are proposed, both non-intrusive and compatible with existing binary codes. The fundamental difference between these stacks lies in their manager: software or hardware. The hardware controlled evaluation stack offers support for advanced functions such as the support of strongly typed evaluation stacks required by. NET’s CIL. Thus, we propose a single pass CIL binary translator into EPIC binary, using the hardware evaluation stack. In the second part of this thesis, we studied the energy efficiency of software applications. First, we defined a methodology and developed tools to measure the energy consumption and the useful work provided by the software. In a second time, we engaged the study of source code transformation rules in order to reduce/control the quantity of consumed energy by the software
29

Darmont, Jérôme. "Optimisation et évaluation de performance pour l'aide à la conception et à l'administration des entrepôts de données complexes." Habilitation à diriger des recherches, Université Lumière - Lyon II, 2006. http://tel.archives-ouvertes.fr/tel-00143361.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les entrepôts de données forment le socle des systèmes décisionnels. Ils permettent d'intégrer les données de production d'une entreprise ou d'un organisme et sont le support de l'analyse multidimensionnelle en ligne (OLAP) ou de la fouille de données. Avec l'exploitation de plus en plus courante de données complexes dans le cadre des processus décisionnels, de nouvelles approches d'entreposage, qui exploitent notamment le langage XML, sont développées. Dans ce contexte, le problème de la performance des entrepôts de données demeure plus que jamais un enjeu crucial.

Le travail présenté dans ce mémoire vise à proposer des solutions innovantes au niveau de l'optimisation et de l'évaluation des performances des entrepôts de données. Nous avons en effet conçu une approche générique dont l'objectif est de proposer automatiquement à l'administrateur d'un entrepôt des solutions permettant d'optimiser les temps d'accès aux données. Le principe de cette approche est d'appliquer des techniques de fouille de données sur une charge (ensemble de requêtes) représentative de l'utilisation de l'entrepôt de données afin de déduire une configuration quasi-optimale d'index et/ou de vues matérialisées. Des modèles de coût permettent ensuite de sélectionner parmi ces structures de données les plus efficaces en terme de rapport gain de performance/surcharge.

Par ailleurs, l'évaluation de performance peut venir en appui de la conception des entrepôts de données. Ainsi, afin de valider notre approche de manière expérimentale, nous avons également conçu plusieurs bancs d'essais génériques. Le principe directeur qui a présidé à leur élaboration est l'adaptabilité. En effet, pour comparer l'efficacité de différentes techniques d'optimisation des performances, il est nécessaire de les tester dans différents environnements, sur différentes configurations de bases de données et de charges, etc. La possibilité d'évaluer l'impact de différents choix d'architecture est aussi une aide appréciable dans la conception des entrepôts de données. Nos bancs d'essais permettent donc de générer diverses configurations d'entrepôts de données, ainsi que des charges décisionnelles qui s'y appliquent.

Finalement, nos solutions d'optimisation et d'évaluation des performances ont été mises en oeuvre dans les contextes des entrepôts de données relationnels et XML.
30

MIRGAIN, CYRILLE. "Evaluation et optimisation du contact initial gaz-solides dans une chambre de melange - application au craquage catalytique temps court." Paris 6, 1997. http://www.theses.fr/1997PA066137.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le potentiel des reacteurs descendants downers a recemment ete mis en evidence dans la litterature pour application aux reactions rapides. Pour le cas particulier du procede de craquage catalytique, le temps court limite les reactions secondaires et permet d'augmenter la selectivite. Les phenomenes initiaux dans la chambre de melange mixor deviennent critiques. Le mixor doit assurer en quelques dizaines de millisecondes une bonne vaporisation des gouttelettes de charge et un bon melange de la charge vaporisee et du catalyseur chaud, avant la reaction dans le downer. Dans la presente etude, nous determinons une configuration optimale sur la base de plusieurs criteres. Plus de 80 configurations ont ete evaluees, presentant des concepts differents. La premiere partie est consacree a une modelisation theorique des phenomenes de vaporisation. Grace a cette approche simplifiee, nous identifions les mecanismes principaux et les consequences pour les etudes experimentales. Dans la seconde partie, l'utilisation d'une nouvelle sonde permet d'eliminer un tres grand nombre de configurations, sur la base de criteres de melange gaz-solides en sortie de la chambre mixor. Dans la troisieme partie, nous developpons une methode experimentale originale de caracterisation du contact gaz-solides aux temps courts. Nous appliquons cette technique a quelques configurations. Nous mettons clairement en evidence l'existence d'un bipasse important du gaz dans la chambre mixor, traduisant une efficacite de contact moyenne. La meilleure configuration testee presente une efficacite egale a 75%. L'etude peut donc etre prolongee par la caracterisation d'autres configurations. Il serait de toute evidence interessant de confronter nos resultats a des etudes experimentales futures simulant la vaporisation de charge liquide. Les deux techniques experimentales developpees ici sont generalisables a l'etude d'autres systemes. Aussi, la modelisation theorique constitue une base pour l'elaboration d'un modele complet de chambres mixor.
31

Bichon, Marie. "Evaluation et optimisation de la durée de vie d'électrodes élaborées en voie aqueuse pour des batteries de nouvelle génération." Thesis, Nantes, 2019. http://www.theses.fr/2019NANT4051.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le déploiement à grande échelle des véhicules électriques est conditionné par une augmentation de la densité d’énergie des batteries et une réduction de leur coût de fabrication. Concernant l’aspect énergétique, les oxydes lamellaires à base de nickel, manganèse et cobalt (NMC) sont des matériaux intéressants étant donné que l’augmentation de la teneur en nickel permetd’améliorer la capacité. D’autre part, la formulation aqueuse de ces matériaux peut contribuer à réduire les coûts de production. En effet, on peut s’affranchir des installations coûteuses utilisées pour récupérer et retraiter les vapeurs de N-méthylpyrrolidone (NMP), un solvant toxique communément employé pour la fabrication des électrodes positives, en remplaçant ce solvant par de l’eau. Le but de ce travail est de développer des formulations aqueuses d’électrodes de NMC532 (50% de nickel, 30% de manganèse et 20% de cobalt), et d’évaluer leur performance électrochimique. Les oxydes lamellaires étant sensibles à l’humidité, l’évolution de la surface du matériau durant la préparation de l’encre aqueuse a été étudiée au moyen de diverses caractérisations. Plusieurs voies ont été proposées pour développer des formulations aqueuses présentant des performances électrochimiques comparables à celles d’électrodes à base deNMP. En particulier, on s’est attaché à éviter la corrosion du collecteur de courant en aluminium, qui a lieu lors de l’enduction du fait du caractère basique de l’encre aqueuse. Le vieillissement de ces électrodes formulées envoie aqueuse a ensuite été étudié en cellulesLi-ion
Increasing the energy density of Liion batteries while reducing their manufacturing costs is a milestone towards widespread application of electric vehicles. In this regard, high capacity materials have been developed, among them lithium nickel manganese cobaltlayered oxide (NMC), as their energy densitycan be increased with higher nickel content. Aqueous processing of these materials can contribute to cost reduction, by using water as a solvent instead of standard, toxic Nmethylpyrrolidone (NMP), whose use requires pricey installation to recover the vapors upon drying of the electrode. This study aims at developing aqueous formulations of NMC532 cathodes (50% nickel, 30% manganese and 20% cobalt), and assess their electrochemical performance. As layered oxides are sensitive towards water, surface modification of the material upon immersion in aqueous slurries was investigated through various characterizations. Several routes were proposed to develop water-based cathodes with electrochemical performance comparable to NMP-based electrodes. In particular, corrosion of the aluminum current collector occurring in aqueous processing owing to the alkalinity of the NMC slurry is avoided through the addition of phosphoric acid which buffers the slurry pH, or by using a carbon-coated collector. The ageing behavior of such aqueous processed electrodes was then investigated through post mortem analyses after long-term cycling in Li-ion cells
32

Guinot, Benjamin. "Evaluation multicritère des technologies de stockage couplées aux énergies renouvelables : conception et réalisation de la plateforme de simulation ODYSSEY pour l'optimisation du dimensionnement et de la gestion énergétique." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00934515.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif de ces travaux de thèse était de concevoir et de développer un outil de simulation et d'optimisation multicritères de centrales couplant des sources d'énergies renouvelables (EnR) et des moyens de stockage. L'optimisation porte sur le dimensionnement de l'installation (taille des unités de production EnR et de stockage) et sur la ou les stratégies de gestion de la centrale EnR-stockage selon des critères technico-économiques évalués par l'outil. L'originalité de l'outil développé réside dans la modularité de définition de l'architecture EnR-stockage, dans la prise en compte de plusieurs niveaux de modélisation (échelle et précision) des différents composants du système et dans l'intégration du vieillissement. L'outil développé est également illustré sur des cas d'études afin d'apprécier sa pertinence.
33

Taschner, Christian. "Evaluation et optimisation des techniques d'ARM dynamique pour la prise en charge des malformations artério-veineuses intracrâniennes traitées par gamma knife." Lille 2, 2007. http://www.theses.fr/2007LIL2S042.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Grâce aux avancées technologiques réalisées en imagerie, la prise en charge des patients présentant une malformation artério-veineuse (MAV) intracrânienne a bénéficié des méthodes non-invasives d'imagerie des vaisseaux encéphaliques. Ce travail s'est intéressé notamment à l'optimisation des techniques d'angiographie par angiographie RM (ARM) dynamique et à leurs applications cliniques dans le cadre du diagnostic et du traitement des MAV intracrâniennes traitées par radiochirurgie Gamma Knife. Pour caractériser une MAV, trois compartiments distincts doivent être analysés : les afférences artérielles, le nidus malformatif et les veines de drainage. Pour atteindre cet objectif, il est nécessaire de disposer d'une technique d'imagerie présentant une résolution temporelle élevée afin de séparer les différents temps circulatoires et une résolution spatiale élevée afin de visualiser les structures vasculaires de petit diamètre. Dans une étude préliminaire, nous avons optimisé une séquence d'ARM dynamique utilisant des techniques d'imagerie parallèle pour l'étude des vaisseaux intracrâniens. Cette séquence a été évaluée chez dix patients présentant des pathologies neurovasculaires variées. Les résultats ont montré l'intérêt potentiel de cette technique mais la résolution spatiale limitée n'a pas permis de remplacer l'angiographie conventionnelle à la phase diagnostique. Nous avons ensuite amélioré la séquence d'ARM dynamique en appliquant des techniques de lecture partielle du plan de Fourier (technique CENTRA). Cette nouvelle modalité d'imagerie dynamique a fait l'objet d'une étude comparative avec l'angiographie conventionnelle. Les résultats ont montré une excellente concordance entre les deux techniques pour l'étude des afférences, du nidus et du drainage veineux chez 28 patients porteurs d'une MAV intracrânienne non traitée. Enfin, nous avons évalué un algorithme de fusion d'images qui a permis l'intégration des données ARM chez 12 patients présentant une MAV intracrânienne traitée par radiochirurgie Gamma Knife. Chez 10 patients, l'intégration était réalisable avec une très bonne précision spatiale de l'algorithme. En revanche, la comparaison des cibles définies sur la base de données ARM avec l'angiographie conventionnelle montrait une différence significative entre les volumes cibles. L'intégration par fusion d'images d'une séquence d'ARM dynamique utilisant l'imagerie parallèle et différentes techniques de lecture partielle du plan Fourier sera la prochaine étape de nos travaux de recherche clinique dans le cadre du planning radiochirurgical des MAVs traitées par Gamma Knife
34

Moussa, Amer. "Evaluation et optimisation de la synthèse de substrats de l'élastase de Pseudomonas aeruginosa à l'origine des infections associées aux maladies nosocomiales." Montpellier 2, 2007. http://www.theses.fr/2007MON20016.

Full text
APA, Harvard, Vancouver, ISO, and other styles
35

Bonnemoy, Claude. "Sur quelques aspects de l'utilisation de methodes deterministes en milieu stochastique et inversement." Clermont-Ferrand 2, 1987. http://www.theses.fr/1987CLF2E396.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail concerne plusieurs cas d'interaction de methodes deterministes en milieu stochastique et inversement conduisant a l'elaboration d'outils informatiques appropries. La premiere partie porte sur l'obtention de methodes numeriques optimales et sur les fonctions splines aleatoires d'interpolation. Ensuite on traite la resolution de problemes deterministes d'optimisation non standard par des methodes a strategie aleatoire. Plusieurs logiciels sont elabores et des applications sont donnees. L'evaluation des performances des systemes par modelisation a l'aide de reseaux de files d'attente ne permet que l'etude du cas stationnaire
36

Habachi, Oussama. "Optimisation des Systèmes Partiellement Observables dans les Réseaux Sans-fil : Théorie des jeux, Auto-adaptation et Apprentissage." Phd thesis, Université d'Avignon, 2012. http://tel.archives-ouvertes.fr/tel-00799903.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La dernière décennie a vu l'émergence d'Internet et l'apparition des applications multimédia qui requièrent de plus en plus de bande passante, ainsi que des utilisateurs qui exigent une meilleure qualité de service. Dans cette perspective, beaucoup de travaux ont été effectués pour améliorer l'utilisation du spectre sans fil.Le sujet de ma thèse de doctorat porte sur l'application de la théorie des jeux, la théorie des files d'attente et l'apprentissage dans les réseaux sans fil,en particulier dans des environnements partiellement observables. Nous considérons différentes couches du modèle OSI. En effet, nous étudions l'accès opportuniste au spectre sans fil à la couche MAC en utilisant la technologie des radios cognitifs (CR). Par la suite, nous nous concentrons sur le contrôle de congestion à la couche transport, et nous développons des mécanismes de contrôle de congestion pour le protocole TCP.
37

Bazzoli, Caroline. "Evaluation et optimisation de protocoles dans les modèles non linéaires à effets mixtes : application à la modélisation de la pharmacologie des antiretroviraux." Paris 7, 2009. http://www.theses.fr/2009PA077238.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur l'évaluation et l'optimisation de protocoles dans les modèles non linéaires à effets mixtes à réponses multiples comme par exemple dans le cadre de la modélisation conjointe de la pharmacocinétique et de la pharmacodynamie d'un médicament ou de la pharmacocinétique d'une molécule et de son métabolite. Nous avons étendu le calcul de la matrice d'information de Fisher dans les modèles non linéaires à effets mixtes pour des modèles à réponses multiple avec la linéarisation usuelle. Nous avons évalué cette extension par simulation et montré ses bonnes performances. Nous avons aussi étendu l'algorithme d'optimisation de Fedorov-Wynn prenant en compte des fonctions de coût sur les prélèvements. Nous avons implémenté ces développements dans de nouvelles versions de la fonction R PFIM, dédiée à l'évaluation et à l'optimisation de protocoles. Nous les avons appliqués à l'étude de la pharmacocinétique plasmatique et intracellulaire des antirétroviraux. Nous avons réalisé une revue sur les études cliniques mesurant des concentrations intracellulaires d'antirétro viraux chez des patients VIH, et montré que beaucoup d'entre elles incluent peu de patients et n'ont pas toujours des protocoles adaptés. Nous avons construit les premiers modèles pharmacocinétiques conjoints de la zidovudine et de la lamivudine et de leur métabolite intracellulaire respectif à partir de données chez des patients VIH. Nous avons ainsi estimé les longues demi-vies de ces métabolites mais aussi leur large variabilité inter-patients. Enfin, nous avons montré que des protocoles optimaux obtenus en fonction de différentes contraintes cliniques sont des protocoles efficaces pour de futures études de ces molécules utilisant ces modèles conjoints
This thesis considers design evaluation and optimisation in the context of nonlinear mixed effect models for multiple responses, as for instance for the joint modelling of the pharmacokinetics and the pharmacodynamics of a drug or for thé pharmacokinetics of a parent drug and its metabolite. We extended the computation of the Fisher information matrix for nonlinear mixed effect models with multiple responses using the usual first-order linéarisation. We evaluated this extension and showed by simulation its relevance. We also extended the Fedorov-Wynn algorithm to include cost functions on the sampling times. We implemented these developments in new versions of the R function PFIM dedicated to design evaluation and optimisation. We also applied them to plasma and intracellular pharmacokinetics of antiretroviral drugs. We performed a review on clinical studies measuring intracellular concentrations of antiretro viral drugs in HIV patients and found that most of these studies had small sample sizes and were not always adequately designed. We developed the first joint pharmacokinetic models of zidovudine and lamivudine and of their respective intracellular metabolites. We estimated the long half-lifes of both metabolites and found large between patients variabilities. Last, we showed that population design optimisation allows the derivation of efficient designs according to clinical constraints for further analysis of these molecules using these joint models
38

Hernandez, Sébastien. "Evaluation et optimisation du mécanisme de Handhover dans un Réseau Local Sans Fil dédié aux applications à trafic contraint par le temps." Phd thesis, Clermont-Ferrand 2, 2006. https://theses.hal.science/docs/00/70/32/74/PDF/2006CLF21682.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail a pour contexte des applications industrielles où des mobiles communiquent via un réseau local sans fil. Nous avons élaboré une plate-forme où des mobiles collaborent via un réseau IEEE802. 11 en mode infrastructure, les communications s'effectuent via des points d'accès (AP) auxquels les mobiles sont affiliés. Chaque AP gère une zone appelée cellule, les mobiles vont être à passer d'une cellule à une autre et s'affilier à différents AP. Ce mécanisme, appelé Handover génère un trafic de gestion, qui va perturber le trafic de collaboration des mobiles, et a un coût en temps pendant lequel le mobile va être isolé du réseau. Ces effets peuvent être désastreux dans des applications où le temps est un facteur critique. Nous proposons des solutions efficaces qui agissent sur la phase de recherche d'un nouvel AP, qui réduisent le trafic de gestion du handover et qui peuvent complétées par l'ajout d'une deuxième interface réseau sur chaque mobile
39

Hernandez, Sébastien. "Evaluation et optimisation du mécanisme de Handhover dans un Réseau Local Sans Fil dédié aux applications à trafic contraint par le temps." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2006. http://tel.archives-ouvertes.fr/tel-00703274.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail a pour contexte des applications industrielles où des mobiles communiquent via un réseau local sans fil. Nous avons élaboré une plate-forme où des mobiles collaborent via un réseau IEEE802.11 en mode infrastructure, les communications s'effectuent via des points d'accès (AP) auxquels les mobiles sont affiliés. Chaque AP gère une zone appelée cellule, les mobiles vont être à passer d'une cellule à une autre et s'affilier à différents AP. Ce mécanisme, appelé Handover génère un trafic de gestion, qui va perturber le trafic de collaboration des mobiles, et a un coût en temps pendant lequel le mobile va être isolé du réseau. Ces effets peuvent être désastreux dans des applications où le temps est un facteur critique. Nous proposons des solutions efficaces qui agissent sur la phase de recherche d'un nouvel AP, qui réduisent le trafic de gestion du handover et qui peuvent complétées par l'ajout d'une deuxième interface réseau sur chaque mobile
40

Guyony, Valerie. "Caractérisation et optimisation du procédé de cuisson extrusion humide de matières protéiques végétales pour ’obtention d’une texture fibreuse." Thesis, Nantes, Ecole nationale vétérinaire, 2020. http://www.theses.fr/2020ONIR149F.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans un contexte d’essor de la consommation des protéines végétales, de nouveaux produits végétariens élaborés qui cherchent à imiter l’aspect, la texture et le goût des produits carnés ou analogues de viande ont vu le jour depuis les années 2000. Le procédé de transformation et de texturation utilisé pour ces protéines végétales est la cuisson extrusion. Cette thèse porte sur la texturation des protéines végétales par cuisson extrusion humide, et plus précisément sur l’optimisation de la fibration en vue d’imiter au plus près la texture fibreuse caractéristique de la viande. Les objectifs de la thèse sont la compréhension des phénomènes de transformation qui interviennent pendant le procédé de cuisson extrusion humide et l’étude des paramètres procédés et matières premières sur l’intensité de la fibration. Parmi les paramètres procédés, l’attention s’est particulièrement portée sur deux paramètres principaux : les dimensions de la filière et la température de refroidissement de l’extrudat dans la filière. L’étude des paramètres matières premières a été menée en analysant d’une part l’impact des propriétés physico-chimiques et fonctionnelles de deux concentrats de soja différents et, d’autre part, l’impact de l’addition de gluten de blé, d’isolat de pois et/ou de fibres sur les propriétés et la fibration de l’extrudat obtenu. Enfin, les extrudats ont été transformés en maquettes produits finis sur la base d’un steak végétal. Le procédé de fabrication et la recette de référence, basés sur l’utilisation de protéines texturées déshydratées, ont été adaptés pour permettre leur substitution par des extrudats humides
As vegetarian trends are growing, meat analogues, trying to mimic the appearance, texture and taste of meat, have emerged since the 2000s. Texturization process used is generally extrusion cooking. This thesis focuses on the texturization of plant proteins by wet extrusion cooking, and more specifically on the optimization of fibration in order to imitate as closely as possible the fibrous texture characteristic of meat. The objectives of the thesis are the understanding of the physical and chemical phenomena occurring during the wet extrusion cooking process and the optimization of process and raw material parameters to maximize the intensity of fibration. Among the process parameters, particular attention was paid to two main parameters: the dimensions of the die and the cooling temperature of the extrudat in the die. The study of raw material parameters was carried out by analyzing, on the one hand, the impact of the physico-chemical and functional properties of two different soy concentrates and, on the other, the impact of the addition of wheat gluten and/or pea isolate or fiber on the textural properties and fibration of the extrudate obtained. Finally, extrudate were transformed into meat analog steaks. The manufacturing process and reference recipe, based on the use of dehydrated textured proteins, have been adapted to allow their substitution by wet extrudates
41

Jong, Audrey de. "Evaluation et optimisation de la prise en charge des voies aériennes et de la ventilation du patient obèse en médecine périopératoire : du bloc opératoire à la réanimation." Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT013.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les objectifs de ce travail de thèse étaient d'évaluer et d'optimiser la prise en charge périopératoire des voies aériennes et de la ventilation mécanique du patient obèse nécessaire à une anesthésie générale.Dans un premier temps, nous avons spécifiquement analysé la prise en charge des voies aériennes chez le patient obèse. Deux larges bases de données, respectivement établies au bloc opératoire et en réanimation, ont été utilisées. La base de données de réanimation avait ainsi permis de développer et valider un score permettant de prédire l'intubation difficile en réanimation, le score de MACOCHA. L’analyse spécifique des patients obèses dans ces 2 bases de données a permis d’établir les facteurs de risque d’intubation difficile ainsi que les complications associées à l’intubation. Chez le patient obèse, les incidences de l'intubation difficile et des complications respiratoires sévères (hypoxémie), étaient respectivement 2 fois et 20 fois plus fréquentes en réanimation qu'au bloc opératoire. L'obésité n'était pas retrouvée comme facteur de risque de complication cardiovasculaire (collapsus) associée à l’intubation en réanimation.Dans un second temps, nous avons évalué la prise en charge des patients obèses en réanimation, notamment pour complication respiratoire. Après sécurisation des voies aériennes pour l’anesthésie générale, le patient obèse, surtout s’il est intubé en situation d’urgence, est à risque de développer un syndrome de détresse respiratoire aigüe (SDRA). Nous avons spécifiquement étudié l’une des thérapeutiques les plus efficaces du SDRA, le décubitus ventral, chez le patient obèse, montrant que cette technique était sûre et efficace. La survie était meilleure dans la population obèse. Afin d'expliquer ce meilleur pronostic du patient obèse en SDRA, nous avons émis l'hypothèse d'une meilleure fonction diaphragmatique. A travers un travail expérimental, cette hypothèse a été confirmée chez le rat: la force diaphragmatique était significativement plus importante chez les rats obèses, avant et après ventilation mécanique. Cette amélioration de la force diaphragmatique pourrait expliquer en partie le "paradoxe de l'obésité", à savoir que l'obésité est associée dans la littérature à un meilleur pronostic chez le patient critique. Toujours pour expliquer ce meilleur pronostic, nous avons analysé plus de 700 patients obèses de réanimation appariés sur le type d'admission, et montré que le type d'admission pour motif médical (vs motif chirurgical) était un facteur indépendant de mortalité. L'indice de gravité simplifié II, score le plus employé pour prédire la mortalité chez les patients de réanimation, surestimait la mortalité en cas d'admission chirurgicale. Un nouveau modèle prédisant la mortalité du patient obèse a ainsi été développé. Nous avons enfin étudié le patient obèse polytraumatisé : l’incidence de la transfusion massive lors des 24 premières heures de prise en charge était augmentée. Un score visant à guider la prise en charge précoce de ces patients obèses en choc hémorragique a par la suite été validé.Après optimisation de la prise en charge des voies aériennes et de la ventilation, le sevrage de la ventilation mécanique en réanimation peut être particulièrement compliqué chez le patient obèse, d’autant plus dans ce contexte de « voies aériennes difficiles ». Dans un troisième temps, nous avons ainsi comparé plusieurs épreuves de sevrage chez le patient obèse, afin de déterminer l'épreuve la plus représentative du travail respiratoire post-extubation. Nous avons montré que chez le patient obèse, seule la ventilation spontanée sans aucune assistance ventilatoire mécanique permettait de prédire le succès de l’extubation.Ces résultats seront le support de la mise en place d’études contrôlées randomisées, visant à comparer des stratégies thérapeutiques chez le patient obèse pour diminuer les complications de l'intubation, de la ventilation et les échecs d'extubation en médecine périopératoire
The objectives of this thesis were to evaluate and improve the perioperative airway and ventilation management of the obese patient.First, we specifically analyzed the airway management of obese patients. Two large databases, established respectively in the operating room and intensive care unit (ICU), were used. The ICU database was used to develop and validate a score for predicting difficult endo-tracheal intubation in ICU in the general population, the MACOCHA score. In the same database, obesity was not found to be a risk factor of severe cardiovascular collapse after intubation. The specific analysis of obese patients in these two databases identified risk factors of difficult intubation in the operating room and intensive care. In obese patients, difficult intubation and severe complications such as hypoxemia, were respectively twice and twenty times more common in intensive care than in the operating room.Secondly, obese patients, especially if they are intubated in an emergency situation, are at greater risk of developing acute respiratory distress syndrome (ARDS) after the airway is secured for general anesthesia. We specifically studied one of the most effective treatment of ARDS, prone positioning, in obese patients, showing that this technique is safe and effective. Survival was better in obese patients than in non-obese patients. To explain this better prognosis of obese patients with ARDS, we hypothesized that their diaphragmatic function might be better. This hypothesis was confirmed experimentally in rat specimens: diaphragmatic strength was significantly greater in obese rats then in non-obese rats, before and after mechanical ventilation. This increased diaphragmatic strength may partially explain the "obesity paradox", i.e. that obesity is associated with a better prognosis in the critical care setting. In order to further explain this better prognosis, we analyzed more than 700 obese patients after matching for admission type (medical or surgical). This analysis showed that ICU admission on medical grounds was an independent risk factor for mortality compared to a surgical cause of admission. The Simplified Acute Physiology Score II, the severity index most often used to predict mortality in critically ill patients, overestimated mortality in case of surgical admission in obese patients. A new model predicting mortality in obese patients was developed. Finally we specifically studied obese patients with multiple trauma. The proportion of massive transfusion during the first 24 hours of support was increased in these patients. A score to guide the early management of these obese patients in hemorrhagic shock has subsequently been validated.Once optimal airway and ventilation management is achieved, weaning from mechanical ventilation can be particularly difficult in obese patients, especially in the context of "difficult airway". We therefore proceeded in a third part to compare several weaning trials in obese patients, in order to determine the most representative test to predict post-extubation respiratory work. It was the T-piece or the total absence of mechanical support (0 pressure support and 0 positive airway pressure) that best predicted post-extubation respiratory work.These results will support the implementation of randomized controlled trials comparing specific therapeutic strategies in obese patients to reduce complications of intubation, ventilation and extubation failure in perioperative medicine
42

SARWARY, M. CHAKER. "Synthese d'automates d'etats fini pour les circuits integres vlsi : optimisation du codage par evaluation du cout apres synthese et synthese d'automates a pile." Paris 6, 1995. http://www.theses.fr/1995PA066463.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette these propose une methode permettant d'optimiser le codage d'etats des automates d'etats fini en vue de la synthese. Les deux points importants de cette methode sont: 1. Un parcours aleatoire sous contrainte de l'espace des codages: cette etape a pour objectif de selectionner un certain nombre de codages supposes meilleurs. L'approche consiste a progresser dans l'espace de maniere aleatoire, et pour chaque solution atteinte, ameliorer celle-ci, en effectuant des transpositions de codes, en tenant compte de la topologie du graphe d'etats representant l'automate a coder. Cette recherche est mise en uvre pour etre rapide en temps de calcul afin de laisser suffisamment de temps pour la procedure d'evaluation du cout. 2. Une procedure d'evaluation du cout: cette procedure donne le cout de la realisation de l'automate pour une implantation en logique multi-niveaux a base d'une bibliotheque de cellules precaracterisees. Pour repondre aux deux criteres importants d'une fonction de cout, la fidelite et la rapidite, elle se base sur une forme graphique de representation d'un reseau booleen appele graphes d'expressions factorisees. Cette approche permet d'eviter l'etape de re-ordonnancement des variables d'entree, qui est l'etape la plus couteuse en temps de calcul dans les methodes de synthese graphique. Pour la synthese d'automates complexes, cette these propose une description hierarchique pouvant etre implante par un automate a pile. Pour cela, un sous ensemble vhdl est defini qui permet de decrire ce type d'automates. Les automates a pile sont abordes selon les aspects suivants: facilite de description offerte aux concepteurs, comparaison d'une realisation avec une pile et une realisation sans pile d'un meme automate (lorsque ceci est possible), et l'impact de la pile sur le codage d'etats
43

Thiaux, Yaël. "Optimisation des profils de consommation pour minimiser les coûts économique et énergétique sur cycle de vie des systèmes photovoltaïques autonomes et hybrides - Evaluation de la technologie Li-ion." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2010. http://tel.archives-ouvertes.fr/tel-00502428.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans l'optique de mieux dimensionner, sur l'ensemble de leur cycle de vie, les systèmes photovoltaïques autonomes et hybrides, les travaux menés dans le cadre de cette thèse ont concerné deux principales voies. Tout d'abord, l'action sur le profil de consommation, permettant de se rapprocher du comportement solaire idéal du consommateur, a été étudiée. A même service énergétique rendu au consommateur, des gains importants, que ce soit en termes de coûts économiques ou énergétiques sur cycle de vie ont pu être mis en avant notamment par la minimisation du recours au stockage. Parallèlement, une technologie d'accumulateurs Li-ion, innovante dans le cadre de ces systèmes, a été évaluée sur la base du coût énergétique primaire global du système sur son cycle de vie, donc incluant le vieillissement de ses composants. Les résultats ont montré qu'en raison d'une meilleure durée de vie et de plus faibles pertes énergétiques, cette technologie fait figure à moyen terme de concurrent sérieux de la technologie Plomb-Acide universellement utilisée à l'heure actuelle. Ces travaux concernant des systèmes à petites échelles préfigurent ce qu'il sera possible de faire à plus grande échelle dans les « réseaux intelligents » qui permettront d'exploiter plus massivement les ressources renouvelables comme le soleil et le vent, très largement disponibles.
44

Rizk, Carl. "Contribution to the evaluation and optimization of passengers' screening at airports." Thesis, Toulouse, INPT, 2019. http://www.theses.fr/2019INPT0121.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les menaces à la sécurité sont apparues au cours des dernières décennies comme un problème de plus en plus critique pour le transport aérien, qui est l'un des principaux levier de la mondialisation de l'Économie. Des mesures de contrôle renforcées reposant sur des recherches pluridisciplinaires et sur de nouvelles technologies ont été mises en oeuvre dans les aéroports en réaction à différentes attaques terroristes. Du point de vue scientifique, le filtrage efficace des passagers dans les aéroports reste un défi et l’objectif principal de cette thèse est d’ouvrir de nouvelles pistes de recherche dans ce domaine en développant des approches avancées utilisant les ressources de la science informatique. Tout d’abord, cette thèse présente les principaux concepts et définitions de la sécurité dans les aéroports et donne un aperçu des systèmes de contrôle des terminaux de passagers, et plus précisément des postes d’inspection-filtrage qui sont identifiés et décrits. Un modèle logique du système de contrôle des départs des passagers d’un aéroport est proposé. Ce modèle est transcrit en graphiquement (Controlled Satisfiability Graph- CSG), ce qui permet de tester le système de filtrage sous différents scénarios d’attaque. Ensuite, une approche probabiliste pour l’évaluation du système de contrôle des flux de passagers au départ est développée, conduisant à l’introduction des réseaux de Petri colorés Bayésiens (BCPN). Enfin, une approche d'optimisation est adoptée pour organiser au mieux les flux de passagers au contrôle de départ compte tenu de la performance probabiliste des éléments composant le système de contrôle. Après la mise en place d'un modèle d'évaluation global basé sur un traitement en série indifférencié des passagers, une structure de contrôle en deux étapes est analysée, qui met en évidence l'intérêt du pré-filtrage et de l'organisation des passagers en groupes distincts. La conclusion de cette étude indique la poursuite de ce thème
Security threats have emerged in the past decades as a more and more critical issue for Air Transportation which has been one of the main ressource for globalization of economy. Reinforced control measures based on pluridisciplinary research and new technologies have been implemented at airports as a reaction to different terrorist attacks. From the scientific perspective, the efficient screening of passengers at airports remain a challenge and the main objective of this thesis is to open new lines of research in this field by developing advanced approaches using the resources of Computer Science. First this thesis introduces the main concepts and definitions of airport security and gives an overview of the passenger terminal control systems and more specifically the screening inspection positions are identified and described. A logical model of the departure control system for passengers at an airport is proposed. This model is transcribed into a graphical view (Controlled Satisfiability Graph-CSG) which allows to test the screening system with different attack scenarios. Then a probabilistic approach for the evaluation of the control system of passenger flows at departure is developped leading to the introduction of Bayesian Colored Petri nets (BCPN). Finally an optimization approach is adopted to organize the flow of passengers at departure as best as possible given the probabilistic performance of the elements composing the control system. After the establishment of a global evaluation model based on an undifferentiated serial processing of passengers, is analyzed a two-stage control structure which highlights the interest of pre-filtering and organizing the passengers into separate groups. The conclusion of this study points out for the continuation of this theme
45

Oudghiri, yousfi Imane. "Conception, analyse exergétique et optimisation des cycles à mélange de réfrigérants : Application à la liquéfaction du bio-méthane." Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLEM037.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’objectif principal de ce travail de thèse est de développer un cycle thermodynamique de réfrigération peu énergivore et, éventuellement, fonctionnant avec des réfrigérants non-inflammables, pour la liquéfaction du biométhane à micro-échelle (débit inférieur à 15 Nm3/h). Plusieurs architectures ont été développées. Les deux premières opèrent avec un mélange de réfrigérant inflammable. La troisième architecture est une combinaison de la première et un groupe froid de type machine de Stirling. La dernière architecture proposée opère avec un mélange de réfrigérant non-inflammable. Chaque architecture est simulée sous Aspen HYSYS, et chaque simulation est accompagnée d’une analyse exergétique pour évaluer l’efficacité du procédé et identifier les causes principales des irréversibilités thermodynamiques dans ces systèmes. Pour améliorer les performances de chaque cycle de liquéfaction, et pour identifier la meilleure configuration, l’optimisation par algorithmes génétiques a été choisie. Le processus d’optimisation repose sur la connexion entre Excel, Aspen HYSYS et PIKAIA. Les conditions du biométhane disponible et à liquéfier sont une pression initiale de 17 bar et une température de 25°C. Une étude de l’impact de la variation de cette pression sur la performance de liquéfaction a été faite. Pour étudier le comportement du système en régime transitoire, une simulation dynamique de l’architecture énergétiquement optimale a été effectuée pour évaluer la flexibilité du procédé à charge réduite du biométhane. La conception d’une architecture adaptée à la liquéfaction d’une capacité de 10 Nm3/h a été faite. Une étude technico-économique de ce banc a été élaborée afin d’évaluer le coût total actualisé pour la liquéfaction du biométhane
The growing fossil fuel consumption is leading to depletion of natural gas reserves. Hence, a considerable interest is given to the use of biogas as substitute for natural gas. However, for certain applications, biogas must be liquefied to facilitate its transport and storage. Many studies have focused on large and mid-scale natural gas liquefaction processes with a lack of literature studies on biogas micro-liquefaction. Due to the similarities between biomethane and natural gas, mixed refrigerant (MR) cycles for natural gas liquefaction are considered to liquefy the biomethane. The prime objective of this doctoral work is to develop a thermodynamic refrigeration cycle with low energy consumption and eventually nonflammable refrigeration for micro-scale biomethane liquefaction. In order to procure the needed cooling of biomethane liquefaction processes, different configurations are proposed. The first two architectures are mixed refrigerant cycles carrying out both sensible (pre-cooling) and latent (condensation) heat removal. The latest architecture, mixed refrigerants are nonflammable. All configurations are simulated in Aspen HYSYS and assessed considering the exergy analysis method. In order to find the optimum operating parameters and the best design, a tool integrating PIKAIA genetic algorithm and Microsoft Visual Basic (VBA) was developed. Once the steady state simulation and optimization are achieved, a study of the dynamic behavior of the process at partial load operating mode is conducted. The design of an architecture suitable for liquefaction with a capacity of 10 Nm3 / h was made. A techno-economic study of this bench was developed to evaluate the total updated cost for the liquefaction of biomethane
46

Bernard, Jean-Philippe. "Observations sub-millimetriques a grande sensibilite : optimisation photometrique et evaluation des performances de l'instrument spm-pronaos; observations et modelisation numerique de l'emission infra-rouge et sub-millimetrique du milieu inter-stellaire dense." Paris 7, 1991. http://www.theses.fr/1991PA077275.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les observations astrophysiques a grande sensibilite dans le domaine des longueurs d'ondes infrarouge lointain et submillimetrique (de 100 microns a 1 millimetre) sont rendues difficiles, au sol, par l'opacite de l'atmosphere terrestre, et necessitent l'utilisation d'observatoires de haute altitude. Le spectro photometre multibande (spm), du projet national d'observation sub-millimetrique (pronaos), est destine a l'observation de ce rayonnement aux altitudes stratospheriques accessibles en ballon. La mesure des fluctuations du rayonnement cosmologique a 2,7 kelvin et, en particulier, de l'effet sunyaev-zel'dovich en direction d'amas de galaxies, constitue un objectif scientifique majeur de cette experience. La premiere partie de la these regroupe l'analyse des sources de bruit et le calcul des flux astrophysiques attendus, ainsi que l'optimisation de l'instrument lors de sa phase de conception. L'instrument spm permettra egalement la detection de l'emission thermique des poussieres froides presentes dans le milieu inter-stellaire. Un modele d'emission des phases denses du milieu inter-stellaire a ete developpe. Il permet le calcul du transfert radiatif des photons responsables du chauffage de la poussiere et inclue la presence de tres petits grains de poussieres qui fluctuent en temperature tels que les molecules polycycliques aromatiques hydrocarbonees (pah). Les resultats de cette modelisation montrent que les mesures disponibles dans l'infra-rouge lointain ne permettent generalement pas, a elles seules, de determiner la masse totale des structures observees; des mesures sub-millimetriques sont indispensables. La comparaison des predictions du modele aux observations montre que de brutales variations spatiales de l'abondance ou des proprietes des plus petites particules de poussiere existent au sein des nuages moleculaires, qu'ils soient isoles ou soumis au champ de radiation des etoiles jeunes formees a partir du materiaux dense. La correlation de ces variations avec l'abondance d'autres molecules est interpretee en termes d'existence de reactions chimiques entre phase gazeuse et petits grains de poussiere
47

Dray, Xavier. "Evaluation et optimisation des techniques d'abord transgastrique de la cavité péritonéale en chirurgie endoscopique transluminale par les orifices naturels (natural orifice translumenal endoscopic surgery, notes)." Paris, CNAM, 2009. http://www.theses.fr/2009CNAM0672.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
NOTES (Natural Orifice Translumenal Endoscopic Surgery) is a surgical technique that aims to gain access to the peritoneal cavity with a flexible endoscope, through a natural orifice and through the wall of the digestive or urogenital tract. Mastering the per-oral transgastric route (available to both genders, as opposed to the transvaginal route) is an important challenge for the development of this technique. The studies presented in this thesis demonstrate the feasibility of transgastric endoscopic procedures in a live porcine model. This work emphasizes: (1) the need for a prevention of infection prior to transgastric NOTES procedures; (2) the interest of a preliminary pneumoperitoneum before the creation of the transgastric access, to prevent any damage of the surrounding organs; (3) the safe use of a balloon-dilation technique for creation of the transgastric access, as compared to the use of a sphincterotome-incision ; (4) the feasibility of intraperitoneal delivery of sterile prothetic material during NOTES, as illustrated by the transgastric NOTES ventral hernia repair technique; (5) the need for technological improvement for safe, quick and reliable transgastric access to the peritoneal cavity (for example by using a 2 µm wavelength laser) and gastrotomy closure (for example with hemoclips, threaded-tags
La NOTES (Natural Orifice Translumenal Endoscopic Surgery) est une technique chirurgicale qui consiste à aborder la cavité péritonéale à l’aide d’un endoscope souple, à travers les orifices naturels puis à travers la paroi du tube digestif ou des voies uro-génitales. La maîtrise d’un abord per-oral et transgastrique (disponible pour les deux sexes, par opposition à l’abord transvaginal) est un objectif hautement souhaitable pour le développement de cette technique. Les travaux présentés dans cette thèse démontrent la faisabilité d’interventions endoscopiques souples par voie transgastrique sur modèle porcin vivant. Ils mettent en évidence : (1) l’intérêt de protocoles anti-infectieux avant une NOTES transgastrique ; (2) la nécessité de réaliser un pneumopéritoine avant création d’un abord transgastrique pour prévenir la survenue de plaies d’organes de voisinage; (3) la meilleure tolérance d’une dilatation au ballon plutôt que d’une incision au sphinctérotome lors de la création de la voie d’abord transgastrique ; (4) la possibilité d’introduire de façon stérile par voie transgastrique du matériel prothétique pour un usage intrapéritonéal (telle qu’illustrée par une technique de cure d’éventration ombilicale par NOTES transgastrique) ; (5) le caractère encore imparfait et hautement dépendant des avancées technologiques des méthodes endoscopiques de création (par exemple à l’aide d’un laser de 2 µm de longueur d’onde) et de fermeture (par exemple par clips, points en T, agrafes) de la voie d’abord transgastrique ; et (6) la faisabilité de tests d’étanchéité mini-invasifs et hautement spécifiques (utilisant par exemple de l’hydrogène dilué)
48

Rahmouni, Maher. "Ordonnancement et optimisations pour la synthèse de haut niveau des circuits de controle." Grenoble INPG, 1997. http://www.theses.fr/1997INPG0028.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La plupart des algorithmes d'ordonnancement existants dans le domaine de la synthese de haut niveau sont concus pour des applications dominees par les donnees telles que les applications de traitement de signal. Ces algorithmes ont pour objectif de minimiser le cout de la partie operative. Cependant, dans les circuits de commande modernes, les performances de la partie controle dominent la performance globale du circuit. Il est donc necessaire de prendre en compte les caracteristiques de ces applications et de developper un ensemble de techniques qui permettent de minimiser le cout de la partie controle. Cette these presente de nouvelles techniques d'ordonnancement pour differentes architectures de controleur ainsi qu'une etude sur l'interpretation des structures du langage vhdl par la synthese de haut niveau. Les approches developpees se concentrent sur l'optimisation de la surface du controleur et de la performance du circuit. Le principe de ces techniques est d'analyser les differents chemins d'execution de la description comportementale du circuit representee sous forme d'un graphe de flot de controle. Les algorithmes realises ont ete integres dans l'outil de synthese de haut niveau amical. Les resultats montrent leur efficacite sur des exemples reels de circuits domines par le controle.
49

Monède, Hocquard Lucie. "Evaluation clinique, caractérisation mécanique et modélisation pour l'évolution de la conception d'un implant rachidien dynamique." Thesis, Bordeaux 1, 2012. http://www.theses.fr/2012BOR14721/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objectif principal de tout dispositif médical implantable est d'améliorer l'état de santé du patient en lui assurant un risque minimum. Dans ce but, l'étude de l'implant rachidien B Dyn comporte plusieurs volets : - la réalisation d'un suivi clinique, - l’analyse et la proposition de solutions techniques (actions correctives), - la création d'un outil numérique pour des évolutions ultérieures (actions préventives).L’étude bibliographique initiale permet d'appréhender l'anatomie fonctionnelle du rachis lombaire, de comprendre les états pathologiques et leurs conséquences et enfin de faire un inventaire des techniques chirurgicales associées (résection osseuse, implantation de dispositifs...).Le suivi clinique d'une population de trente patients souligne ensuite les apports (somatiques et fonctionnels) du B Dyn dans sa conception première. Pour quelques cas, l'analyse des clichés radiographiques en position de flexion montre une détérioration naissante de l'anneau liée, probablement, à une surcharge accidentelle de l'implant. Ce constat impose une évolution de la conception de l'implant.Une analyse de la conception initiale et la caractérisation mécanique en traction, permettent de cibler les actions correctives à appliquer dans le cadre de cette évolution. La démarche mise en place s'appuie sur l'évaluation expérimentale pour sélectionner des solutions techniques satisfaisant aux critères fonctionnels ; elle conduit à une évolution du choix de matériau de l'anneau.Pour la réalisation d'évolutions ultérieures, un modèle éléments finis est créé. L’approche numérique se substitue ainsi à l’approche expérimentale contraignante et coûteuse. La caractérisation préalable des élastomères est nécessaire à l'obtention de données matériaux pour élaborer ce modèle. Les résultats des premières simulations d'un essai de traction sont comparés aux données expérimentales dans la perspective de la validation du modèle.A ce stade, l'étude du B Dyn propose une première solution d'évolution de l'implant et un outil numérique pour l'analyse future de solutions techniques
The main focus of any implantable medical device is to improve the health of the patient by providing minimum risk. For this purpose, the study of the B Dyn spinal implant comprises several constituents: - The carrying out of a clinical follow up, - The analysis and choice of technical solutions (corrective actions) - The creation of a digital tool for further development (preventive actions).The initial bibliographical study enables to comprehend the functional anatomy of the lumbar spine, to understand the pathological states and their consequences and finally to list the associated surgical techniques (osseous resection, implantation of devices…).The clinical follow-up of a population of thirty patients then underlines the contributions (somatic and functional) of the B Dyn in its first design. For a few cases, the analysis of radiographs in flexion shows an incipient deterioration in the ring probably related to an accidental overloading of the implant. This observation requires an evolution in the design of the implant.An analysis of the initial design and the mechanical characterization in traction, allow targeting the corrective actions to be applied in the context of this evolution. The developed approach is based on the experimental evaluation in order to select technical solutions that would satisfy the functional criteria; this leads to an evolution of the choice of the ring material.To conduct subsequent developments, a finite element model is created. Thus the digital approach replaces the restrictive and expensive experimental approach. The preliminary characterization of elastomers is necessary to obtain materials data to work out this model. The results of the first simulations of a tensile test are compared to experimental data in the perspective of the model validation.At this stage, the B Dyn study provides a first solution of implant evolution and a numerical tool for the future analysis of technical solutions
50

Turki, Sadok. "Impact du délai de livraison sur le niveau de stock : une approche basée sur la méthode IPA." Electronic Thesis or Diss., Metz, 2010. http://www.theses.fr/2010METZ029S.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le monde industriel actuel ne cesse pas d'évoluer. La concurrence accrue, la grande diversification des produits demandés, le développement du commerce électronique, l'augmentation des échanges de données entre donneurs d'ordres et le producteur, sont autant de facteurs qui poussent les entreprises à continuellement optimiser leurs systèmes de production afin de produire et de livrer dans des délais précis, à des coûts réduits, en satisfaisant des niveaux de service élevés exigés par les clients. Ceci nécessite l'utilisation de méthodes bien adaptées pouvant guider le concepteur dans les choix qu'il est amené à faire lors des phases de conception. C'est pourquoi, dans notre thèse, nous nous sommes donc intéressés à développer une méthodologie qui va permettre aux entreprises de prendre des décisions fiables soient lors de la conception et le pilotage du système de production en identifiant et modélisant les phénomènes aléatoires (comme la demande, les pannes des machines) et en intégrant explicitement le délai de livraison dans le modèle. Ainsi, dans la première partie de notre travail, nous avons étudié un système de production constitué par une machine, un stock de capacité infinie et un client qui demande à chaque instant une quantité de produit. Nous avons appliqué à ce système un modèle à flux continus avec prise en compte d'un temps de livraison constant. Afin d'évaluer les performances de notre système, nous nous sommes basés sur la méthode d'analyse des perturbations infinitésimale (IPA) et nous avons réalisé des simulations à l'aide d'un algorithme basé sur cette méthode pour déterminer le niveau du stock optimal qui minimise la fonction de coût total. Ce coût total est la somme du coût de stockage, du coût de rupture et du coût de transport. Dans la deuxième partie de notre travail, nous avons appliqué, pour le même système que celui étudié dans la première partie, un modèle à flux discrets. La méthode d'analyse des perturbations infinitésimale (IPA) est également appliquée pour ce modèle pour déterminer le niveau de stock optimal. L'application de cette méthode à un modèle à flux discrets est une innovation. En effet, D'après nos connaissances, il n'existe pas des travaux qui appliquent la méthode IPA à des modèles à flux discrets. Dans la dernière partie de notre thèse, nous avons considéré un système de production avec un délai de livraison planifié entre le client et le producteur. Nous avons ensuite étudié l'impact des coûts de livraison sur le niveau de stock optimal. La méthode d'analyse des perturbations infinitésimale est également appliquée pour les deux types de modèles (modèles à flux continus et discrets)
The first part of our work, we study a manufacturing system composed of a machine, a buffer with infinite capacity and customer. We applied this to system a continuous flow model taking into account a constant delivery time. To evaluate the performance of our system, we relied on the method of infinitesimal perturbation analysis (IPA), we performed simulations using an algorithm based on this method to determine the optimal buffer level which minimizes the cost function. This total cost is the sum of inventory cost, backlog cost and transportation cost. In the second part of our work, we applied a discrete flow model to the same system studied in the first part. The infinitesimal perturbation analysis method (IPA) is also applied to this model to determine the optimal inventory level. Applying this method to a discrete flow model is an innovation. Indeed, as we know, there is no work applying the method to IPA models to discrete flow. In the last part, we considered a manufacturing system with a random delivery time between the costumer and the producer. Then we studied the impact of transportation costs on the optimal buffer level. The method of infinitesimal perturbation analysis is also applied for both types of models (discrete flows and continuous flows model)

To the bibliography