Dissertations / Theses on the topic 'Optimisation efficace'

To see the other types of publications on this topic, follow the link: Optimisation efficace.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 42 dissertations / theses for your research on the topic 'Optimisation efficace.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Hamdar, Marian. "Conception et optimisation d'un système indirect efficace de climatisation ferroviaire." Paris, ENMP, 2008. http://www.theses.fr/2008ENMP1693.

Full text
APA, Harvard, Vancouver, ISO, and other styles
2

Davot, Tom. "A la recherche de l’échafaudage parfait : efficace, de qualité et garanti." Thesis, Montpellier, 2020. http://www.theses.fr/2020MONTS030.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le séquençage est un processus en biologie qui permet de déterminer l'ordre des nucléotides au sein de la molécule d'ADN. Le séquençage produit un ensemble de fragments, appelés lectures, dans lesquels l'information génétique est connue. Seulement, la séquence génomique n'est connue que de façon parcellaire, pour pouvoir faire son analyse, il convient alors de la reconstituer à l'aide d'un certain nombre de traitements informatiques. Dans cette thèse, nous avons étudié deux problèmes mathématiques issus de ce séquençage : l'échafaudage et la linéarisation.L'échafaudage est un processus qui intervient après l'assemblage des lectures en contigs. Il consiste en la recherche de chemins et de cycles dans un graphe particulier appelé graphe d'échafaudage. Ces chemins et cycles représentent les chromosomes linéaires et circulaires de l'organisme dont l'ADN a été séquencée. La linéarisation est un problème annexe à l'échafaudage : quand on prend en compte le fait que les contigs puissent apparaitre plusieurs fois dans la séquence génomique, des ambiguïtés surviennent dans le calcul d'une solution. Celles-ci, si elles ne sont pas traitées, peuvent entrainer la production d'une séquence chimérique lors de l'échafaudage. Pour résoudre ce problème, il convient alors de dégrader de façon parcimonieuse une solution calculée par l'échafaudage. Dans tous les cas, ces deux problèmes peuvent être modélisés comme des problèmes d'optimisation dans un graphe.Dans ce document, nous ferons l'étude de ces deux problèmes en se concentrant sur trois axes. Le premier axe consiste à classifier ces problèmes au sens de la complexité. Le deuxième axe porte sur le développement d'algorithmes, exacts ou approchés, pour résoudre ces problèmes. Enfin, le dernier axe consiste à implémenter et tester ces algorithmes pour observer leurs comportements sur des instances réelles
Sequencing is a process in biology that determines the order of nucleotides in the DNA. It produces a set of fragments, called reads, in which the genetic information is known. Unfortunatly, the genomic sequence is decomposed in small pieces. In order to analyse it, it is necessary to reconstruct it using a number of computer processes. In this thesis, we studied two mathematical problems arising from this sequencing: the scaffolding and the linearization.The scaffolding is a process that takes place after the reads assembly into larger subsequences called contigs. It consists in the search of paths and cycles in a particular graph called scaffold graph. These paths and cycles represent the linear and circular chromosomes of the organism whose DNA has been sequenced. The linearization is a problem related to the scaffolding. When we take into account that contigs may appear several times in the genomic sequence, some ambiguities can arise. If this ambiguities are not deleted, then a chimeric sequence may be produced by the scaffolding. To solve this problem, a solution computed by the scaffolding should be wisely deteriorated. In any case, both problems can be modelized as optimization problems in a graph.In this document, we study both problems focusing on three aspects. The first aspect consists in the study of the complexity of these problems. The second aspect consists in the development of algorithms, exact or approximate, to solve these problems. Finally, the last aspect consists in implementing and testing these algorithms to look at their behaviors on real instances
3

Tap, Samuel. "Construction de nouveaux outils de chiffrement homomorphe efficace." Electronic Thesis or Diss., Université de Rennes (2023-....), 2023. http://www.theses.fr/2023URENS103.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans notre vie de tous les jours, nous produisons une multitude de données à chaque fois que nous accédons à un service en ligne. Certaines sont partagées volontairement et d'autres à contrecœur. Ces données sont collectées et analysées en clair, ce qui menace la vie privée de l'utilisateur et empêche la collaboration entre entités travaillant sur des données sensibles. Le chiffrement complètement homomorphe (Fully Homomorphic Encryption) apporte une lueur d'espoir en permettant d'effectuer des calculs sur des données chiffrées ce qui permet de les analyser et de les exploiter sans jamais y accéder en clair. Cette thèse se focalise sur TFHE, un récent schéma complètement homomorphe capable de réaliser un bootstrapping en un temps record. Dans celle-ci, nous introduisons une méthode d'optimisation pour sélectionner les degrés de liberté inhérents aux calculs homomorphiques permettant aux profanes d'utiliser TFHE. Nous détaillons une multitude de nouveaux algorithmes homomorphes qui améliorent l'efficacité de TFHE et réduisent voire éliminent les restrictions d'algorithmes connus. Une implémentation efficace de ceux-ci est d'ores et déjà en accès libre
In our everyday life, we leave a trail of data whenever we access online services. Some are given voluntarily and others reluctantly. Those data are collected and analyzed in the clear which leads to major threats on the user's privacy and prevents collaborations between entities working on sensitive data. In this context, Fully Homomorphic Encryption brings a new hope by enabling computation over encrypted data, which removes the need to access data in the clear to analyze and exploit it. This thesis focuses on TFHE, a recent fully homomorphic encryption scheme able to compute a bootstrapping in record time. We introduce an optimization framework to set the degrees of freedom inherent to homomorphic computations which gives non-experts the ability to use it (more) easily. We describe a plethora of new FHE algorithms which improve significantly the state of the art and limit, (if not remove) existing restrictions. Efficient open source implementations are already accessible
4

Potop-Butucaru, Dumitru. "Optimisations pour la simulation efficace de programmes Esterel." Paris, ENMP, 2002. http://www.theses.fr/2002ENMP0002.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Esterel est un langage de spécification utilisé dans le développement de systèmes embarqués. Sa sémantique formelle permet des traductions en automates explicites ou en circuits digitaux synchrones, donnant lieu à deux implantations logicielles dont les propriétés essentielles sont héritées du modèle correspondant. Ces méthodes de compilation sont donc sémantiquement complètes, mais en contrepartie n’arrivent pas à générer du code efficace (à la fois compact et rapide) pour des modèles de taille conséquente. Pour cette raison, de nouvelles techniques ont été proposées récemment pour la génération de code C efficace, consistant essentiellement dans la simulation directe des opérations réactives du programme Esterel. Ces nouvelles techniques doivent être conciliées maintenant avec les aspects spécifiques à la sémantique d’Esterel qui sont la causalité constructive et la cyclicité. Elles doivent aussi être munies de techniques adaptées d’analyse et d’optimisation. Pour atteindre ces objectifs, nous proposons une nouvelle technique de compilation dont la puissance découle de l’utilisation d’un nouveau format intermédiaire, nommé GRC. La représentation GRC d’un programme Esterel se compose d’une représentation de l’état hiérarchique du programme et d’un graphe déstructuré de flot de contrôle. Les deux composants, séparés au niveau syntaxique, sont sémantiquement interdépendants. Le nouveau format permet la représentation de tout programme Esterel. Il est un bon support pour des algorithmes d’optimisation efficaces à ce niveau et pour des algorithmes d’implantation (ordonnancement et encodage) efficaces. Notre travail apporte les contributions suivantes : - une définition précise de la sémantique du langage Esterel avec données ; - la définition du format GRC et de la correspondance formelle entre le code GRC et les circuits générés à partir d’Esterel ; - la caractérisation, au niveau du code GRC, de la classe de programmes Esterel générant des circuits cycliques ; - le développement d’un compilateur Esterel-C qui utilise GRC comme unique format intermédiaire. Le prototype traite actuellement les programmes Esterel dont la représentation GRC est acyclique. Le code C est obtenu dans ces cas par une planification statique du graphe de flot de contrôle GRC. Le compilateur implémente un bon nombre de techniques d’optimisation, en partie originales. Une comparaison entre notre prototype et les autres compilateurs montre l’intérêt de l’approche
Esterel is a design language for reactive embedded systems. It enjoys a full-fledged formal operational semantics, and can customarily be compiled into either explicit Finite State Machines or Digital Sequential Circuit models, thereby providing implementation codes with very distinctive flavors. While being semantically complete, the model-based techniques do not support the generation of efficient (fast and small) code for large specifications. For this reason, new compilation schemes were proposed for the generation of efficient sequential ( C) code. Consisting essentially in direct actual simulation of the language reactive features, the new approach now needs to be accommodated with similar semantic issues as the previous ones (FSM- and circuit-based). Such issues include dealing with the whole class of constructively causal programs, or performing optimization and analysis of this level. To this end, we propose here a new format/model (named GRC) for the intermediate representation of Esterel programs. The new format has formal constructive semantics, being able to represent all the Esterel programs. It describes with separate (but interdependent) structures the hierarchic state of the Esterel program and its destructured control flow. Thus, it is a good support for both (1) efficient low-cost optimizations based on static analysis that use high-level structural information and (2) low-level control flow optimizations. Finally, the format is a good starting point for efficient scheduling algorithms. Our contribution consists in the following : - The precise definition of the semantics of the full Esterel language ; - The definition of the GRC format (including the formal correspondence between its semantics and the “circuit” semantics) ; - A characterization, at GRC level, of the programs that are translated into cyclic circuits ; - The development of an optimizing GRC-based prototype C code generator. The prototype is currently able to compile the programs whose GRC representation is acyclic. Sequential code is generated in these cases by statically scheduling the acyclic GRC flowgraph. The compiler includes novel optimization algorithms, based on static analysis, and an efficient state encoding technique. The results are encouraging, as our prototype seems to compare well against existing compilers
5

Hasan, Cengis. "Optimisation de l'allocation de ressources dans les réseaux celluaires : une approche efficace en énergie." Phd thesis, INSA de Lyon, 2013. http://tel.archives-ouvertes.fr/tel-00942967.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le terme "réseau vert" ou pour éviter une traduction directe, "réseau propre" repose sur la sélection de technologies et de produits réseaux économes en énergie, et grantissant un usage minimal des ressources (radio, bande passante,...) quand cela est possible. Cette thèse vise à étudier les problèmes d'allocation des ressources dans les petits réseaux de cellules dans un contexte de réseau propre. Nous développons des algorithmes pour différents paradigmes. Nos travaux reposent principalement sur le contexte de la théorie des jeux de coalition, mais également sur des outils de géométrie stochastique ainsi que d'un modèle de jeu de surpeuplement. Nous étudions tout d'abord le problème d'association de mobiles à des stations de base dans les applications de diffusion d'un flux commun, sous contrainte de minimisation de la consommation d'énergie totale: nos algorithmes suivent une approche préservant l'énergie. Nous examinons le problème d'association des mobiles sous le prisme des jeux de coalition. Ce jeu tend à former la grande coalition, qui se caractérise par le fait que tous les joueurs forment une coalition unique. En utilisant le théorème de Bondareva-Shapley, nous prouvons que ce jeu de coalition a un noyau non vide ce qui signifie que la grande coalition est stable. Ensuite, nous examinons la politique de répartition des coûts pour différentes méthodes. Dans une deuxième partie, nous analysons un problème important dans les réseaux propres qui consiste à étteindre les stations de base qui ne sont pas indispensables. Nous abordons ce problème de facon statistique, dans le cas de fournisseurs de services coopérant au moyen d'outils de jeux de coalition vus sous un angle de la géométrie stochastique. Le jeu coalitionnel considéré est joué par les fournisseurs de services qui collaborent à éteindre leurs stations de base. Nous avons analysé la stabilité de Nash qui est un concept utilisé pour les jeux de coalition hédoniques. Nous posons la question suivante: Existe-t-il une méthode de répartition de la fonction d'utilitè qui se traduit par un partitionnement Nash-stable? Nous répondons à cette question dans la thèse. Nous démontrons que le noyau Nash-stable, défini comme l'ensemble des méthodes de répartition des couts conduisant à un partitionnement stable au sens de la stabilité de Nash. Nous considérons finalement les jeux liés à l'association des mobiles à un point d'accès non plus dans le cas d'un broadcast, mais dans le cas général. Le jeu consiste à décider à quel point d'accès un mobile doit se connecter. Nous considérons le choix entre deux points d'accès ou plus. Les décisions d'association dépendent du nombre de mobiles connectés à chacun des points d'accès. Nous obtenons de nouveaux résultats en utilisant des outils élémen taires de jeux de congestion et déviction. Enfin, nous nous intéressons aux transmissions coopératives. Nous étudions le problème de la sélection de partenaires dans le cas de constitution de binomes gagnant-gagnant, ou chacun des partenaire s'appuie sur l'autre pour sa propre transmission. Nous proposons d'assimiler la sélection des partenaires au problème classique en théorie des jeux de recherche stable de colocataire où chaque joueur établi une liste de préférence parmi les partenaires possibles; Nous adaptons l'algorithme de Irving pour déterminer le partenaire de chaque joueur et nous introduisons une version décentralisée de l'algorithme de Irving.
6

Gougeon, Adrien. "Optimisation d’un réseau dynamique et efficace en énergie servant à piloter la grille électrique." Electronic Thesis or Diss., Université de Rennes (2023-....), 2023. https://tel.archives-ouvertes.fr/tel-04086397.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Face aux défis concernant les secteurs de l’énergie et de l’environnement, le réseau électrique est confronté à certaines limites.Un problème majeur du réseau électrique actuel est le manque de communication et de coordination entre ses acteurs pour exploiter pleinement son potentiel. Pour surmonter ces limites et offrir de nouveaux services aux acteurs du réseau électrique, nous nous dirigeons vers un réseau plus intelligent, la Smart Grid. Le déploiement d’une infrastructure supplémentaire est nécessaire pour réaliser cette transition. Cette infrastructure, Advanced Metering Infrastructure (AMI), vise à améliorer les capacités de surveillance et de communication des acteurs du réseau électrique.L’objectif de cette thèse est de quantifier la dégradation de performance de certains nouveaux services de la Smart Grid, due à la qualité de service de l’AMI. Nous explorons plusieurs paramètres de l’infrastructure de communication et observons par co-simulation comment ces paramètres influencent l’efficacité de ces services. Un des objectifs principaux de la Smart Grid est aussi de réduire la consommation d’énergie.Dans un deuxième temps, nous modélisons la consommation énergétique de bout en bout de l’AMI afin d’évaluer sa propre consommation.Les outils de co-simulation proposés ainsi que les modèles de consommation sont tous disponibles sans restrictions
In front of the challenges concerning the energy and environmental sectors, the electrical grid faces some limitations. A major issue of the current power network is the lack of communication and coordination between its actors to fully exploit its potential.To overcome those limitations, and offer new services to the actors of the electrical grid, we are moving toward the Smart Grid. The deployment of an additional infrastructure is necessary to enable the Smart Grid. This infrastructure, known as the Advanced Metering Infrastructure (AMI), aims to enhance the monitoring and communication capabilities of the actors of the electrical grid.The goal of this thesis is to quantify the performance degradation of some new services of the Smart Grid, due to the quality of service of the AMI. We explore several parameters of the communication infrastructure and observe through co-simulation how those parameters influence the efficiency of those services. One of the main objectives of the Smart Grid is to reduce energy consumption.In a second stage, we model the end-to-end energy consumption of an AMI at a large scale to assess its own consumption.The proposed co-simulation framework and consumption models are all license free
7

Villemonteix, Julien. "Optimisation de fonctions coûteusesModèles gaussiens pour une utilisation efficace du budget d'évaluations : théorie et pratique industrielle." Phd thesis, Université Paris Sud - Paris XI, 2008. http://tel.archives-ouvertes.fr/tel-00351406.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse traite d'une question centrale dans de nombreux problèmes d'optimisation, en particulier
en ingénierie. Comment optimiser une fonction lorsque le nombre d'évaluations autorisé est très limité au regard de la dimension et de la complexité du problème ? Par exemple, lorsque le budget d'évaluations est limité par la durée des simulations numériques du système à optimiser, il n'est pas rare de devoir optimiser trente paramètres avec moins
de cent évaluations. Ce travail traite d'algorithmes d'optimisation spécifiques à ce contexte pour lequel la plupart des méthodes classiques sont inadaptées.
Le principe commun aux méthodes proposées est d'exploiter les propriétés des processus gaussiens et du krigeage pour construire une approximation peu coûteuse de la fonction à optimiser. Cette approximation est ensuite utilisée pour choisir itérativement les évaluations à réaliser. Ce choix est dicté par un critère d'échantillonnage qui combine recherche locale, à proximité des résultats prometteurs, et recherche globale, dans les zones non explorées. La plupart des critères proposés dans la littérature, tel celui de l'algorithme EGO (pour Efficient Global Optimization), cherchent à échantillonner la fonction là où l'apparition d'un optimum est jugée la plus probable. En comparaison, l'algorithme IAGO (pour Informational Approach to Global Optimization), principale contribution de nos travaux, cherche à maximiser la quantité d'information apportée, sur la position de l'optimum, par l'évaluation réalisée. Des problématiques industrielles ont guidé l'organisation de ce mémoire, qui se destine à la communauté de l'optimisation
tout comme aux praticiens confrontés à des fonctions à l'évaluation coûteuse. Aussi les applications industrielles y tiennent-elles une place importante tout comme la mise en place de l'algorithme IAGO. Nous détaillons non seulement le cas standard de l'optimisation d'une fonction réelle, mais aussi la prise en compte de contraintes, de
bruit sur les résultats des évaluations, de résultats d'évaluation du gradient, de problèmes multi-objectifs, ou encore d'incertitudes de fabrication significatives.
8

Mezmaz, Mohand. "Une approche efficace pour le passage sur grilles de calcul de méthodes d'optimisation combinatoire." Lille 1, 2007. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2007/50376-2007-Mezmaz.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La résolution exacte de problèmes d'optimisation combinatoire de grande taille constitue un défi pour les grilles. En effet, il est nécessaire de repenser les algorithmes de résolution pour prendre en compte les caractéristiques de tels environnements. Notamment leur grande échelle. L'hétérogénéité et la disponibilité dynamique de leurs ressources. Et leur nature multi-domaine d'administration. Dans cette thèse, nous avons proposé une nouvelle approche de passage sur grilles des méthodes exactes de type Branch-and-Bound appelée B&B@Grid. Cette approche est basée sur un codage des unités de travail sous forme d'intervalles permettant de minimiser le coût des communications induites par les opérations de régulation de charge, de tolérance aux pannes et de détection de la terminaison. Cette approche. Environ 100 fois plus performante en terme de coût de communication que la meilleure approche connue. A permis la résolution optimale sur la grille nationale Grid5000 d'une instance standard du problème du Flow-Shop restée non résolue depuis une quinzaine d'années. Pour accélérer la résolution. Nous avons également étudié la coopération sur la grille de la méthode exacte avec une méta-heuristique parallèle hybride. Deux modes de coopération ont été considérés : le mode relais où la méta-heuristique est exécutée avant la méthode exacte, le mode co-évolutionnaire où les deux méthodes sont exécutées en parallèle. La mise en oeuvre d'une telle coopération sur la grille nous a amené il proposer une extension du modèle de coopération Linda
The exact resolution of large combinatorial optimization problems is a challenge for grids. Indeed, it is necessary to rethink the resolution algorithms to take into account the characteristics of such environments, in particular their large-scale, the heterogeneity and the dynamic availability of their resources, and their multi-domain administration. Ln this thesis, we propose a new approach, called B&B@Grid, to adapt exact methods for grids. This approach is based on coding work units in the form of intervals in order to minimize the cost of communications caused by the operations of load balancing, fault tolerance and detection of termination. This approach, about 100 times more efficient than the best known approach in term of communication cost, led to the optimal resolution on the Grid5000 of a standard instance of the Flow-Shop problem remained unsolved for fifteen years. To accelerate the resolution, we also deal with cooperation on the grid of exact methods with meta-heuristics. Two cooperation modes have been considered: the relay mode where a meta-heuristic is performed before an exact method, and the co-evolutionary mode where both methods are executed in parallel. The implementation of this cooperation on a grid has led us to propose an extension of the Linda coordination model
9

Griset, Rodolphe. "Méthodes pour la résolution efficace de très grands problèmes combinatoires stochastiques : application à un problème industriel d'EDF." Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0219/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse s'intéresse à la résolution de très grands problèmes d'optimisation combinatoire stochastique. Les recherches sont appliquées au problème de planification des arrêts pour rechargement des centrales nucléaires. Compte-tenu de la part prépondérante de celles-ci dans le mix-électrique, ce problème structure fortement la chaîne de management d’énergie d'EDF. Une première partie propose une formulation étendue bi-niveau dans laquelle les décisions de premier niveau fixent les plannings d’arrêt et des profils de production des centrales, et celles de second niveau évaluent le coût de satisfaction de la demande associé. Cette formulation permet la résolution à l'optimum d'instances industrielles déterministes par un solveur en PLNE. Dans le cas stochastique, une telle résolution directe du problème n'est plus possible. Nous proposons une formulation permettant d’en résoudre la relaxation linéaire par génération de colonnes et de coupes, correspondant respectivement aux reformulations de Danzig-Wolfe du premier niveau et de Benders du second. Une phase heuristique permet ensuite de déterminer des solutions entières de bonne qualité pour des instances, jusqu'à une cinquantaine de scénarios représentatifs de l’incertitude sur les données. L’apport de l’approche est estimé en utilisant les outils industriels exploités par EDF pour évaluer les plannings. Une seconde partie porte sur l'intégration de méthodes d'optimisation robuste pour la prise en compte d’aléas sur la disponibilité des centrales. Nous nous plaçons dans un cadre où les recours possibles sur les dates d'arrêts ne sont pas exercés. Nous comparons des méthodes bi-objectif et probabiliste permettant de rendre le planning robuste pour les contraintes opérationnelles dont la relaxation est envisageable. Pour les autres, nous proposons une méthode basée sur un budget d’incertitude. Cette méthode permet de renforcer la stabilité du planning en limitant les besoins de réorganisation futurs. La prise en compte d’une loi de probabilité de l’aléa permet d’affiner le contrôle du prix de cette robustesse
The purpose of this Ph.D. thesis is to study optimization techniques for large-scale stochastic combinatorial problems. We apply those techniques to the problem of scheduling EDF nuclear power plant maintenance outages, which is of significant importance due to the major part of the nuclear energy in the French electricity system. We build on a two-stages extended formulation, the first level of which fixes nuclear outage dates and production profiles for nuclear plants, while the second evaluates the cost to meet the demand. This formulation enables the solving of deterministic industrial instances to optimality, by using a MIP solver. However, the computational time increases significantly with the number of scenarios. Hence, we resort to a procedure combining column generation of a Dantzig-Wolfe decomposition with Benders’ cut generation, to account for the linear relaxation of stochastic instances. We then obtain integer solutions of good quality via a heuristic, up to fifty scenarios. We further assume that outage durations are uncertain and that unexpected shutdowns of plants may occur. We investigate robust optimization methods in this context while ignoring possible recourse on power plants outage dates. We report on several approaches, which use bi-objective or probabilistic methods, to ensure the satisfaction of constraints which might be relaxed in the operating process. For other constraints, we apply a budget uncertainty-based approach to limit future re-organizations of the scheduling. Adding probabilistic information leads to better control of the price of the robustness
10

Tran, Khanh Toan. "Déploiement efficace de services complexes dans l'infrastructure de cloud." Phd thesis, Université d'Evry-Val d'Essonne, 2013. http://tel.archives-ouvertes.fr/tel-00875818.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le but du travail réalisé dans cette thèse est de fournir aux fournisseurs de services une solution qui est capable de non seulement déployer les services dans le cloud de façon économique, automatique, mais aussi à grande échelle. La première contribution traite le problème de la construction d'un nouveau service demandé par le client à partir de services disponibles dans le cloud de manière à satisfaire les exigences en termes de qualité de service ainsi qu'en termes de coût. Nous présentons ce problème par un modèle analytique et proposons un algorithme heuristique dont la performance est améliorée de 20-30% par rapport aux autres approches. La seconde contribution est une solution pour déployer les services dans le cloud en considérant les demandes des utilisateurs finaux. Pour assurer qualité de services dans une grande échelle, le service demandé est dupliqué et distribué dans le réseau; chacun de ses réplicas servira les utilisateurs à proximité. Le plan d'approvisionnement selon lequel le service est dupliqué dépend de sa demande, ce qui ne cesse pas de changer en quantité ainsi qu'en distribution, ce qui rend le problème plus compliqué. Nous proposons une solution qui est capable de s'adapter aux changements dans le réseau, y compris ceux des demandes de ses utilisateurs. Enfin, nous proposons un système basé sur OpenStack qui permet de déployer les services complexes dans un cloud qui couvre différente locations (cloud multi-site). A partir d'une demande du client, le système automatiquement calcule le plan d'approvisionnement optimal et le déploie en respectant les contraintes du client.
11

Bouchakhchoukha, Adel. "Modèles de résolution approchée et efficace pour les problèmes des réseaux de transport et de télécommunication." Thesis, Paris 1, 2015. http://www.theses.fr/2015PA010046.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La capacité à gagner du temps et à diminuer ses efforts est l'une des qualités de l'être humain, qui a conduit à exercer la pensée depuis l'Antiquité jusqu'à ces dernières décennies, caractérisées par l'émergence du mélange entre la rapidité des calculs et la précision des résultats, et ce dans plusieurs domaines. Le problème des tournées de véhicules et ses extensions sont, pour les théoriciens de ces utilités, d'une réelle importance quant aux applications du monde réel. Des recherches récentes dans ce domaine ont permis des avancées significatives dans la formulation des problèmes ainsi que dans la conception et l'analyse d'algorithmes. Dans cette étude, nous nous intéressons au problème de la logistique. Notre attention se porte en particulier sur un cas des réseaux de télécommunication, 2ECON-NDPR, et sur la façon de créer des designs d'une manière intelligente pour assurer la vitalité et la durabilité de la circulation de l'information. En outre. Nous choisissons les variantes problème de tournées de véhicules avec fenêtres de temps et problème de tournées de véhicules sélectives des familles VRP et OP respectivement. C'est dans ce cadre que s'inscrit cette thèse. La conception des solutions pour ces problèmes fait appel à la technique de programmation approchée connue pour sa rapidité de calcul. Il s’agit de Beam-search et de la recherche locale à grand voisinage. Nous présentons tout d’abord une étude détaillée des dernières problématiques précitées ainsi que différents types de méthodes de résolutions. Puis, nous exposons une méthode de recherche locale à grand voisinage adaptée pour la conception de réseau de survie avec relais, une proposition d’un algorithme de résolution approchée à trois phases pour le CVRPTW et, enfin, une proposition d'un algorithme de résolution approchée hybride pour le TOP
The need to save time as well as minimize effort is part of the human condition and it has driven our though s from antiquity until these last few decades, now characterized by the emergence of a mix in all fields between rapidity of calculation and precision in the result. The vehicle routing problem and its extensions are an important field for theorists of these utilities for real-world applications. Recent research in the field has led to significant advantages in problem formulation and designing algorithm analyses. This study considers logistics problems. A particular locus was given to a certain case of telecommunications networks 2ECONNDPR, as well as the method of intelligently creating designs to ensure vitality and durability in information circulation. Furthermore, the study considered vehicle routing problems, with time windows and orienteering problems from the VRP and OP families, respectively. This is the framework for this thesis. Solutions to these problems use programming techniques known for their calculation speed, i .e ., Beam-search and very large-scale neighborhood searching. First, a detailed study is presented of these above mentioned problems, along with the various types or resolution methods. Next, a very large-scale neighborhood search method is presented, suited to the design of a survivable network with relay, a proposition for a three-stage heuristic for the capacitated vehicle routing problem with time windows and, finally, a proposition for a hybrid heuristic for the team orienteering problem
12

Mazauric, Dorian. "Optimisation discrète dans les réseaux de télécommunication : reconfiguration du routage, routage efficace en énergie, ordonnancement de liens et placement de données." Phd thesis, Université de Nice Sophia-Antipolis, 2011. http://tel.archives-ouvertes.fr/tel-00643513.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous nous intéressons dans cette thèse à différents types de réseaux (optiques, sans-fil, pair-à-pair) ayant chacun leurs spécificités mais partageant des problématiques communes : assurer la meilleure qualité de services possible, garantir la stabilité du système, minimiser les ressources et donc le coût de fonctionnement. Tout d'abord, nous étudions le problème de la reconfiguration du routage dans les réseaux optiques consistant à rerouter les requêtes de connexion en minimisant les perturbations pour les utilisateurs. Puis, nous nous intéressons au problème de la détermination de routages efficaces en énergie dans les réseaux coeur. Pour ce faire, nous étudions le problème de trouver des routages minimisant le nombre d'équipements utilisés. Ensuite, nous nous intéressons aux algorithmes d'ordonnancement des liens dans les réseaux sans-fil en présence d'interférence. Enfin, nous considérons le problème de stockage de données dans les réseaux pair-à-pair. Nous étudions l'impact de différentes politiques de placement sur la durée de vie des données et nous déterminons un choix de placement optimal. Pour résoudre ces problèmes, nous utilisons les outils théoriques des mathématiques discrètes (graphes, configurations, optimisation combinatoire), d'algorithmique (complexité, algorithmique distribuée) et de probabilités.
13

Arexis, Boisson Lydie. "Étude et optimisation d'un système d'éclairage efficace énergétiquement et adapté aux besoins de ses utilisateurs (santé, sécurité et qualité de vie)." Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2332/.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La perception visuelle de la lumière est un sujet qui interroge depuis des années. Dans cette recherche, nous nous attachons plus particulièrement au confort visuel des êtres humains soumis à une lumière scintillante ou flickering, pouvant présenter des impacts sanitaires non négligeables. Mais comprendre la perception visuelle du flickering, aussi dit contraste de luminance ou chromatique temporel, implique de multiples pré requis. C'est pourquoi, tout au long de ce travail de recherche nous avons une approche pluridisciplinaire, et faisons appel à des connaissances relatives aux êtres humains : physiologie de l'œil humain et ses mécanismes de perception, neurophysiologie, psychologie cognitive, sociologie; mais également relatives à la physique: les sources de lumière, leurs photométrie et colorimétrie, notions d'optique géométrique et modélisation optique, etc. Le terme " confort " étant souvent utilisé à mauvais escient, nous avons tout d'abord réfléchi à définir avec exactitude les notions de confort en le distinguant des termes " qualité de vie " et " bien être ", trop souvent pris pour synonymes. Afin d'y parvenir, nous avons basé notre étude sur une approche cognitive, et nous sommes particulièrement intéressés au cas du confort visuel, en relation avec notre thématique de recherche. Ensuite, une campagne d'expérimentations sur le flickering a été menée. Elle a consisté en l'étude phénoménologique de la perception visuelle du flickering dans différents contextes : couleur de l'environnement et axes de perception visuelle et pour différentes configurations expérimentales. Pour cela, un dispositif expérimental et interactif a été réalisé. Afin de générer le flickering, des diodes électroluminescentes (LEDs) ont été utilisées, et un boîtier de commande a permis la variation de deux paramètres particuliers : la fréquence et le rapport cyclique. Nous avons ainsi créé un signal MLI, et avons fait en sorte que le stimulus soit une lumière indirecte à champ large. De part le logiciel associé aux boîtiers de commande, de nombreux scenarii ont pu être présentés à des observateurs volontaires qui ont donné leur ressenti quand à leur perception du flickering. Les observateurs ont des caractéristiques visuelles similaires (vision emmétrope) et âgés entre 20 et 39 ans. Une approche des résultats pour yeux amétropes a également été débutée. Afin d'analyser plus en détail les réponses expérimentales, une méthode d'optimisation a été utilisée et a mis en évidence des couples optimaux de solutions (fréquence et rapport cyclique) quelle que soit la couleur de l'environnement et quel que soit l'axe de perception visuelle. Nous nous sommes ensuite basés sur ces résultats pour mettre en place des graphes de paramètres physiques de confort visuel du flickering. Enfin, une étude applicative du flickering a été menée. Elle a consisté en la comparaison de la dégradation colorimétrique de tableaux de musées, via échantillons normalisés, éclairés par une lumière continue et une lumière pulsée, à éclairement moyen constant. Les dégradations se sont révélées être du même ordre de grandeur au bout de 635000 lux. H mais l'effet Broca Sulzer ayant été vérifié dans le cadre de nos expériences (la brillance ressentie est plus grande que la brillance réelle) a ainsi permis d'envisager des économies d'énergie
Light visual perception is a topic that interrogates since many years. In this research, we focus particularly on visual comfort of Humans subjected to light flickering, which may have significant health impacts. But in order to understand the visual perception of flickering, also known as luminance or chromatic temporal contrast, multiple prerequisites are required. That is why, throughout this research we have a multidisciplinary approach, and make use of knowledge about Humans: physiology of the human eye and its mechanisms of perception, neurophysiology, cognitive psychology, sociology, but also on the physics of light sources, their photometry and colorimetry, geometrical optic and optical modeling concepts, etc. The term "comfort" is often misused, that's why we first thought to accurately define the notions of comfort and distinguish terms "quality of life" and "well being" too often taken to be synonymous. To achieve this, we based our study on a cognitive approach, and oriented it in the particulary case of visual comfort, in relation to our research topic. Then, an experimental campaign on the flickering was conducted. It consisted in phenomenological study of the visual perception of flickering in different contexts: color of the environment, areas of visual perception for different experimental configurations. For this purpose, an experimental and interactive box was created. To generate the flickering, light emitting diodes ( LEDs) have been used, and a control module were used to change the two particular parameters : frequency and duty cycle. We have created a PWM signal, and have made an indirect light stimulus with a wide field. Due to the associated control module, many scenarii of flicker light have been presented to volunteers who have given their felt. The observers were selected with similar visual characteristics (emmetropic vision) and aged between 20 and 39 years. Some studies on ametropic eyes were also started. To further analyze the experimental results, an optimization method was used. It showed optimal solutions couples (frequency and duty cycle) regardless of the color of the environment and whatever axis of visual perception. We then based on these results to develop graphs of physical parameters of flickering visual comfort. Finally, a flickering application study was conducted. It consisted of comparing the color degradation of museums artworks using standard samples lit with LED power supplied with continuous mode comparing to pulse mode, and creating a constant average illumination. The damage proved to be of the same order at the end of 635000 lux. H. But as we could check the Broca Sulzer effect in our experiments (brightness felt is greater than the physical brightness), we could expect energy savings with flickering
14

Moussa, Ibrahim. "Modèles de résolution approchée et efficace pour les problèmes des réseaux de transport et de télécommunication." Electronic Thesis or Diss., Amiens, 2015. http://www.theses.fr/2015AMIE0009.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse s’intéresse à la résolution de problèmes d’optimisation combinatoires NP-difficiles en utilisant des méthodes de résolution approchées. Deux domaines d’application sont ciblés ici, d’une part la problématique générale du réseau de transport avec une variante portant plus précisément sur la planification des tournées avec une équipe de véhicules, d’autre part le problème de gestion de sessions en mode multicast dans un réseau de télécommunication, abordé ici du point de vue plus général du partitionnement dans un graphe biparti. Ces deux applications sont évidemment d’intérêt, tant du point de vue fondamental pour les méthodes de résolution qui doivent toujours progresser face à de nouveaux challenges, que du point de vue des retombées industrielles potentielles. La résolution de tels problèmes comporte généralement deux phases : dans un premier temps il s’agit de définir un ou plusieurs modèles mathématiques, de les comparer éventuellement pour choisir le plus efficace en fonction des outils de résolution disponibles; dans un deuxième temps il est possible d’utiliser un paradigme de résolution générique, comme par exemple un solveur de programmation linéaire, ou bien de spécialiser un algorithme en y incluant des heuristiques et connaissances spécifiques, afin d’optimiser sa performance. C’est dans cette deuxième démarche que se situe cette thèse, démarche souvent nécessaire lorsque les problèmes abordés deviennent complexes et/ou de grande taille et que l’on souhaite concevoir des algorithmes plus efficaces
This thesis focuses on solving combinatorial optimization problems NP-hard using approximate solving methods. Two practical application areas are targeted here, firstly the general problem of vehicule routing network with a variant specifically with planning tours with a vehicle team, on the other hand the multicast session management problem on a telecommunications network, addressed by the broader perspective of clustering in a bipartite graph. Both applications are obviously of interest both from the fundamental point of view for the resolution methods that must always progress facing new challenges, from the point of view of potential industrial benefits. The resolution of such problems usually has two phases: initially it comes to define one or more mathematical models to compare possibly to choose the most effective according to the available resolution tools; secondly it is possible to use a generic resolution paradigm, such as a linear programming solver, or specialize an algorithm by including specific heuristics and knowledge to optimize its performance. This thesis is in this second approach. This is often necessary when the problems addressed become complex and / or large and that we need to be designing more efficient algorithms
15

Moussa, Ibrahim. "Modèles de résolution approchée et efficace pour les problèmes des réseaux de transport et de télécommunication." Thesis, Amiens, 2015. http://www.theses.fr/2015AMIE0009/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse s’intéresse à la résolution de problèmes d’optimisation combinatoires NP-difficiles en utilisant des méthodes de résolution approchées. Deux domaines d’application sont ciblés ici, d’une part la problématique générale du réseau de transport avec une variante portant plus précisément sur la planification des tournées avec une équipe de véhicules, d’autre part le problème de gestion de sessions en mode multicast dans un réseau de télécommunication, abordé ici du point de vue plus général du partitionnement dans un graphe biparti. Ces deux applications sont évidemment d’intérêt, tant du point de vue fondamental pour les méthodes de résolution qui doivent toujours progresser face à de nouveaux challenges, que du point de vue des retombées industrielles potentielles. La résolution de tels problèmes comporte généralement deux phases : dans un premier temps il s’agit de définir un ou plusieurs modèles mathématiques, de les comparer éventuellement pour choisir le plus efficace en fonction des outils de résolution disponibles; dans un deuxième temps il est possible d’utiliser un paradigme de résolution générique, comme par exemple un solveur de programmation linéaire, ou bien de spécialiser un algorithme en y incluant des heuristiques et connaissances spécifiques, afin d’optimiser sa performance. C’est dans cette deuxième démarche que se situe cette thèse, démarche souvent nécessaire lorsque les problèmes abordés deviennent complexes et/ou de grande taille et que l’on souhaite concevoir des algorithmes plus efficaces
This thesis focuses on solving combinatorial optimization problems NP-hard using approximate solving methods. Two practical application areas are targeted here, firstly the general problem of vehicule routing network with a variant specifically with planning tours with a vehicle team, on the other hand the multicast session management problem on a telecommunications network, addressed by the broader perspective of clustering in a bipartite graph. Both applications are obviously of interest both from the fundamental point of view for the resolution methods that must always progress facing new challenges, from the point of view of potential industrial benefits. The resolution of such problems usually has two phases: initially it comes to define one or more mathematical models to compare possibly to choose the most effective according to the available resolution tools; secondly it is possible to use a generic resolution paradigm, such as a linear programming solver, or specialize an algorithm by including specific heuristics and knowledge to optimize its performance. This thesis is in this second approach. This is often necessary when the problems addressed become complex and / or large and that we need to be designing more efficient algorithms
16

Pieume, Calice Olivier. "Multiobjective optimization approaches in bilevel optimization." Phd thesis, Université Paris-Est, 2011. http://tel.archives-ouvertes.fr/tel-00665605.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
This thesis addresses two important classes of optimization : multiobjective optimization and bilevel optimization. The investigation concerns their solution methods, applications, and possible links between them. First of all, we develop a procedure for solving Multiple Objective Linear Programming Problems (MOLPP). The method is based on a new characterization of efficient faces. It exploits the connectedness property of the set of ideal tableaux associated to degenerated points in the case of degeneracy. We also develop an approach for solving Bilevel Linear Programming Problems (BLPP). It is based on the result that an optimal solution of the BLPP is reachable at an extreme point of the underlying region. Consequently, we develop a pivoting technique to find the global optimal solution on an expanded tableau that represents the data of the BLPP. The solutions obtained by our algorithm on some problems available in the literature show that these problems were until now wrongly solved. Some applications of these two areas of optimization problems are explored. An application of multicriteria optimization techniques for finding an optimal planning for the distribution of electrical energy in Cameroon is provided. Similary, a bilevel optimization model that could permit to protect any economic sector where local initiatives are threatened is proposed. Finally, the relationship between the two classes of optimization is investigated. We first look at the conditions that guarantee that the optimal solution of a given BPP is Pareto optimal for both upper and lower level objective functions. We then introduce a new relation that establishes a link between MOLPP and BLPP. Moreover, we show that, to solve a BPP, it is possible to solve two artificial M0PPs. In addition, we explore Bilevel Multiobjective Programming Problem (BMPP), a case of BPP where each decision maker (DM) has more than one objective function. Given a MPP, we show how to construct two artificial M0PPs such that any point that is efficient for both problems is also efficient for the BMPP. For the linear case specially, we introduce an artificial MOLPP such that its resolution can permit to generate the whole feasible set of the leader DM. Based on this result and depending on whether the leader can evaluate or not his preferences for his different objective functions, two approaches for obtaining efficient solutions are presented
17

Do, Van Dong. "Usinage à grande vitesse efficace basé sur l'identification opérationnelle du comportement dynamique et l'optimisation du support de pièce." Thesis, Université Clermont Auvergne‎ (2017-2020), 2020. http://www.theses.fr/2020CLFAC036.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’usinage à grande vitesse joue aujourd’hui un rôle très important dans l’industrie mécanique. Cependant, les phénomènes vibratoires en usinage peuvent être néfastes à la qualité des pièces usinées, à la productivité et à la durabilité des accessoires, etc. La maîtrise du comportement dynamique du système couplé (machine-outil/broche/outil/pièce/porte-pièce) est la clé primordiale pour la réussite de l’usinage à grande vitesse. Le premier objectif de la thèse a consisté à appliquer des techniques existantes d’identification modale opérationnelle et à proposer de nouvelles techniques d’identification mieux adaptées en tenant compte des spécificités de l’usinage à savoir : la présence des harmoniques très prépondérants, l’excitation aléatoire non contrôlée et non-mesurée, et les réponses seules enregistrées. Trois nouvelles procédures d’identification modale opérationnelle ont été proposées : la méthode de transmissibilité (PSDTM-SVD) (i) combinée avec les valeurs de kurtosis et les histogrammes, (ii) ou hybridée avec les fonctions d’autocorrélation, (iii) et la nouvelle méthode SCA-FDD basée sur la séparation aveugle de sources. L’efficacité des méthodes proposées a été validée par des exemples numériques et un test expérimental. Le deuxième objectif de la thèse a consisté à proposer une nouvelle conception du support de pièce en utilisant des matériaux innovants, afin de rendre le comportement dynamique optimal vis-à-vis de la stabilité d’usinage. Pour augmenter les performances d’usinage, le nouveau support en matériau composite doit posséder une raideur au moins égale à celle du support existant en aluminium tout en ayant un taux d’amortissement plus élevé. Un nouveau composite stratifié hybride renforcé par des fibres de carbone et des fibres de lin est alors proposé. Cette combinaison permet d’allier les avantages des deux types de fibres dans un même composite. Des supports de pièce en composite stratifié hydride carbone-lin avec différentes séquences d’empilement ont été fabriqués pour des essais de validation. Dans le cas d’usinage avec les supports de pièce en composite, la stabilité d’usinage est fortement augmentée par rapport au support initial en aluminium. Parmi les différentes séquences d’empilement, le support de pièce en composite hybride carbone-lin [C6/L8/C6] est la solution optimale en termes de performance d’usinage et d’impact environnemental. Cette solution permet d’augmenter la stabilité d’usinage de 283 % avec un taux de fibres végétales de 14 %
High-speed machining plays a very important role in the engineering industry today. However, vibration phenomena during machining process can be detrimental to the quality of machined workpiece, the productivity and the durability of accessories, etc. Mastering the dynamic behavior of the coupled system (machine tool/spindle/tool/workpiece/workpiece holder) is the primordial key to successful high speed machining. The first objective of the thesis consisted in applying existing techniques of operational modal identification and proposing new identification techniques better adapted to take into account the specificities of machining: the presence of very predominant harmonics, the uncontrolled and unmeasured random excitation, and responses only recorded. Three new operational modal identification procedures have been proposed: the transmissibility method (PSDTM-SVD) (i) combined with kurtosis values and histograms, (ii) or hybridized with autocorrelation functions, (iii) and the new SCA-FDD method based on blind source separation. The effectiveness of the proposed methods has been validated by numerical examples and an experimental test. The second objective of the thesis was to propose a new design of the workpiece support using innovative materials, in order to make the dynamic behavior optimal with respect to machining stability. To increase the machining performance, the new composite workpiece holder must have a stiffness at least equal to that of the initial aluminum workpiece holder while having a higher damping ratio. A new hybrid composite laminate reinforced by carbon and flax fibers is then proposed. This combination enables to combine the advantages of two fiber types in a composite. Workpiece holders in carbon-flax hybrid composite laminates with different stacking sequences were fabricated for validation tests. In the case of machining with the composite workpiece holders, the machining stability is greatly increased compared to the initial aluminum workpiece holder. Among the different stacking sequences, the carbon-flax hybrid composite workpiece holder [C6/L8/C6] is the optimal solution in terms of machining performance and environmental impact. This solution increases machining stability by 283 % with a vegetable fiber volume ratio of 14 %
18

Alaoui, Fdili Othmane. "Optimisation multicritères de la qualité de service dans les réseaux de capteurs multimédia sans fil." Thesis, Valenciennes, 2015. http://www.theses.fr/2015VALE0016/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les progrès réalisés en systèmes micro-électro-mécaniques couplés avec leur convergence vers les systèmes de communication sans fil, ont permis l'émergence des réseaux de capteurs sans fil (RCSF). Les contraintes de ces réseaux font que tous les efforts soient fournis pour proposer des solutions économes en énergie. Avec les récents développements des technologies CMOS, des capteurs d'images à faible coût ont été développés. En conséquence, un nouveau dérivé des RCSF, qui sont les Réseaux de Capteurs Vidéo Sans Fil (RCVSF), a été proposé. La particularité des données vidéo ainsi que les contraintes inhérentes aux nœuds ont introduit de nouveaux défis. Dans cette thèse, nous proposons deux solutions basées sur l'approche inter-couches pour la livraison de la vidéo sur les RCVSF. La première solution propose un nouveau schéma de compression vidéo adaptatif, efficace en énergie et basé sur la norme de compression vidéo H.264/AVC. Le flux vidéo est ensuite géré par une version améliorée du protocole MMSPEED que nous proposons et notons EQBSA-MMSPEED. Les résultats des simulations montrent que la durée de vie du réseau est étendue de 33%, tout en améliorant la qualité du flux vidéo reçu de 12%. Dans la deuxième solution, nous enrichissons le schéma de compression de modèles mathématiques pour prévoir la consommation d'énergie et la distorsion de l'image lors des phases d'encodage et de transmission. Le flux vidéo est géré par un nouveau protocole de routage efficace en énergie et à fiabilité améliorée noté ERMM. Comparée à une approche basique, cette solution réalise une extension de la durée de vie du réseau de 15%, tout en améliorant la qualité du flux vidéo reçu de 35%
Thanks to the valuable advances in Micro Electro-Mechanical Systems coupled with their convergence to wireless communication systems, the Wireless Sensor Networks (WSN). In the WSN context, all the efforts are made in order to propose energy-efficient solutions. With the recent developments in CMOS technology, low-cost imaging sensors have been developed. As a result, a new derivative of the WSN, which is the Wireless Video Sensor Network (WVSN), has been proposed. The particularities of the video data as well as the inherent constraints of the nodes have introduced new challenges. In this thesis, we propose two cross-layer based solutions for video delivery over the WVSN. The first solution proposes a new energy efficient and adaptive video compression scheme dedicated to the WVSNs, based on the H.264/AVC video compression standard. The video stream is then handled by an enhanced version of MMSPEED protocol, that we propose and note EQBSA-MMSPEED. Performance evaluation shows that the lifetime of the network is extended by 33%, while improving the video quality of the received stream by 12%. In the second solution, we enrich our compression scheme with mathematical models to predict the energy consumption and the video distortion during the encoding and the transmission phases. The video stream is then handled by a novel energy efficient and improved reliability routing protocol, that we note ERMM. Compared to a basic approach, this solution is extending the network lifetime by 15%, while improving the quality of the received video stream by 35%
19

Liu, Ziming. "Méthodes hybrides d'intelligence artificielle pour les applications de navigation autonome." Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ4004.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La navigation autonome est une tâche difficile qui a un large éventail d'applications dans le monde réel. Le système de navigation autonome peut être utilisé sur différentes plateformes, telles que les voitures, les drones et les robots. Ces systèmes autonomes réduiront considérablement le travail humain et amélioreront l'efficacité du système de transport actuel. Certains systèmes autonomes ont été utilisés dans des scénarios réels, comme les robots de livraison et les robots de service. Dans le monde réel, les systèmes autonomes doivent construire des représentations de l'environnement et se localiser pour interagir avec l'environnement. Différents capteurs peuvent être utilisés pour atteindre ces objectifs. Parmi eux, le capteur caméra est le meilleur choix entre le coût et la fiabilité. Actuellement, la navigation autonome visuelle a connu des améliorations significatives grâce à l'apprentissage profond. Les méthodes d'apprentissage profond présentent des avantages pour la perception de l'environnement. Cependant, elles ne sont pas robustes pour la localisation visuelle où les méthodes basées sur des modèles ont des résultats plus fiables. Afin d'utiliser les avantages des méthodes basées sur les données et sur les modèles, une méthode hybride d'odométrie visuelle est étudiée dans cette thèse. Tout d'abord, des méthodes d'optimisation efficaces sont essentielles pour les méthodes basées sur les modèles et les méthodes basées sur les données qui partagent la même théorie d'optimisation. Actuellement, la plupart des réseaux d'apprentissage profond sont encore formés avec des optimiseurs de premier ordre inefficaces. Par conséquent, cette thèse propose d'étendre les méthodes d'optimisation efficaces basées sur les modèles pour former les réseaux d'apprentissage profond. La méthode Gaussienne-Newton et les méthodes efficaces de second ordre sont appliquées pour l'optimisation de l'apprentissage profond. Deuxièmement, la méthode d'odométrie visuelle basée sur un modèle repose sur des informations préalables sur la profondeur, l'estimation robuste et précise de la profondeur est essentielle pour la performance du module d'odométrie visuelle. Sur la base de la théorie traditionnelle de la vision par ordinateur, la vision stéréo peut calculer la profondeur avec l'échelle correcte, ce qui est plus fiable que les solutions monoculaires. Toutefois, les réseaux stéréoscopiques 2D-3D actuels à deux niveaux présentent des problèmes d'annotations de profondeur et d'écart entre les domaines de disparité. En conséquence, un réseau stéréo supervisé par la pose et un réseau stéréo adaptatif sont étudiés. Toutefois, les performances des réseaux en deux étapes sont limitées par la qualité des caractéristiques 2D qui construisent le volume de coût de l'appariement stéréo. Au lieu de cela, un nouveau réseau stéréo 3D en une étape est proposé pour apprendre les caractéristiques et l'appariement stéréo implicitement en une seule étape. Troisièmement, pour assurer la robustesse du système, le réseau stéréo et le module d'odométrie visuelle directe dense sont combinés pour créer une odométrie visuelle directe dense hybride stéréo (HDVO). L'odométrie visuelle directe dense est plus fiable que la méthode basée sur les caractéristiques, car elle est optimisée à partir des informations globales de l'image. L'HDVO est optimisée avec la perte de minimisation photométrique. Cependant, cette perte souffre de bruits provenant de la zone d'occlusion, de la zone de texture homogène et des objets dynamiques. Cette thèse étudie la suppression des valeurs de perte bruitées à l'aide de masques binaires. De plus, pour réduire les effets des objets dynamiques, les résultats de la segmentation sémantique sont utilisés pour améliorer ces masques. Enfin, pour être généralisée à un nouveau domaine de données, une méthode d'entraînement test-temps pour l'odométrie visuelle est explorée
Autonomous driving is a challenging task that has a wide range of applications in the real world. The autonomous driving system can be used in different platforms, such as cars, drones, and robots. These autonomous systems will reduce a lot of human labor and improve the efficiency of the current transportation system. Some autonomous systems have been used in real scenarios, such as delivery robots, and service robots. In the real world, autonomous systems need to build environment representations and localize themselves to interact with the environment. There are different sensors can be used for these objectives. Among them, the camera sensor is the best choice between cost and reliability. Currently, visual autonomous driving has achieved significant improvement with deep learning. Deep learning methods have advantages for environment perception. However, they are not robust for visual localization where model-based methods have more reliable results. To utilize the advantages of both data-based and model-based methods, a hybrid visual odometry method is explored in this thesis. Firstly, efficient optimization methods are critical for both model-based and data-based methods which share the same optimization theory. Currently, most deep learning networks are still trained with inefficient first-order optimizers. Therefore, this thesis proposes to extend efficient model-based optimization methods to train deep learning networks. The Gaussian-Newton and the efficient second-order methods are applied for deep learning optimization. Secondly, the model-based visual odometry method is based on the prior depth information, the robust and accurate depth estimation is critical for the performance of visual odometry module. Based on traditional computer vision theory, stereo vision can compute the depth with the correct scale, which is more reliable than monocular solutions. However, the current two-stage 2D-3D stereo networks have the problems of depth annotations and disparity domain gap. Correspondingly, a pose-supervised stereo network and an adaptive stereo network are investigated. However, the performance of two-stage networks is limited by the quality of 2D features that build stereo-matching cost volume. Instead, a new one-stage 3D stereo network is proposed to learn features and stereo-matching implicitly in a single stage. Thirdly, to keep robust, the stereo network and the dense direct visual odometry module are combined to build a stereo hybrid dense direct visual odometry (HDVO). Dense direct visual odometry is more reliable than the feature-based method because it is optimized with global image information. The HDVO is optimized with the photometric minimization loss. However, this loss suffers noises from the occlusion area, homogeneous texture area, and dynamic objects. This thesis explores removing noisy loss values with binary masks. Moreover, to reduce the effects of dynamic objects, semantic segmentation results are used to improve these masks. Finally, to be generalized for a new data domain, a test-time training method for visual odometry is explored. These proposed methods have been evaluated on public autonomous driving benchmarks, and show state-of-the-art performances
20

Grivet, Sébastien. "Dépliages efficaces de réseaux de Petri." Bordeaux 1, 2004. http://www.theses.fr/2004BOR12915.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous nous intéressons à la vérification de systèmes concurrents tels que les automates communicants et les réseaux de Petri. La vérification de tels systèmes est difficile parce que la présence des composants concurrents augmente de façon importante le nombre des états globaux. Divers techniques ont été proposées pour combattre ce phénomène d'explosion combinatoire. Dans cette thèse, nous nous concentrons sur la technique de dépliage de réseau de Petri. Cette technique tire parti de l'indépendance des actions pour donner une représentation concise des états d'un réseau de Petri. De nombreux travaux ont été réalisés dans ce domaine, mais les aspects d'implémentation ont été souvent négligés. A partir d'une étude expérimentale, nous mettons en avant les parties critiques d'un algorithme de dépliage. Nous proposons de nouvelles stratégies pour diminuer le temps et ccupation-mémoire du calcul. Certaines sont basées sur des techniques de cache et d'autres réduisent le nombre d'appels aux fonctions critiques. Nous introduisons ensuite un nouveau modèle: le produit de réseaux de Petri symétriques. Il nous permet d'effectuer le dépliage de façon modulaire. Nous l'appliquons au produit d'automates. Et les symétries nous permettent d'utiliser des files non bornées. Ces travaux aboutissent à la réalisation d'un outil, l'outil KissPN.
21

Bompard, Manuel. "MODÈLES DE SUBSTITUTION POUR L'OPTIMISATION GLOBALE DE FORME EN AÉRODYNAMIQUE ET MÉTHODE LOCALE SANS PARAMÉTRISATION." Phd thesis, Université Nice Sophia Antipolis, 2011. http://tel.archives-ouvertes.fr/tel-00771799.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'optimisation aérodynamique de forme est un domaine de recherche très actif ces dernières années, en raison notamment de l'importance de ses applications industrielles. Avec le développement de la méthode adjointe, il est aujourd'hui possible de calculer rapidement, et indépendamment du nombre de paramètres de forme, le gradient des fonctions d'intérêt par rapport à ces paramètres. Cette étude concerne l'utilisation des dérivées ainsi obtenues pour perfectionner les algorithmes d'optimisation locale et globale. Dans une première partie, il s'agit d'utiliser ces gradients pour la construction de modèles de substitution, et de profiter de ces modèles pour réduire le coût des méthodes d'optimisation globale. Plusieurs types de modèles sont présentés et combinés à un algorithme de type " évolution différentielle " en utilisant la méthode EGO (Efficient Global Optimization). Cette procédure est appliquée à l'optimisation de fonctions mathématiques, puis à des cas test d'optimisation aérodynamique autour de profils d'aile. Les résultats sont concluants : l'utilisation d'un modèle de substitution permet de réduire sensiblement le nombre d'évaluations nécessaire du modèle physique, et la prise en compte des gradients accentue ce résultat. Dans la seconde partie de ce travail, la méthode adjointe est utilisée pour calculer le gradient des fonctions d'intérêt par rapport aux coordonnées des noeuds de la surface du profil. Un algorithme d'optimisation locale est alors appliqué en utilisant ces points comme paramètres de l'optimisation et le champ de gradient lissé comme direction de descente. Si l'étude est encore à approfondir, les résultats sont encourageants.
22

Suarez, Rivera Luis Alberto. "Optimisation des techniques et déploiements radio pour les réseaux efficaces en énergie." Télécom Bretagne, 2013. http://www.telecom-bretagne.eu/publications/publication.php?idpublication=14140.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le monde des technologies de l'information et de la communication est en phase d'évolution permanente. Ces progrès sont accompagnés d'une croissance très rapide du trafic de données, en particulier celui des réseaux mobiles sans fil. Une conséquence importante est l'augmentation de l'énergie consommée par le réseau, en particulier le réseau d'accès (et notamment les stations de base). Les coûts opérationnels relatifs à l'énergie des opérateurs commencent à représenter une part très importante. En plus de la question de la disponibilité de l'énergie, cette problématique a un aspect écologique, dû aux émissions de CO2 associées au fonctionnement du réseau et un aspect de santé publique, en lien avec les effets des rayonnements électromagnétiques des réseaux sans-fils. Pour ces raisons, un grand nombre de travaux de recherche dans le domaine dit de la Green Radio a vu le jour depuis quelques années. L'objectif de cette thèse était de trouver des solutions pour réduire la consommation d'énergie des réseaux sans-fils et mobiles tout en tenant compte des niveaux de QoS attribués aux utilisateurs. Après un état de l'art des différentes approches possibles, nous avons proposé des techniques basées principalement sur le cell-breathing ou respiration de cellules et les réseaux cellulaires hybrides (macro et femto-cellules). Nos techniques de prise de décisions proposées, présentent des stratégies distribuées et d'autres nouveautés comme l'utilisation de techniques multimétriques. Dans nos travaux, nous prenons aussi en compte la consommation d'énergie des terminaux mobiles, une question peu traitée jusqu'à présent. L'utilisation d'énergies renouvelables est incluse dans nos propositions. Nos travaux de thèse incluent l'étude des conséquences de nos algorithmes de gestion des ressources radio sur le rayonnement électromagnétique, en tenant compte des seuils requis pour les services. Dans les perspectives de continuation de nos travaux de recherche, nous pouvons mentionner l'amélioration de nos techniques avec des mécanismes d'apprentissage et de la radio cognitive
The world of information technology and communications is in a stage of continuous improvement. These new developments are accompanied by a very rapid data traffic growth, particularly for mobile wireless networks. An important effect is the increase of the consumed energy by the network, particularly the radio access section, i. E. The base station systems. This latter issue causes that operational costs associated to energy consumption become more significant for telecommunication operators. In addition to the question of the availability of energy, this problem has an ecological aspect, due to the CO2 emissions associated with the operation of the network but also an issue related to public health given the effects of electromagnetic radiation from wireless transmission. For these reasons, great research efforts in the so-called field of Green Radio are being done in the recent years. The aim of this thesis consisted of finding ways to reduce the energy consumption in wireless and mobile networks respecting the QoS levels assigned to users. After a study of the state of the art analysing the possible approaches, we proposed a set of energy efficient techniques supported on the cell breathing and hybrid cellular networks (macro/femtocells). Our proposed decision making mechanisms include distributed strategies and other features such as the use of a novel multimetric approach. In our work, we also take into account the energy consumption of mobile devices, an issue that to the best of our knowledge was not quite analysed so far. The use of renewable energy sources is also considered into our proposals. Our thesis work includes the study of the consequences of our radio resource management algorithms on the electromagnetic radiation taking into account the acceptable EM exposure thresholds. In the perspectives of future work, we can mention the improvement of our techniques with learning mechanisms and cognitive radio
23

Zucca, Vincent. "Towards efficient arithmetic for Ring-LWE based homomorphic encryption." Electronic Thesis or Diss., Sorbonne université, 2018. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2018SORUS080.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le chiffrement totalement homomorphe est un type de chiffrement qui permet de manipuler directement des données chiffrées. De cette manière, il est possible de traiter des données sensibles sans avoir à les déchiffrer au préalable, permettant ainsi de préserver la confidentialité des données traitées. À l'époque du numérique à outrance et du "cloud computing" ce genre de chiffrement a le potentiel pour impacter considérablement la protection de la vie privée. Cependant, du fait de sa découverte récente par Gentry en 2009, nous manquons encore de recul à son propos. C'est pourquoi de nombreuses incertitudes demeurent, notamment concernant sa sécurité et son efficacité en pratique, et devront être éclaircies avant une éventuelle utilisation à large échelle. Cette thèse s'inscrit dans cette problématique et se concentre sur l'amélioration des performances de ce genre de chiffrement en pratique. Pour cela nous nous sommes intéressés à l'optimisation de l'arithmétique utilisée par ces schémas, qu'elle soit sous-jacente au problème du "Ring-Learning With Errors" sur lequel la sécurité des schémas considérés est basée, ou bien spécifique aux procédures de calculs requises par certains de ces schémas. Nous considérons également l'optimisation des calculs nécessaires à certaines applications possibles du chiffrement homomorphe, et en particulier la classification de données privées, de sorte à proposer des techniques de calculs innovantes ainsi que des méthodes pour effectuer ces calculs de manière efficace. L'efficacité de nos différentes méthodes est illustrée à travers des implémentations logicielles et des comparaisons aux techniques de l'état de l'art
Fully homomorphic encryption is a kind of encryption offering the ability to manipulate encrypted data directly through their ciphertexts. In this way it is possible to process sensitive data without having to decrypt them beforehand, ensuring therefore the datas' confidentiality. At the numeric and cloud computing era this kind of encryption has the potential to considerably enhance privacy protection. However, because of its recent discovery by Gentry in 2009, we do not have enough hindsight about it yet. Therefore several uncertainties remain, in particular concerning its security and efficiency in practice, and should be clarified before an eventual widespread use. This thesis deals with this issue and focus on performance enhancement of this kind of encryption in practice. In this perspective we have been interested in the optimization of the arithmetic used by these schemes, either the arithmetic underlying the Ring Learning With Errors problem on which the security of these schemes is based on, or the arithmetic specific to the computations required by the procedures of some of these schemes. We have also considered the optimization of the computations required by some specific applications of homomorphic encryption, and in particular for the classification of private data, and we propose methods and innovative technics in order to perform these computations efficiently. We illustrate the efficiency of our different methods through different software implementations and comparisons to the related art
24

Marmion, Marie-Eleonore. "Recherche locale et optimisation combinatoire : de l'analyse structurelle d'un problème à la conception d'algorithmes efficaces." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2011. http://tel.archives-ouvertes.fr/tel-00682776.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les problèmes d'optimisation combinatoire sont généralement NP-difficiles et les méthodes exactes demeurent inefficaces pour les résoudre rapidement. Les métaheuristiques sont des méthodes génériques de résolution connues et utilisées pour leur efficacité. Elles possèdent souvent plusieurs paramètres qui s'avèrent fastidieux à régler pour obtenir de bonnes performances. Il est alors intéressant de chercher à rendre plus évident, voire à automatiser, ce réglage des paramètres. Le paysage d'un problème d'optimisation combinatoire est une structure, basée sur la notion de voisinage, permettant de caractériser le problème puis de suivre la dynamique d'une méthode d'optimisation pour comprendre son efficacité. Les travaux de cette thèse portent sur l'analyse de paysage de problèmes d'optimisation combinatoire et le lien étroit avec certaines classes de métaheuristiques, basées sur une exploration du voisinage des solutions. Ainsi, nous montrons l'influence de la structure de paysage sur la dynamique d'une métaheuristique, pour deux problèmes issus de la logistique. Ensuite, nous analysons les caractéristiques du paysage qui permettent de concevoir et/ou paramétrer des métaheuristiques, principalement des recherches locales, efficaces. La neutralité est, en particulier, une caractéristique structurelle importante des paysages. De tels paysages présentent de nombreux plateaux bloquant la progression d'une recherche locale. Après une analyse fine des plateaux, nous prouvons que cette structure neutre ne doit pas être ignorée. Puis, nous utilisons plusieurs informations liées à la neutralité, et plus particulièrement aux plateaux bloquants, pour concevoir une première recherche locale simple à mettre en œuvre et efficace. Enfin, pour approfondir nos travaux sur les structures neutres, nous avons choisi d'exploiter la neutralité à tous les niveaux du paysage pour concevoir une nouvelle recherche locale basée sur la capacité des solutions d'un même plateau à produire une amélioration. Une stratégie de guidage vers cette solution est alors proposée. La thèse se termine par l'analyse comparative des deux méthodes d'optimisation proposées pour les problèmes neutres afin d'en exploiter de nouvelles caractéristiques, et ainsi, renforcer le lien entre l'analyse de paysage et la conception de méthodes efficaces.
25

Kessaci, Marie-Éléonore. "Recherche locale et optimisation combinatoire : de l'analyse structurelle d'un problème à la conception d'algorithmes efficaces." Thesis, Lille 1, 2011. http://www.theses.fr/2011LIL10169/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les problèmes d'optimisation combinatoire sont généralement NP-difficiles et les méthodes exactes demeurent inefficaces pour les résoudre rapidement. Les métaheuristiques sont des méthodes génériques de résolution connues et utilisées pour leur efficacité. Elles possèdent souvent plusieurs paramètres qui s'avèrent fastidieux à régler pour obtenir de bonnes performances. Il est alors intéressant de chercher à rendre plus évident, voire à automatiser, ce réglage des paramètres. Le paysage d'un problème d'optimisation combinatoire est une structure, basée sur la notion de voisinage, permettant de caractériser le problème puis de suivre la dynamique d'une méthode d'optimisation pour comprendre son efficacité. Les travaux de cette thèse portent sur l'analyse de paysage de problèmes d'optimisation combinatoire et le lien étroit avec certaines classes de métaheuristiques, basées sur une exploration du voisinage des solutions. Ainsi, nous montrons l'influence de la structure de paysage sur la dynamique d'une métaheuristique, pour deux problèmes issus de la logistique. Ensuite, nous analysons les caractéristiques du paysage qui permettent de concevoir et/ou paramétrer des métaheuristiques, principalement des recherches locales, efficaces. La neutralité est, en particulier, une caractéristique structurelle importante des paysages. De tels paysages présentent de nombreux plateaux bloquant la progression d'une recherche locale. Après une analyse fine des plateaux, nous prouvons que cette structure neutre ne doit pas être ignorée. Puis, nous utilisons plusieurs informations liées à la neutralité, et plus particulièrement aux plateaux bloquants, pour concevoir une première recherche locale simple à mettre en œuvre et efficace. Enfin, pour approfondir nos travaux sur les structures neutres, nous avons choisi d'exploiter la neutralité à tous les niveaux du paysage pour concevoir une nouvelle recherche locale basée sur la capacité des solutions d'un même plateau à produire une amélioration. Une stratégie de guidage vers cette solution est alors proposée. La thèse se termine par l'analyse comparative des deux méthodes d'optimisation proposées pour les problèmes neutres afin d'en exploiter de nouvelles caractéristiques, et ainsi, renforcer le lien entre l'analyse de paysage et la conception de méthodes efficaces
Many problems from combinatorial optimization are NP-hard, so that exact methods remain inefficient to solve them efficiently. However, metaheuristics are approximation methods known and used for their efficiency. But they often require a lot of parameters, which are very difficult to set in order to provide good performance. As a consequence, a challenging question is to perform such parameter tuning easier, or adaptive.The fitness landscape of given combinatorial optimization problem, based on a search space, a fitness function and a neighborhood relation, allow to characterize the problem structure and make the understanding of the dynamics of search approches possible.This thesis deals with fitness landscape analysis, together with the link with some neighborhood-based metaheuristic classes. We show the influence of the landscape structure on the dynamics of metaheuristics, for two challenging problems from the field of logistics. We analyze the landscape characteristics which help to design efficient local search metaheuristics and/or to set their parameters.Neutrality is one of the main structural characteristic of a landscape. Such landscapes have numerous plateaus, which often inhibits the progress of local search algorithms. After a deep analysis of these plateaus, we prove that this neutral structure cannot be ignored. Then, we use several information linked with neutrality, and particularly with blocking plateaus, in order to design a first local search approach, which appear to efficient and easy to implement. At last, in order to extend our work on the neutral structure, we chose to exploit the neutrality involved in the whole landscape. We propose a new local search algorithm, based on the ability of solutions of a plateau to produce improvement by means of a guiding strategy.The thesis ends with an experimental analysis of the two local search methods presented for neutral problems in order to exploit new characteristics, and then to strengthen the link between fitness landscape analysis and efficient algorithm design
26

Leconte, Pierre. "Développement et optimisation de techniques de mesure par spectrométrie gamma." Clermont-Ferrand 2, 2006. https://theses.hal.science/docs/00/70/33/03/PDF/2006CLF21684.PDF.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le cadre de l'amélioration et de la qualification des formulaires de calcul neutronique, ce travail de thèse consiste en la conception, l'optimisation et le développement de techniques de mesure par spectrométrie gamma de paramètres intégraux, dans les réacteurs EOLE et MINERVE. L'objectif est d'aboutir à des résultats de mesure maîtrisés et d'incertitude réduite. In fine, les progrès réalisés visent à progresser sur l'interprétation des écarts calcul / expérience et à améliorer la connaissance de données nucléaires de base et en particulier de sections efficaces intégrales de capture et de fission
27

Hugot, Hadrien. "Approximation et énumération des solutions efficaces dans les problèmes d'optimisation combinatoire multi-objectif." Paris 9, 2007. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2007PA090028.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur la résolution de problèmes d'optimisation combinatoire multi-objectif. La résolution de ces problèmes passe par la détermination de l'ensemble des solutions efficaces. Cependant, il peut s'avérer que le nombre de solutions efficaces soit très grand. Approcher l'ensemble des solutions efficaces d'un tel problème constitue, dès lors, un sujet de recherche central dans ce domaine. Les approches existantes sont souvent basées sur des méthodes approchées, de type (méta-)heuristiques, donc sans garantie sur la qualité des solutions trouvées. Des algorithmes d'approximation (à garantie de performance) ont aussi été développés pour certains problèmes, sans toutefois avoir été conçus en vue d'une mise en œuvre pratique. Dans cette thèse, nous nous sommes attachés à concevoir des approches visant à concilier à la fois les qualités des méthodes approchées et celles des méthodes d'approximation. Pour ce faire, nous proposons, dans un contexte général où les solutions sont comparées à l'aide d'une relation de préférence pouvant être non-transitive, un cadre de Programmation Dynamique Généralisée (PDG). Ce cadre est basé sur une extension du concept de relations de dominance utilisées dans la PD. Il permet, notamment, de concevoir des méthodes exactes et d'approximation qui se sont avérées particulièrement efficaces en pratique pour résoudre le problème du sac-à-dos multi-objectif 0-1. Enfin, une dernière partie de notre travail a porté sur l'apport d'une modélisation multicritère pour résoudre, dans un contexte réel, le problème d'association de données. Ceci nous a conduits à nous intéresser au problème d'affectation multi-objectif et à sa résolution au sein de notre cadre de PDG
This thesis deals with the resolution of multi-objective combinatorial optimization problems. A first step in the resolution of these problems consists in determining the set of efficient solutions. Nevertheless, the number of efficient solutions can be very huge. Approximating the set of efficient solutions for these problems constitutes, then, a major challenge. Existing methods are usually based on approximate methods, such as heuristics or meta-heuristics, that give no guarantee on the quality of the computed solutions. Alternatively, approximation algorithms (with provable guarantee) have been also designed. However, practical implementations of approximation algorithms are cruelly lacking and most of the approximation algorithms proposed in the literature are not efficient in practice. This thesis aims at designing approaches that conciliate on the one hand the qualities of the approximate approaches and on the other hand those of the approximation approaches. We propose, in a general context, where the preference relation used to compare solutions is not necessarily transitive, a Generalized Dynamic Programming (GDP) framework. GDP relies on an extension of the concept of dominance relations. It provides us, in particular, with exact and approximation methods that have been proved to be particularly efficient in practice to solve the 0-1 multi-objective knapsack problem. Finally, a last part of our work deals with the contributions of a multi-criteria modelling for solving, in real context, the data association problem. This led us to study the multi-objective assignment problem and, in particular, the resolution of this problem by the means of our GDP framework
28

Campos, Ciro Guillermo. "Développement de méthodes d'ordonnancement efficaces et appliquées dans un système de production mécanique." Thesis, Troyes, 2015. http://www.theses.fr/2015TROY0035/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’évolution continue des environnements de production et l’augmentation des besoins des clients, demandent un processus de production plus rapide et efficace qui contrôle plusieurs paramètres en même temps. Nous nous sommes intéressés au développement de méthodes d’aide à la décision qui permettent d’améliorer l’ordonnancement de la production. L’entreprise partenaire (Norelem) fabrique des pièces de précision mécanique, il faut donc prendre en compte les différentes contraintes de ressources (humaines et d’outillage) existantes dans l’atelier de production.Nous avons abordé l’étude d’un atelier d’ordonnancement de type open shop ou chemin ouvert, où une tâche peut avoir de multiples séquences de production puisque l’ordre de fabrication n’est pas fixé et l’objectif à minimiser est le temps total de séjour. Des contraintes d’affectation de ressources humaines (multi-compétences) et de disponibilité d’outillage ont été prises en compte.Des modèles mathématiques linéaires et non-linéaires ont été développés pour décrire la problématique. Etant donné que les méthodes exactes sont limitées aux instances de petites tailles à cause des temps de calcul, des méthodes de résolution approchées ont été proposées et comparées. De plus, nous avons abordé l’optimisation multi-objectif en considérant trois objectifs, la minimisation du temps total de séjour et l’équilibrage de charge des ressources (humaines et machines).L’efficacité des méthodes est prouvée grâce à des tests sur des instances théoriques et l’application au cas réel
The continuous evolution of manufacturing environments and the growing of customer needings, leads to a faster and more efficient production process that controls an increasing number of parameters. This thesis is focused on the development of decision making methods in order to improve the production scheduling. The industrial partner (Norelem) produces standardized mechanical elements, so many different resource constraints (humans and tools) are presented in its workshop.We study an open shop scheduling problem where one job can follow multiple production sequences because there is no fixed production sequence and the objective function is to minimize the total flow time. In addition, multi-skilled personnel assignment and tool’s availability constraints are involved.Mathematical models: linear and non-linear formulations have been developed to describe the problem. Knowing the exact method limitations in terms of instance sizes because of the duration, heuristics methods have been proposed and compared. Besides that, the multi-objective optimization was exposed to deal with three objectives as total flow time minimization and workload balancing concerning both, humans and machines.The efficiency of these methods was proved by several theoretical instance tests and the application on the real industrial case
29

Diolez, Gilles. "Maîtrise de la position géométrique des solides : vers de nouveaux outils plus efficaces." Phd thesis, Paris, ENSAM, 2006. http://pastel.archives-ouvertes.fr/pastel-00002351.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'axe conducteur de ce travail réside dans la maîtrise du positionnement relatif de deux solides. Pour positionner il faut mesurer. Dans ce travail, nous proposons une analyse conceptuelle des moyens de mesure existants. Certains permettent d'évaluer la position en suivant plusieurs coordonnées simultanément. Ainsi il est possible de "globaliser" l'acquisition. A partir de ce type de mesure, nous proposons des méthodes de dépouillement pour identifier les paramètres du modèle d'erreur, ainsi qu'un calcul de l'incertitude associée. Nous avons développé un principe de mesure permettant l'acquisition simultanée des 6 paramètres de position d'un solide, basé sur l'exploitation d'instruments de mesure de longueurs implantés suivant une architecture parallèle. La conception des instruments de mesure de longueurs a été déclinée sur plusieurs réalisations correspondant à des conditions de mise en oeuvre différentes. Nous sommes parvenus à obtenir une précision de ±3 μm sur une course de 600 mm.
30

Fernbach, Pierre. "Modèles réduits fiables et efficaces pour la planification et l'optimisation de mouvement des robots à pattes en environnements contraints." Thesis, Toulouse 3, 2018. http://www.theses.fr/2018TOU30232.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La synthèse automatique du mouvement de robots à pattes est un enjeu majeur de la robotique: sa résolution permettrait le déploiement des robots hors de leurs laboratoire. Pour y parvenir, cette thèse suit l'approche "diviser pour régner", où le problème est décomposé en plusieurs sous-problèmes résolus séquentiellement. Cette décomposition amène alors la question nouvelle de la faisabilité: comment garantir que la solution d'un sous-problème, permet la résolution des suivants (dont elle sert d'entrée)? Pour y répondre, cette thèse définit des critères de faisabilités efficaces, qui s'appuient sur la définition des contraintes qui s'appliquent au centre de masse du robot. En parallèle, et de manière plus générale, elle propose une nouvelle formulation du problème du calcul d'une trajectoire valide pour le centre de masse du robot. Cette formulation, continue, présente le double avantage (par rapport aux méthodes discrètes classiques) de garantir la validité de la solution en tous points, tout en améliorant, grâce à une réduction de la dimensionnalité du problème, les performances des algorithmes de l'état de l'art. L'architecture de planification de mouvement résultante a été validée en simulation, ainsi que sur le robot HRP-2, démontrant ainsi sa supériorité en termes de temps de calcul et de taux de succès par rapport à l'existant
The automatic synthesis of movements for legged robots is one of the long standing challenge of robotics, and its resolution is a prior to the safe deployment of robots outside of their labs. In this thesis, we tackle it with a divide and conquer approach, where several smaller sub-problems are identified and solved sequentially to generate motions in a computationally efficient manner. This decoupling comes with a feasibility issue : how can we guarantee that the solution of a sub-problem is a valid input for the next sub-problem ? To address this issue, this thesis defines computationally efficient feasibility criteria, focused on the constraints on the Center Of Mass of the robot. Simultaneously, it proposes a new formulation of the problem of computing a feasible trajectory for the Center Of Mass of the robot, given a contact sequence. This formulation is continuous, as opposed to traditional approaches that rely on a discretized formulation, which can result in constraint violations and are less computationally efficient. This general formulation could be straightforwardly used with any existing approach of the state of the art. The framework obtained was experimentally validated both in simulation and on the HRP-2 robot, and presented a higher success rate, as well as computing performances order of magnitudes faster than the state of the art
31

Bubeck, Sébastien. "JEUX DE BANDITS ET FONDATIONS DU CLUSTERING." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2010. http://tel.archives-ouvertes.fr/tel-00845565.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de thèse s'inscrit dans le domaine du machine learning et concerne plus particulièrement les sous-catégories de l'optimisation stochastique, du online learning et du clustering. Ces sous-domaines existent depuis plusieurs décennies mais ils ont tous reçu un éclairage différent au cours de ces dernières années. Notamment, les jeux de bandits offrent aujourd'hui un cadre commun pour l'optimisation stochastique et l'online learning. Ce point de vue conduit a de nombreuses extensions du jeu de base. C'est sur l'étude mathématique de ces jeux que se concentre la première partie de cette thèse. La seconde partie est quant à elle dédiée au clustering et plus particulièrement à deux notions importantes: la consistance asymptotique des algorithmes et la stabilité comme méthode de sélection de modèles.
32

Benki, Aalae. "Méthodes efficaces de capture de front de pareto en conception mécanique multicritère : applications industrielles." Phd thesis, Université Nice Sophia Antipolis, 2014. http://tel.archives-ouvertes.fr/tel-00959099.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le domaine d'optimisation de forme de structures, la réduction des coûts et l'amélioration des produits sont des défis permanents à relever. Pour ce faire, le procédé de mise en forme doit être optimisé. Optimiser le procédé revient alors à résoudre un problème d'optimisation. Généralement ce problème est un problème d'optimisation multicritère très coûteux en terme de temps de calcul, où on cherche à minimiser plusieurs fonctions coût en présence d'un certain nombre de contraintes. Pour résoudre ce type de problème, on a développé un algorithme robuste, efficace et fiable. Cet algorithme, consiste à coupler un algorithme de capture de front de Pareto (NBI ou NNCM) avec un métamodèle (RBF), c'est-à-dire des approximations des résultats des simulations coûteuses. D'après l'ensemble des résultats obtenus par cette approche, il est intéressant de souligner que la capture de front de Pareto génère un ensemble des solutions non dominées. Pour savoir lesquelles choisir, le cas échéant, il est nécessaire de faire appel à des algorithmes de sélection, comme par exemple Nash et Kalai-Smorodinsky. Ces deux approches, issues de la théorie des jeux, ont été utilisées pour notre travail. L'ensemble des algorithmes sont validés sur deux cas industriels proposés par notre partenaire industriel. Le premier concerne un modèle 2D du fond de la canette (elasto-plasticité) et le second est un modèle 3D de la traverse (élasticité linéaire). Les résultats obtenus confirment l'efficacité de nos algorithmes développés.
33

Louat, Christophe. "Etude et mise en œuvre de stratégies de coupes efficaces pour des problèmes entiers mixtes 0-1." Versailles-St Quentin en Yvelines, 2009. http://www.theses.fr/2009VERS0060.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Pour cette étude, plusieurs solveurs ont été utilisés afin de comparer leurs comportement quand des mêmes coupes sont ajoutées. Deux solveurs commerciaux (Cplex et Xpress) et un solveur libre (Glpk) ont été utilisés pour faire des tests avec un Branch-and-Bound Séquentiel. Un solveur libre (Bob++) a été utilisé pour réaliser des tests avec un Branch-and-Bound parallèle. Afin de faciliter l’utilisation des différents solveurs en ne faisant qu’un seul code a été créé. Nous présentons tout d’abord les différentes méthodes de coupes qui ont été intégrées à la librairie Glop pour réaliser des expérimentations. Nous montrons ensuite les différentes stratégies implémentées les unes étant des stratégies fixes, les autres des stratégies qui s’adaptent au déroulement de la résolution du problème. Nous présentons et analysons les résultats des exécutions réalisées avec un Branch-and-Bound séquentiel et enfin ceux des exécutions réalisé avec un Branch-and-Bound parallèle
The use of cutting planes is since severals years one of the most used methods to improve the search of an optimal solution reducing the search space in a Branch-and-Bound. The work presented here aims at studying several cutting plane methods and at proposing some strategies to integrate them in a resolution method based on Branch-and-Bound algorithm to solve mixed integer 0-1 problems. We present extensive computational experiments in ordrer to try to find efficient cutting plane generation strategies with generic mixted integer 0-1 problems and with different solvers. For this study, some solvers were used to compare their when the same cutting planes are added. Two commercial solver (Cplex and Xpress) and one free solveur (Glpk) are used to test the different strategies in a sequential Branch-and-Bound. One free solver is used to test these strategies in a parallel Branch-and-Bound. To provide an easy way to use these different solvers, a free library (Glop) that allows the user to use some solver with a same code has been created. We first present the different cutting plane methods that were integrated in the library Glop to produce computational experimentents. We then turn our interest on the different strategies we implement, the one being fixed strategies, the other being strategies that adapt to the problem resolution. We present and analyse the results of computational experiments with sequential Branch-and-Bound and in the last part, those obtained with parallel Branch-and-Bound
34

Ranwez, Vincent. "Méthodes efficaces pour reconstruire de grandes phylogénies suivant le principe du maximum de vraisemblance." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2002. http://tel.archives-ouvertes.fr/tel-00843175.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La reconstruction de phylogénies moléculaires consiste à retrouver l'arbre évolutif (ou phylogénie) d'un ensemble de séquences homologues. La méthode de reconstruction la plus fiable actuellement, semble être la méthode du maximum de vraisemblance. Les méthodes classiques pour rechercher la phylogénie de vraisemblance maximale deviennent, rapidement, très coûteuses en temps de calcul lorsque le nombre de séquences augmente. Elles ne peuvent donc pas traiter de grandes phylogénies. Actuellement, les deux types de méthodes qui permettent de reconstruire de grandes phylogénies suivant le principe du maximum de vraisemblance sont : les méthodes de distances et les méthodes de quadruplets. Toutes deux divisent le problème initial en sous-problèmes contenant peu de séquences. Elles peuvent alors résoudre rapidement (suivant le principe du maximum de vraisemblance) chacun de ces sous-problèmes, puis combiner les solutions obtenues pour proposer une phylogénie de l'ensemble des séquences. Après avoir présenté les principales méthodes de reconstruction phylogenetique, nous décrivons une nouvelle méthode de quadruplets (Weight Optimization) qui possède de bonnes propriétés théoriques et reconstruit des arbres plus fiables que Quartet Puzzling (une méthode de quadruplets très populaire). Nous expliquons ensuite en quoi les méthodes de quadruplets sont mal adaptées pour reconstruire de grandes phylogénies suivant le principe du maximum de vraisemblance, et comment ces méthodes peuvent résoudre efficacement d'autres problèmes. Puis, nous proposons une approche qui combine de manière originale les méthodes de distances et du maximum de vraisemblance. Cette approche que nous appelons TripleML permet d'améliorer la fiabilité de différentes méthodes de distances en remplaçant les distances qu'elles utilisent par des distances qui sont estimées en optimisant localement la vraisemblance de triplets de séquences (ou de groupes de séquences).
35

Chevalier, Cédric. "Conception et mise en oeuvre d'outils efficaces pour le partitionnement et la distribution parallèles de problème numériques de très grande taille." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2007. http://tel.archives-ouvertes.fr/tel-00199898.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur le partitionnement parallèle de graphes et essentiellement sur son application à la renumérotation de matrices
creuses.

Nous utilisons pour résoudre ce problème un schéma multi-niveaux dont nous avons parallélisé les phases de contraction et d'expansion.

Nous avons ainsi introduit pour la phase de contraction un nouvel algorithme de gestion des conflits d'appariements distants, tout en
améliorant les algorithmes déjà existants en leur associant une phase
de sélection des communications les plus utiles.

Concernant la phase d'expansion, nous avons introduit la notion de graphe bande qui permet de diminuer de manière très conséquente la taille du problème à traiter par les algorithmes de raffinement. Nous avons généralisé l'utilisation de ce graphe bande aux implantations séquentielles et parallèles de notre outil de partitionnement Scotch.

Grâce à la présence du graphe bande, nous avons proposé une utilisation nouvelle des algorithmes génétiques dans le cadre de
l'expansion en les utilisant comme heuristiques parallèles de raffinement de la partition.
36

Cherid, Samia. "Conception et etude de nouveaux separateurs lamellaires hydrocarbures-eau de type "spiraloil"." Toulouse, INSA, 1986. http://www.theses.fr/1986ISAT0010.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Conception, realisation et etude experimentale d'un separateur lamellaire hydrocarbure-eau, compact, possedant une surface de decantation elevee, correspondant a un enroulement spirale. Les premieres cellules "spiraloil", inclinees d'un angle de 45**(o) par rapport a l'horizontale concernent, d'une part un enroulement spirale simple d'une feuille de polytetrafluoroethylene et d'autre part, un enroulement spirale mixte constitue par l'enroulement simultane d'une tole ondulee en acier inoxydable et d'une feuille de polytetrafluoroethylene. L'etude des mecanismes d'interaction et des configurations prises par les gouttelettes d'hydrocarbure ont permis une optimisation du separateur.
37

Handoufe, Abderrahim. "Reponses a l'eau et a l'azote d'un ble tendre (triticum aestivum) sous un climat semi-aride." Toulouse 3, 1988. http://www.theses.fr/1988TOU30237.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
(. . . ) les resultats ont montre que la meilleure efficience de l'eau est obtenue lorsque cette derniere est apportee pendant la phase gonflement-floraison. Pendant le reste du cycle, le ble s'est avere tres peu sensible a la secheresse. Neanmoins, l'irrigation au semis sur un sol sec a favorise le developpement du systeme racinaire qui, a son tour a permis une meilleure exploitation de la reserve hydrique du sol. (. . . )
38

Martin, Katerine. "Estimation efficace de dérivées dans un réseau de télécommunications." Thèse, 2004. http://hdl.handle.net/1866/16672.

Full text
APA, Harvard, Vancouver, ISO, and other styles
39

Vargas-Solar, Genoveva. "Gestion de données efficace, continue et fiable par coordination de services." Habilitation à diriger des recherches, 2014. http://tel.archives-ouvertes.fr/tel-01006214.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
The emergence of new architectures like the cloud open new challenges for data management. It is no longer pertinent to reason with respect a to set of computing, storage and memory resources, instead it is necessary to conceive algorithms and processes considering an unlimited set of resources usable via a "pay as U go model", energy consumption or services reputation and provenance models. Instead of designing processes and algorithms considering as threshold the resources availability, the cloud imposes to take into consideration the economic cost of the processes vs. resources use, results presentation through access subscription, and the parallel exploitation of available resources. Our research contributes to the construction of service based data management systems. The objective is to design data management services guided by SLA contracts. We proposed methodologies, algorithms and tools for querying, deploying and executing service coordinations for programming data management functions. These functions, must respect QoS properties (security, reliability, fault tolerance, dynamic evolution and adaptability) and behaviour properties (e.g., transactional execution) adapted to application requirements. Our work proposes models and mechanisms for adding these properties to new service based data management functions.
40

Gingras, Véronique. "Optimisation du contrôle glycémique des patients atteints de diabète de type 1 : traitement efficace des hypoglycémies, calcul des glucides et pancréas artificiel." Thèse, 2017. http://hdl.handle.net/1866/20249.

Full text
APA, Harvard, Vancouver, ISO, and other styles
41

Ouzineb, Mohamed. "Heuristiques efficaces pour l'optimisation de la performance des systèmes séries-parallèles." Thèse, 2009. http://hdl.handle.net/1866/6457.

Full text
APA, Harvard, Vancouver, ISO, and other styles
42

Chevalier, Cédric. "Conception et mise en oeuvre d'outils efficaces pour le partitionnement et la distribution parallèles de problèmes numériques de très grande taille." Phd thesis, 2007. http://tel.archives-ouvertes.fr/tel-00410402.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse porte sur le partitionnement parallèle de graphes et essentiellement sur son application à la renumérotation de matrices creuses.
Nous utilisons pour résoudre ce problème un schéma multi-niveaux dont nous avons parallélisé les phases de contraction et d'expansion.
Nous avons ainsi introduit pour la phase de contraction un nouvel algorithme de gestion des conflits d'appariements distants, tout en améliorant les algorithmes déjà existants en leur associant une phase de sélection des communications les plus utiles.
Concernant la phase de d'expansion, nous avons introduit la notion de graphe bande qui permet de diminuer de manière très conséquente la taille du problème à traiter par les algorithmes de raffinement. Nous avons généralisé l'utilisation de ce graphe bande aux implantations séquentielles et parallèles de notre outil de partitionnement Scotch.
Grâce à la présence du graphe bande, nous avons proposé une utilisation nouvelle des algorithmes génétiques dans le cadre de l'expansion en les utilisant comme heuristiques parallèles de raffinement de la partition.

To the bibliography