Tesis sobre el tema "Efficacité des algorithmes"

Siga este enlace para ver otros tipos de publicaciones sobre el tema: Efficacité des algorithmes.

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 45 mejores tesis para su investigación sobre el tema "Efficacité des algorithmes".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Zhang, Jian Ping. "Contrôle de flux pour le service ABR des réseaux ATM : équité et efficacité". Versailles-St Quentin en Yvelines, 1998. http://www.theses.fr/1998VERS0010.

Texto completo
Resumen
Cette thèse concerne la conception et la validation de plusieurs mécanismes de contrôle de flux pour le service ABR dans les réseaux ATM. L'algorithme max-min représente une des méthodes les plus utilisées pour offrir le critère de l'équité entre les utilisateurs. La première contribution de cette thèse consiste à étendre l'algorithme max-min à une version pondérée baptisée WMM. Selon cette extension, nous avons donc proposé deux algorithmes distribués : l'algorithme mico et l'algorithme mclf. Ces deux derniers améliorent considérablement les performances de l'algorithme erica a savoir l'équité entre les utilisateurs. En présence des sources ABR sporadiques, L'utilisation conjointe des comportements de source, des algorithmes de commutateur et des comportements use-it-or-lose-it définis par l'ATM forum, ne permet pas de contrôler efficacement la sporadicité du trafic en provenance de ces sources. Elle entraîne, par conséquent, une surestimation de l'allocation de la bande passante aux sources ABR. Dans cette perspective, nous avons conçu l'algorithme iaaa qui calcule l'ARC en fonction de l'état actuel du trafic afin de réduire l'effet provoqué par la sporadicité. Cette thèse a été achevée par la mise en oeuvre de deux algorithmes rca et rca#+. Ils offrent la possibilité d'acheminer un trafic de type vidéo en utilisant le service ABR. Pour ce faire, une équation entre le paramètre de quantification q et le volume de l'information à transmettre a été ajustée. Cette étude s'est basée sur une allocation équitable des sources ABR, sur un contrôle de débit du codeur vidéo, ainsi que sur une diminution du taux de réduction de l'image. Ceci a permis un meilleur délai de transfert tout en gardant une qualité d'image satisfaisante. Ces différents algorithmes ont fait l'objet d'une étude de simulation destinée à valider leurs performances.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Petit, Franck. "Efficacité et simplicité dans les algorithmes distribués auto-stabilisants de parcours en profondeur de jeton". Amiens, 1998. http://www.theses.fr/1998AMIE0103.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Hamdaoui, Mohamed. "Optimisation multicritère de l’efficacité propulsive de mini-drônes à ailes battantes par algorithmes évolutionnaires". Paris 6, 2009. http://www.theses.fr/2009PA066448.

Texto completo
Resumen
L'optimisation multicritère de la cinématique de battement d'aile d'un mini drône à ailes battantes est réalisée en vol de croisière. L'objectif est, pour différentes famillesde cinématiques et pour différentes vitesses d'avancement, de trouver des solutions maximisant l'efficacité propulsive, minimisant l'écart à la portance cible et minimisant lemoment aérodynamique. Nous avons choisi les algorithmes évolutionnaires pour résoudre ce problème multicritère pour leur simplicité d'implantation, leur flexibilité et leur bon rapport qualité des résultats/coût de calcul. En raison de la nature multicritère du problème, il existe un ensemble de solutions optimales et non pas une unique solution au problème, ce qui pose la question de la manière de visualiser, d'analyser et d'extraire une solution satisfaisante parmi le groupe de solutions Pareto optimales. Nous avons identifié des méthodes simples susceptibles d'aider à accomplir cette tâche, la Scatter-Plot Matrix Method pour visualiser les surfaces et ensembles de Pareto, l'utilisation d'une régression multivariée pour établir le lien entre paramètres cinématiques et critères optimisés, la méthode des normes L^p pour identifier une solution compromis au sein de la surface de Pareto, les arbres de décision pour trouver les paramètres de la cinématique auxquels le voisinage de la solution compromis est sensible et les cartes de Kohonen pour étudier la structure de ce voisinage. Ces différents outils nous ont permis, pour chaque famille de cinématiques (dièdre, dièdre et tangage, dièdre et tangage à deux panneaux), d'identifier une solution compromis et les paramètres cinématiques qui impactent le plus le voisinage du point compromis. Les caractéristiques de chaque solution compromis ont été comparées à des mesures de puissance et de coefficients de traînée faites sur des oiseaux en vol de croisière, et la légitimité d'appliquer un modèle linéarisé dans le cas de cette solution compromis est mise à l'épreuve en calculant des nombres adimensionels caractéristiques comme le nombre de Strouhal ou la fréquence réduite dont les petites valeurs attestent d'un cas favorable à une approche linéarisée. Puis, la comparaison de la fréquence de battement d'aile obtenue à celle d'un oiseau géométriquement similaire est faite, et elle montre que plus la cinématique est riche plus cette fréquence de battement se rapproche de celle de l'oiseau en question, ce qui constitue un résultat encourageant pour notre approche.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Doncel, Josu. "Efficiency of distributed queueing games and of path discovery algorithms". Thesis, Toulouse, INSA, 2015. http://www.theses.fr/2015ISAT0007/document.

Texto completo
Resumen
Cette thèse porte sur l'efficacité des algorithmes distribués de partage des ressources et des algorithmes de découvert de chemin en ligne. Dans la première partie de la thèse, nous analysons un jeu dans lequel les utilisateurs paient pour utiliser une ressource partagée. La ressource allouée à un utilisateur est directement proportionnel à son paiement. Chaque utilisateur veut minimiser son paiement en assurant une certaine qualité de service. Ce problème est modélisé comme un jeu non-coopératif de partage des ressources. A cause du manque des expressions analytiques de la discipline de file d'attente sous-jacente, nous pouvons résoudre le jeu que sous certaines hypothèses. Pour le cas général, nous développons une approximation basée sur un résultat fort trafic et nous validons la précision de l'approximation numériquement.Dans la deuxième partie, nous étudions l'efficacité des jeux de balance de charge, c'est à dire, nous comparons la perte de performance de routage non coopératif décentralisé avec un routage centralisé. Nous montrons que le PoA est une mesure très pessimiste car il est atteint que dans des cas pathologiques. Dans la plupart des scénarios, les implémentations distribués de balance de charge effectuent presque aussi bien que la mise en œuvre centralisée optimale.Dans la dernière partie de la thèse, nous analysons problème de découverte chemin optimal dans les graphes complets. En ce problème, les valeurs des arêtes sont inconnues, mais peuvent être interrogés. Pour une fonction donnée qui est appliquée à des chemins, l'objectif est de trouver un meilleur chemin de valeur à partir d'une source vers une destination donnée interrogation le plus petit nombre de bords. Nous vous proposons le rapport de requête en tant que mesure de l'efficacité des algorithmes qui permettent de résoudre ce problème. Nous prouvons une limite inférieure pour ne importe quel algorithme qui résout ce problème et nous avons proposé un algorithme avec un rapport de requête strictement inférieure à 2
This thesis deals with the efficiency of distributed resource sharing algorithms and of online path discovery algorithms. In the first part of the thesis, we analyse a game in which users pay for using a shared resource. The allocated resource to a user is directly proportional to its payment. Each user wants to minimize its payment while ensuring a certain quality of service. This problem is modelled as a non-cooperative resource-sharing game. Due to lack of analytical expressions for the underlying queuing discipline, we are able to give the solution of the game only under some assumptions. For the general case, we develop an approximation based on a heavy-traffic result and we validate the accuracy of the approximation numerically. In the second part, we study the efficiency of load balancing games, i.e., we compare the loss in performance of noncooperative decentralized routing with a centralized routing. We show that the PoA is very pessimistic measure since it is achieved in only pathological cases. In most scenarios, distributed implementations of load-balancing perform nearly as well as the optimal centralized implementation. In the last part of the thesis, we analyse the optimal path discovery problem in complete graphs. In this problem, the values of the edges are unknown but can be queried. For a given function that is applied to paths, the goal is to find a best value path from a source to a given destination querying the least number of edges. We propose the query ratio as efficiency measure of algorithms that solve this problem. We prove a lower-bound for any algorithm that solves this problem and we proposed an algorithm with query ratio strictly less than 2
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Belmega, Elena Veronica. "Problèmes d'allocations de ressouces dans les réseaux MIMO sans fil distribués". Paris 11, 2010. http://www.theses.fr/2010PA112259.

Texto completo
Resumen
Dans ce manuscrit de thèse, l'objectif principal est d'étudier les réseaux sans fil dans lesquels les nœuds terminaux sont équipés de plusieurs antennes. Plusieurs thèmes d'actualité, tels que les réseaux intelligents auto-optimisants, les communications dites green ou vertes et algorithmes distribués sont abordés. Dans ce but, nous utilisons une gamme diversifiée d'outils de la théorie des jeux, théorie de l'information, théorie des matrices aléatoires et théorie de l'apprentissage. Nous commençons notre analyse par l'étude du problème d'allocation de puissance dans les réseaux MIMO distribués. Les émetteurs sont censés être autonomes et capables de gérer leurs puissances afin d'optimiser leur taux de Shannon atteignables. Le cadre des jeux non-coopératifs est utilisé pour étudier la solution de ce problème. Des algorithmes itératifs qui convergent vers la solution optimale donnée par l'équilibre de Nash sont proposés. Deux approches différentes sont appliquées : des algorithmes basés sur les meilleures réponses et des algorithmes d'apprentissage par renforcement. Un autre problème majeur dans les réseaux sans fil est lié à la question de l'efficacité énergétique. Afin d'atteindre des débits de transmission élevés, la consommation d'énergie est également élevée. Dans les réseaux où la consommation d'énergie est une question critique, le débit de Shannon atteignable n'est plus une métrique de performance adaptée. C'est pourquoi nous abordons également le problème de l'optimisation d'une fonction d'efficacité énergétique
Ln this thesis manuscript, the main objective is to study the wireless networks where the node terminals are equipped with multiple antennas. Rising topics such as self-optimizing networks, green communications and distributed algorithms have been approached mainly from a theoretical perspective. To this aim, we have used a diversified spectrum of tools from Game Theory, Information Theory, Random Matrix Theory and Learning Theory in Games. We start our analysis with the study of the power allocation problem in distributed networks. The transmitters are assumed to be autonomous and capable of allocating their powers to optimize their Shannon achievable rates. A non-cooperative game theoretical framework is used to investigate the solution to this problem. Distributed algorithms which converge towards the optimal solution, i. E. The Nash equilibrium, have been proposed. Two different approaches have been applied: iterative algorithms based on the best-response correspondence and reinforcement learning algorithms. Another major issue is related to the energy-efficiency aspect of the communication. Ln order to achieve high transmission rates, the power consumption is also high. Ln networks where the power consumption is the bottleneck, the Shannon achievable rate is no longer suitable performance metric. This is why we have also addressed the problem of optimizing an energy-efficiency function
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Tan, Pauline. "Précision de modèle et efficacité algorithmique : exemples du traitement de l'occultation en stéréovision binoculaire et de l'accélération de deux algorithmes en optimisation convexe". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLX092/document.

Texto completo
Resumen
Le présent manuscrit est composé de deux parties relativement indépendantes.La première partie est consacrée au problème de la stéréovision binoculaire, et plus particulièrement au traitement de l'occultation. En partant d'une analyse de ce phénomène, nous en déduisons un modèle de régularité qui inclut une contrainte convexe de visibilité. La fonctionnelle d'énergie qui en résulte est minimisée par relaxation convexe. Les zones occultées sont alors détectées grâce à la pente horizontale de la carte de disparité avant d'être densifiées.Une autre méthode gérant l'occultation est la méthode des graph cuts proposée par Kolmogorov et Zabih. L'efficacité de cette méthode justifie son adaptation à deux problèmes auxiliaires rencontrés en stéréovision, qui sont la densification de cartes éparses et le raffinement subpixellique de cartes pixelliques.La seconde partie de ce manuscrit traite de manière plus générale de deux algorithmes d'optimisation convexe, pour lequels deux variantes accélérées sont proposées. Le premier est la méthode des directions alternées (ADMM). On montre qu'un léger relâchement de contraintes dans les paramètres de cette méthode permet d'obtenir un taux de convergence théorique plus intéressant.Le second est un algorithme de descentes proximales alternées, qui permet de paralléliser la résolution approchée du problème Rudin-Osher-Fatemi (ROF) de débruitage pur dans le cas des images couleurs. Une accélération de type FISTA est également proposée
This thesis is splitted into two relatively independant parts. The first part is devoted to the binocular stereovision problem, specifically to the occlusion handling. An analysis of this phenomena leads to a regularity model which includes a convex visibility constraint. The resulting energy functional is minimized by convex relaxation. The occluded areas are then detected thanks to the horizontal slope of the disparity map and densified. Another method with occlusion handling was proposed by Kolmogorov and Zabih. Because of its efficiency, we adapted it to two auxiliary problems encountered in stereovision, namely the densification of sparse disparity maps and the subpixel refinement of pixel-accurate maps.The second part of this thesis studies two convex optimization algorithms, for which an acceleration is proposed. The first one is the Alternating Direction Method of Multipliers (ADMM). A slight relaxation in the parameter choice is shown to enhance the convergence rate. The second one is an alternating proximal descent algorithm, which allows a parallel approximate resolution of the Rudin-Osher-Fatemi (ROF) pure denoising model, in color-image case. A FISTA-like acceleration is also proposed
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Machart, Pierre. "Coping with the Computational and Statistical Bipolar Nature of Machine Learning". Phd thesis, Aix-Marseille Université, 2012. http://tel.archives-ouvertes.fr/tel-00771718.

Texto completo
Resumen
L'Apprentissage Automatique tire ses racines d'un large champ disciplinaire qui inclut l'Intelligence Artificielle, la Reconnaissance de Formes, les Statistiques ou l'Optimisation. Dès les origines de l'Apprentissage, les questions computationelles et les propriétés en généralisation ont toutes deux été identifiées comme centrales pour la discipline. Tandis que les premières concernent les questions de calculabilité ou de complexité (sur un plan fondamental) ou d'efficacité computationelle (d'un point de vue plus pratique) des systèmes d'apprentissage, les secondes visent a comprendre et caractériser comment les solutions qu'elles fournissent vont se comporter sur de nouvelles données non encore vues. Ces dernières années, l'émergence de jeux de données à grande échelle en Apprentissage Automatique a profondément remanié les principes de la Théorie de l'Apprentissage. En prenant en compte de potentielles contraintes sur le temps d'entraînement, il faut faire face à un compromis plus complexe que ceux qui sont classiquement traités par les Statistiques. Une conséquence directe tient en ce que la mise en place d'algorithmes efficaces (autant en théorie qu'en pratique) capables de tourner sur des jeux de données a grande échelle doivent impérativement prendre en compte les aspects statistiques et computationels de l'Apprentissage de façon conjointe. Cette thèse a pour but de mettre à jour, analyser et exploiter certaines des connections qui existent naturellement entre les aspects statistiques et computationels de l'Apprentissage. Plus précisément, dans une première partie, nous étendons l'analyse en stabilité, qui relie certaines propriétés algorithmiques aux capacités de généralisation des algorithmes d'apprentissage, la matrice de confusion, que nous suggérons comme nouvelle mesure de performance (fine). Dans une seconde partie, nous présentons un nouvelle approche pour apprendre une fonction de régression basée sur les noyaux, où le noyau appris sert directement la tâche de régression, et qui exploite la structure du problème pour offrir une procédure d'optimisation peu coûteuse. Finalement, nous étudions le compromis entre vitesse de convergence et coût computationel lorsque l'on minimise une fonction composite avec des méthodes par gradient-proximal inexact. Dans ce contexte, nous identifions des stratégies d'optimisation qui sont computationellement optimales.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Djeddour, Khédidja. "Estimation récursive du mode et de la valeur modale d'une densité : test d'ajustement de loi". Versailles-St Quentin en Yvelines, 2003. http://www.theses.fr/2003VERS0016.

Texto completo
Resumen
Ce travail est composé de trois parties. Les deux premières parties portent sur le problème de l'estimation jointe du mode et de la valeur modale d'une densité de probabilité. Les estimateurs étudiés sont des estimateurs récursifs. Celui du mode a été introduit par Tsybakov (1900) ; nous introduisons, au premier chapitre, un estimateur récursif de la valeur modale. L'objectif principal de la première partie de cette thèse est d'étudier le comportement en loi asymptotique de ce couple d'estimateurs récursifs. Cette étude nécessite l'analyse du comportement asymptotique d'une classe générale d'algorithmes stochastiques, analyse que nous éclairons ici avec le point de vue non paramétrique. Pour que le couple d'estimateurs récursifs du mode et de la valeur modale converge à la vitesse optimale, le pas des algorithmes qui définissent ces estimateurs doit être choisi en fonction d'un paramètre inconnu. Pour contourner ce problème, nous introduisons, dans la deuxième partie de cettte thèse, le principe de moyennisation des algorithmes stochastiques ; nous proposons ainsi une procédure simple pour construire un couple d'estimateurs du mode et de la valeur modale qui converge à la vitesse optimale. La troisième partie est indépendante des deux premières. Elle est consacrée à la construction d'un test d'ajustement de loi par une méthode de série de Fourier.
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Beltaief, Slim. "Algorithmes optimaux de traitement de données pour des systèmes complexes d'information et télécommunication dans un environnement incertain". Thesis, Normandie, 2017. http://www.theses.fr/2017NORMR056/document.

Texto completo
Resumen
Ce travail est consacré au problème d'estimation non paramétrique dans des modèles de régression en temps continu. On considère le problème d'estimation d'une fonction inconnue S supposée périodique. Cette estimation est basée sur des observations générées par un processus stochastique; ces observations peuvent être en temps continu ou discret. Pour ce faire, nous construisons une série d'estimateurs par projection et nous approchons la fonction inconnue S par une série de Fourier finie. Dans cette thèse, nous considérons le problème d'estimation dans le cadre adaptatif, c'est-à-dire le cas où la régularité de la fonction S est inconnue. Pour ce problème, nous développons une nouvelle méthode d'adaptation basée sur la procédure de sélection de modèle proposée par Konev et Pergamenshchikov (2012). Tout d'abord, cette procédure nous donne une famille d'estimateurs ; après nous choisissons le meilleur estimateur possible en minimisant une fonction coût. Nous donnons également une inégalité d'Oracle pour le risque de nos estimateurs et nous donnons la vitesse de convergence minimax
This thesis is devoted to the problem of non parametric estimation for continuous-time regression models. We consider the problem of estimating an unknown periodoc function S. This estimation is based on observations generated by a stochastic process; these observations may be in continuous or discrete time. To this end, we construct a series of estimators by projection and thus we approximate the unknown function S by a finite Fourier series. In this thesis we consider the estimation problem in the adaptive setting, i.e. in situation when the regularity of the fonction S is unknown. In this way, we develop a new adaptive method based on the model selection procedure proposed by Konev and Pergamenshchikov (2012). Firstly, this procedure give us a family of estimators, then we choose the best possible one by minimizing a cost function. We give also an oracle inequality for the risk of our estimators and we give the minimax convergence rate
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Luo, Jia. "Algorithmes génétiques parallèles pour résoudre des problèmes d'ordonnancement de tâches dynamiques de manière efficace en prenant en compte l'énergie". Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30001.

Texto completo
Resumen
Du fait de nouvelles législations gouvernementales et de la prise de conscience environnementale des consommateurs ainsi que de la hausse du coût de l'énergie, l'efficacité énergétique est devenue un paramètre essentiel des processus industriels ces dernières années. La plupart des avancées en ce qui concerne les économies d'énergie dans les problèmes d'ordonnancement se sont focalisées sur l'ordonnancement statique. Mais en fait, ces problèmes sont dynamiques dans le monde réel. Dans cette thèse, deux problèmes d'ordonnancement dynamique efficace énergiquement sont étudiés. Le Modèle I analyse le retard total et la durée de production avec une limite de puissance tout en tenant compte d'un flux dynamique de nouvelles tâches. Un rééchelonnement complet périodique est adopté. Le Modèle II vise à réduire au minimum le retard total et la consommation d'énergie totale dans le traitement des tâches en tenant compte de nouvelles tâches prioritaires. Une approche basée sur la réparation de la planification des événements est utilisée pour traiter la mise à jour de l'ordonnancement. Comme un nouveau plan d'ordonnancement adéquat doit être obtenu dans un temps de réponse court dans un environnement dynamique, deux Algorithmes Génétiques parallèles (AG) sont proposés pour résoudre ces deux modèles. L'algorithme parallèle AG I est une méthode hybride basée sur CUDA consistant en un modèle AG insulaire au niveau supérieur et un modèle AG fin, au niveau inférieur. Il combine les métriques de deux couches hiérarchiques et tire pleinement parti des capacités de calcul de la plateforme CUDA. L'algorithme AG II est conçu avec une double hétérogénéité qui résulte de l'utilisation d'un AG cellulaire parallèle et d'un pseudo AG parallèle. Avec ces deux structures différentes, les ilots augmentent la diversité de la population et peuvent être simultanément parallélisés sur des GPU et un processeur multi-cœur. Enfin, des solutions numériques sont présentées et analysées ; elles montrent que nos approches peuvent non seulement résoudre les problèmes de manière flexible, mais également obtenir des solutions avantageuses et réduire les temps de calcul
Due to new government legislation, customers' environmental concerns and continuously rising cost of energy, energy efficiency is becoming an essential parameter of industrial manufacturing processes in recent years. Most efforts considering energy issues in scheduling problems have focused on static scheduling. But in fact, scheduling problems are dynamic in the real world with uncertain new arrival jobs after the execution time. In this thesis, two energy efficient dynamic scheduling problems are studied. Model I analyzes the total tardiness and the makespan with a peak power limitation while considering the flexible flow shop with new arrival jobs. A periodic complete rescheduling approach is adopted to represent the optimization problem. Model II concerns an investigation into minimizing total tardiness and total energy consumption in the job shop with new urgent arrival jobs. An event driven schedule repair approach is utilized to deal with the updated schedule. As an adequate renewed scheduling plan needs to be obtained in a short response time in dynamic environment, two parallel Genetic Algorithms (GAs) are proposed to solve these two models respectively. The parallel GA I is a CUDA-based hybrid model consisting of an island GA at the upper level and a fine-grained GA at the lower level. It combines metrics of two hierarchical layers and takes full advantage of CUDA's compute capability. The parallel GA II is a dual heterogeneous design composed of a cellular GA and a pseudo GA. The islands with these two different structures increase the population diversity and can be well parallelized on GPUs simultaneously with multi-core CPU. Finally, numerical experiments are conducted and show that our approaches can not only solve the problems flexibly, but also gain competitive results and reduce time requirements
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Harbaoui, dridi Imen. "Optimisation heuristique pour la résolution du m-PDPTW statique et dynamique". Thesis, Ecole centrale de Lille, 2010. http://www.theses.fr/2010ECLI0031/document.

Texto completo
Resumen
De nos jours, le problème de transport de marchandise occupe une place importante dans la vie économique des sociétés modernes. Le problème de ramassage et de livraison (pick-up and delivery problem) est l’un des problèmes dont une grande partie des chercheurs s’y est intéressée.Il s’agit de déterminer un circuit de plusieurs véhicules, de façon à servir à coût minimal un ensemble de clients et de fournisseurs répartis dans un réseau, satisfaisant certaines contraintes relatives aux véhicules, à leurs capacités et à des précédences entre les nœuds. Les travaux de recherche développés dans cette thèse portent sur le PDPTW (Pickup and Delivery Problem with Time Windows) à plusieurs véhicules (m-PDPTW). Ce dernier a été traité dans les deux cas : statique et dynamique. Nous avons proposé plusieurs approches de résolution du m-PDPTW basées sur les algorithmes génétiques, l’optimisation multicritère et le calcul des bornes inférieures, et ceci pour minimiser un certain nombre de critères comme : le nombre de véhicules utilisés, la somme des retards ou le coût total de transport. Ces approches ont donné de bons résultats, principalement au niveau de la minimisation de la somme des retards où nous avons obtenu, dans plusieurs cas, un retard nul avec un coût de transport tolérable
Nowadays, the transport goods problem occupies an important place in the economic life of modern societies. The PDPTW (Pickup and delivery problem with Time Windows) is one which a large part of researchers was interested. This is an optimization vehicles routing problem which must meet requests for transport between suppliers and customers satisfying precedence and capacity.Researchers developed in this thesis concerns the resolution of the PDPTW with multiple vehicles (m-PDPTW). The latter was treated in two cases: static and dynamic.We have proposed some approaches to solving the m- PDPTW, based on genetic algorithms, multicriteria optimization and the lower bounds, and this to minimize a number of criteria such as: the vehicles number, the total travel cost, and the total tardiness time.Computational results indicate that the proposed approach gives good results with a total tardiness equal to zero with a tolerable cost
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Chaari, Tarek. "Un algorithme génétique pour l'ordonnancement robuste : application au problème d'ordonnancement du flow shop hybride". Phd thesis, Université de Valenciennes et du Hainaut-Cambresis, 2010. http://tel.archives-ouvertes.fr/tel-00551511.

Texto completo
Resumen
La plupart des méthodes d'ordonnancement considèrent un environnement déterministe où les données du problème sont connues. Néanmoins, en réalité, plusieurs sortes d'aléas peuvent être rencontrées et l'ordonnancement robuste permet en tenir compte. Dans cette thèse, notre intuition initiale est que, d'une part, un ordonnancement non robuste deviendra rapidement inefficace avec les incertitudes qu'un ordonnancement robuste, et d'autre part, un ordonnancement robuste sera moins efficace qu'un ordonnancement non robuste en l'absence d'incertitudes. Dans ce cadre, nous avons proposé un algorithme génétique pour l'ordonnancement robuste. Un nouveau mécanisme de résolution et un nouveau critère de robustesse permettant de trouver une solution de bonne performance et peu sensible aux incertitudes ont été développés. Une phase expérimentale a été menée, d'une part, pour vérifier l'efficacité de l'algorithme génétique pour l'ordonnancement déterministe, sans tenir compte des incertitudes, et d'autre part, pour valider l'algorithme génétique pour l'ordonnancement robuste par la simulation afin de juger la qualité de la robustesse face aux incertitudes. Nous avons intégré cette approche de robustesse dans une démarche méthodologique générique intégrant des techniques d'optimisation et de simulation pour l'aide au dimensionnement des systèmes de production basé sur des ordonnancements robustes. Les différents modules de la démarche ont été développés sous forme d'un outil d'aide au dimensionnement, dans le cadre d'un cas applicatif réel, celui du bloc opératoire dans le secteur hospitalier.
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Allen, Benoît. "Optimisation d'échangeurs de chaleur : condenseur à calandre, réseau d'échangeurs de chaleur et production d'eau froide". Thesis, Université Laval, 2010. http://www.theses.ulaval.ca/2010/27364/27364.pdf.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Xu, Yanni. "Optimization of the cutting-related processes for consumer-centered garment manufacturing". Thesis, Lille 1, 2020. http://www.theses.fr/2020LIL1I015.

Texto completo
Resumen
Ce travail vise à optimiser la production de vêtements et à résoudre le dilemme entre le personnalisation et le coût dans le contexte de la personnalisation de masse. Tout d'abord, des méthodes pratiques de coupe (incluant la définition des tailles) pour la personnalisation de masse issues des pratiques industrielles de production sont proposées. Des tailles additionnelles, sélectionnées pour leurs bonnes performances de personnalisation et de coût, sont utlisées pour optimiser les processus de coupe, à savoir le taillant, le matellassage et placement, par des méthodes exactes et d'intelligence artificielle. Un algorithme génétique est utilisé pour construire l'ensemble de tailles optimisant le bien aller, une optimisation linéaire en nombres entiers est utilisée pour définir la planification de la coupe la moins coûteuse, une régression multi-linéaire et un réseau neuronal sont appliqués pour estimer la longueur des placements. Ces différentes méthodes proposées pour améliorer la personnalisation de masse se sont avérées efficaces. La relation indirecte entre le degré de personnalisation et le coût de la coupe est établie. Ces methodes ont également permis de définir les meileures compromis entre la satisfaction consommateur et les coûts de production. Le modèle de prévision de la longueur de placement permet de réduire la charge de travail pour le calcul de placement et fournit ainsi les longueurs de placements utiles pour estimer les coûts avec une efficacité élevée et une précision acceptable. L'ensemble de ces travaux contribue à la transition de la production de masse de vêtements vers personnalisation de masse
The work aims to make optimizations of garment production and resolve the dilemma between personalization and cost in the context of mass customization. Firstly, practical mass customization methods regarding cutting-related processes (including sizing) are proposed adapted from the industrial practice of traditional mass production. Due to the good performances of personalization and cost, additional sizes are adopted in the further optimizations of specific cutting-related processes, i.e., sizing, cutting order planning, and marker making with exact methods and artificial intelligence techniques. A genetic algorithm is used for the best set of additional sizes, an integer programming is employed for the best cutting order plan (i.e., the lay planning with the corresponding markers), a multi-linear regression, and a neural network are applied to estimating marker lengths. The proposed mass customization methods are proved to be efficient. The underneath indirect relationship between personalization and cost is established. With the help of the optimized cutting-related processes, the balance of personalization and cost is demonstrated. The estimation of marker length reduces the marker making workload and provides marker lengths for cutting cost estimation with a high efficiency and an acceptable accuracy. All the above enable the garment production to shift from mass production to mass customization
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Zaarour, Farah. "Channel estimation algorithms for OFDM in interference scenarios". Thesis, Lille 1, 2015. http://www.theses.fr/2015LIL10105/document.

Texto completo
Resumen
La rareté du spectre radio et la demande croissante de bande passante rendent l'optimisation de l'utilisation du spectre essentiel. Tandis qu'une efficacité maximale devrait être atteinte, un niveau minimal d'interférence devrait être maintenu. L’OFDM a été retenu comme un schéma de modulation dans plusieurs normes sans fil. L'estimation de canal est une tâche fondamentale dans les systèmes OFDM et elle devient plus difficile en présence d'interférence. Dans cette thèse, notre objectif est de proposer des algorithmes d'estimation de canal pour les systèmes OFDM en présence d’interférence, où les algorithmes classiques échouent. Tout d'abord, nous considérons l'environnement radio intelligente et nous proposons un nouveau cadre d'estimation de canal pour les canaux à variations rapides contaminés par des interférences bandes étroites (NBI). Cela est accompli avec l'algorithme EM et une expression explicite pour l'estimation de la puissance du bruit est obtenue. Ensuite, nous considérons un nouveau schéma de pilotes superposés (DNSP) qui assure des pilotes sans interférence au détriment d'interférence des donnés. Donc, un récepteur adapté à son design doit être conçu. Nous proposons un annuleur d’interférences (IC) à faible complexité pour les canaux à variations lentes avec DNSP. Cependant, la performance de l'IC proposé n'est fiable que quand l'erreur de l'estimation du canal est faible. Donc, dans une autre contribution, nous proposons un IC pour DNSP en tenant compte des erreurs d'estimation du canal. Enfin l'estimation robuste du canal est considérée comme l’une des perspectives de cette thèse
The scarcity of the radio spectrum and the increasing demand on bandwidth makes it vital to optimize the spectrum use. While a maximum efficiency should be attained, a minimal interference level should be maintained. OFDM has been selected as the modulation scheme in several wireless standards. Channel estimation is a fundamental task in OFDM and it becomes even more challenging in the presence of interference. In this thesis, our aim is to propose channel estimation algorithms for OFDM systems in the presence of interference, where conventional channel estimators designed for OFDM fail. First, we consider the cognitive radio environment and propose a novel channel estimation framework for fast time-varying channels in OFDM with NBI. This is accomplished through an expectation maximization (EM) based algorithm. This formulation allows us to obtain a closed-form expression for the estimation of the noise power. In this thesis, we are particularly interested in a very recent scheme of superimposed pilots for OFDM (DNSP). DNSP assures interference-free pilots at the expense of data interference. Seen the modernity of DNSP, a suitable receiver has to be designed to cope with its design. We first propose a low-complexity interference canceler (IC) for slow time-varying channels with DNSP. The performance of the proposed IC is guaranteed when the channel estimation error is small. As another contribution, we extend the design of the approximated IC for DNSP so as to take the channel estimation errors into account. Finally, we consider robust channel estimation which can be viewed as one of the perspectives of this thesis
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Ben, Jmaa Chtourou Yomna. "Implémentation temps réel des algorithmes de tri dans les applications de transports intelligents en se basant sur l'outil de synthèse haut niveau HLS". Thesis, Valenciennes, 2019. http://www.theses.fr/2019VALE0013.

Texto completo
Resumen
Les systèmes de transports intelligents jouent un rôle important dans la minimisation des accidents, embouteillage, et la pollution d’air. Parmi ces systèmes, nous citons le domaine avionique qui utilise dans plusieurs cas les algorithmes de tri qui sont l’une des opérations importante pour des applications embarquées temps réels. Cependant, l’évolution technologique tend vers des architectures de plus en plus complexes pour répondre aux exigences applicatives. À cet égard, les concepteurs trouvent leur solution idéale dans l’informatique reconfigurable, basée sur des architectures hétérogènes CPU/FPGA qui abritent des processeurs multi-core (CPU) et des FPGAs qui offrent de hautes performances et une adaptabilité aux contraintes temps-réel de l’application. L’objectif principal de mes travaux est de développer une implémentions matérielle des application de transports intelligents (algorithme de planification de plan de vol A*)et les algorithmes de tri sur l’architecture hétérogène CPU/FPGA en utilisant l’outil de synthèse haut niveau pour générer le design RTL à partir de la description comportementale. Cette étape nécessite des efforts supplémentaires de la part du concepteur afin d'obtenir une implémentation matérielle efficace en utilisant plusieurs optimisations avec différents cas d’utilisation : logiciel, matérielle optimisé et non optimisé et aussi pour plusieurs permutations/vecteurs générer à l’aide d’un générateur de permutation basé sur Lehmer. Pour améliorer les performances, nous avons calculés le temps d’exécution, l’écart type et le nombre de ressource utilisé pour les algorithmes de tri en considérant plusieurs tailles de données varient entre 8 et 4096 éléments. Finalement, nous avons comparé les performances de ces algorithmes. Cet algorithme sera intégrer les applications d’aide à la décision, planification du plan de vol
Intelligent transport systems play an important role in minimizing accidents, traffic congestion, and air pollution. Among these systems, we mention the avionics domain, which uses in several cases the sorting algorithms, which are one of the important operations for real-time embedded applications. However, technological evolution is moving towards more and more complex architectures to meet the application requirements. In this respect, designers find their ideal solution in reconfigurable computing, based on heterogeneous CPU / FPGA architectures that house multi-core processors (CPUs) and FPGAs that offer high performance and adaptability to real-time constraints. Of the application. The main objective of my work is to develop hardware implementations of sorting algorithms on the heterogeneous CPU / FPGA architecture by using the high-level synthesis tool to generate the RTL design from the behavioral description. This step requires additional efforts on the part of the designer in order to obtain an efficient hardware implementation by using several optimizations with different use cases: software, optimized and nonoptimized hardware and for several permutations / vectors generated using the generator pf permutation based on Lehmer method. To improve performance, we calculated the runtime, standard deviation and resource number used for sorting algorithms by considering several data sizes ranging from 8 to 4096 items. Finally, we compared the performance of these algorithms. This algorithm will integrate the applications of decision support, planning the flight plan
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Talbourdet, Fabien. "Développement d'une démarche d’aide à la connaissance pour la conception de bâtis performants". Thesis, Vaulx-en-Velin, Ecole nationale des travaux publics, 2014. http://www.theses.fr/2014ENTP0010/document.

Texto completo
Resumen
Les demandes des usagers conjuguées à la réglementation nécessitent de concevoir des bâtiments de plus en plus confortables et économes en énergie. En parallèle de ces exigences, les réglementations concernant les bâtiments sont renforcées dans différents domaines (acoustique, sécurité incendie, risque sismique,…) afin d’obtenir des bâtiments plus sûrs et correspondant aux demandes des usagers. Les impacts conjugués de ces deux facteurs engendrent une complexification de la conception des bâtiments.Cette thèse présente une démarche d’aide à la connaissance pour la conception de bâtis performants se basant sur une méthode d’optimisation. Cette démarche vise à ce que les architectes et les bureaux d’études aient une connaissance claire du potentiel de leur projet (exploration de solutions) en phase amont de conception, pour concevoir des bâtiments les plus performants possibles. Ce potentiel est évalué via des paramètres de la géométrie extérieure et intérieure ainsi que des caractéristiques énergétiques du bâti. La démarche leur permet également d’évaluer les avantages et inconvénients de différentes géométries et solutions de conception qu’ils envisagent pour répondre à leurs projets. Cette démarche est appliquée à un immeuble de bureaux à Lyon.Pour le cas testé, la démarche permet d’obtenir rapidement des solutions performantes et de définir pour certains des paramètres étudiés, des valeurs conduisant aux solutions performantes dans une partie de l’espace des solutions ou dans l’ensemble de cet espace.Cette application de la démarche montre également qu’il peut exister des solutions ayant des besoins énergétiques et des coûts de construction proches mais étant très différentes en termes de paramètres de conception. Bien que remettant en cause l'applicabilité directe de la démarche, ce résultat met en exergue un problème nouveau. Cette thèse pose alors les bases pour une nouvelle étude
Both aspirations of users and improvements in the thermal regulation require that the comfort and the energy efficiency of new buildings improve. In addition to these requirements, regulations are strengthening in many fields such as acoustics, fire safety and mechanical performance. The combined effects of these factors are making it increasingly hard to design buildings. This thesis presents a knowledge-aid approach for designing high-performance buildings based on an optimization method. This approach aims to provide clear knowledge of the potential of projects (exploration of various options) for architects and design offices at the beginning of the design that will allow them to design the best possible high-performance buildings. This potential is evaluated using external and internal geometric parameters as well as the energy characteristics of buildings. This approach also allows them to assess geometries and design solutions which are intended to be used for their projects.This approach will be applied to an office building in Lyon, France. For the tested case, the approach obtains quickly efficient solutions and also finds, for some parameters, values to design efficient solutions on part of the Paretofront or in this entire front. This application of the approach also shows that there may be solutions which are close in terms of energy needs and cost but could be very different on design parameters. This problem could influence robustness of the approach but highlights a new problem. This thesis then lays the foundation of a new study on this topic
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Abdelli, Wassim. "Modélisation du rayonnement électromagnétique de boîtiers de blindage par sources équivalentes : application aux matériaux composites". Thesis, Paris 11, 2015. http://www.theses.fr/2015PA112093.

Texto completo
Resumen
La modélisation de matériaux composites est un domaine d’étude qui bénéficie d’un intérêt croissant. En effet, la vulgarisation de l’utilisation de tels matériaux nécessite le développement de nouveaux modèles afin de mieux comprendre leur comportement. L’industrie automobile et aéronautique s’efforce d’optimiser le choix des matériaux en fonction des spécificités de chaque application, afin de réduire la masse des équipements et de leur assurer de meilleurs caractéristiques mécaniques et thermiques. Les matériaux composites se sont aussi présentés comme une éventuelle alternative au métal pour le rôle de blindage électromagnétique. Leur généralisation dans cette optique se heurte néanmoins à une relative méconnaissance de leur comportement électromagnétique. A cet effet, il est nécessaire de disposer de méthodologies permettant d'évaluer l'efficacité de blindage de boîtiers en matériaux composites et de cerner les différents mécanismes et paramètres correspondants.Par ailleurs, le déploiement de ces matériaux alternatifs à plus grande échelle est freiné par d'autres contraintes liées essentiellement à la difficulté de l'analyse électromagnétiques 3D complète de systèmes complexes abritant des boîtiers en matériaux composites. En effet, la complexité topologique de certains composants complique considérablement leur insertion dans les outils de simulation électromagnétique existants. De plus, le rapport d'échelle entre les différents niveaux (système, boîtiers composites, cartes, circuits, composants) est trop important ; cette disparité d'échelle complexifie considérablement la discrétisation géométrique de l'ensemble. L'association de ces différentes contraintes conduisent à des difficultés réelles aux quelles les ingénieurs CEM sont confrontés. C'est pourquoi il est nécessaire de développer des modèles performants permettant de faciliter l'analyse 3D du système hôte complet. Ce travail de thèse s'est donc réparti sur deux volets :- dans un premier temps, nous présentons une méthodologie de calcul de l'efficacité de blindage des boîtiers en matériaux composites, afin d'évaluer la potentialité de ces matériaux en termes de blindage électromagnétique et de cerner les principaux facteurs qui y contribuent.- dans un second temps et dans l'objectif de fournir une approche permettant de mettre les systèmes électroniques complexes intégrant des boîtiers de blindage composites en conformité avec les exigences strictes de CEM, nous proposons une méthodologie de modélisation des rayonnements électromagnétiques. Cette modélisation (à base d’algorithmes génétiques) permet de remplacer les dispositifs ou les boîtiers rayonnants (composites notamment) par un ensemble de dipôles élémentaires. Le modèle équivalent, de type "boîte noire", est ainsi représentatif de l’ensemble de la structure en termes de rayonnement électromagnétique en hautes fréquences et est facilement intégrable dans le maillage de structures hôtes. Ce modèle multipolaire fournit des prédictions spatiales et fréquentielles du champ électrique et magnétique permettant entre autres de calculer l'efficacité de blindage du boîtier dans l'espace, donnant ainsi un moyen de quantifier son impact perturbateur sur son environnement. D'autre part, cette approche permet de simplifier l'analyse 3D d'un système complet abritant des boîtiers composites en contrôlant le comportement EM à tous les niveaux : système, boîtiers, cartes, circuits et composants
The modeling of composite materials is a domain of study which benefits of increasingly interest. Indeed, the popularization of the use of such materials requires the development of new models in order to better understand their behavior. The automotive and aerospace industry strives to optimize material selection based on the specificities of each application in order to reduce the weight of the equipment and to provide better mechanical and thermal characteristics. Composite materials have been also presented as a potential alternative to metals for the role of electromagnetic shielding. Their generalization in this context is nevertheless hampered by a relative lack of knowledge of their electromagnetic behavior. For this purpose, it is necessary to have methodologies to evaluate the shielding effectiveness of composite enclosures and identify the different corresponding mechanisms and parameters.Moreover, the deployment of these alternative materials on a larger scale is hindered by other constraints related mainly to the difficulty of complete 3D analysis of complex systems including composite enclosures. In fact, the topological complexity of certain components greatly complicates their integration into existing electromagnetic simulation tools. Moreover, the scale ratio between the different levels (system, composite enclosures, electronic card, circuit, component) is too large ; This disparity of scale complexifies considerably the geometrical discretization of the entire system. The combination of these different constraints leads to real difficulties to which EMC engineers face. That is why it is necessary to develop efficient models to facilitate the 3D analysis of the complete host system.This work is therefore divided in two sections :- In a first time, we present a methodology to calculate shielding effectiveness of composite enclosures of electronic equipment. The goal is to evaluate the potential of these materials in terms of electromagnetic shielding and to identify the main contributing factors.- In a second time, and in order to ensure compliance of complex electronic systems incorporating composite shielding enclosures with the stringent requirements of EMC, we propose a modeling methodology of electronic devices radiation. This modeling (based on genetic algorithms) allows to replace the radiating devices and enclosures (especially composites) by a set of elementary dipoles. The equivalent model, "black box" type, is thus representative of the entire structure in terms of high frequency electromagnetic radiation and is easily integrable in the mesh of host structures. This multipolar model provides spatial and frequency predictions of the electric and magnetic field, enabling among others to calculate the shielding effectiveness of the radiating enclosure in space, thereby giving a way to quantify its disruptive impact on its environment. Moreover, this approach allow to simplify the 3D analysis of a complete system comprising composite enclosures by controlling the EM behavior at all levels: system, enclosures, cards, circuits and components
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Belmega, Elena Veronica. "Problèmes d'allocation de ressources dans les réseaux MIMO sans fil distribués". Phd thesis, Université Paris Sud - Paris XI, 2010. http://tel.archives-ouvertes.fr/tel-00556223.

Texto completo
Resumen
Dans ce manuscrit de thèse, l'objectif principal est d'étudier les réseaux sans fil dans lesquels les nœuds terminaux sont équipés de plusieurs antennes. Plusieurs thèmes d'actualité, tels que les réseaux intelligents auto-optimisants, les communications dites green ou vertes et algorithmes distribués sont abordés. Dans ce but, nous utilisons une gamme diversifiée d'outils de la théorie des jeux, théorie de l'information, théorie des matrices aléatoires et théorie de l'apprentissage. Nous commençons notre analyse par l'étude du problème d'allocation de puissance dans les réseaux MIMO distribués. Les émetteurs sont censés être autonomes et capables de gérer leurs puissances afin d'optimiser leur taux de Shannon atteignables. Le cadre des jeux non-coopératifs est utilisé pour étudier la solution de ce problème. Des algorithmes itératifs qui convergent vers la solution optimale donnée par l'équilibre de Nash sont proposés. Deux approches différentes sont appliquées: des algorithmes basés sur les meilleures réponses et des algorithmes d'apprentissage par renforcement. Un autre problème majeur dans les réseaux sans fil est lié à la question de l'efficacité énergétique. Afin d'atteindre des débits de transmission élevés, la consommation d'énergie est également élevée. Dans les réseaux où la consommation d'énergie est une question critique, le débit de Shannon atteignable n'est plus une métrique de performance adaptée. C'est pourquoi nous abordons également le problème de l'optimisation d'une fonction d'efficacité énergétique.
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Al-Qaseer, Firas Abdulmajeed. "Scheduling policies considering both production duration and energy consumption criteria for environmental management". Thesis, Université Clermont Auvergne‎ (2017-2020), 2018. http://www.theses.fr/2018CLFAC028/document.

Texto completo
Resumen
Nous présentons les enjeux du management environnemental et soulignons l’importance d’une politique d’économie d’énergie pour les entreprises. Nous proposons un modèle pour déterminer le bilan énergétique de la fabrication en intégrant les différentes phases productives et non-productives. Nous définissons un double objectif pour la minimisation de la durée de production et de la consommation d’énergie. Nous appliquons ce modèle à l’ordonnancement d’ateliers job-shop flexibles. Pour déterminer la solution optimale nous utilisons deux classes de méthodes : - La première relève des algorithmes génétiques. Nous proposons différents types d’algorithmes pour résoudre ce problème multicritère. Nous proposons par exemple de faire évoluer deux populations pour minimiser respectivement l’énergie consommée et la durée de production et de les croiser pour atteindre l’objectif global. - La seconde relève de la programmation sous contrainte. Nous proposons de rechercher la solution optimale en développant une double arborescence pour évaluer l’énergie consommée et la durée de production. Nous construisons notre algorithme en partant des tâches à réaliser sur les machines ou en partant des machines qui réaliseront les tâches. Nous discutons de la construction du front de Pareto pour l’obtention de la meilleure solution.Nous terminons en comparant les différentes approches et en discutant leur pertinence pour traiter des problèmes de différentes tailles. Nous proposons également plusieurs améliorations et quelques pistes pour de futures recherches
We present the challenges of environmental management and underline the importance of an energy saving policy for companies. We propose a model to determine the energy balance of manufacturing by integrating the different productive and non-productive phases. We define two purposes for minimizing production time and energy consumption. We apply this model to the scheduling of flexible job-shop workshops. To determine the optimal solution we use two types of methods: - The first is genetic algorithms. We propose different types of algorithms to solve this multi-criteria problem. For example, we propose to develop two populations to minimize the energy consumed and the production time, and to cross them to achieve the overall objective. - The second is constraint programming. We propose to find the optimal solution by developing a double tree to evaluate the energy consumed and the production time. We build our algorithm starting from the tasks to be performed on the machines or from the machines that will perform the tasks. We discuss the construction of the Pareto front to get the best solution.We finish by comparing the different approaches and discussing their relevance to deal with problems of different sizes. We also offer several improvements and some leads for future research
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Valenti, Giacomo. "Secure, efficient automatic speaker verification for embedded applications". Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS471.

Texto completo
Resumen
Cette thèse se concentre uniquement sur la vérification automatique du locuteur, tâche de classification binaire, en deux aspects : l'efficacité et la sécurité. Chacun des aspects sera exploré dans deux itérations : sur l'ASV traditionnel (chapitres II, III et IV) et l'ASV expérimentale (chapitres V, VI et VII). Les chapitres II et V sont des revues de littérature, leur but est de mettre en perspective les contributions dans le chapitres que respectivement les suivent. Chapitre II est centré sur la réduction des donnés nécessaire pour entrainer un modèle de locuteur, dans ce cas l’efficacité est ce qui permet de rendre un système facilement usable par l’utilisateur final dans un contexte des application embarquées. Chapitre III se concentre sur les mots de passe oraux et sur la possibilité de donner une mesure de sécurité en fonction du contenu textuel et de l’énonciation au moment du choix, exactement comme pour les mots de passe écrits. Dans le chapitre V une approche génétique pour l’évolution des topologies neuronaux est appliqué pour la première fois au flux audio brut, pour l’identification du locuteur. Chapitre VI voit cette même approche appliquée à la reconnaissance des attaques de mystification de l’identité
This industrial CIFRE PhD thesis addresses automatic speaker verification (ASV) issues in the context of embedded applications. The first part of this thesis focuses on more traditional problems and topics. The first work investigates the minimum enrolment data requirements for a practical, text-dependent short-utterance ASV system. Contributions in part A of the thesis consist in a statistical analysis whose objective is to isolate text-dependent factors and prove they are consistent across different sets of speakers. For very short utterances, the influence of a specific text content on the system performance can be considered a speaker-independent factor. Part B of the thesis focuses on neural network-based solutions. While it was clear that neural networks and deep learning were becoming state-of-the-art in several machine learning domains, their use for embedded solutions was hindered by their complexity. Contributions described in the second part of the thesis comprise blue-sky, experimental research which tackles the substitution of hand-crafted, traditional speaker features in favour of operating directly upon the audio waveform and the search for optimal network architectures and weights by means of genetic algorithms. This work is the most fundamental contribution: lightweight, neuro-evolved network structures which are able to learn from the raw audio input
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Zou, Hang. "Goal oriented communications : the quantization problem". Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG021.

Texto completo
Resumen
Le paradigme classique pour concevoir un émetteur (codeur) et un récepteur (décodeur) est de concevoir ces éléments en assurant que l'information reconstruite par le récepteur soit suffisamment proche de l'information que l'émetteur a mis en forme pour l'envoyer sur le médium de communication. On parle de critère de fidélité ou de qualité de reconstruction (mesurée par exemple en termes de distorsion, de taux d'erreur binaire, de taux d'erreur paquet ou de probabilité de coupure de la communication).Le problème du paradigme classique est qu'il peut conduire à un investissement injustifié en termes de ressources de communication (surdimensionnement de l'espace de stockage de données, médium de communication à très haut débit et onéreux, composants très rapides, etc.) et même à rendre les échanges plus vulnérables aux attaques. La raison à cela est que l'exploitation de l'approche classique (fondée sur le critère de fidélité de l'information) dans les réseaux sans fil conduira typiquement à des échanges excessivement riches en information, trop riches au regard de la décision que devra prendre le destinataire de l'information. Il s'avère qu'actuellement, l'ingénieur n'a pas à sa disposition une méthodologie lui permettant de concevoir une telle paire émetteur-récepteur qui serait adaptée à l'utilisation (ou les utilisations) du destinataire.Par conséquent, un nouveau paradigme de communication appelé la communication orientée objectif est proposé pour résoudre le problème des communications classiques. Le but ultime des communications orientées objectifs est d'accomplir certaines tâches ou certains objectifs au lieu de viser un critère de reconstruction du signal source. Les tâches sont généralement caractérisées par des fonctions d'utilité ou des fonctions de coût à optimiser.Dans la présente thèse, nous nous concentrons sur le problème de quantification des communication orientées objectifs, c'est-à-dire la quantification orientée objectif. Nous formulons d'abord formellement le problème de quantification orientée objectif. Deuxièmement, nous proposons une approche pour résoudre le problème lorsque seules des réalisations de fonction d'utilité sont disponibles. Un scénario spécial avec quelques connaissances supplémentaires sur les propriétés de régularité des fonctions d'utilité est également traité. Troisièmement, nous étendons la théorie de la quantification à haute résolution à notre problème de quantification orientée objectif et proposons des schémas implémentables pour concevoir un quantificateur orienté objectif. Quatrièmement, le problème de quantification orientée but est développé dans un cadre de jeux sous forme stratégique. Il est montré que la quantification orientée objectif pourrait améliorer les performances globales du système si le fameux paradoxe de Braess existe. Enfin, l'équilibre de Nash d'un jeu de canaux d'accès multiples à entrées multiples et sorties multiples multi-utilisateurs avec l'efficacité énergétique étant l'utilité est étudié et réalisé selon différentes méthodes
The classic paradigm for designing a transmitter (encoder) and a receiver (decoder) is to design these elements by ensuring that the information reconstructed by the receiver is sufficiently close to the information that the transmitter has formatted to send it on the communication medium. This is referred to as a criterion of fidelity or of reconstruction quality (measured for example in terms of distortion, binary error rate, packet error rate or communication cut-off probability).The problem with the classic paradigm is that it can lead to an unjustified investment in terms of communication resources (oversizing of the data storage space, very high speed and expensive communication medium, very fast components, etc.) and even to make exchanges more vulnerable to attacks. The reason for this is that the use of the classic approach (based on the criterion of fidelity of information) in the wireless networks will typically lead to exchanges excessively rich in information, too rich regarding the decision which will have to be taken. the recipient of the information; in the simpler case, this decision may even be binary, indicating that in theory a single bit of information could be sufficient. As it turns out, the engineer does not currently have at his disposal a methodology to design such a transceiver pair that would be suitable for the intended use (or uses) of the recipient.Therefore, a new communication paradigm named the goal-oriented communication is proposed to solve the problem of classic communications. The ultimate objective of goal-oriented communications is to achieve some tasks or goals instead of improving the accuracy of reconstructed signal merely. Tasks are generally characterized by some utility functions or cost functions to be optimized.In the present thesis, we focus on the quantization problem of the goal-oriented communication, i.e., the goal-oriented quantization. We first formulate the goal-oriented quantization problem formally. Secondly, we propose an approach to solve the problem when only realizations of utility function are available. A special scenario with some extra knowledge about regularity properties of the utility functions is treated as well. Thirdly, we extend the high-resolution quantization theory to our goal-oriented quantization problem and propose implementable schemes to design a goal-oriented quantizer. Fourthly, the goal-oriented quantification problem is developed in a framework of games in strategic form. It is shown that goal-oriented quantization could improve the overall performance of the system if the famous Braess paradox exists. Finally, Nash equilibrium of a multi-user multiple-input and multiple output multiple access channel game with energy efficiency being the utility is studied and achieved in different methods
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Abdelli, Abdenour. "Optimisation multicritère d'une chaîne éolienne passive". Phd thesis, Institut National Polytechnique de Toulouse - INPT, 2007. http://tel.archives-ouvertes.fr/tel-00553540.

Texto completo
Resumen
Dans cette thèse une optimisation multicritère par algorithme génétique d'une chaîne éolienne de petite puissance entièrement passive (sans MPPT) a été réalisée. Le rendement de cette structure est largement amélioré par l'optimisation des caractéristiques de la génératrice. Pour un cycle de vent donné, les configurations passives optimisées sont capables d'extraire une énergie comparable à celle obtenue avec des architectures actives utilisant un dispositif MPPT. Nous avons développé quatre niveaux de modèles de comportement de la chaîne éolienne : un modèle instantané "modèle fin" pour l'analyse du système et trois modèles simplifiés pouvant être intégrés dans un processus d'optimisation en raison de la réduction du coût de calcul. Enfin, la robustesse de cette structure passive vis-à-vis des variations de vent a été analysée en exploitant un modèle de vent original basé sur des données statistiques.
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Mousset, Stéphane. "Estimation de la vitesse axiale à partir d'une séquence réelle d'images stéréoscopiques". Rouen, 1997. http://www.theses.fr/1997ROUES048.

Texto completo
Resumen
Dans le cadre de la réalisation d'un capteur 3D pour l'assistance à la conduite automobile, nous avons élaboré un algorithme original permettant de construire des cartes de vitesse axiale pour une scène réelle. Le principe de notre méthode repose sur un traitement réalisé à partir d'une séquence de cartes de disparité établies à l'aide de couples d'images stéréoscopiques. Le traitement se décompose en deux phases. Dans la première phase, nous effectuons un traitement au niveau du point image fondé sur l'utilisation d'un ensemble détecteur-estimateur. Pour caractériser la vitesse axiale observée au niveau d'un pixel, nous définissons une modélisation 3D adaptée à la configuration du système utilisé. Dans la deuxième phase, nous faisons intervenir le voisinage du point image par l'utilisation d'opérations morphologiques. Cette approche évite l'utilisation d'une segmentation région et le problème de la reconnaissance d'objets. L'avantage de cette méthode réside dans le temps de calcul constant, en particulier indépendant du nombre d'objets contenus dans la scène. L'efficacité de la méthode présentée est illustrée par différents résultats obtenus à partir de séquences d'images de synthèse bruitées, puis de séquences d'images issues de scènes réelles.
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Lahiani, Nouha. "Méthode hybride d'affectation des ressources humaines pour l'amélioration de la performance de la maintenance". Electronic Thesis or Diss., Paris 8, 2015. http://www.theses.fr/2015PA080037.

Texto completo
Resumen
Cette thèse propose un outil d’aide à la décision pour la gestion de processus de maintenance basée surune affectation optimale des ressources humaines afin d’améliorer la performance de la maintenance.En effet, une bonne performance de la fonction maintenance est indispensable pour maintenir laproductivité des installations industrielles, et donc de la compétitivité des entreprises manufacturières.L’approche que nous développons dans ce manuscrit procure un cadre de référence des leviersd’actions envisageables pour mesurer, évaluer, améliorer et optimiser la performance de lamaintenance. Nous prenons en considération un problème d’affectation des ressources humaines, quiprend en compte non seulement leurs disponibilités et compétences, mais aussi la gestion des urgencesd’intervention sur terrain.La méthode que nous proposons est basée sur un modèle de simulation à événements discrets,reproduisant au mieux un service de maintenance. Ceci nous a permis d’évaluer la situation via desindicateurs de performance présélectionnés. Pour optimiser le système, nous proposons un couplagedu modèle de simulation avec un module d’optimisation indépendant qui se réfère à une métaheuristiquebasée sur une approche Pareto. Notre proposition a été testée dans une entrepriseindustrielle réelle.L’approche que nous proposons donne un ensemble de solutions d’affectation des ressourceshumaines, aidant le décideur à mieux gérer l’indisponibilité de ses outils. Nous obtenons de bonsrésultats en un temps raisonnable
In this thesis, a decision-making tool for maintenance management process based on assignment ofhuman resources is proposed in order to improve maintenance performance. An optimal maintenanceperformance is indispensable to guarantee the productivity and competitiveness of manufacturingcompanies.The proposed approach provides a framework of different possible levers to measure, evaluate,improve and optimize the maintenance performance. The assignment of human resources problem isconsidered. It takes into account different constraints like human resources availability, competences,urgency degree management of interventions requests etc.The proposed method is based on a discrete event simulation model, providing a better presentation ofthe maintenance service and better comprehensive thanks to the performance indicators. To improveuntil optimize the model, a simulation-based Pareto optimization method is introduced. Optimizationmodule was coded on independent programs in order to provide an opportunity of control thesimulation based optimization process.The proposed simulation based optimization method find good solutions in a reasonable amount oftime. Applying this technique on an industrial case-study, we show that it is more effective indetecting real faults than existing alternatives. The approach can be extended to cover other domainsand other types of simulation models
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Boudargham, Nadine. "Competent QoS-aware and energy efficient protocols for body sensor networks". Thesis, Bourgogne Franche-Comté, 2020. http://www.theses.fr/2020UBFCD007.

Texto completo
Resumen
Les réseaux de capteurs corporels (RC2) sont constitués de bio-capteurs à faibles ressources énergétiques et de calcul. Ils collectent des données physiologiques du corps humain et de son environnement, et les transmettent à un coordinateur comme le PDA (Personal Digital Assistant) ou un smartphone, pour être acheminé ensuite aux experts de santé. Les réseaux de capteurs corporels collaboratifs (RC3) sont une collection de RC2 qui se déplacent dans une zone donnée et collaborent,interagissent et échangent des données entre eux pour identifier l'activité du groupe et surveiller l'état individuel et collectif des participants. Dans les réseaux RC2 et RC3, l'envoi de données de manière fiable tout en assurant une bonne Quality of Service (QoS) et une latence de données optimisée est crucial, vu la sensibilité des données collectées. La QoS dans ce type de réseaux dépend en grande partie du choix des protocoles de contrôle d'accès MAC (Medium Access Control) et des protocoles de routage, de l'efficacité énergétique, de la précision et de la détection des anomalies.Les protocoles existants dans la littérature et proposés pour les RC2et RC3 présentent de nombreuses limites au niveau de la latence de données, de la fiabilité, et de la détection de pannes. Le travail présenté dans cette thèse a trois objectifs principaux. Le premier consiste à étudier et concevoir de nouveaux algorithmes pour la couche MAC, robustes et capables de répondre aux défis de RC2 et RC3. Pour cela, nous avons conçu un nouveau protocole MAC qui prend en considération le trafic élevé et les contraintes de ressources dans ces types de réseaux, ainsi que la latence des données et l'urgence de relayer les informations sensibles. Le deuxième objectif consiste à proposer des protocoles de routage efficaces en termes de consommation d'énergie et de calcul, adaptés aux RC2 et RC3. Le troisième objectif est dédiée à l'étude d'un algorithme d’échantillonnage de données permettant de réduire la quantité de données collectées et transmises dans le réseau, sans perte d'information. Notre approche garantit la détection et l'envoi d'information en cas d'urgence tout en optimisant la consommation énergétique des nœuds. Pour montrer l'efficacité de nos approches, nous les avons testées dans un environnement de simulation OPNet dédié aux réseaux de capteurs et nous les avons comparées à plusieurs protocoles existants. Les résultats obtenus montrent l'efficacité de ces protocoles en termes d'optimisation de la consommation d'énergie, de latence et d'intégrité des données, et de détection d'anomalies
Body Sensor Networks (BSNs) are formed of medical sensors that gather physiological and activity data from the human body and its environment, and send them wirelessly to a personal device like Personal Digital Assistant (PDA) or a smartphone that acts as a gateway to health care. Collaborative Body Sensor Networks (CBSNs) are collection of BSNs that move in a given area and collaborate, interact and exchange data between each other to identify group activity, and monitor the status of single and multiple persons.In both BSN and CBNS networks, sending data with the highest Quality of Service (QoS) and performance metrics is crucial since the data sent affects people’s life. For instance, the sensed physiological data should be sent reliably and with minimal delay to take appropriate actions before it is too late, and the energy consumption of nodes should be preserved as they have limited capacities and they are expected to serve for a long period of time. The QoS in BSNs and CBSNs largely depends on the choice of the Medium Access Control (MAC) protocols, the adopted routing schemes, and the efficient and accuracy of anomaly detection.The current MAC, routing and anomaly detection schemes proposed for BSNs and CBSNs in the literature present many limitations and open the door toward more research and propositions in these areas. Thus this thesis work focuses on three main axes. The first axe consists in studying and designing new and robust MAC algorithms able to address BSNs and CBSNs' challenges. Standard MAC protocols are compared in high traffic BSNs and a new MAC protocol is proposed for such environments; then an emergency aware MAC scheme is presented to address the dynamic traffic requirements of BSN in ensuring delivery of emergency data within strict delay requirements, and energy efficiency of nodes during regular observations; moreover, a traffic and mobility aware MAC scheme is proposed for CBSNs to address both traffic and mobility requirements for these networks.The second axe consists in proposing a thorough and efficient routing scheme suitable for BSNs and CBSNs. First, different routing models are compared for CBSNs and a new routing scheme is proposed in the aim of reducing the delay of data delivery, and increasing the network throughput and the energy efficiency of nodes. The proposed scheme is then adapted to BSN's requirements to become a solid solution for the challenges faced by this network. The third axe involves proposing an adaptive sampling approach that guarantees high accuracy in the detection of emergency cases, while ensuring at the same time high energy efficiency of the sensors.In the three axes, the performance of the proposed schemes is qualitatively compared to existing algorithms in the literature; then simulations are carried a posteriori with respect to different performance metrics and under different scenarios to assess their efficiency and ability to face BSNs and CBSNs' challenges.Simulation results demonstrate that the proposed MAC, routing and anomaly detection schemes outperform the existing algorithms, and present strong solutions that satisfy BSNs and CBSNs' requirements
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Xiong, Haoyi. "Near-optimal mobile crowdsensing : design framework and algorithms". Thesis, Evry, Institut national des télécommunications, 2015. http://www.theses.fr/2015TELE0005/document.

Texto completo
Resumen
Aujourd’hui, il y a une demande croissante de fournir les informations d'environnement en temps réel tels que la qualité de l'air, le niveau de bruit, état du trafic, etc. pour les citoyens dans les zones urbaines a des fins diverses. La prolifération des capteurs de smartphones et la mobilité de la population font des Mobile Crowdsensing (MCS) un moyen efficace de détecter et de recueillir des informations a un coût faible de déploiement. En MCS, au lieu de déployer capteurs statiques dans les zones urbaines, les utilisateurs avec des périphériques mobiles jouent le rôle des capteurs de mobiles à capturer les informations de leurs environnements, et le réseau de communication (3G, WiFi, etc.) pour le transfert des données pour MCS applications. En général, l'application MCS (ou tâche) non seulement exige que chaque participant de périphérique mobile de posséder la capacité de réception missions de télédétection, de télédétection et de renvoi détecte résultats vers un serveur central, il exige également de recruter des participants, attribuer de télédétection tâches aux participants, et collecter les résultats obtenues par télédétection ainsi que représente les caractéristiques de la cible zone de détection. Afin de recruter un nombre suffisant de participants, l'organisateur d'une MCS tâche devrait considérer la consommation énergétique causée par MCS applications pour chaque participant et les questions de protection dans la vie privée, l'organisateur doit donner a chaque participant un certain montant des incitations comme un encouragement. En outre, afin de recueillir les résultats obtenues par télédétection et représentant la région cible, l'organisateur doit s'assurer que les données de télédétection qualité des résultats obtenues par télédétection, p. ex., la précision et la spatio-temporelle la couverture des résultats obtenus par télédétection. Avec la consommation d'énergie, la protection de la vie privée, les mesures d'incitation, de télédétection et qualité des données à l'esprit, dans cette thèse nous avons étudié quatre problèmes d'optimisation de mobile crowdsensing et mené après quatre travaux de recherche [...]
Nowadays, there is an increasing demand to provide real-time environment information such as air quality, noise level, traffic condition, etc. to citizens in urban areas for various purposes. The proliferation of sensor-equipped smartphones and the mobility of people are making Mobile Crowdsensing (MCS) an effective way to sense and collect information at a low deployment cost. In MCS, instead of deploying static sensors in urban areas, people with mobile devices play the role of mobile sensors to sense the information of their surroundings and the communication network (3G, WiFi, etc.) is used to transfer data for MCS applications. Typically, an MCS application (or task) not only requires each participant's mobile device to possess the capability of receiving sensing tasks, performing sensing and returning sensed results to a central server, it also requires to recruit participants, assign sensing tasks to participants, and collect sensed results that well represents the characteristics of the target sensing region. In order to recruit sufficient participants, the organizer of the MCS task should consider energy consumption caused by MCS applications for each individual participant and the privacy issues, further the organizer should give each participant a certain amount of incentives as encouragement. Further, in order to collect sensed results well representing the target region, the organizer needs to ensure the sensing data quality of the sensed results, e.g., the accuracy and the spatial-temporal coverage of the sensed results. With the energy consumption, privacy, incentives, and sensing data quality in mind, in this thesis we have studied four optimization problems of mobile crowdsensing and conducted following four research works: • EEMC - In this work, the MCS task is splitted into a sequence of sensing cycles, we assume each participant is given an equal amount of incentive for joining in each sensing cycle; further, given the target region of the MCS task, the MCS task aims at collecting an expected number of sensed results from the target region in each sensing cycle.Thus, in order to minimize the total incentive payments and the total energy consumption of the MCS task while meeting the predefined data collection goal, we propose EEMC which intends to select a minimal number of anonymous participants to join in each sensing cycle of the MCS task while ensuring an minimum number of participants returning sensed results. • EMC3 - In this work, we follow the same sensing cycles and incentives assumptions/settings from EEMC; however, given a target region consisting of a set of subareas, the MCS task in this work aims at collecting sensed results covering each subarea of the target region in each sensing cycle (namely full coverage constraint).Thus, in order to minimize the total incentive payments and the total energy consumption of the MCS task under the full coverage constraint, we propose EMC3 which intends to select a minimal number of anonymous participaNts to join in each sensing cycle of the MCS task while ensuring at least one participant returning sensed results from each subarea. • CrowdRecruiter - In this work, we assume each participant is given an equal amount of incentive for joining in all sensing cycles of the MCS task; further, given a target region consisting of a set of subareas, the MCS task aims at collecting sensed results from a predefined percentage of subareas in each sensing cycle (namely probabilistic coverage constraint).Thus, in order to minimize the total incentive payments the probabilistic coverage constraint, we propose CrowdRecruiter which intends to recruit a minimal number of participants for the whole MCS task while ensuring the selected participants returning sensed results from at least a predefined percentage of subareas in each sensing cycle. • CrowdTasker - In this work, we assume each participant is given a varied amount of incentives according to [...]
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Xiong, Haoyi. "Near-optimal mobile crowdsensing : design framework and algorithms". Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2015. http://www.theses.fr/2015TELE0005.

Texto completo
Resumen
Aujourd’hui, il y a une demande croissante de fournir les informations d'environnement en temps réel tels que la qualité de l'air, le niveau de bruit, état du trafic, etc. pour les citoyens dans les zones urbaines a des fins diverses. La prolifération des capteurs de smartphones et la mobilité de la population font des Mobile Crowdsensing (MCS) un moyen efficace de détecter et de recueillir des informations a un coût faible de déploiement. En MCS, au lieu de déployer capteurs statiques dans les zones urbaines, les utilisateurs avec des périphériques mobiles jouent le rôle des capteurs de mobiles à capturer les informations de leurs environnements, et le réseau de communication (3G, WiFi, etc.) pour le transfert des données pour MCS applications. En général, l'application MCS (ou tâche) non seulement exige que chaque participant de périphérique mobile de posséder la capacité de réception missions de télédétection, de télédétection et de renvoi détecte résultats vers un serveur central, il exige également de recruter des participants, attribuer de télédétection tâches aux participants, et collecter les résultats obtenues par télédétection ainsi que représente les caractéristiques de la cible zone de détection. Afin de recruter un nombre suffisant de participants, l'organisateur d'une MCS tâche devrait considérer la consommation énergétique causée par MCS applications pour chaque participant et les questions de protection dans la vie privée, l'organisateur doit donner a chaque participant un certain montant des incitations comme un encouragement. En outre, afin de recueillir les résultats obtenues par télédétection et représentant la région cible, l'organisateur doit s'assurer que les données de télédétection qualité des résultats obtenues par télédétection, p. ex., la précision et la spatio-temporelle la couverture des résultats obtenus par télédétection. Avec la consommation d'énergie, la protection de la vie privée, les mesures d'incitation, de télédétection et qualité des données à l'esprit, dans cette thèse nous avons étudié quatre problèmes d'optimisation de mobile crowdsensing et mené après quatre travaux de recherche [...]
Nowadays, there is an increasing demand to provide real-time environment information such as air quality, noise level, traffic condition, etc. to citizens in urban areas for various purposes. The proliferation of sensor-equipped smartphones and the mobility of people are making Mobile Crowdsensing (MCS) an effective way to sense and collect information at a low deployment cost. In MCS, instead of deploying static sensors in urban areas, people with mobile devices play the role of mobile sensors to sense the information of their surroundings and the communication network (3G, WiFi, etc.) is used to transfer data for MCS applications. Typically, an MCS application (or task) not only requires each participant's mobile device to possess the capability of receiving sensing tasks, performing sensing and returning sensed results to a central server, it also requires to recruit participants, assign sensing tasks to participants, and collect sensed results that well represents the characteristics of the target sensing region. In order to recruit sufficient participants, the organizer of the MCS task should consider energy consumption caused by MCS applications for each individual participant and the privacy issues, further the organizer should give each participant a certain amount of incentives as encouragement. Further, in order to collect sensed results well representing the target region, the organizer needs to ensure the sensing data quality of the sensed results, e.g., the accuracy and the spatial-temporal coverage of the sensed results. With the energy consumption, privacy, incentives, and sensing data quality in mind, in this thesis we have studied four optimization problems of mobile crowdsensing and conducted following four research works: • EEMC - In this work, the MCS task is splitted into a sequence of sensing cycles, we assume each participant is given an equal amount of incentive for joining in each sensing cycle; further, given the target region of the MCS task, the MCS task aims at collecting an expected number of sensed results from the target region in each sensing cycle.Thus, in order to minimize the total incentive payments and the total energy consumption of the MCS task while meeting the predefined data collection goal, we propose EEMC which intends to select a minimal number of anonymous participants to join in each sensing cycle of the MCS task while ensuring an minimum number of participants returning sensed results. • EMC3 - In this work, we follow the same sensing cycles and incentives assumptions/settings from EEMC; however, given a target region consisting of a set of subareas, the MCS task in this work aims at collecting sensed results covering each subarea of the target region in each sensing cycle (namely full coverage constraint).Thus, in order to minimize the total incentive payments and the total energy consumption of the MCS task under the full coverage constraint, we propose EMC3 which intends to select a minimal number of anonymous participaNts to join in each sensing cycle of the MCS task while ensuring at least one participant returning sensed results from each subarea. • CrowdRecruiter - In this work, we assume each participant is given an equal amount of incentive for joining in all sensing cycles of the MCS task; further, given a target region consisting of a set of subareas, the MCS task aims at collecting sensed results from a predefined percentage of subareas in each sensing cycle (namely probabilistic coverage constraint).Thus, in order to minimize the total incentive payments the probabilistic coverage constraint, we propose CrowdRecruiter which intends to recruit a minimal number of participants for the whole MCS task while ensuring the selected participants returning sensed results from at least a predefined percentage of subareas in each sensing cycle. • CrowdTasker - In this work, we assume each participant is given a varied amount of incentives according to [...]
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Hamini, Abdallah. "News algorithms for green wired and wireless communications". Phd thesis, INSA de Rennes, 2013. http://tel.archives-ouvertes.fr/tel-00903356.

Texto completo
Resumen
The demand for new services and applications in communication systems, as well as the number of users, are steadily increasing. This growth invoves a great use of energy in information and communications technologies , which contributes significantly to global warming. Furthermore, to satisfy the energy requirements for both wired and wireless networks, new approaches must be developed..Firstly, our researches focus on resources allocation mechanisms in point-to-point systems for two transmission modes (single-carrier and multi-carrier) with the goal of minimizing the energy cosumption. In this part, we present a new approach called ultra wide time (UWT) and a new metric for communication systems. Based on this approach, efficient algorithms for resource allocation are proposed to improve energy efficiency in wireless and wired networks.
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

Ben, Ayed Ramzi. "Eco-conception d’une chaine de traction ferroviaire". Thesis, Ecole centrale de Lille, 2012. http://www.theses.fr/2012ECLI0009/document.

Texto completo
Resumen
Avec l’apparition des différentes normes et règlementations telles que les normes ISO 14001, les préoccupations industrielles y compris ferroviaires sont de plus en plus orientés vers l’éco-conception. La problématique la plus importante dans l’éco-conception des produits ferroviaires est de réduire leurs impacts environnementaux tout en maintenant leurs performances fonctionnelles et en maitrisant le coût. La solution pour surmonter ce problème est de trouver un ensemble de compromis entre les deux objectifs (impacts et coût).L’éco-conception des produits ferroviaires présentent plusieurs difficultés parce que, d’une part, leur analyse de cycle de vie est très lourde. D’autre part, l’intégration de leurs impacts dans la phase de conception est délicate vu leur nombre. Enfin, ces composants ont parfois différents types de modèles à exploiter car ils présentent des compromis entre la précision et le temps de calcul. Pour surmonter ces problèmes nous avons présenté dans cette thèse une méthode qui consiste premièrement, à alléger l’ACV à l’aide d’un logiciel de gestion environnementale et d’en profiter pour construire un modèle malléable pour calculer les différents impacts. Deuxièmement, à agréger ces impacts pour obtenir un seul indice qui sera considéré comme notre critère environnemental. Pour exploiter les outils d’optimisation, le problème d’éco-conception est traduit par un problème d’optimisation. Les algorithmes d’optimisation sont capables de trouver l’ensemble de compromis optimaux entre le critère environnemental et la masse (coût) sous forme d’un graphe appelé front de Pareto. Certains algorithmes ont été adaptés pour mieux servir dans l’éco-conception
With the introduction of different environmental standards like ISO 14001, concerns of manufacturers in railway industry are more and more oriented to the design of green products. One important issue when designing such products is the control of the cost impact and the evaluation of the price which consumers agree to pay for a reduced environmental footprint.Eco-design of railway train presents several challenges for the designer. The first one is the complexity of the life cycle analysis of such components. The second challenge is the necessity of consideration of several environmental impacts in design stage given the number of impacts. Finally, railway components have different models with different granularity which can be used in the process of eco-design. To overcome these problems we propose in this work a method which involves two steps. The first one is to simplify the LCA of the railway train using environmental management software and take the opportunity to build a malleable model to calculate eleven impacts. The second step, is to aggregate these impacts for a single indicator which is considered later as environmental criterion in the eco-design process. In order to investigate optimization tools, the eco-design problem is expressed into an optimization problem. Optimization algorithms are able to solve this problem and to find the optimal set of compromises between environmental criterion and the cost of the railway product. The set of compromises is given as a graph called the Pareto front. In our work the cost is expressed by the mass of the component and some optimization algorithms have been adapted in this work to serve in the process of eco-design
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

Ben, Ayed Ramzi. "Eco-conception d’une chaine de traction ferroviaire". Electronic Thesis or Diss., Ecole centrale de Lille, 2012. http://www.theses.fr/2012ECLI0009.

Texto completo
Resumen
Avec l’apparition des différentes normes et règlementations telles que les normes ISO 14001, les préoccupations industrielles y compris ferroviaires sont de plus en plus orientés vers l’éco-conception. La problématique la plus importante dans l’éco-conception des produits ferroviaires est de réduire leurs impacts environnementaux tout en maintenant leurs performances fonctionnelles et en maitrisant le coût. La solution pour surmonter ce problème est de trouver un ensemble de compromis entre les deux objectifs (impacts et coût).L’éco-conception des produits ferroviaires présentent plusieurs difficultés parce que, d’une part, leur analyse de cycle de vie est très lourde. D’autre part, l’intégration de leurs impacts dans la phase de conception est délicate vu leur nombre. Enfin, ces composants ont parfois différents types de modèles à exploiter car ils présentent des compromis entre la précision et le temps de calcul. Pour surmonter ces problèmes nous avons présenté dans cette thèse une méthode qui consiste premièrement, à alléger l’ACV à l’aide d’un logiciel de gestion environnementale et d’en profiter pour construire un modèle malléable pour calculer les différents impacts. Deuxièmement, à agréger ces impacts pour obtenir un seul indice qui sera considéré comme notre critère environnemental. Pour exploiter les outils d’optimisation, le problème d’éco-conception est traduit par un problème d’optimisation. Les algorithmes d’optimisation sont capables de trouver l’ensemble de compromis optimaux entre le critère environnemental et la masse (coût) sous forme d’un graphe appelé front de Pareto. Certains algorithmes ont été adaptés pour mieux servir dans l’éco-conception
With the introduction of different environmental standards like ISO 14001, concerns of manufacturers in railway industry are more and more oriented to the design of green products. One important issue when designing such products is the control of the cost impact and the evaluation of the price which consumers agree to pay for a reduced environmental footprint.Eco-design of railway train presents several challenges for the designer. The first one is the complexity of the life cycle analysis of such components. The second challenge is the necessity of consideration of several environmental impacts in design stage given the number of impacts. Finally, railway components have different models with different granularity which can be used in the process of eco-design. To overcome these problems we propose in this work a method which involves two steps. The first one is to simplify the LCA of the railway train using environmental management software and take the opportunity to build a malleable model to calculate eleven impacts. The second step, is to aggregate these impacts for a single indicator which is considered later as environmental criterion in the eco-design process. In order to investigate optimization tools, the eco-design problem is expressed into an optimization problem. Optimization algorithms are able to solve this problem and to find the optimal set of compromises between environmental criterion and the cost of the railway product. The set of compromises is given as a graph called the Pareto front. In our work the cost is expressed by the mass of the component and some optimization algorithms have been adapted in this work to serve in the process of eco-design
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

Murad, Nour Mohammad. "Synchronisation, diversité et démodulation de l'interface DS-WCDMA du système de troisème génération de radio mobile : l'U. M. T. S". École Nationale Supérieure des télécommunications, 2001. http://www.theses.fr/2001ENST0020.

Texto completo
Resumen
Les réseaux mobiles ont envabi notre vie quotidienne et la troisième génération (IMT 2000) est en cours de déploiement. Ces futurs réseaux sont caractérisés par l'omniprésence de la mobilité et du multimédia. Ce dernier point nécessite une efficacité spectrale conséquente. Notre étude s'est portée sur l'interface DS-WCDMA du mobile de troisième génération Européen: L'UMTS (Système de Télécommunication Mobile Universel). Plus précisément, notre recherche s'est décomposée en quatre parties interdépendantes. Avant toutes analyses d'un système mobile, il faut étudier dans quelles conditions il va évoluer. La modélisation du canal radio mobile est un facteur déterminant pour la conception et l'optimisation d'algorithmes pour des mobiles opérant dans leurs environnements. Le deuxième intérêt fût la synthèse exhaustive de bibliographie du sujet qui facilitera la tâche des nouveaux chercheurs et ingénieurs.
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

Lahiani, Nouha. "Méthode hybride d'affectation des ressources humaines pour l'amélioration de la performance de la maintenance". Thesis, Paris 8, 2015. http://www.theses.fr/2015PA080037.

Texto completo
Resumen
Cette thèse propose un outil d’aide à la décision pour la gestion de processus de maintenance basée surune affectation optimale des ressources humaines afin d’améliorer la performance de la maintenance.En effet, une bonne performance de la fonction maintenance est indispensable pour maintenir laproductivité des installations industrielles, et donc de la compétitivité des entreprises manufacturières.L’approche que nous développons dans ce manuscrit procure un cadre de référence des leviersd’actions envisageables pour mesurer, évaluer, améliorer et optimiser la performance de lamaintenance. Nous prenons en considération un problème d’affectation des ressources humaines, quiprend en compte non seulement leurs disponibilités et compétences, mais aussi la gestion des urgencesd’intervention sur terrain.La méthode que nous proposons est basée sur un modèle de simulation à événements discrets,reproduisant au mieux un service de maintenance. Ceci nous a permis d’évaluer la situation via desindicateurs de performance présélectionnés. Pour optimiser le système, nous proposons un couplagedu modèle de simulation avec un module d’optimisation indépendant qui se réfère à une métaheuristiquebasée sur une approche Pareto. Notre proposition a été testée dans une entrepriseindustrielle réelle.L’approche que nous proposons donne un ensemble de solutions d’affectation des ressourceshumaines, aidant le décideur à mieux gérer l’indisponibilité de ses outils. Nous obtenons de bonsrésultats en un temps raisonnable
In this thesis, a decision-making tool for maintenance management process based on assignment ofhuman resources is proposed in order to improve maintenance performance. An optimal maintenanceperformance is indispensable to guarantee the productivity and competitiveness of manufacturingcompanies.The proposed approach provides a framework of different possible levers to measure, evaluate,improve and optimize the maintenance performance. The assignment of human resources problem isconsidered. It takes into account different constraints like human resources availability, competences,urgency degree management of interventions requests etc.The proposed method is based on a discrete event simulation model, providing a better presentation ofthe maintenance service and better comprehensive thanks to the performance indicators. To improveuntil optimize the model, a simulation-based Pareto optimization method is introduced. Optimizationmodule was coded on independent programs in order to provide an opportunity of control thesimulation based optimization process.The proposed simulation based optimization method find good solutions in a reasonable amount oftime. Applying this technique on an industrial case-study, we show that it is more effective indetecting real faults than existing alternatives. The approach can be extended to cover other domainsand other types of simulation models
Los estilos APA, Harvard, Vancouver, ISO, etc.
34

Raffray, Guilhem. "Outils d'aide à la décision pour la conception de procédés agroalimentaires au Sud : application au procédé combiné de séchage, cuisson et fumage de produits carnés". Thesis, Montpellier, SupAgro, 2014. http://www.theses.fr/2014NSAM0066/document.

Texto completo
Resumen
La conception de procédé agroalimentaire est une activité complexe, caractérisée par la grande diversité des produits et des procédés étudiés, ainsi que par la disparité des contextes de production (artisanale ou industrielle). La conception de systèmes de transformation alimentaire adaptés est animée par d'importants enjeux humains, sanitaires, économiques, environnementaux et même culturels. Dans le cas des Pays du Sud, l'explosion démographique et l'urbanisation croissante impliquent de développer un système de production industriel capable de valoriser des produits issus de savoir-faire traditionnels, tout en répondant à des contraintes de coût et de productivité.Pour prévenir toute perte de temps causée par des analyses de type « essai-erreur », et afin d'éviter des coûts de développement superflus, il existe des outils spécifiques à l'analyse décisionnelle multicritères (MCDA) pouvant être déployé dès les phases préliminaires de la conception. En particulier, il est possible d'analyser le potentiel et les limites technologiques d'un concept défini dans un contexte donné, par l'analyse de l'ensemble de solutions les plus performantes, dites Pareto-optimales. Ces solutions se distinguent par les valeurs de leurs variables de conception, qui sont autant de degrés de liberté pour le dimensionnement du concept (géométrie, matériaux, conditions opératoires).Notre cas d'étude concerne l'évaluation d'un concept de fumage à chaud à plaques radiantes, pour la production de poisson fumé, traditionnellement consommé en Afrique Centrale et de l'Ouest. En effet, avant de prétendre à la diffusion de cette technologie déjà brevetée, il faut s'assurer que le procédé puisse satisfaire des objectifs de production et de performances énergétiques, tout en maintenant une qualité du produit satisfaisante. Ainsi, un outil d'optimisation multiobjectif spécifique a été développé en se basant sur la modélisation du comportement du procédé. Une première étude expérimentale a permis de construire un modèle de séchage du poisson dans des conditions d'air variables (température, vitesse et humidité), qui représente à la fois les flux d'évaporation et les flux liés aux écoulements gravitaires de graisses et d'eau. Dans un second temps, un outil de simulation existant a été amélioré afin de représenter des phénomènes ayant un impact significatif sur les performances du procédé, tels que l'aéraulique des fumées, le recyclage de l'air et la régulation thermique. Ainsi, un modèle d'observation a été établi. Il permet de prédire le comportement de différentes solutions possibles, définies par huit variables de conception, et d'évaluer leurs performances sur la base de six variables d'observation.Dans un dernier volet, la formalisation des préférences et de la connaissance experte du procédé permet d'interpréter les performances en termes de désirabilités (satisfaction), qui sont agrégées en un indice de satisfaction global (fonction objectif) par un principe de précaution. Un algorithme génétique permet alors de trouver une solution optimale qui maximise cette fonction objectif, en explorant l'espace des solutions possibles de manière combinatoire. Cette démarche de conception a été fructueuse car elle a permis de proposer un dimensionnement permettant d'obtenir des performances très satisfaisantes. Il a aussi été possible de proposer des améliorations ciblées pour redéfinir le concept actuel du fumoir à plaques. Par ailleurs, il est à noter que le modèle de comportement peut facilement être réadapté pour d'autre type de produits. Dans la perspective d'étendre l'utilisation de cette démarche à d'autres cas d'étude, un effort devra être mené pour la collecte de données fonctionnelles issues de l'expertise
Food process design is a complex activity, given the wide diversity of existing product and processes, and the plurality of production contexts. Designer must meet the requirements derived from the critical stakes from human, sanitarian, economic, environmental and cultural point of views. In southern countries, the rapid growth of population drives the need of more industrial processes able to valorize traditional products.The savings of development time and extra-expenses are mainly determined by the quality of design choices from the early stage of the designing process, called embodiment design. Multiple criteria decision analysis (MCDA) techniques are used in this purpose, which enable to evaluate and criticize any technological concept. In a specific context, it is possible to generate the Pareto-set of a concept, which is composed of the most efficient possible alternatives. Indeed, every design alternative is defined by some design (or decision) variables which are the degree of freedom for the dimensioning of the system considered. Our case study focuses on a technological innovation to perform hot-smoking using radiant plates (for sanitarian purpose). It is aimed to be developed for the production of traditional hot-smoked catfish widely consumed in West and Central Africa. This is a multicriteria design problem since many objectives have to be satisfied, and concern the product quality, production and energetic performances.In a first work, the mass reduction of catfish dried in hot air conditions was modeled from empirical measurements. In particular, this model takes into account the influence of the drying air conditions (Temperature, Velocity and Relative Humidity) on the calculation of the mass fluxes of evaporation and drips. After that, a global simulation model of the radiant plate hot-smoking process was developed from a previous work. Some key phenomena were described (pressure losses, air recycling, thermal regulation) as they could strongly impact the process performances. The resulting observation model allows predicting the performances of any design alternative defined by a set of 8 design variables.In a final work, expert knowledge and preference were mathematically introduced in a multiobjective optimization tool, meaning some desirability functions. Therefore, every performance variable is converted into desirability indices (traducing the level of satisfaction) and then aggregated into a single global desirability index (thus defining a global objective function). The optimal design of the concept is found using a genetic algorithm.This multiobjective optimization method enabled to find very satisfactory design solution for the radiant plate hot smoking process. More to the point, the analysis of a wide range of Pareto-optimal solutions enabled to better understand what were the strengths and weaknesses, so it was possible to suggest some targeted improvement to the current radiant plate smoking technology. Also, it is noticeable that the current simulation model can be easily adapted to other products. For the purpose of a generalization of the use of such multiobjective methods for the design of food processes, it has been pointed out that efforts should be made to gather expert criteria other relevant functional data
Los estilos APA, Harvard, Vancouver, ISO, etc.
35

Ballout, Ali. "Apprentissage actif pour la découverte d'axiomes". Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ4026.

Texto completo
Resumen
Cette thèse aborde le défi de l'évaluation des formules logiques candidates, avec un accent particulier sur les axiomes, en combinant de manière synergique l'apprentissage automatique et le raisonnement symbolique. Cette approche innovante facilite la découverte automatique d'axiomes, principalement dans la phase d'évaluation des axiomes candidats générés. La recherche vise à résoudre le problème de la validation efficace et précise de ces candidats dans le contexte plus large de l'acquisition de connaissances sur le Web sémantique.Reconnaissant l'importance des heuristiques de génération existantes pour les axiomes candidats, cette recherche se concentre sur l'avancement de la phase d'évaluation de ces candidats. Notre approche consiste à utiliser ces candidats basés sur des heuristiques, puis à évaluer leur compatibilité et leur cohérence avec les bases de connaissances existantes. Le processus d'évaluation, qui nécessite généralement beaucoup de calculs, est révolutionné par le développement d'un modèle prédictif qui évalue efficacement l'adéquation de ces axiomes en tant que substitut du raisonnement traditionnel. Ce modèle innovant réduit considérablement les exigences en matière de calcul, en utilisant le raisonnement comme un "oracle" occasionnel pour classer les axiomes complexes lorsque cela est nécessaire.L'apprentissage actif joue un rôle essentiel dans ce cadre. Il permet à l'algorithme d'apprentissage automatique de sélectionner des données spécifiques pour l'apprentissage, améliorant ainsi son efficacité et sa précision avec un minimum de données étiquetées. La thèse démontre cette approche dans le contexte du Web sémantique, où le raisonneur joue le rôle d'"oracle" et où les nouveaux axiomes potentiels représentent des données non étiquetées.Cette recherche contribue de manière significative aux domaines du raisonnement automatique, du traitement du langage naturel et au-delà, en ouvrant de nouvelles possibilités dans des domaines tels que la bio-informatique et la preuve automatique de théorèmes. En mariant efficacement l'apprentissage automatique et le raisonnement symbolique, ces travaux ouvrent la voie à des processus de découverte de connaissances plus sophistiqués et autonomes, annonçant un changement de paradigme dans la manière dont nous abordons et exploitons la vaste étendue de données sur le web sémantique
This thesis addresses the challenge of evaluating candidate logical formulas, with a specific focus on axioms, by synergistically combining machine learning with symbolic reasoning. This innovative approach facilitates the automatic discovery of axioms, primarily in the evaluation phase of generated candidate axioms. The research aims to solve the issue of efficiently and accurately validating these candidates in the broader context of knowledge acquisition on the semantic Web.Recognizing the importance of existing generation heuristics for candidate axioms, this research focuses on advancing the evaluation phase of these candidates. Our approach involves utilizing these heuristic-based candidates and then evaluating their compatibility and consistency with existing knowledge bases. The evaluation process, which is typically computationally intensive, is revolutionized by developing a predictive model that effectively assesses the suitability of these axioms as a surrogate for traditional reasoning. This innovative model significantly reduces computational demands, employing reasoning as an occasional "oracle" to classify complex axioms where necessary.Active learning plays a pivotal role in this framework. It allows the machine learning algorithm to select specific data for learning, thereby improving its efficiency and accuracy with minimal labeled data. The thesis demonstrates this approach in the context of the semantic Web, where the reasoner acts as the "oracle," and the potential new axioms represent unlabeled data.This research contributes significantly to the fields of automated reasoning, natural language processing, and beyond, opening up new possibilities in areas like bioinformatics and automated theorem proving. By effectively marrying machine learning with symbolic reasoning, this work paves the way for more sophisticated and autonomous knowledge discovery processes, heralding a paradigm shift in how we approach and leverage the vast expanse of data on the semantic Web
Los estilos APA, Harvard, Vancouver, ISO, etc.
36

Nguyen, Hong Diep. "Efficient algorithms for verified scientific computing : Numerical linear algebra using interval arithmetic". Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2011. http://tel.archives-ouvertes.fr/tel-00680352.

Texto completo
Resumen
Interval arithmetic is a means to compute verified results. However, a naive use of interval arithmetic does not provide accurate enclosures of the exact results. Moreover, interval arithmetic computations can be time-consuming. We propose several accurate algorithms and efficient implementations in verified linear algebra using interval arithmetic. Two fundamental problems are addressed, namely the multiplication of interval matrices and the verification of a floating-point solution of a linear system. For the first problem, we propose two algorithms which offer new tradeoffs between speed and accuracy. For the second problem, which is the verification of the solution of a linear system, our main contributions are twofold. First, we introduce a relaxation technique, which reduces drastically the execution time of the algorithm. Second, we propose to use extended precision for few, well-chosen parts of the computations, to gain accuracy without losing much in term of execution time.
Los estilos APA, Harvard, Vancouver, ISO, etc.
37

Da, Costa Fontes Fábio Francisco. "Optimization Models and Algorithms for the Design of Global Transportation Networks". Thesis, Artois, 2017. http://www.theses.fr/2017ARTO0206/document.

Texto completo
Resumen
Le développement de structures de réseau efficaces pour le transport de marchandises est fondamental sur le marché mondial actuel. Les demandes doivent être traitées rapidement, répondre aux besoins des clients dans les meilleurs délais, les congestions et les retards doivent être minimisés, les émissions de CO2 doivent être contrôlés et des coûts de transport moins élevés doivent être proposés aux clients. La structure hub-and-spoke est un modèle de réseau courant utilisé à la fois dans le transport régional comme dans le transport intercontinental, permettant une économie d'échelle grâce aux consolidations opérées au niveau des noeuds hub. Mais, les retards, les congestions et les longs délais de livraison sont des inconvénients de ce type de réseau. Dans cette thèse, un nouveau concept, "sub-hub", est ajouté à la structure du réseau classique hub-and-spoke. Dans les modèles de réseau proposés, une économie d'échelle et des chemins alternatifs plus courts sont mis en oeuvre, en minimisant ainsi le coût de transport et le délai de livraison. Le sub-hub est vu comme un point de connexion entre deux routes distinctes de régions voisines. Des transbordements sans passer par les noeuds hub sont possibles au niveau des sub-hubs. Des congestions peuvent ainsi être évitées et, par conséquent, les retards associés sont ainsi minimisés. Quatre modèles de programmation linéaire en nombres entiers binaires du problème de la localisation de hubs et de routage sont développés dans cette thèse. Des réseaux avec sub-hub et des réseaux sans sub-hub prenant en compte des routes circulaires entre hubs ou des connexions directes entre hubs sont ainsi comparées. Ces modèles sont composés de quatre sous-problèmes (localisation, allocation, conception de service et routage) qui rendent complexe la recherche de solutions. Une approche cutting plane est testée pour résoudre de petites instances de problème tandis qu'une recherche à voisinage variable avec décomposition (VNDS) composée de méthodes exactes (matheuristic) a été développée pour résoudre de grandes instances. Le VNDS mis en oeuvre, explore chaque sous-problème avec différents opérateurs. Des gains importants dans la fonction objective sont observés par les modèles avec sub-hub confirmant ainsi le développement de réseaux plus compétitifs
The development of efficient network structures for freight transport is a major concern for the current global market. Demands need to be quickly transported and should also meet the customer needs in a short period of time. Traffic congestions and delays must be minimized, since CO2 emissions must be controlled and affordable transport costs have to be offered to customers. Hub-and-spoke structure is a current network model used by both regional and intercontinental transportation, which offers an economy of scale for aggregated demands inside hub nodes. However, delays, traffic congestions and long delivery time are drawbacks from this kind of network. In this thesis, a new concept, which is called "sub-hub", is proposed to the classic hub-and-spoke network structure. In the proposed network models, economy of scale and shorter alternative paths are implemented, thus minimizing the transport cost and delivery time. The sub-hub proposal can be viewed as a connection point between two routes from distinct and close regions. Transshipments without the need to pass through hub nodes are possible inside sub-hubs. This way, congestions can be avoided and, consequently, delays are minimized. Four binary integer linear programming models for hub location and routing problem were developed in this thesis. Networks with sub-hub and networks without sub-hub taking into account circular hub routes or direct connections between hubs are compared. These models are composed of four sub-problems (location, allocation, service design and routing), which hinders the solution. A cutting plane approach was used to solve small instances of problem, while a Variable Neighborhood Decomposition Search (VNDS) composed of exact methods (matheuristic) was developed to solve large instances. The VNDS was used to explore each sub-problem by different operators. Major benefits are provided by models with sub-hub, thus promoting the development of more competitive networks
Los estilos APA, Harvard, Vancouver, ISO, etc.
38

Delespierre, Tiba. "Etude de cas sur architectures à mémoires distribuées : une maquette systolique programmable et l'hypercube d'Intel". Paris 9, 1987. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1987PA090073.

Texto completo
Resumen
Présentation de deux types de calculateurs parallèles à mémoires distribuées: la machine Systolimag, un réseau systolique programmable universel et l'hypercube d'Intel. Une étude est faite sur les programmes réalisés sur la machine Systolimag et l'hypercube d'Intel
Los estilos APA, Harvard, Vancouver, ISO, etc.
39

Colombet, Laurent. "Parallélisation d'applications pour des réseaux de processeurs homogènes ou hétérogènes". Grenoble INPG, 1994. http://tel.archives-ouvertes.fr/tel-00005084.

Texto completo
Resumen
Le but de cette these est d'etudier et developper des methodes pour la parallelisation efficace des applications scientifiques sur machines paralleles a memoire distribuee. Dans une premiere partie nous presentons deux bibliotheques de fonctions de communication PVM ((\it Parallel Virtual Machine)) et MPI ((\it Message Passing Interface)). Ces dernieres fournissent une portabilite des programmes sur la grande majorite des machines paralleles, mais aussi sur des reseaux d'ordinateurs heterogenes. Cette partie illustre le probleme de la mesure des performances pour des reseaux de processeurs heterogenes. Ceci nous a amene a adapter le calcul du facteur d'acceleration et de l'efficacite afin de pouvoir evaluer les performances d'un algorithme sur un reseau de processeurs heterogenes. La deuxieme partie est consacree a l'etude de bibliotheques numeriques paralleles, comme ScaLAPACK, et au developpement d'une methode etudiee de maniere theorique, mais peu utilisee en pratique pour augmenter les performances des fonctions de ces bibliotheques : le recouvrement calcul/communication. L'idee generale consiste a anticiper les communications, notamment en pipelinant l'envoi des messages. Des resultats experimentaux sur machines Cray T3D et IBM SP1, permettent de valider les etudes theoriques effectuees sur des algorithmes de base de ces bibliotheques
The aim of this thesis is to study and develop efficient methods for parallelization of scientific applications on parallel computers with distributed memory. In the first part we present two libraries of PVM((\it Parallel Virtual Machine)) and MPI ((\it Message Passing Interface)) communication tools. They allow implementation of programs on most parallel machines, but also on heterogeneous computer networks. This chapter illustrates the problems faced when trying to evaluate performances of networks with heterogeneous processors. To evaluate such performances we modified and adapted the concepts of speed-up and efficiency to account for heterogeneity. The second part deals with a study of parallel application libraries such as ScaLAPACK and with the development of communication masking techniques. The general concept is based on communication anticipation, in particular by pipelining message sending operations. Experimental results on Cray T3D and IBM SP1 machines validates the theoretical studies performed on basic algorithms of the libraries discussed above
Los estilos APA, Harvard, Vancouver, ISO, etc.
40

Danloup, Nicolas. "Les problèmes de collectes et livraisons avec collaboration et transbordements : modélisations et méthodes approchées". Thesis, Artois, 2016. http://www.theses.fr/2016ARTO0203/document.

Texto completo
Resumen
La logistique collaborative est récemment devenue un élément important pour beaucoup d'entreprises afin d'améliorer l'efficacité de leur chaîne logistique. Dans cette thèse, nous étudions les possibilités offertes par les problèmes de collectes et livraisons pour améliorer les performances des chaînes logistiques grâce au transport collaboratif. La thèse est inscrite dans un projet européen nommé SCALE (Step Change in Agri-food Logistics Ecosystem). Dans un premier temps, deux métaheuristiques sont proposées et étudiées pour résoudre le problème de collectes et livraisons avec transbordements. Celles-ci sont comparées aux travaux de la littérature et permettent d’améliorer les résultats sur certaines instances. Dans un deuxième temps, un modèle pour un problème de collectes et livraisons (PDVRP) est proposé. Celui-ci est utilisé pour étudier les bénéfices de la collaboration sur le transport. Il est appliqué sur des données générées aléatoirement et sur des données réelles issues du projet SCALE. Enfin troisièmement, un modèle pour un PDVRP particulier est présenté. Dans ce modèle, les marchandises doivent passer par exactement deux points de transbordement entre les points de collecte et les points de livraison. Ce problème est inspiré d'une seconde étude de cas réalisée dans le cadre du projet SCALE. Ceci permet de mettre en évidence l’intérêt de la collaboration et du transbordement dans le domaine du transport de marchandises
Collaborative logistics have become recently an important element for many companies to improve their supply chains efficiency. In this thesis, we study pickup and delivery problems to improve supply chains efficiency thanks to collaborative transportation. The thesis was part of the European project SCALE (Step Change in Agri-food Logistics Ecosystem). Firstly, two metaheuristics are proposed and studied to solve the Pickup and Delivery Problem with Transshipments. These metaheuristics are compared with literature works and the results of several instances are improved. Secondly, a mathematical model for a pickup and delivery problem (PDVRP) is proposed. This model is used to study the benefits of collaboration on transportation. It is applied on random data and on a case study from SCALE with real data. Finally, a model for a particular PDVRP is presented. In this model, the shipments have to cross exactly two transshipments nodes between their pickup and delivery points. This problem is inspired by a second case study made during the project SCALE. This allows to highlight the importance of collaboration and transshipment in the field of goods transportations
Los estilos APA, Harvard, Vancouver, ISO, etc.
41

Bouzid, Salah Eddine. "Optimisation multicritères des performances de réseau d’objets communicants par méta-heuristiques hybrides et apprentissage par renforcement". Thesis, Le Mans, 2020. http://cyberdoc-int.univ-lemans.fr/Theses/2020/2020LEMA1026.pdf.

Texto completo
Resumen
Le déploiement des réseaux d’objets communicants «ROCs», dont les densités augmentent sans cesse, conditionne à la fois l’optimalité de leur qualité de service, leur consommation énergétique et par conséquent leur durée de vie. Il s’avère que le problème de déterminer le placement optimal, relativement aux différents critères de qualité, des nœuds de ces réseaux est un problème Np-Complet. Face à cette Np-complétude, et en particulier pour des environnements intérieurs, les approches existantes focalisent sur l’optimisation d’un seul objectif en négligeant les autres critères, ou optent pour une solution manuelle fastidieuse et coûteuse. Des nouvelles approches pour résoudre ce problème sont donc nécessaires. Cette thèse propose une nouvelle approche qui permet de générer automatiquement, dès la phase de conception des réseaux d’objets communicants, le déploiement qui garantit à la fois l’optimalité en termes de performances et de robustesse face aux éventuelles défaillances et instabilités topologiques. Cette approche proposée est basée d’une part sur la modélisation du problème de déploiement sous forme d’un problème d’optimisation combinatoire multi-objectifs sous contraintes, et sa résolution par un algorithme génétique hybride combinant l’optimisation multi-objectifs avec l’optimisation à somme pondérée, et d’autre part sur l’intégration de l’apprentissage par renforcement pour garantir l’optimisation de la consommation énergétique et la prolongation de la durée de vie. Elle est concrétisée par le développement de deux outils. Un premier appelé MOONGA (pour Multi-Objective Optimization of Wireless Network Approach Based on Genetic Algorithm) qui permet de générer automatiquement le placement des nœuds, qui optimise la connectivité, la m-connectivité, la couverture, la k-couverture, la redondance de couverture et le coût. Cette optimisation prend en considération les contraintes liées à l'architecture de l’espace de déploiement, à la topologie du réseau, aux spécificités de l'application pour laquelle le réseau est conçu et aux préférences du concepteur. Après optimisation de déploiement l’outil R2LTO (Pour Reinforcement Learning for Life-Time Optimization), permet d’intégrer un protocole de routage, basé sur l'apprentissage par renforcement, pour garantir l’optimisation de la consommation énergétique et de la durée de vie du ROC après son déploiement tout en conservant la QoS requise
The deployment of Communicating Things Networks (CTNs), with continuously increasing densities, needs to be optimal in terms of quality of service, energy consumption and lifetime. Determining the optimal placement of the nodes of these networks, relative to the different quality criteria, is an NP-Hard problem. Faced to this NP-Hardness, especially for indoor environments, existing approaches focus on the optimization of one single objective while neglecting the other criteria, or adopt an expensive manual solution. Finding new approaches to solve this problem is required. Accordingly, in this thesis, we propose a new approach which automatically generates the deployment that guarantees optimality in terms of performance and robustness related to possible topological failures and instabilities. The proposed approach is based, on the first hand, on the modeling of the deployment problem as a multi-objective optimization problem under constraints, and its resolution using a hybrid algorithm combining genetic multi-objective optimization with weighted sum optimization and on the other hand, the integration of reinforcement learning to guarantee the optimization of energy consumption and the extending the network lifetime. To apply this approach, two tools are developed. A first called MOONGA (Multi-Objective Optimization of wireless Network approach based on Genetic Algorithm) which automatically generates the placement of nodes while optimizing the metrics that define the QoS of the CTN: connectivity, m-connectivity, coverage, k-coverage, coverage redundancy and cost. MOONGA tool considers constraints related to the architecture of the deployment space, the network topology, the specifies of the application and the preferences of the network designer. The second optimization tool is named R2LTO (Reinforcement Learning for Life-Time Optimization), which is a new routing protocol for CTNs, based on distributed reinforcement learning that allows to determine the optimal rooting path in order to guarantee energy-efficiency and to extend the network lifetime while maintaining the required QoS
Los estilos APA, Harvard, Vancouver, ISO, etc.
42

Gonnet, Jean-Paul. "Optimisation des Canalisations Electriques et des Armoires de Distribution". Phd thesis, 2005. http://tel.archives-ouvertes.fr/tel-00137973.

Texto completo
Resumen
Les jeux de barres, canalisations électriques préfabriquées et plus généralement toutes les interconnexions sont indispensables à l'architecture de la filière électrique. Ces connectiques que l'on souhaiterait ‘transparentes' sont néanmoins le ‘parent pauvre' de l'optimisation car elles sont le lieu de pertes par effet Joule souvent largement supérieures au minimum théorique, du fait de répartitions de courant non-uniformes dans leurs sections.
Afin de prendre en compte ce phénomène dès la conception (au travers d'un outil logiciel dédié), on introduit une méthode de modélisation adaptée. Alors que les méthodes éléments finis sont adaptées aux organes de conversion électromécaniques, les connexions sont plus naturellement modélisées par la méthode PEEC (Partial Element Equivalent Circuit).
Couplée à des optimiseurs, cette méthode se révèle très efficace pour améliorer le design des conducteurs, tant sur l'agencement des barres pour lutter contre les effets de proximité que, comme on le montre ici, sur la forme des sections pour minimiser l'effet de peau par couplage à des algorithmes génétiques. Les outils développés donnent alors accès à une marge de gain importante jusqu'ici peu explorée. Afin de s'adapter aux dispositifs étudiés, dont une partie est entourée d'enveloppes métalliques, une extension de la méthode (baptisée ‘µPEEC') prenant en compte l'aimantation des tôles ferromagnétiques est proposée.
Pour l'épineux problème du choix de fonction objectif, l'analyse du cycle de vie et la recherche du moindre impact environnemental peuvent orienter l'arbitrage entre coût matière et pertes Joule consenties. Une extrapolation des gains accessibles est proposée.
Los estilos APA, Harvard, Vancouver, ISO, etc.
43

Martel, Yannick. "Efficacité de l’algorithme EM en ligne pour des modèles statistiques complexes dans le contexte des données massives". Thesis, 2020. http://hdl.handle.net/1866/25477.

Texto completo
Resumen
L’algorithme EM (Dempster et al., 1977) permet de construire une séquence d’estimateurs qui converge vers l’estimateur de vraisemblance maximale pour des modèles à données manquantes pour lesquels l’estimateur du maximum de vraisemblance n’est pas calculable. Cet algorithme est remarquable compte tenu de ses nombreuses applications en apprentissage statistique. Toutefois, il peut avoir un lourd coût computationnel. Les auteurs Cappé et Moulines (2009) ont proposé une version en ligne de cet algorithme pour les modèles appartenant à la famille exponentielle qui permet de faire des gains d’efficacité computationnelle importants en présence de grands jeux de données. Cependant, le calcul de l’espérance a posteriori de la statistique exhaustive, qui est nécessaire dans la version de Cappé et Moulines (2009), est rarement possible pour des modèles complexes et/ou lorsque la dimension des données manquantes est grande. On doit alors la remplacer par un estimateur. Plusieurs questions se présentent naturellement : les résultats de convergence de l’algorithme initial restent-ils valides lorsqu’on remplace l’espérance par un estimateur ? En particulier, que dire de la normalité asymptotique de la séquence des estimateurs ainsi créés, de la variance asymptotique et de la vitesse de convergence ? Comment la variance de l’estimateur de l’espérance se reflète-t-elle sur la variance asymptotique de l’estimateur EM? Peut-on travailler avec des estimateurs de type Monte-Carlo ou MCMC? Peut-on emprunter des outils populaires de réduction de variance comme les variables de contrôle ? Ces questions seront étudiées à l’aide d’exemples de modèles à variables latentes. Les contributions principales de ce mémoire sont une présentation unifiée des algorithmes EM d’approximation stochastique, une illustration de l’impact au niveau de la variance lorsque l’espérance a posteriori est estimée dans les algorithmes EM en ligne et l’introduction d’algorithmes EM en ligne permettant de réduire la variance supplémentaire occasionnée par l’estimation de l’espérance a posteriori.
The EM algorithm Dempster et al. (1977) yields a sequence of estimators that converges to the maximum likelihood estimator for missing data models whose maximum likelihood estimator is not directly tractable. The EM algorithm is remarkable given its numerous applications in statistical learning. However, it may suffer from its computational cost. Cappé and Moulines (2009) proposed an online version of the algorithm in models whose likelihood belongs to the exponential family that provides an upgrade in computational efficiency in large data sets. However, the conditional expected value of the sufficient statistic is often intractable for complex models and/or when the missing data is of a high dimension. In those cases, it is replaced by an estimator. Many questions then arise naturally: do the convergence results pertaining to the initial estimator hold when the expected value is substituted by an estimator? In particular, does the asymptotic normality property remain in this case? How does the variance of the estimator of the expected value affect the asymptotic variance of the EM estimator? Are Monte-Carlo and MCMC estimators suitable in this situation? Could variance reduction tools such as control variates provide variance relief? These questions will be tackled by the means of examples containing latent data models. This master’s thesis’ main contributions are the presentation of a unified framework for stochastic approximation EM algorithms, an illustration of the impact that the estimation of the conditional expected value has on the variance and the introduction of online EM algorithms which reduce the additional variance stemming from the estimation of the conditional expected value.
Los estilos APA, Harvard, Vancouver, ISO, etc.
44

Boisvert-Beaudry, Gabriel. "Efficacité des distributions instrumentales en équilibre dans un algorithme de type Metropolis-Hastings". Thèse, 2019. http://hdl.handle.net/1866/23794.

Texto completo
Resumen
Dans ce mémoire, nous nous intéressons à une nouvelle classe de distributions instrumentales informatives dans le cadre de l'algorithme Metropolis-Hastings. Ces distributions instrumentales, dites en équilibre, sont obtenues en ajoutant de l'information à propos de la distribution cible à une distribution instrumentale non informative. Une chaîne de Markov générée par une distribution instrumentale en équilibre est réversible par rapport à la densité cible sans devoir utiliser une probabilité d'acceptation dans deux cas extrêmes: le cas local lorsque la variance instrumentale tend vers 0 et le cas global lorsqu'elle tend vers l'infini. Il est nécessaire d'approximer les distributions instrumentales en équilibre afin de pouvoir les utiliser en pratique. Nous montrons que le cas local mène au Metropolis-adjusted Langevin algorithm (MALA), tandis que le cas global mène à une légère modification du MALA. Ces résultats permettent de concevoir un nouvel algorithme généralisant le MALA grâce à l'ajout d'un nouveau paramètre. En fonction de celui-ci, l'algorithme peut utiliser l'équilibre local ou global ou encore une interpolation entre ces deux cas. Nous étudions ensuite la paramétrisation optimale de cet algorithme en fonction de la dimension de la distribution cible sous deux régimes: le régime asymptotique puis le régime en dimensions finies. Diverses simulations permettent d'illustrer les résultats théoriques obtenus. De plus, une application du nouvel algorithme à un problème de régression logistique bayésienne permet de comparer son efficacité à des algorithmes existants. Les résultats obtenus sont satisfaisants autant d'un point de vue théorique que computationnel.
In this master's thesis, we are interested in a new class of informed proposal distributions for Metropolis-Hastings algorithms. These new proposals, called balanced proposals, are obtained by adding information about the target density to an uninformed proposal distribution. A Markov chain generated by a balanced proposal is reversible with respect to the target density without the need for an acceptance probability in two extreme cases: the local case, where the proposal variance tends to zero, and the global case, where it tends to infinity. The balanced proposals need to be approximated to be used in practice. We show that the local case leads to the Metropolis-adjusted Langevin algorithm (MALA), while the global case leads to a small modification of the MALA. These results are used to create a new algorithm that generalizes the MALA by adding a new parameter. Depending on the value of this parameter, the new algorithm will use a locally balanced proposal, a globally balanced proposal, or an interpolation between these two cases. We then study the optimal choice for this parameter as a function of the dimension of the target distribution under two regimes: the asymptotic regime and a finite-dimensional regime. Simulations are presented to illustrate the theoretical results. Finally, we apply the new algorithm to a Bayesian logistic regression problem and compare its efficiency to existing algorithms. The results are satisfying on a theoretical and computational standpoint.
Los estilos APA, Harvard, Vancouver, ISO, etc.
45

Augustyniak, Maciej. "Estimation du modèle GARCH à changement de régimes et son utilité pour quantifier le risque de modèle dans les applications financières en actuariat". Thèse, 2013. http://hdl.handle.net/1866/10826.

Texto completo
Resumen
Le modèle GARCH à changement de régimes est le fondement de cette thèse. Ce modèle offre de riches dynamiques pour modéliser les données financières en combinant une structure GARCH avec des paramètres qui varient dans le temps. Cette flexibilité donne malheureusement lieu à un problème de path dependence, qui a empêché l'estimation du modèle par le maximum de vraisemblance depuis son introduction, il y a déjà près de 20 ans. La première moitié de cette thèse procure une solution à ce problème en développant deux méthodologies permettant de calculer l'estimateur du maximum de vraisemblance du modèle GARCH à changement de régimes. La première technique d'estimation proposée est basée sur l'algorithme Monte Carlo EM et sur l'échantillonnage préférentiel, tandis que la deuxième consiste en la généralisation des approximations du modèle introduites dans les deux dernières décennies, connues sous le nom de collapsing procedures. Cette généralisation permet d'établir un lien méthodologique entre ces approximations et le filtre particulaire. La découverte de cette relation est importante, car elle permet de justifier la validité de l'approche dite par collapsing pour estimer le modèle GARCH à changement de régimes. La deuxième moitié de cette thèse tire sa motivation de la crise financière de la fin des années 2000 pendant laquelle une mauvaise évaluation des risques au sein de plusieurs compagnies financières a entraîné de nombreux échecs institutionnels. À l'aide d'un large éventail de 78 modèles économétriques, dont plusieurs généralisations du modèle GARCH à changement de régimes, il est démontré que le risque de modèle joue un rôle très important dans l'évaluation et la gestion du risque d'investissement à long terme dans le cadre des fonds distincts. Bien que la littérature financière a dévoué beaucoup de recherche pour faire progresser les modèles économétriques dans le but d'améliorer la tarification et la couverture des produits financiers, les approches permettant de mesurer l'efficacité d'une stratégie de couverture dynamique ont peu évolué. Cette thèse offre une contribution méthodologique dans ce domaine en proposant un cadre statistique, basé sur la régression, permettant de mieux mesurer cette efficacité.
The Markov-switching GARCH model is the foundation of this thesis. This model offers rich dynamics to model financial data by allowing for a GARCH structure with time-varying parameters. This flexibility is unfortunately undermined by a path dependence problem which has prevented maximum likelihood estimation of this model since its introduction, almost 20 years ago. The first half of this thesis provides a solution to this problem by developing two original estimation approaches allowing us to calculate the maximum likelihood estimator of the Markov-switching GARCH model. The first method is based on both the Monte Carlo expectation-maximization algorithm and importance sampling, while the second consists of a generalization of previously proposed approximations of the model, known as collapsing procedures. This generalization establishes a novel relationship in the econometric literature between particle filtering and collapsing procedures. The discovery of this relationship is important because it provides the missing link needed to justify the validity of the collapsing approach for estimating the Markov-switching GARCH model. The second half of this thesis is motivated by the events of the financial crisis of the late 2000s during which numerous institutional failures occurred because risk exposures were inappropriately measured. Using 78 different econometric models, including many generalizations of the Markov-switching GARCH model, it is shown that model risk plays an important role in the measurement and management of long-term investment risk in the context of variable annuities. Although the finance literature has devoted a lot of research into the development of advanced models for improving pricing and hedging performance, the approaches for measuring dynamic hedging effectiveness have evolved little. This thesis offers a methodological contribution in this area by proposing a statistical framework, based on regression analysis, for measuring the effectiveness of dynamic hedges for long-term investment guarantees.
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía