Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Optimisation SDP.

Dissertationen zum Thema „Optimisation SDP“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "Optimisation SDP" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Niu, Yi Shuai. „Programmation DC et DCA en optimisation combinatoire et optimisation polynomiale via les techniques de SDP : codes et simulations numériques“. Phd thesis, INSA de Rouen, 2010. http://tel.archives-ouvertes.fr/tel-00557911.

Der volle Inhalt der Quelle
Annotation:
L'objectif de cette thèse porte sur des recherches théoriques et algorithmiques d'optimisation locale et globale via les techniques de programmation DC & DCA, Séparation et Evaluation (SE) ainsi que les techniques de relaxation DC/SDP, pour résoudre plusieurs types de problèmes d'optimisation non convexe (notamment en Optimisation Combinatoire et Optimisation Polynomiale). La thèse comporte quatre parties :La première partie présente les outils fondamentaux et les techniques essentielles en programmation DC & l'Algorithme DC (DCA), ainsi que les techniques de relaxation SDP, et les méthodes de séparation et évaluation (SE).Dans la deuxième partie, nous nous intéressons à la résolution de problèmes de programmation quadratique et linéaire mixte en variables entières. Nous proposons de nouvelles approches locales et globales basées sur DCA, SE et SDP. L'implémentation de logiciel et des simulations numériques sont aussi étudiées.La troisième partie explore des approches de la programmation DC & DCA en les combinant aux techniques SE et SDP pour la résolution locale et globale de programmes polynomiaux. Le programme polynomial avec des fonctions polynomiales homogènes et son application à la gestion de portefeuille avec moments d'ordre supérieur en optimisation financière ont été discutés de manière approfondie dans cette partie.Enfin, nous étudions dans la dernière partie un programme d'optimisation sous contraintes de type matrices semi-définies via nos approches de la programmation DC. Nous nous consacrons à la résolution du problème de réalisabilité des contraintes BMI et QMI en contrôle optimal.L'ensemble de ces travaux a été implémenté avec MATLAB, C/C++ ... nous permettant de confirmer l'utilisation pratique et d'enrichir nos travaux de recherche.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Fuentes, Marc. „Analyse et optimisation de problèmes sous contraintes d'autocorrélation“. Phd thesis, Université Paul Sabatier - Toulouse III, 2007. http://tel.archives-ouvertes.fr/tel-00195013.

Der volle Inhalt der Quelle
Annotation:
Dans ce travail de thèse, nous étudions, dans un contexte d'analyse convexe et d'optimisation, la prise en compte des contraintes dites d'autocorrélation, c'est-à-dire : nous considérons les situations où les vecteurs représentant les variables à optimiser sont contraintes à être les coefficients d'autocorrélation d'un signal discret à support fini. Cet ensemble des vecteurs à composantes autocorrélées se trouve être un cône convexe ; nous essayons d'en établir le plus de propriétés possibles : concernant sa frontière (lisse/polyédrale), ses faces, l'acuité, l'expression du cône polaire, l'évaluation du cône normal en un point, etc. Ensuite, nous étudions divers algorithmes pour résoudre des problèmes d'optimisation où le cône des vecteurs à composantes autocorrélées entre en jeu. Notre principal objet d'étude est le problème de la projection sur ce cône, dont nous proposons la résolution par trois algorithmes différents : algorithmes dits de suivi de chemin, celui des projections alternées, et via une relaxation non-convexe. Enfin, nous abordons la généralisation de la situation d'autocorrélation au cas de signaux bi-dimensionnels, avec toute la complexité que cela engendre : multiples définitions possibles, non-convexité des problèmes résultants, et complexité calculatoire accrue pour les algorithmes.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Fletcher, Thomas P. „Optimal energy management strategy for a fuel cell hybrid electric vehicle“. Thesis, Loughborough University, 2017. https://dspace.lboro.ac.uk/2134/25567.

Der volle Inhalt der Quelle
Annotation:
The Energy Management Strategy (EMS) has a huge effect on the performance of any hybrid vehicle because it determines the operating point of almost every component associated with the powertrain. This means that its optimisation is an incredibly complex task which must consider a number of objectives including the fuel consumption, drive-ability, component degradation and straight-line performance. The EMS is of particular importance for Fuel Cell Hybrid Electric Vehicles (FCHEVs), not only to minimise the fuel consumption, but also to reduce the electrical stress on the fuel cell and maximise its useful lifetime. This is because the durability and cost of the fuel cell stack is one of the major obstacles preventing FCHEVs from being competitive with conventional vehicles. In this work, a novel EMS is developed, specifcally for Fuel Cell Hybrid Electric Vehicles (FCHEVs), which considers not only the fuel consumption, but also the degradation of the fuel cell in order to optimise the overall running cost of the vehicle. This work is believed to be the first of its kind to quantify effect of decisions made by the EMS on the fuel cell degradation, inclusive of multiple causes of voltage degradation. The performance of this new strategy is compared in simulation to a recent strategy from the literature designed solely to optimise the fuel consumption. It is found that the inclusion of the degradation metrics results in a 20% increase in fuel cell lifetime for only a 3.7% increase in the fuel consumption, meaning that the overall running cost is reduced by 9%. In addition to direct implementation on board a vehicle, this technique for optimising the degradation alongside the fuel consumption also allows alternative vehicle designs to be compared in an unbiased way. In order to demonstrate this, the novel optimisation technique is subsequently used to compare alternative system designs in order to identify the optimal economic sizing of the fuel cell and battery pack. It is found that the overall running cost can be minimised by using the smallest possible fuel cell stack that will satisfy the average power requirement of the duty cycle, and by using an oversized battery pack to maximise the fuel cell effciency and minimise the transient loading on the stack. This research was undertaken at Loughborough University as part of the Doctoral Training Centre (DTC) in Hydrogen, Fuel Cells and Their Applications in collaboration with the University of Birmingham and Nottingham University and with sponsorship from HORIBA-MIRA (Nuneaton, UK). A Microcab H4 test vehicle has been made available for use in testing for this research which was previously used for approximately 2 years at the University of Birmingham. The Microcab H4 is a small campus based vehicle designed for passenger transport and mail delivery at low speeds as seen on a university campus. It has a top speed of approximately 30mph, and is fitted with a 1.2kW fuel cell and a 2kWh battery pack.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Melo, Ricardo Brito. „Modelos de otimização para a gestão de ativos e passivos nos fundos de pensões“. Master's thesis, Instituto Superior de Economia e Gestão, 2015. http://hdl.handle.net/10400.5/9046.

Der volle Inhalt der Quelle
Annotation:
Mestrado em Decisão Económica e Empresarial
No futuro teme-se que as pensões de reforma por velhice possam estar subfinanciadas, devido ao envelhecimento da população e também ao início tardio da vida laboral. É possível que, para tentar contornar esta situação, seja necessário um aumento significativo no nível das contribuições feitas pelos empregadores e empregados. Uma forma de procurar minimizar esse aumento é o recurso a modelos de otimização, que serão aplicados precisamente à gestão dos ativos e passivos associados a fundos e planos de pensões. Este trabalho, que é essencialmente um estudo teórico, está dividido em duas partes. Na primeira, apresentam-se os aspetos essenciais dos planos e fundos de pensões e também os conceitos fundamentais na gestão de ativos e passivos (Assets and Liabilities Management - ALM), pois não são temas tratados na parte curricular do mestrado, nem na licenciatura. Na segunda, depois de uma análise bastante exaustiva da volumosa literatura existente sobre o tema, apresentam-se oito trabalhos que foram selecionados atendendo ao propósito de procurar dar a conhecer, tanto quanto as restrições de dimensão do texto o possibilitam, as diferentes abordagens para a resolução do importante problema em causa.
Retirement pensions may be at risk in a future not so far, because of aged populations and late start of working life. This means that an increase of contributions by the sponsors, employers and employees, may be required. Another way to mitigate the risk of this happening is to apply optimization models in the management of the assets and liabilities for pension funds and pension plans. This document is essentially a theoretical text, in two parts. The first part presents the main features about pension funds and pension plans and fundamental concepts regarding assets and liabilities management (ALM), because these are "new" topics, in the sense that there is no course in the Masters program (or in the Bachelors program) in which they are covered. The second part gives the possible review of the existing extensive literature; a particular detail is given to eight contributions that give very interesting different approaches to solve the ALM problem for pension funds.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Vincent, Hugues. „Développement d'un modèle de calcul de la capacité ultime d'éléments de structure (3D) en béton armé, basé sur la théorie du calcul à la rupture“. Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC1038/document.

Der volle Inhalt der Quelle
Annotation:
Pour l’évaluation de la résistance ultime des ouvrages l’ingénieur de génie civil fait appel à différentes méthodes plus ou moins empiriques, dont de nombreuses manuelles, du fait de la lourdeur excessive des méthodes par éléments finis non-linéaires mises en œuvre dans les logiciels de calcul à sa disposition. Le calcul à la rupture, théorisé par J. Salençon, indique la voie de méthodes rigoureuses, tout à fait adaptées à cette problématique, mais dont la mise en œuvre systématique dans un logiciel a longtemps buté sur l’absence de méthodes numériques efficaces. Ce verrou de mathématique numérique a été levé récemment (Algorithme de point intérieur).Dans ce contexte l’objectif de la présente thèse est de mettre au point les méthodes permettant d’analyser, au moyen du calcul à la rupture, la capacité ultime d’éléments en béton armé tridimensionnels. Les deux approches du calcul à la rupture, que sont les approches statique et cinématiques, seront mises en œuvre numériquement sous la forme d’un problème d’optimisation résolu à l’aide d’un solveur mathématique dans le cadre de la programmation semi définie positive (SDP).Une large partie du travail sera consacré à la modélisation des différents matériaux constituant le béton armé. Le choix du critère pour modéliser la résistance du béton sera discuté, tout comme la méthode pour prendre en compte le renforcement. La méthode d’homogénéisation sera utilisée dans le cas de renforcement périodique et une adaptation de cette méthode sera utilisée dans le cas de renforts isolés. Enfin, les capacités et le potentiel de l’outil développé et mis en œuvre au cours de cette thèse seront exposés au travers d’exemples d’application sur des structures massives
To evaluate the load bearing capacity of structures, civil engineers often make use of empirical methods, which are often manuals, instead of nonlinear finite element methods available in existing civil engineering softwares, which are long to process and difficult to handle. Yield design (or limit analysis) approach, formalized by J. Salençon, is a rigorous method to evaluate the capacity of structures and can be used to answer the question of structural failure. It was, yet, not possible to take advantage of these theoretical methods due to the lack of efficient numerical methods. Recent progress in this field and notably in interior point algorithms allows one to rethink this opportunity. Therefore, the main objective of this thesis is to develop a numerical model, based on the yield design approach, to evaluate the ultimate capacity of massive (3D) reinforced concrete structural elements. Both static and kinematic approaches are implemented and expressed as an optimization problem that can be solved by a mathematical optimization solver in the framework of Semi-Definite Programming (SDP).A large part of this work is on modelling the resistance of the different components of the reinforced concrete composite material. The modelling assumptions taken to model the resistance of concrete are discussed. And the method used to model reinforcement is also questioned. The homogenization method is used to model periodic reinforcement and an adaptation of this technique is developed for isolated rebars. To conclude this work, a last part is dedicated to illustrate the power and potentialities of the numerical tool developed during this PhD thesis through various examples of massive structures
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Halalchi, Houssem. „Commande linéaire à paramètres variants des robots manipulateurs flexibles“. Phd thesis, Université de Strasbourg, 2012. http://tel.archives-ouvertes.fr/tel-00762367.

Der volle Inhalt der Quelle
Annotation:
Les robots flexibles sont de plus en plus utilisés dans les applications pratiques. Ces robots sont caractérisés par une conception mécanique légère, réduisant ainsi leur encombrement, leur consommation d'énergie et améliorant leur sécurité. Cependant, la présence de vibrations transitoires rend difficile un contrôle précis de la trajectoire de ces systèmes. Cette thèse est précisément consacrée à l'asservissement en position des manipulateurs flexibles dans les espaces articulaire et opérationnel. Des méthodes de commande avancées, basées sur des outils de la commande robuste et de l'optimisation convexe, ont été proposées. Ces méthodes font en particulier appel à la théorie des systèmes linéaires à paramètres variants (LPV) et aux inégalités matricielles linéaires (LMI). En comparaison avec des lois de commande non-linéaires disponibles dans la littérature, les lois de commande LPV proposées permettent de considérerdes contraintes de performance et de robustesse de manière simple et systématique. L'accent est porté dans notre travail sur la gestion appropriée de la dépendance paramétrique du modèle LPV, en particulier les dépendances polynomiale et rationnelle. Des simulations numériques effectuées dans des conditions réalistes, ont permis d'observer une meilleure robustesse de la commande LPV par rapport à la commande non-linéaire par inversion de modèle face aux bruits de mesure, aux excitations de haute fréquence et aux incertitudes de modèle.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Thévenet, Jean-Baptiste. „Techniques d'optimisation avancées pour la synthèse de lois de commande“. Toulouse 3, 2005. http://www.theses.fr/2005TOU30125.

Der volle Inhalt der Quelle
Annotation:
La résolution de nombreux problèmes d'automatique n'est pas couverte par les techniques disponibles actuellement. Elle nécessite des développements algorithmiques importants en optimisation, dans le domaine des inégalités matricielles non-convexes. Cette thèse met en oeuvre plusieurs approches complémentaires dans ce contexte. En premier lieu, les méthodes "spectral SDP", baseés sur l'utilisation de Lagrangiens augmentés, nous conduisent à la conception d'un logiciel, specSDP, et à la résolution d'un grand nombre de problèmes en commande : synthèse multimodèle ou structurée, contrôle d'ordre réduit. Une étude de convergence locale est également menée pour le cas classique, présageant d'évolutions positives. La deuxième approche proposée s'inspire d'une formulation non-lisse des problèmes BMI et des techniques associées. Nous exhibons, pour cette méthode, des résultats numériques probants, obtenus sur des exemples de grande dimension, qui mettent en échec les rares méthodes existantes
This thesis research area belongs to the class of nonlinear semidefinite programming, an emerging and challenging domain in optimization which is of central importance in robust control and relaxation of hard decision problems. Our contribution addresses convergence of algorithms, practical implementations and testing on applications in the field of reduced-order output feedback control. Firstly, our augmented Lagrangian-type "spectral SDP" method has shown to be extremely efficient on a variety of middle-scale BMI programs, including simultaneous, structured, or mixed H2/Hinf synthesis problems. Local convergence properties of the algorithm were studied as well, as far as classical nonlinear programs are concerned. On the other hand, we then focused on nonsmooth strategies for large bilinear matrix inequalities. Problems with up to a few thousand variables were successfully handled through this method, where alternative approaches usually give failure
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Krémé, Ama Marina. „Modification locale et consistance globale dans le plan temps-fréquence“. Electronic Thesis or Diss., Aix-Marseille, 2021. http://www.theses.fr/2021AIXM0340.

Der volle Inhalt der Quelle
Annotation:
Aujourd'hui, il est devenu facile de retoucher des images, par exemple de flouter une région, ou de la modifier pour faire disparaître ou apparaître un objet, une personne, etc. La retouche d'images fait partie des outils de base de la plupart des logiciels d'édition d'images. Dans le cadre des signaux audio, il est souvent plus naturel d'effectuer de telles retouches dans un domaine transformé, en particulier le domaine temps-fréquence. Là encore, c'est une pratique assez courante, mais qui ne repose pas nécessairement sur des arguments théoriques solides. Des cas d'applications incluent la restauration de régions du plan temps-fréquence où une information a été perdue (par exemple l'information de phase), la reconstruction d'un signal dégradé par une perturbation additive bien localisée dans le plan temps-fréquence, ou encore la séparation de signaux localisés dans différentes régions du plan temps-fréquence. Dans cette thèse, nous proposons et développons des méthodes théoriques et algorithmiques pour résoudre ce type de problème. Nous les abordons dans un premier temps comme un problème de reconstruction de données manquantes dans lequel il manque certaines phases des coefficients temps-fréquence. Nous formulons mathématiquement le problème, puis nous proposons trois méthodes pour le résoudre. Dans un second temps, nous proposons une approche qui consiste à atténuer une source de dégradation avec l'hypothèse que celle-ci est bien localisée dans une région spécifique du plan temps-fréquence. Nous obtenons la solution exacte du problème qui fait intervenir des opérateurs appelés multiplicateurs de Gabor
Nowadays, it has become easy to edit images, such as blurring an area, or changing it to hide or add an object, a person, etc. Image editing is one of the basic tools of most image processing software. In the context of audio signals, it is often more natural to perform such an editing in a transformed domain, in particular the time-frequency domain. Again, this is a fairly common practice, but not necessarily based on sound theoretical arguments. Application cases include the restoration of regions of the time-frequency plane where information has been lost (e.g. phase information), the reconstruction of a degraded signal by an additive perturbation well localized in the time-frequency plane, or the separation of signals localized in different regions of the time-frequency plane. In this thesis, we propose and develop theoretical and algorithmic methods to solve this issue. We first formulate the problem as a missing data reconstruction problem in which the missing data are only the phases of the time-frequency coefficients. We formulate it mathematically, then we propose three methods to solve it. Secondly, we propose an approach that consists in attenuating a source of degradation with the assumption that it is localized in a specific region of the time-frequency plane. We consider the case where the signal of interest is perturbed by an additive signal and has an energy that is more widely spread in the time-frequency plane. We formulate it as an optimization problem designed to attenuate the perturbation with precise control of the level of attenuation. We obtain the exact solution of the problem which involves operators called Gabor multipliers
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Lannoy, Damien. „Optimisation de la qualité et de l'efficacité des dispositifs médicaux de perfusion simple et complexe“. Phd thesis, Université du Droit et de la Santé - Lille II, 2010. http://tel.archives-ouvertes.fr/tel-00610119.

Der volle Inhalt der Quelle
Annotation:
La perfusion intraveineuse, continue ou intermittente, est un acte courant dans les services de soins bien que non dénué de risque. Différents dispositifs médicaux peuvent être employés pour permettre l'administration parfois simultanée de plusieurs substances actives. Ces dispositifs peuvent, de par leurs caractéristiques propres, générer des fluctuations plus ou moins importantes du débit massique de principe actif, c'est-à-dire la quantité de médicament administrée au patient par unité de temps. Le premier axe de travail concernant ces dispositifs médicaux est l'étude des prescriptions des normes, en particulier les définitions, les méthodes d'essai et les seuils de conformité attendus. Les principaux éléments de physiologie et de mécanique des fluides sont abordés afin d'appréhender la problématique. Cette étude est complétée par l'analyse des données de la littérature concernant l'impact des dispositifs médicaux sur le débit massique des principes actifs délivrés par voie intraveineuse. Une revue systématique de la littérature a été effectuée. Elle porte sur les travaux in vitro ou in vivo se rapportant au sujet et concernant tout élément susceptible de modifier le débit ou la concentration du médicament perfusé. Le premier travail expérimental réalisé in vitro concerne la perfusion simultanée de trois médicaments au moyen d'un dispositif unique de perfusion présentant plusieurs points d'accès. Les trois médicaments étaient perfusés par pousse-seringues et une solution d'hydratation par gravité. Le but de cette étude était d'évaluer l'impact des caractéristiques (volume résiduel et valve anti-retour) de deux dispositifs de perfusion, un premier présentant un très faible volume résiduel (0,046 ml) et une valve anti-retour et le second présentant un volume résiduel élevé (6,16 ml) et sans valve anti-retour) sur le débit massique de trois principes actifs. La quantification simultanée de trois principes actifs en solution (dinitrate d'isosorbide, midazolam et noradrénaline) a nécessité la mise au point d'une méthode multivariée sur spectre UV (régression partial least square (PLS)). Cette technique a permis de doser en continu (1 dosage par seconde) les trois principes actifs à la sortie de la ligne de perfusion. La méthode a été validée dans les échelles de concentrations respectives de 5-60, 10-80 et 2,5-20 µg.mL-1 pour le dinitrate d'isosorbide, le midazolam et la noradrénaline, dans des mélanges binaires et 6,67 à 30, 0,83 à 7,5 et 1,67 à 23,33 µg.ml−1 pour ces mêmes produits, dans des mélanges ternaires. La mise au point du modèle a permis de retenir la zone du spectre située entre 220 et 300 nm associée à un index Q2cum optimal. L'étude de recouvrement, employant le modèle pour prédire les compositions de 8 mélanges ternaires, retrouvait des valeurs de concentrations situées dans un intervalle de 99,5 à 101 % des valeurs théoriques. Les principaux paramètres dans cette étude étaient 1) l'évolution du débit massique des trois médicaments, 2) la valeur du plateau du débit massique à l'équilibre, et 3) l'efficience de perfusion (flow change efficiency (FCE)). Le FCE est obtenu en divisant l'aire sous la courbe du débit massique expérimental en fonction du temps par l'aire sous la courbe du débit massique attendu en fonction du temps. Ce paramètre est calculé pour chaque intervalle de 5 minutes après le début de la perfusion. Les systèmes de perfusion avec un volume résiduel réduit offrent de façon significative un meilleur FCE (53,0 ° 15,4% avec un volume résiduel très faible après 5 minutes de perfusion comparativement à 5,6 ° 8,2% avec un système de perfusion avec un volume résiduel élevé), quel que soient les conditions de changements de débit. Une relation non-linéaire a été établie entre le volume résiduel, le temps depuis le début de la perfusion et le FCE. [...]
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Kirby, Hugh Christopher. „The optimisation of Daimlerchrysler's SAP-MRP system through systems analysis, design, and simulation“. Thesis, Stellenbosch : University of Stellenbosch, 2004. http://hdl.handle.net/10019.1/16364.

Der volle Inhalt der Quelle
Annotation:
Thesis (MSc)--University of Stellenbosch, 2004.
ENGLISH ABSTRACT: This report presents the findings of a study that started as an evaluation of the possible implementation of the Options Inventory Management Model (OIMM), developed by van Wijck and Bekker [4], at DaimlerChrysler South Africa (DCSA). The OIMM System was developed as a possible alternative to the SAP-MRP System to ensure a high Customer Service Level, with the lowest possible inventory level, under the 10 Day Option Freeze Environment. DCSA indicated that although the OIMM System may be an ideal solution, in terms of optimising Plant Inventory levels whilst maximising Customer Service Levels, the practical problems associated with the possible implementation of this system would outweigh the associated benefits. This being the case, a directive was given to investigate the SAP-MRP System’s ability to provide a high Customer Service Level under the 10 Day Option Freeze Environment and not to pursue the OIMM implementation option. The objectives of this directive were to evaluate and establish the performance capabilities of the SAPMRP System under the 10 Day Option Freeze Environment as well as develop a system to aid in the customisation of the system. Design of Experiments (DOE) was utilised to plan the evaluation procedure and to ensure that a consistent approach was followed. The DOE generated huge amounts of output data that represented the Usage Category Behaviour Characteristics of the SAP-MRP System. Regression Analysis was utilised to investigate this data. A part-by-part analysis was avoided and the analysis approach followed presented results that could be applied to almost the entire range of parts, excluding bulk parts, at DCSA. The results showed that Coverage Profile alone could be used as a proactive inventory management tool to ensure maximum Customer Service Level. The Regression Analysis revealed that various combinations of Safety Time, Minimum, and Target Coverage resulted in similar or equal Avg. Plant Inventories, Avg. Number of Orders, and Avg. Order Sizes. These findings were used to develop a Decision Support Tool that could be used by DCSA when evaluating the resultant changes caused by the proposed changes in the aforementioned Input Parameters.
AFRIKAANSE OPSOMMING: Hierdie verslag stel die bevindinge van ‘n studie voor wat begin het met die evaluering van die moontlike implementering van die “Options Inventory Management Model” (OIMM), ontwikkel vir DaimlerChrysler (DCSA) deur van Wijck en Bekker [4]. Die OIMM sisteem was ontwikkel as ‘n moontlike alternatief vir die SAP-MRP sisteem om ‘n hoë verbruikersdiensvlak tesame met die laagste moontlike voorraadvlak in ‘n 10-dag opsie-vries omgewing te verseker. DCSA het aangedui dat, hoewel die OIMM sisteem ‘n ideale oplossing bleik te wees in terme van die optimisering van fabriek-voorraadvlakke tesame met die verbruikersdiensvlakke, die praktiese probleme wat met die moontlike implimentering daarvan geassosieer word, die geassosieerde voordele oorskry. Daar is dus opdrag gegee om die SAP-MRP sisteem se vermoë om hoë verbruikersdiensvlakke in die 10-dag opsie-vries omgewing te lewer te ondersoek en sodoende nie die implimentering van die OIMM sisteem te vervolg nie. Die doelwitte van hierdie opdrag was die evaluering en vestiging van die prestasievermoëns van die SAP-MRP sisteem in die 10-dag opsie-vries omgewing, asook om ‘n sisteem te ontwikkel wat as hulpmiddel kan dien in die geïndividualiseerde aanpassingsoptimisering daarvan. ‘n Eksperimentele Ontwerp (DOE) is gebruik in die beplanning van die evalueringsprosedure en ook om te verseker dat ‘n konstante benadering gevolg is. Die DOE het ‘n groot hoeveelheid uitsetdata genereer wat die prestasie van die SAP-MRP sisteem se gedragseienskappe voorgestel het. Regressie-analise is uitgevoer om die data te ondersoek. Onderdeel-by-onderdeel analise is vermy en die analise-benadering wat gevolg is het resultate gelewer wat toegepas kon word vir omtrent die hele reeks onderdele by DCSA, uitsluitende onderdele wat in grootmaat aangekoop word. Die resultate het gewys dat die “Coverage Profile” alleen gebruik kan word as ‘n pro-aktiewe voorraadbestuur hulpmiddel om maksimum verbruikersdiensvlakke te verseker. Die regressie-analise het getoon dat verskeie kombinasies van “Safety Time,” “Minimum” en “Target Coverage” gelei het tot dieselfde hoeveelheid fabrieks-voorraad, bestellingsvrystellings en bestellingsgroottes. Hierdie tendense is toegepas in die ontwikkeling van ‘n ondersteunende besluitnemingshulpmiddel wat deur DCSA gebruik sou kon word in die evaluering van die veranderinge wat onstaan vanweë die voorgestelde verandering in die voorafgenoemde insetparameters.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Tran, Duy-Nghi. „Programmation dynamique tropicale en optimisation stochastique multi-étapes“. Thesis, Paris Est, 2020. http://www.theses.fr/2020PESC1040.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse on s'intéresse à la résolution par programmation dynamique de problèmes d'Optimisation Stochastique Multi-étapes (OSM).En première partie, on s'est intéressé à l'approximation des fonctions valeurs d'un problème OSM par des combinaisons dîtes min-plus ou max-plus linéaires de fonctions basiques. Cette approche s'interprète comme l'analogue en algèbre tropicale de modèles paramétriques en programmation dynamique approximatives, notamment étudiés par Bertsekas et Powell.Dans le cadre simplifié des problèmes d'optimisation multi-étapes déterministes, nous introduisons un algorithme, appelé Programmation Dynamique Tropical (PDT), qui construit itérativement des approximations des fonctions valeurs comme combinaisons min-plus ou max-plus linéaires. A chaque itération, une trajectoire d'états est tirée aléatoirement et les états formant cette trajectoire sont appelés points de raffinements. Compte tenu des approximations courantes des fonctions valeurs, PDT calcule alors récursivement en remontant dans le temps, une nouvelle fonction basique à ajouter à la combinaison min-plus ou max-plus linéaire courante. La fonction basique ajoutée à l'approximation au temps t doit vérifier deux conditions de compatibilité : elle doît être exacte au t-ème point de rafinement et valide. PDT évite ainsi de discrétiser l'espace d'état dans sa totalité et tente de s'émanciper du fléau de la dimension.Notre première contribution, dans le cadre de problèmes multi-étapes déterministes, est l'obtention de conditions suffisantes sur la richesse des points de raffinements afin d'assurer presque sûrement la convergence asymptotique des approximations générées vers les fonctions valeurs, en des points d'intérêts.En seconde partie, on a étendu le cadre de l'algorithme PDT aux problèmes stochastiques multi-étapes Lipschitz où les bruits sont finis et indépendants. Dans ce cadre, on génère simultanément des approximations max-plus linéaires et min-plus linéaires des fonctions valeurs. A chaque itération, lors d'une phase vers l'avant, une trajectoire déterministe d'état particulière appelée trajectoire problème-enfant est générée. Ensuite, lors du phase en arrière dans le temps, les approximations courantes sont raffinées en ajoutant des fonctions basiques qui sont exactes et valides.Notre seconde contribution est la preuve que l'écart entre combinaisons linéaires max-plus et min-plus ainsi générées tend vers 0 le long des trajectoires problèmes-enfants. Ce résultat généralise un résultat de Baucke, Downward et Zackeri de 2018 qui prouvait la convergence d'un schéma similaire, introduit par Philpott, de Matos et Zackeri en 2013, dans le cadre de problèmes OSM convexes. Toutefois, la complexité algorithmique de l'extension de PDT présentée dépend fortement de la taille du support des bruits d'un problème OSM donné. En troisième partie, on s'est intéressé à quantifier l'écart entre les valeurs de deux problèmes OSM ne différant que par leur arbre de scénarios. Sous hypothèses de régularités, Pflug et Pichler ont montré en 2012 que la valeur d'OSM est lipschitzienne par rapport à la Distance Imbriquée qu'ils ont introduite. Toutefois le calcul de la Distance Imbriquée nécessite le calcul d'un nombre exponentiel, en la taille de l'horizon, de problèmes de transport optimal. Motivé par le succès de l'algorithme de Sinkhorn pour calculer une relaxation entropique du problème de transport optimal, en troisième contribution nous proposons une relaxation entropique de la Distance Imbriquée que nous illustrons numériquement. En dernière partie, afin de justifier la résolution par programmation dynamique dans des cas plus généraux, des échanges entre intégration et minimisation doivent être justifiés. En quatrième contribution, nous établissons un résultat général d'échange entre intégration et minimisation qui englobe certains résultats usuels
In this thesis, we are interested in the resolution by dynamic programming of Multistage Stochastic optimization Problems (MSP).In the first part, we are interested in the approximation of the value functions of a MSP as min-plus or max-plus linear combinations of basic functions. This approach can be interpreted as the tropical algebra analogue of Approximate Dynamic Programming parametric models, notably studied by Bertsekas and Powell.In the simplified framework of multistage deterministic optimisation problems, we introduce an algorithm, called Tropical Dynamic Programming (TDP), which iteratively constructs approximations of value functions as min-plus or max-plus linear combinations. At each iteration, a trajectory of states is randomly drawn and the states forming this trajectory are called trial points. Based on the current approximations of the value functions, TDP then recursively calculates, by going back in time, a new basic function to be added to the current linear min-plus or max-plus combination. The basic function added to the approximation at time t must verify two compatibility conditions: it must be tight at the t-th trial point and valid. In this way TDP avoids discretising the entire state space and tries to emancipate itself from the curse of dimensionality.Our first contribution, within the framework of deterministic multistage optimization problems, is sufficient conditions on the richness of the trial points in order to ensure almost surely the asymptotic convergence of the generated approximations to the value functions, at points of interest.In the second part, the framework of the TDP algorithm was extended to Lipschitz MSPs where the noises are finite and independent. In this framework, max-plus linear and min-plus linear approximations of the value functions are generated simultaneously. At each iteration, in a forward phase, a particular deterministic trajectory of states called the problem-child trajectory is generated. Then, in the backward phase in time, the common approximations are refined by adding basic functions that are tight and valid.Our second contribution is the proof that the difference between the max-plus and min-plus linear combinations thus generated tends towards 0 along the problem-child trajectories. This result generalises a result from Baucke, Downward and Zackeri in 2018 who proved the convergence of a similar scheme, introduced by Philpott, de Matos and Zackeri in 2013, for convex MSPs. However, the algorithmic complexity of the TDP extension presented is highly dependent on the size of the noise support of a given MSP.In the third part, we are interested in quantifying the difference between the values of two MSPs differing only in their scenario tree. Under assumptions of regularities, Pflug and Pichler showed in 2012 that the value of such MSPs is Lipschitz-continuous with respect to the Nested Distance they introduced. However, the computation of the Nested Distance requires an exponential number (w.r.t. the horizon T) of computation of optimal transport problems.Motivated by the success of Sinkhorn's algorithm for computing entropic relaxation of the optimal transport problem, as a third contribution we propose an entropic relaxation of the Nested Distance which we illustrate numerically.Finally, in order to justify the resolution by dynamic programming in more general cases of MSPs, interchange between integration and minimisation must be justified. In the fourth contribution, we establish a general interchange result between integration and minimization which includes some usual results
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Concolato, Cyril. „Descriptions de scènes multimédia : représentations et optimisations“. Phd thesis, Télécom ParisTech, 2007. http://pastel.archives-ouvertes.fr/pastel-00003480.

Der volle Inhalt der Quelle
Annotation:
Avec les progrès technologiques en matière de débits disponibles et la diversification des média disponibles, l'enjeu est maintenant de diffuser aux utilisateurs des médias de qualité dans une présentation cohérente, attractive et interactive, qu'elle soit destinée au monde de la télévision numérique, de l'Internet ou de la téléphonie mobile. Les descriptions de scènes multimédia tentent de répondre à ce pari. Le pari consiste en effet à développer des technologies permettant la diffusion et la présentation de contenu multimédia riche, animé, interactif dans des environnements aux contraintes multiples. Il faut des technologies suffisamment simples pour être intégrées dans des terminaux à faible coût de revient, mais également suffisamment attractives pour attirer de nouveaux consommateurs. Ensuite, même si les débits augmentent et les techniques de compression s'améliorent, la plus grande partie des "tuyaux" est encore occupée par les média traditionnels (audio, vidéo). Il faut donc que ces nouvelles technologies n'occupent pas trop de bande passante. Enfin, pour qu'elles mènent à de nouveaux usages, il faut que les créateurs de contenu se les approprient et pour cela, il faut que les présentations multimédia soient faciles à créer, quel que soit le scénario d'utilisation. Cette thèse a pour objectif dans un premier temps de mener une réflexion sur les différentes représentations de scènes multimédias existantes et d'en proposer une synthèse. Cette synthèse propose une vue générale sur les langages, les formats de représentation des descriptions de scènes ainsi que sur les techniques de codage et les traitements appliqués aux scènes multimédia. Elle présente, en particulier, les problématiques liées à l'animation, la compression, l'interactivité, la diffusion et finalement à la présentation. Dans un second temps, elle propose des améliorations aux solutions existantes. Ces propositions sont doubles. Tout d'abord, cette thèse propose d'un ensemble de méthodes pour permettre la représentation efficace de scènes multimédia fortement animées, notamment pour les formats de représentations MPEG-4 BIFS, W3C SVG et MPEG-4 LASeR, et avec la prise en compte des contraintes de la diffusion sur téléphone mobile. Ensuite, cette thèse propose une architecture et une implémentation innovante d'un lecteur de scènes permettant la lecture de contenus multimédia sur terminaux contraints grâce au respect d'un compromis entre consommation mémoire et rapidité d'exécution. Cette thèse se conclut, après avoir rappelé les contraintes du monde mobile, par une synthèse des choix technologiques à faire, dans la vaste bibliothèque d'outils disponibles dans le domaine des descriptions de scènes, pour concevoir un service multimédia pour mobiles.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Sun, Yanxia. „Improved particle swarm optimisation algorithms“. Thesis, Paris Est, 2011. http://encore.tut.ac.za/iii/cpro/DigitalItemViewPage.external?sp=1000395.

Der volle Inhalt der Quelle
Annotation:
D. Tech. Electrical Engineering.
Particle Swarm Optimisation (PSO) is based on a metaphor of social interaction such as birds flocking or fish schooling to search a space by adjusting the trajectories of individual vectors, called "particles" conceptualized as moving points in a multidimensional space. This thesis presents several algorithms/techniques to improve the PSO's global search ability. Simulation and analytical results confirm the efficiency of the proposed algorithms/techniques when compared to the other state of the art algorithms.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Gul, Sufi Tabassum. „Optimization of Multi-standards Software Defined Radio Equipments: A Common Operators Approach“. Phd thesis, Université Rennes 1, 2009. http://tel.archives-ouvertes.fr/tel-00446230.

Der volle Inhalt der Quelle
Annotation:
La technique de paramétrisation est très prometteuse pour la conception radio logicielle. La radio logicielle consiste à concevoir des systèmes multi-standards qui tirent bénéfice des possibilités de programmation ou de reconfiguration offertes par les composants de traitement la constituant. Cette thèse étudie la technique de paramétrisation par opérateurs communs. Les opérateurs communs sont des unités de traitements communes à plusieurs opérations qu'effectue un équipement, quelle que soit la couche du modèle OSI à laquelle elles appartiennent. La méthode proposée repose sur une approche théorique afin de résoudre le problème de conception d'un équipement multi-standards. Elle consiste en une optimisation d'un hypergraphe. La conception de l'équipement est représentée par des opérateurs à différents niveaux de granularité dans un graphe acyclique orienté. Le niveau le plus élevé représente une approche de conception d'équipements multi-standards de type Velcro. Plus les opérateurs sont bas dans le graphe, plus leur coût est faible en termes de complexité, mais plus il faut faire appel de fois à eux pour effectuer des opérations de différentes sortes. Nous décrivons ensuite en tant qu'exemples des conception basées sur les opérateurs DMFFT (dual mode FFT), LFSR (linear feedback shift register) et le cas du FRMFB (frequency response masking filter bank). Les solutions basées sur les opérateurs communs proposées dans cette thèse peuvent contribuer à optimiser la conception des futurs équipements multi-standards de radio logicielle qui devront supporter de nombreux standards de communication sans fil.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Khaleel, Ali. „Optimisation of a Hadoop cluster based on SDN in cloud computing for big data applications“. Thesis, Brunel University, 2018. http://bura.brunel.ac.uk/handle/2438/17076.

Der volle Inhalt der Quelle
Annotation:
Big data has received a great deal attention from many sectors, including academia, industry and government. The Hadoop framework has emerged for supporting its storage and analysis using the MapReduce programming module. However, this framework is a complex system that has more than 150 parameters and some of them can exert a considerable effect on the performance of a Hadoop job. The optimum tuning of the Hadoop parameters is a difficult task as well as being time consuming. In this thesis, an optimisation approach is presented to improve the performance of a Hadoop framework by setting the values of the Hadoop parameters automatically. Specifically, genetic programming is used to construct a fitness function that represents the interrelations among the Hadoop parameters. Then, a genetic algorithm is employed to search for the optimum or near the optimum values of the Hadoop parameters. A Hadoop cluster is configured on two severe at Brunel University London to evaluate the performance of the proposed optimisation approach. The experimental results show that the performance of a Hadoop MapReduce job for 20 GB on Word Count Application is improved by 69.63% and 30.31% when compared to the default settings and state of the art, respectively. Whilst on Tera sort application, it is improved by 73.39% and 55.93%. For better optimisation, SDN is also employed to improve the performance of a Hadoop job. The experimental results show that the performance of a Hadoop job in SDN network for 50 GB is improved by 32.8% when compared to traditional network. Whilst on Tera sort application, the improvement for 50 GB is on average 38.7%. An effective computing platform is also presented in this thesis to support solar irradiation data analytics. It is built based on RHIPE to provide fast analysis and calculation for solar irradiation datasets. The performance of RHIPE is compared with the R language in terms of accuracy, scalability and speedup. The speed up of RHIPE is evaluated by Gustafson's Law, which is revised to enhance the performance of the parallel computation on intensive irradiation data sets in a cluster computing environment like Hadoop. The performance of the proposed work is evaluated using a Hadoop cluster based on the Microsoft azure cloud and the experimental results show that RHIPE provides considerable improvements over the R language. Finally, an effective routing algorithm based on SDN to improve the performance of a Hadoop job in a large scale cluster in a data centre network is presented. The proposed algorithm is used to improve the performance of a Hadoop job during the shuffle phase by allocating efficient paths for each shuffling flow, according to the network resources demand of each flow as well as their size and number. Furthermore, it is also employed to allocate alternative paths for each shuffling flow in the case of any link crashing or failure. This algorithm is evaluated by two network topologies, namely, fat tree and leaf-spine, built by EstiNet emulator software. The experimental results show that the proposed approach improves the performance of a Hadoop job in a data centre network.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Jaegler, Yann. „Optimisation du ConWip dans un environnement multiproduit“. Thesis, Paris, ENSAM, 2018. http://www.theses.fr/2018ENAM0038/document.

Der volle Inhalt der Quelle
Annotation:
Au cours de la dernière décennie, le système de contrôle de production (PCS) Constant Work InProgress (CONWIP) a été étudié par un nombre croissant de publications. Compte tenu des défis industrielsactuels, tels que la nécessité de s’adapter, la personnalisation croissante des produits, la réduction des délaiset l’importance grandissante du service rendu aux clients, le ConWip semble être un PCS efficace et agilepour les industriels. Cette thèse débute par une revue systématique des travaux sur le ConWip remontant à2003 basée sur une méthode de classification originale. Cette méthode permet de catégoriser les papiers quise concentrent sur le dimensionnement, la performance, le contexte d’implémentation et la comparaison avecd'autres PCS. En plus de proposer une clé de lecture pour interpréter les approches de recherche, les critèresconsidérés répondent à des questions sur la façon de mettre en oeuvre, la façon d’optimiser et les raisonspour lesquelles utiliser le ConWip. Une étude sur les pistes de recherche proposées ou applicables au ConWipa ensuite permis de mettre en évidence les plus prometteuses et d’en extraire les principales tendances.L'objectif consiste ici à mettre à jour les lacunes de la recherche existante sur le ConWip. L'une d'entre ellesamène à des questions clés liées à la mise en oeuvre du ConWip dans un environnement caractérisé par unmix produit élevé et/ou par un mix gamme opératoire élevé. Dans ce contexte, quatre algorithmes qui génèrentdifférentes gammes génériques sont ensuite présentés. Ces gammes, appelées « gammes enveloppes » sontimplémentées dans Wipsim, un outil d'ingénierie utilisé dans les projets de conception et d'amélioration deslignes d'assemblage ConWip, qui permet de calculer les paramètres ConWip optimisés pour chacune desgammes. Un échantillon de données, dérivé d'un cas industriel, est utilisé pour tester les quatre algorithmes.Nous les comparons à travers leur sensibilité au mix produit et selon l'impact induit par l'introduction dedifférents produits atypiques dans le mix. Nos expériences montrent que nos algorithmes génèrent desgammes enveloppes pertinentes et aident les praticiens à choisir le plus adapté à leur contexte spécifique
In the past decade, a growing body of literature has investigated the CONstant Work InProgress (ConWip) production control system (PCS). In view of the current industrial challengesentailing adaptability, product customisation, decreas- ing leadtimes and customer satisfaction, ConWipseems to be an effective and adaptive PCS for manufacturers. A ConWip systematic review datingback to 2003 and provides a guide for understanding through an original classification method. Thismethod enables the differentiation of papers that concentrate on Con- Wip sizing, performance andcontext as well as a comparison with other PCSs. In addition to providing a key to interpreting theresearch approaches, the criteria considered answers questions on how to implement, how to optimiseand why and when to use ConWip. The survey of research avenues proposed or applicable to CONWIPclassify them, highlight the most promising and extract the main trends. The final aim is to provide somegaps. One of the them deals with key questions related to the implementation of ConWip in a highproduct mix and/or high routing mix environment. Four algorithms that generate different genericroutings are presented. These routings are implemented into Wipsim, an engineering tool used inprojects to design and improve ConWip assembly lines, which allows the optimized ConWip parametersfor each routing to be calculated. A sample of data, derived from an industrial case, is used to test thefour models. We compare them via their sensitivity to the mix product and through the impact of theintroduction of different, atypical products. Our experiments show that our algorithms generatedworthwhile generic routings and help practitioners choose among them, depending on a specificcontext
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Bagard, Vincent Crozet Yves. „Optimisation spatio-temporelle des pratiques de tourisme“. Lyon : Université Lumière Lyon 2, 2005. http://demeter.univ-lyon2.fr:8080/sdx/theses/lyon2/2005/bagard_v.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

De, Oliveira Castro Herrero Pablo. „Expression et optimisation des réorganisations de données dans du parallélisme de flots“. Phd thesis, Université de Versailles-Saint Quentin en Yvelines, 2010. http://tel.archives-ouvertes.fr/tel-00580170.

Der volle Inhalt der Quelle
Annotation:
Pour permettre une plus grande capacité de calcul les concepteurs de systèmes embarqués se tournent aujourd'hui vers les MPSoC. Malheureusement, ces systèmes sont difficiles à programmer. Un des problèmes durs est l'expression et l'optimisation des réorganisations de données au sein d'un programme. Dans cette thèse nous souhaitons proposer une chaîne de compilation qui : 1) propose une syntaxe simple et haut-niveau pour exprimer le découpage et la réorganisation des données d'un programme parallèle ; 2) définisse une exécution déterministe du programme (critique dans le cadre des systèmes embarqués) ; 3) optimise et adapte les programmes aux contraintes de l'architecture. Pour répondre au point 1) nous proposons un langage haut-niveau, SLICES, qui permet de décrire les réorganisation de données à travers des découpages multidimensionnels. Pour répondre au point 2) nous montrons qu'il est possible de compiler SLICES vers un langage de flots de données, SJD, qui s'inscrit dans le modèle des Cyclostatic Data-Flow et donc admet une exécution déterministe. Pour répondre au point 3) nous définissons un ensemble de transformations qui préservent la sémantique des programmes SJD. Nous montrons qu'il existe un sous-ensemble de ces transformations qui génère un espace de programmes équivalents fini. Nous proposons une heuristique pour explorer cet espace de manière à choisir la variante la plus adaptée à notre architecture. Enfin nous évaluons cette méthode sur deux problèmes classiques : la réduction de la mémoire consommée et la réduction des communications d'une application parallèle.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

André, Franck. „Electrotransfert de gènes in vivo : optimisation et mécanismes“. Phd thesis, INAPG (AgroParisTech), 2006. http://pastel.archives-ouvertes.fr/pastel-00002666.

Der volle Inhalt der Quelle
Annotation:
L'électrotransfert est une solution prometteuse aux problèmes posés par les méthodes de transfert virales, aussi bien en termes d'applications thérapeutiques qu'en tant qu'outil de recherche. Cependant des progrès doivent encore être réalisés pour augmenter l'efficacité de transfection dans les divers types cellulaires, pour améliorer la connaissance des mécanismes impliqués ainsi que pour confirmer l'innocuité de l'électrotransfert. Dans une étude préliminaire, nous avons démontré que l'efficacité de transfert par injection locale d'ADN seule augmentait avec la vitesse d'injection, impliquant probablement de l'endocytose médiée par récepteur, mais aussi une faible perméabilisation membranaire. Nous avons ensuite confirmé in vivo le rôle perméabilisant des impulsions courtes de fort voltage (HVs) et le rôle électrophorétique des impulsions longues de bas voltage (LVs), lors de l'électrotransfert. Nous avons aussi montré l'influence d'un délai entre le HV et le LV sur l'efficacité et la toxicité des impulsions électriques appliquées. Notre étude de l'impulsion HV semble montrer également que le tissu n'a pas besoin d'être complètement perméabilisé dans le cadre de l'électrotransfert. Nous avons aussi pu confirmer in vivo que plus les cellules du tissu étaient petites, plus le champ électrique à appliquer pour le HV devait être fort, conformément à l'équation de Schwan :
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Fraysse, François. „Estimation des activités musculaires au cours du mouvement en vue d'applications ergonomiques“. Phd thesis, Université Claude Bernard - Lyon I, 2009. http://tel.archives-ouvertes.fr/tel-00563203.

Der volle Inhalt der Quelle
Annotation:
Ce travail de thèse s'inscrit dans le cadre de la simulation par mannequins numériques de l'homme (en anglais Digital Human models ou DHM) en vue d'applications ergonomiques. Plus précisément, il s'intéresse à la modélisation du système musculosquelettique et des efforts musculaires développés au cours du mouvement.Dans un première partie est présenté le développement numérique de modèles musculosquelettiques du membre inférieur et supérieur sous l'environnement Matlab. Ces modèles ont été évalués par examen des bras de levier musculaires pour la géométrie, et par comparaison avec des mesures expérimentales de couples articulaires maximaux (FMV) pour les efforts prédits.Dans une seconde partie, le modèle musculosquelettique du membre inférieur a été utilisé pour évaluer le rôle des muscles bi-articulaires au cours de la marche. Pour cela deux méthodes de calcul des efforts musculaires ont été utilisées, permettant de mettre en évidence les particularités fonctionnelles de ces muscles. Les résultats indiquent notamment que la prise en compte des muscles bi-articulaires est nécessaire à une estimation correcte des efforts musculaires et des efforts de contact articulaires, potentielles sources d'inconfort.Puis ont été étudiés les capacités d'effort maximale en flexion-extension isométrique du coude. L'expérimentation a été effectuée au sein de l'INRETS de Bron et comprenait 9 sujets volontaires masculins. Cette étude a permis d'évaluer le modèle numérique développé en termes de prédiction de capacités d'effort, ainsi que d'ouvrir la voie à des méthodes de scaling permettant d'ajuster un modèle musculosquelettique au sujet étudié.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Kamaruddin, Amalina Farhan. „Experimentation on dynamic congestion control in Software Defined Networking (SDN) and Network Function Virtualisation (NFV)“. Thesis, Brunel University, 2017. http://bura.brunel.ac.uk/handle/2438/16917.

Der volle Inhalt der Quelle
Annotation:
In this thesis, a novel framework for dynamic congestion control has been proposed. The study is about the congestion control in broadband communication networks. Congestion results when demand temporarily exceeds capacity and leads to severe degradation of Quality of Service (QoS) and possibly loss of traffic. Since traffic is stochastic in nature, high demand may arise anywhere in a network and possibly causing congestion. There are different ways to mitigate the effects of congestion, by rerouting, by aggregation to take advantage of statistical multiplexing, and by discarding too demanding traffic, which is known as admission control. This thesis will try to accommodate as much traffic as possible, and study the effect of routing and aggregation on a rather general mix of traffic types. Software Defined Networking (SDN) and Network Function Virtualization (NFV) are concepts that allow for dynamic configuration of network resources by decoupling control from payload data and allocation of network functions to the most suitable physical node. This allows implementation of a centralised control that takes the state of the entire network into account and configures nodes dynamically to avoid congestion. Assumes that node controls can be expressed in commands supported by OpenFlow v1.3. Due to state dependencies in space and time, the network dynamics are very complex, and resort to a simulation approach. The load in the network depends on many factors, such as traffic characteristics and the traffic matrix, topology and node capacities. To be able to study the impact of control functions, some parts of the environment is fixed, such as the topology and the node capacities, and statistically average the traffic distribution in the network by randomly generated traffic matrices. The traffic consists of approximately equal intensity of smooth, bursty and long memory traffic. By designing an algorithm that route traffic and configure queue resources so that delay is minimised, this thesis chooses the delay to be the optimisation parameter because it is additive and real-time applications are delay sensitive. The optimisation being studied both with respect to total end-to-end delay and maximum end-to-end delay. The delay is used as link weights and paths are determined by Dijkstra's algorithm. Furthermore, nodes are configured to serve the traffic optimally which in turn depends on the routing. The proposed algorithm is a fixed-point system of equations that iteratively evaluates routing - aggregation - delay until an equilibrium point is found. Three strategies are compared: static node configuration where each queue is allocated 1/3 of the node resources and no aggregation, aggregation of real-time (taken as smooth and bursty) traffic onto the same queue, and dynamic aggregation based on the entropy of the traffic streams and their aggregates. The results of the simulation study show good results, with gains of 10-40% in the QoS parameters. By simulation, the positive effects of the proposed routing and aggregation strategy and the usefulness of the algorithm. The proposed algorithm constitutes the central control logic, and the resulting control actions are realisable through the SDN/NFV architecture.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Jabban, Ahmad. „Optimisation et analyse des résesaux intelligents et des réseaux hétérogènes“. Phd thesis, INSA de Rennes, 2013. http://tel.archives-ouvertes.fr/tel-00881045.

Der volle Inhalt der Quelle
Annotation:
Le travail réalisé dans le cadre de cette thèse permet d'évaluer et d'optimiser la charge de signalisation dans les réseaux intelligents (RI) à grande échelle ainsi que d'analyser plusieurs aspects liés aux réseaux hétérogènes.L'objectif principal des RI est de faciliter l'introduction de nouveaux services en se basant sur plus de flexibilité et de nouvelles fonctionnalités. Les composants principaux d'un RI sont le point de commutation de services (SSP) et le point de commande de services (SCP). L'emplacement des équipements de réseau et la répartition du trafic peuvent jouer un rôle important dans la réduction du volume de la signalisation. Dans la première partie de la thèse, nous examinons plusieurs configurations du RI à grande échelledans le but d'analyser les effets du déplacement, de l'addition des nouveaux commutateurs SSP et de la redistribution du trafic au sein du réseau sur le nombre requis de liens de signalisation. Nous proposons un algorithme assurant la distribution optimale du trafic sur les commutateurs SSP avecle nombre minimum requis de liens de signalisation. Dans la deuxième partie de la thèse, nous analysons les différentes stratégies de sélection de réseaux dans un contexte de réseaux hétérogènes. En effet, dans la prochaine génération de réseaux sans fil et mobiles, les utilisateurs pourront se déplacer entre les réseaux hétérogènes en utilisant des terminaux équipés d'interfaces d'accès de plusieurs types. Dans ce contexte, les terminaux mobiles sont en mesure de choisir le lien d'accès le plus approprié parmi lesoptions disponibles. Dans notre travail, nous proposons une stratégie de sélection basée sur la valeur estimée de SINR (Rapport signal à interférence plus bruit) dans un système hétérogène composé de deux types de réseau : LTE et WiFi. Avec cette stratégie, les utilisateurs sélectionnent toujours leréseau présentant le SINR le plus élevé afin d'effectuer leurs communications. En se basant sur la méthode de Markov, nous analysons dans un premier temps, les performances de la stratégie de sélection basée sur le SINR en termes de probabilités de blocage de demandes d'accès aux services, de probabilités de blocage de handover vertical ou horizontal et de qualité de connexion. Nous comparons les résultats obtenus avec deux autres stratégies basées sur la puissance du signal reçu et sur la disponibilité de bande passante. Les performances sont analysées et comparées selon les modèles de mobilité 2D fluid flow et Random WayPoint qui sont largement utilisés dans l'analyse des réseaux sans fil et mobiles. Finalement, nous analysons les influences de l'allocation de ressources du réseau LTE aux services Multicast et Unicast sur les performances du système.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Hanuise, Nicolas. „Stratégies de chasse chez le manchot royal : prise alimentaire et optimisation du comportement de plongée“. Phd thesis, Université de Strasbourg, 2011. http://tel.archives-ouvertes.fr/tel-00660310.

Der volle Inhalt der Quelle
Annotation:
Les stratégies de recherche alimentaire sont des comportements qui déterminent la quantité d'énergie qu'un individu peut extraire de son environnement et allouer à sa survie et à sa reproduction. L'évolution favorise donc les stratégies d'approvisionnement optimales, c'est à dire celles qui maximisent la quantité d'énergie extraite par rapport à l'énergie investie par unité de temps. Chez les prédateurs marins à respiration aérienne, l'optimisation consiste à ajuster le comportement respiratoire en surface afin de maximiser la proportion du temps qui peut être passée à se nourrir en apnée. Pour tester les prédictions d'optimalité en milieu naturel, il est nécessaire de pouvoir quantifier d'une part la prise alimentaire et d'autre part la dépense énergétique. Avec le manchot royal comme modèle, nous avons cherché à dénombrer le nombre de proies capturées en utilisant simultanément plusieurs méthodes, dont la mesure de l'angle d'ouverture du bec et un indice associé à la locomotion : l'accélération dynamique. La mesure de l'ouverture du bec nous a fourni des informations détaillées sur le comportement de prise alimentaire, et deux types d'ouvertures attribuées aux tentatives et aux captures ont été mis en évidence. L'accélération dynamique s'est révélée être un indice plus facile à obtenir, mais de qualité inférieure ne permettant pas de réaliser un dénombrement des ingestions. Par ailleurs, nous avons tenté d'estimer la dépense énergétique des manchots en plongée par la mesure de l'accélération dynamique et de la fréquence cardiaque, mais des problèmes techniques nous ont empêchés d'y parvenir. L'étude du comportement de plongée selon le taux de rencontre avec des proies montre que, conformément aux prédictions, les manchots royaux réduisent le temps passé en surface et le temps perdu en transit lorsque la ressource est plus abondante, afin d'augmenter la proportion du temps passé à chasser. Cependant, un véritable bilan ne peut être établi que si le gain et les dépenses sont mesurées précisément. L'échelle temporelle à prendre en compte n'est peut-être pas celle d'une plongée unique car la physiologie de la plongée et de la prise alimentaire impliquent des mécanismes complexes (échanges gazeux, thermorégulation, digestion) auxquels il n'est pas aisé d'avoir accès.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Vimont, Antoine. „Optimisation de la recherche des Escherichia coli producteurs de Shiga-toxines (STEC)“. Phd thesis, Université Claude Bernard - Lyon I, 2007. http://tel.archives-ouvertes.fr/tel-00139179.

Der volle Inhalt der Quelle
Annotation:
A l'heure actuelle, les Escherichia coli producteurs de Shiga-toxines (STEC) sont considérés comme des pathogènes émergents importants en santé publique. Cependant, il n'existe aujourd'hui aucune réglementation officielle stipulant les procédures à suivre pour l'échantillonnage et la recherche des STEC dans les denrées alimentaires.
Ce travail a pour objectif d'étudier les différents protocoles utilisés pour la recherche des STEC, de manière à pouvoir proposer aux industriels des protocoles optimisés leur permettant une réelle maîtrise du « danger STEC » dans leur filière. Dans ce but, la cinétique de croissance de diverses souches de STEC a, dans différentes conditions d'enrichissement, été suivie simultanément à celle de la flore annexe de la matrice, puis modélisée.
Notre étude souligne qu'un enrichissement trop court, comme les 6 heures d'incubation dans le cas de l'IMS, peut conduire à l'obtention de résultats faussement négatifs. Il s'avère néanmoins inutile, dans certaines conditions, de prolonger l'étape d'enrichissement car une interaction de type compétition simple avec la flore annexe arrête la croissance des STEC. Cet arrêt est plus ou moins rapide selon la matrice analysée et sa densité en flore annexe naturelle (de 4 à 7 h pour les fèces et de 10 à 12 h pour le steak haché dans nos expérimentations). Dans le lait, des interactions plus complexes entraînent un arrêt de la croissance des STEC avant celui de la flore naturelle (8,5 à 11 h dans nos expérimentations).
L'utilisation d'agents sélectifs a pour but de freiner la croissance de la flore annexe, ce qui peut avoir pour impact de prolonger la croissance des STEC. L'ajout de sels biliaires dans le milieu d'enrichissement a un effet positif dans le cas de l'enrichissement d'échantillons de fèces de bovins et de lait cru mais n'a pas d'effet significatif pour la matrice « steak haché ». En revanche, l'addition de novobiocine dans le milieu peut inhiber certaines souches de STEC non-O157:H7 et ralentir la croissance de E. coli O157:H7. L'usage de cet antibiotique, potentiellement responsable de résultats faussement négatifs, devrait être abandonné.
Par ailleurs, cette étude a permis d'optimiser le protocole de recherche de E. coli O157:H7 dans le steak haché (ISO 16140) en validant, d'une part, l'analyse d'une plus grosse masse d'échantillon dans un même volume de milieu (ratio plus élevé) et en réduisant, d'autre part, le temps d'analyse grâce à l'utilisation d'une température d'incubation plus élevée de 41,5°C.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Aravinthan, Gopalasingham. „SDN based service oriented control approach for future radio access networks“. Thesis, Evry, Institut national des télécommunications, 2017. http://www.theses.fr/2017TELE0013.

Der volle Inhalt der Quelle
Annotation:
Le SDN (Software-Defined Networking) émerge comme une nouvelle architecture pour la programmation des réseaux. A l'origine, l'idée du SDN est de déplacer le plan de contrôle à l'extérieur des équipements, et de permettre ainsi un contrôle déporté de l'ensemble depuis une entité logicielle logique nommée "contrôleur". Le principal avantage d'une telle approche est de centraliser donc toute l'intelligence de gestion du réseau dans le contrôleur, qui s'appuie pour cela sur des protocoles standard et assure par ce biais la reprogrammation de la totalité de la partie du réseau sous son contrôle. L'évolution technologique vers le SDN est toujours en cours dans des scénarios de déploiement programmable et flexible des réseaux mobiles. Le NFV (Network Function Virtualization) est le processus de déplacement ou de migration des fonctions réseau d'un équipement dédié de réseau vers des serveurs génériques dans le Cloud. Les SDN et NFV sont deux technologies étroitement liées qui sont souvent utilisées ensemble. Le couplage fort entre les plans de contrôle et de données, ainsi que les limitations en matière de passage à l'échelle et de flexibilité, font que la virtualisation des réseaux mobiles actuels nécessite non seulement l'utilisation du Cloud Computing mais aussi les récentes innovations telles que SDN et NFV pour pouvoir permettre un déploiement à la demande des services réseaux (Network-as-a-Service) aux utilisateurs. Les lignes de recherche globales de cette thèse s'inscrivent dans deux principaux cas d'utilisation. Ces cas d'utilisation, bien qu'appelés de la "prochaine génération de réseaux mobiles", sont le "Telco" et le "Vertical", qui apparaissent ici couplés, les deux étant traditionnellement complètement séparés. Dans les cas d'utilisation de "télécommunications", nous exploitons les avantages de SDN pour avoir un cadre de contrôle flexible pour les réseaux d'auto-organisation (SON) et la division de traitement dynamique des utilisateurs. Dans le cas d'utilisation de "verticale", nous appliquons divers avantages du protocole SDN et OpenFlow pour utiliser efficacement les ressources radio du réseau de backhaul dans le système de communication train-sol. Notre cadre d'étude du SDN, en général, peut être une solution efficace et alternative pour la gestion RAN (Radio Access Network), c'est-à-dire pour des objectives comme l'optimisation des ressources radio, l'optimisation du réseau, la gestion de la mobilité et l'équilibrage de la charge, peuvent être atteint avec ce cadre. Grâce à l'analyse et l'expérimentation concrète des SDN et NFV pour le RAN, nous montrons que les solutions proposées dans ce travail peuvent apporter un faisceau d'avantages évidents aux réseaux mobiles tels que la flexibilité, la programmabilité, la gestion unifiée et la mise en œuvre de nouveaux services
Software-Defined Networking (SDN) has emerged as a new intelligent architecture for network programmability. The primary idea behind SDN is to move the control-plane outside the switches and enable external control of data-plane through a logical software entity called controller. Such approach benefits mobile network management by brining complete intelligence to the logically centralized controller. Network Function Virtualization (NFV) is the process of relocating or migrating network functions from dedicated hardware to generic servers. SDN and NFV are two closely related technologies that are often used together. The traditional mobile network architecture due to its strongest coupling between control and data planes along with limitations in scalability and flexibility requires the usage of cloud computing along with the recent revolutionary approaches in networking such as SDN and NFV to have an architecture that deploys on demand "Network-as-a-Service" for users. The global research focus of this thesis falls in to two main use cases of next generation mobile networks such as Telco and Vertical. In the telco use cases, we exploit the advantages of SDN to have flexible control framework for both Self-Organizing Networks (SON) and dynamic user processing split. In vertical use case, we apply various advantages of SDN and OpenFlow protocol to efficiently utilize the scare radio resources of wireless backhaul network in the train-to-ground communication system. Our SDN framework in general can be an efficient and alternative solution for RAN management i.e. Radio Optimization, Network Optimization, Mobility Management and Load Balancing can be achieved with such framework. Through analysis and experimentation of SDN frameworks for RAN, we shows that the proposed solutions can bring set of advantages to wireless networks such as flexibility, programmability, unified management, and enables new services
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Allybokus, Zaïd. „Algorithmes distribués dédiés au calcul de l’allocation alpha-équitable en temps réel dans les réseaux SDN“. Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4038.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, nous étudions la conception d’algorithmes dédiés au calcul de l’allocation de ressources α-équitable en temps réel dans les réseaux Software Defined Networks (SDN) distribués. En premier lieu, nous définissons trois besoins majeurs établissant les enjeux des algorithmes en temps réel implémentable dans les contrôleurs distribués SDN. Ces enjeux sont la disponibilité de solutions faisables à tout moment, une qualité transitoire acceptable en termes d’écart à l’optimum, une convergence en un nombre raisonnable de tours de communications entre les différents contrôleurs, ainsi qu’une facilité des algorithmes à être massivement parallèles, indépendamment de l’architecture SDN du réseau. Nous utilisons les outils de l’Alternating Directions Method of Multipliers afin de définir une classe d’algorithmes qui, sans précédent, répondent simultanément à ces enjeux. À la lumière des propriétés structurelles du modèle de l’allocation α-fair, nous calculons une borne inférieure sur la solution optimale et l’utilisons afin d’ajuster le paramètre de pénalité du Lagrangien augmenté du problème dans le but d’optimiser la performance des algorithmes. Nous montrons que l’algorithme est capable de fonctionner en temps réel lorsque les exigences du trafic varient de façon plus ou moins brute. La variation des exigences du trafic est modelisée par la variation en temps réel de certains coefficients du modèle d’optimisation qui est résolu à la volée. Ces coefficients représentent en pratique des politiques de priorité variées au sein du trafic (paiement, type de trafic, nombre de connections à l’intérieur d’un chemin, etc). Ensuite, nous décrivons comment étendre l’algorithme à des scenarios réels avec des modifications minimes, afin de prendre en compte l’équilibrage en multi-chemin des flots et l’ajustement de la bande passante en temps réel. Par ailleurs, nous répondons au problème de partage de ressources α-équitable lorsque l’environnement admet des incertitudes sur la quantité de ressources disponibles sur chaque lien, connue uniquement au travers de fonctions de densités générales. L’axe prioritaire est alors, au lieu de la faisabilité, la notion de fiabilité. Nous concevons alors une heuristique qui affine une approximation extérieure du problème en se basant sur l’analyse de sensibilité du problème statique. En toute généralité, nous arrivons à fournir une solution fiable et acceptable en termes d’efficacité en résolvant quelques problèmes statiques
In this dissertation, we deal with the design of algorithms to tackle the α-fair resource allocation problem in real-time and distributed Software-Defined Networks (SDN). First, we define three major requirements that picture the challenges of real-time algorithms implementable in modern distributed SDN controllers. Those challenges are the ability to provide feasible resource allocations at all times, good transient solutions in terms of optimality gap that converge in an acceptable number of inter-controller communication rounds, and their ability of being massively parallelized independently of the network architecture. We use the Alternating Directions Method of Multipliers to design an algorithm that simultaneously, and unprecedentedly, tackles the three challenges. Motivated by a first study of the structural properties of the α-fair model, where we derive a lower bound on the optimal solution, we tune the penalty parameter of the augmented Lagrangian of the problem in order to optimize the algorithm’s performance. We show that the algorithm can function in real-time when the traffic requirements can vary more or less abruptly. The variation of the traffic requirements are modeled by real-time varying coefficients of the optimization model that is solved on-the-fly and may represent various prioritization policies of the traffic (payment, traffic type, number of connections within a tunnel, etc). Then, we describe how to extend the algorithm to real world use cases with limited modifications to cope with multi-path load balancing and online adjustments. Furthermore, we address the problem of α-fairness when the environment is uncertain and the available amount of resources over the network links is known only through general density functions. The main focus there is, instead of feasibility, the notion of safety. We design a heuristic that polishes an outer relaxation of the problem, based on the sensitivity analysis of the static problem. In general, we are able to provide a safe and acceptably efficient solution by solving several static problems
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Amarantini, David. „Estimation des efforts musculaires à partir de données périphériques : application à l'analyse de la coordination pluri-articulaire“. Phd thesis, Université Joseph Fourier (Grenoble), 2003. http://tel.archives-ouvertes.fr/tel-00557146.

Der volle Inhalt der Quelle
Annotation:
L'objectif de ce travail était d'une part de développer des méthodes numériques permettant d'estimer de manière satisfaisante les moments résultant, agoniste et antagoniste développés autour d'une articulation et, d'autre part, d'appliquer ces méthodes à l'analyse de la coordination pluri-articulaire d'un mouvement de piétinement. Le problème de la dynamique inverse est résolu à l'aide d'une méthode d'optimisation statique des accélérations qui permet d'estimer les moments résultants en accord avec toutes les mesures cinématiques et dynamiques, tout en respectant les conditions d'équilibre mécanique de chaque segment. Les moments musculaires agoniste et antagoniste sont estimés en conditions dynamiques à l'aide d'une méthode qui comprend une étape de calibration isométrique et une procédure d'optimisation numérique qui utilise les données cinématiques, dynamiques et électromyographiques en entrée. Le modèle tient compte du comportement mécanique des muscles et de leur fonction anatomique pour obtenir une estimation physiologiquement réaliste des moments et un indice de co-contraction fiable a chaque instant du mouvement. Ces modèles sont appliqués à l'étude de la coordination pluri-articulaire d'un mouvement de piétinement, perturbé par le port d'un système élastique à l'articulation du genou. La redondance du système musculo-squelettique permet de gérer localement la perturbation en accroissant la participation des muscles extenseurs au contrôle de la cinématique du genou. Cette stratégie permet de conserver la même cinématique du mouvement et ainsi préserve l'équilibre dynamique du piétinement.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Aravinthan, Gopalasingham. „SDN based service oriented control approach for future radio access networks“. Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2017. http://www.theses.fr/2017TELE0013.

Der volle Inhalt der Quelle
Annotation:
Le SDN (Software-Defined Networking) émerge comme une nouvelle architecture pour la programmation des réseaux. A l'origine, l'idée du SDN est de déplacer le plan de contrôle à l'extérieur des équipements, et de permettre ainsi un contrôle déporté de l'ensemble depuis une entité logicielle logique nommée "contrôleur". Le principal avantage d'une telle approche est de centraliser donc toute l'intelligence de gestion du réseau dans le contrôleur, qui s'appuie pour cela sur des protocoles standard et assure par ce biais la reprogrammation de la totalité de la partie du réseau sous son contrôle. L'évolution technologique vers le SDN est toujours en cours dans des scénarios de déploiement programmable et flexible des réseaux mobiles. Le NFV (Network Function Virtualization) est le processus de déplacement ou de migration des fonctions réseau d'un équipement dédié de réseau vers des serveurs génériques dans le Cloud. Les SDN et NFV sont deux technologies étroitement liées qui sont souvent utilisées ensemble. Le couplage fort entre les plans de contrôle et de données, ainsi que les limitations en matière de passage à l'échelle et de flexibilité, font que la virtualisation des réseaux mobiles actuels nécessite non seulement l'utilisation du Cloud Computing mais aussi les récentes innovations telles que SDN et NFV pour pouvoir permettre un déploiement à la demande des services réseaux (Network-as-a-Service) aux utilisateurs. Les lignes de recherche globales de cette thèse s'inscrivent dans deux principaux cas d'utilisation. Ces cas d'utilisation, bien qu'appelés de la "prochaine génération de réseaux mobiles", sont le "Telco" et le "Vertical", qui apparaissent ici couplés, les deux étant traditionnellement complètement séparés. Dans les cas d'utilisation de "télécommunications", nous exploitons les avantages de SDN pour avoir un cadre de contrôle flexible pour les réseaux d'auto-organisation (SON) et la division de traitement dynamique des utilisateurs. Dans le cas d'utilisation de "verticale", nous appliquons divers avantages du protocole SDN et OpenFlow pour utiliser efficacement les ressources radio du réseau de backhaul dans le système de communication train-sol. Notre cadre d'étude du SDN, en général, peut être une solution efficace et alternative pour la gestion RAN (Radio Access Network), c'est-à-dire pour des objectives comme l'optimisation des ressources radio, l'optimisation du réseau, la gestion de la mobilité et l'équilibrage de la charge, peuvent être atteint avec ce cadre. Grâce à l'analyse et l'expérimentation concrète des SDN et NFV pour le RAN, nous montrons que les solutions proposées dans ce travail peuvent apporter un faisceau d'avantages évidents aux réseaux mobiles tels que la flexibilité, la programmabilité, la gestion unifiée et la mise en œuvre de nouveaux services
Software-Defined Networking (SDN) has emerged as a new intelligent architecture for network programmability. The primary idea behind SDN is to move the control-plane outside the switches and enable external control of data-plane through a logical software entity called controller. Such approach benefits mobile network management by brining complete intelligence to the logically centralized controller. Network Function Virtualization (NFV) is the process of relocating or migrating network functions from dedicated hardware to generic servers. SDN and NFV are two closely related technologies that are often used together. The traditional mobile network architecture due to its strongest coupling between control and data planes along with limitations in scalability and flexibility requires the usage of cloud computing along with the recent revolutionary approaches in networking such as SDN and NFV to have an architecture that deploys on demand "Network-as-a-Service" for users. The global research focus of this thesis falls in to two main use cases of next generation mobile networks such as Telco and Vertical. In the telco use cases, we exploit the advantages of SDN to have flexible control framework for both Self-Organizing Networks (SON) and dynamic user processing split. In vertical use case, we apply various advantages of SDN and OpenFlow protocol to efficiently utilize the scare radio resources of wireless backhaul network in the train-to-ground communication system. Our SDN framework in general can be an efficient and alternative solution for RAN management i.e. Radio Optimization, Network Optimization, Mobility Management and Load Balancing can be achieved with such framework. Through analysis and experimentation of SDN frameworks for RAN, we shows that the proposed solutions can bring set of advantages to wireless networks such as flexibility, programmability, unified management, and enables new services
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Dubois, Clotilde. „Modélisation des programmes de sélection dans l'élevage du cheval de sport“. Phd thesis, AgroParisTech, 2008. http://pastel.archives-ouvertes.fr/pastel-00004061.

Der volle Inhalt der Quelle
Annotation:
La Selle-Français (SF) a été sélectionné avec comme objectif principal la réussite en concours de saut d'obstacle (CSO) et cette sélection a largement utilisé les croisements avec d'autres races. Comme pour les autres chevaux de selle à travers le monde, les éleveurs français veulent augmenter le nombre de caractères dans leur objectif de sélection. En plus du CSO, ils souhaitent améliorer leur population sur les allures, la conformation, le comportement, la fertilité et la santé. Pour ajouter tous ces caractères, en conservant un schéma de sélection efficace, différentes études ont été menées et sont exposées dans cette thèse. -Tout d'abord, une large présentation du SF avec ses spécificités est effectuée. -Une étude de l'efficacité de la sélection entre 1974 et 2002 est conduite afin d'identifier les qualités et les inconvénients du plan de sélection actuel du SF. Sur cette période, on dénombre entre 6000 à 10000 naissances par an. Depuis 1995, le gain génétique annuel pour le CSO est élevé (
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Tomassilli, Andrea. „Vers les réseaux de nouvelle génération avec SDN et NFV“. Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4044.

Der volle Inhalt der Quelle
Annotation:
Les progrès récents dans le domaine des réseaux, tels que les réseaux logiciel (SDN) et la virtualisation des fonctions réseaux (NFV), modifient la façon dont les opérateurs de réseaux déploient et gèrent les services Internet. D'une part, SDN introduit un contrôleur logiquement centralisé avec une vue globale de l'état du réseau. D'autre part, NFV permet le découplage complet des fonctions réseaux des appareils propriétaires et les exécute en tant qu'applications logicielles sur des serveurs génériques. De cette façon, les opérateurs de réseaux peuvent déployer dynamiquement des fonctions réseaux virtuelles (VNF). SDN et NFV, tous deux séparément, offrent aux opérateurs de nouvelles opportunités pour réduire les coûts, améliorer la flexibilité et le passage à l'échelle des réseaux et réduire les délais de mise sur le marché des nouveaux services et applications. De plus, le modèle de routage centralisé du SDN, associé à la possibilité d'instancier les VNF à la demande, peut ouvrir la voie à une gestion encore plus efficace des ressources réseaux. Par exemple, un réseau SDN/NFV peut simplifier le déploiement des chaînes de fonctions de services (SFC) en rendant le processus plus facile et moins coûteux. Dans cette thèse, notre objectif était d'examiner comment tirer parti des avantages potentiels de combiner SDN et NFV. En particulier, nous avons étudié les nouvelles possibilités offertes en matière de conception de réseau, de résilience et d'économies d'énergie, ainsi que les nouveaux problèmes qui surgissent dans ce nouveau contexte, comme l'emplacement optimal des fonctions réseaux. Nous montrons qu'une symbiose entre le SDN et le NFV peut améliorer la performance des réseaux et réduire considérablement les dépenses d'investissement (CapEx) et les dépenses opérationnelles (OpEx) du réseau
Recent advances in networks, such as Software Defined Networking (SDN) and Network Function Virtualization (NFV), are changing the way network operators deploy and manage Internet services. On one hand, SDN introduces a logically centralized controller with a global view of the network state. On the other hand, NFV enables the complete decoupling of network functions from proprietary appliances and runs them as software applications on general–purpose servers. In such a way, network operators can dynamically deploy Virtual Network Functions (VNFs). SDN and NFV benefit network operators by providing new opportunities for reducing costs, enhancing network flexibility and scalability, and shortening the time-to-market of new applications and services. Moreover, the centralized routing model of SDN jointly with the possibility of instantiating VNFs on–demand, may open the way for an even more efficient operation and resource management of networks. For instance, an SDN/NFV-enabled network may simplify the Service Function Chain (SFC) deployment and provisioning by making the process easier and cheaper. In this study, we aim at investigating how to leverage both SDN and NFV in order to exploit their potential benefits. We took steps to address the new opportunities offered in terms of network design, network resilience, and energy savings, and the new problems that arise in this new context, such as the optimal network function placement in the network. We show that a symbiosis between SDN and NFV can improve network performance and significantly reduce the network's Capital Expenditure (CapEx) and Operational Expenditure (OpEx)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Ibn, Khedher Hatem. „Optimization and virtualization techniques adapted to networking“. Thesis, Evry, Institut national des télécommunications, 2018. http://www.theses.fr/2018TELE0007/document.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, on présente nos travaux sur la virtualisation dans le contexte de la réplication des serveurs de contenu vidéo. Les travaux couvrent la conception d’une architecture de virtualisation pour laquelle on présente aussi plusieurs algorithmes qui peuvent réduire les couts globaux à long terme et améliorer la performance du système. Le travail est divisé en plusieurs parties : les solutions optimales, les solutions heuristiques pour des raisons de passage à l’échelle, l’orchestration des services, l’optimisation multi-objective, la planification de services dans des réseaux actifs et complexes et l'intégration d'algorithmes dans une plate-forme réelle
In this thesis, we designed and implemented a tool which performs optimizations that reduce the number of migrations necessary for a delivery task. We present our work on virtualization in the context of replication of video content servers. The work covers the design of a virtualization architecture for which there are also several algorithms that can reduce overall costs and improve system performance. The thesis is divided into several parts: optimal solutions, greedy (heuristic) solutions for reasons of scalability, orchestration of services, multi-objective optimization, service planning in complex active networks, and integration of algorithms in real platform. This thesis is supported by models, implementations and simulations which provide results that showcase our work, quantify the importance of evaluating optimization techniques and analyze the trade-off between reducing operator cost and enhancing end user satisfaction index
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Paclet, Florent. „Analyse biomécanique des transferts tendineux de la main (technique Tsugé) Modélisation des tensions Suivi longitudinal des patients“. Phd thesis, Université de Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00566821.

Der volle Inhalt der Quelle
Annotation:
Cette étude est hébergée par un programme hospitalier de recherche clinique. L'objectif était de développer un outil d'évaluation de la motricité de la main pour caractériser la réorganisation motrice associée à la restauration d'une paralysie radiale (technique de Tsugé). Nous avons montré que la minimisation des moments secondaires était un principe biomécanique robuste pour expliquer les interactions biomécaniques entre les doigts. Ce principe reste toutefois à mieux explorer en extension. L'utilisation du modèle biomécanique a montré la nécessité d'inclure l'équilibre du poignet dans la procédure. L'analyse de la réorganisation motrice montre la redistribution dynamique des tensions des tendons et la mise en place de co-contraction. L'ensemble de cette démarche ouvre des perspectives d'analyse de la motricité de la main intéressantes.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Irisson, Jean-Olivier. „Approche comportementale de la dispersion larvaire en milieu marin = Behavioural approach to larval dispersal in marine systems“. Phd thesis, Ecole pratique des hautes études - EPHE PARIS, 2008. http://tel.archives-ouvertes.fr/tel-00344625.

Der volle Inhalt der Quelle
Annotation:
La plupart des organismes marins démersaux présentent une phase larvaire pélagique avant le recrutement dans la population adulte. Cet épisode pélagique est souvent la seule opportunité de dispersion au cours du cycle de vie. De ce fait, il structure les connections entre populations, qui régissent la dynamique et la composition génétique des métapopulations benthiques. Cependant, ces "larves" ne sont pas de simples ébauches des adultes, dispersées au gré des courants en attendant leur métamorphose. Ce sont des organismes souvent très spécifiquement adaptés à leur milieu. Dans cette thèse nous nous sommes efforcés d'évaluer l'impact du comportement des larves lors de la phase pélagique. Nous nous sommes focalisés sur les larves de poissons (coralliens plus spécifiquement) dont les capacités sensorielles et motrices sont particulièrement élevées. Des approches expérimentales ont été développées afin de quantifier leur orientation et leur nage in situ. Grâce à une observation synchrone des caractéristiques physiques du milieu et de la distribution des larves lors d'une campagne océanographique, nous avons tenté de caractériser leur distribution en trois dimensions dans le milieu pélagique, afin de comprendre les interactions physico-biologiques déterminant le recrutement. Enfin, une approche de modélisation novatrice, faisant appel à des concepts de minimisation des coûts et de maximisation des bénéfices habituellement utilisés en économie ou en théorie de l'approvisionnement optimal, a permis d'intégrer le comportement des larves aux modèles Lagrangiens de dispersion
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Mostafa, Malecky. „Métabolisme des terpénoïdes chez les caprins“. Phd thesis, AgroParisTech, 2008. http://pastel.archives-ouvertes.fr/pastel-00004406.

Der volle Inhalt der Quelle
Annotation:
L'objectif principal de cette thèse est d'étudier in vitro et in vivo, le métabolisme de certains terpènes caractéristiques de régimes d'hiver-printemps ingérés par les chèvres laitières dans la région du Basilicate (Italie). Nous avons cherché à quantifier dans une première étape le métabolisme des terpènes en milieu fermentaire in vitro, et de caractériser les facteurs majeurs de variation de leur métabolisme. Nous avons également effectué un essai in vivo sur 4 terpènes particuliers (-pinène, -pinène, p-cymène, et linalool, les terpènes principaux ingérés par les chèvres en Basilicate) dans le but de valider les résultats obtenus in vitro, de caractériser leur devenir dans le rumen, et leur flux au niveau duodénal et sanguin. En parallèle nous avons étudié l'impact de ces terpènes sur le métabolisme ruminal des parois et des protéines, ainsi que leurs effets sur les performances des chèvres laitières. La partie expérimentale est composée de trois séries d'études. Les études méthodologiques, les études de métabolisme des terpènes in vitro et celles in vivo. Les études méthodologiques de mise au point d'une méthode d'extraction et d'analyse (SPME «Solid Phase Microextraction») ont été réalisées afin d'obtenir les conditions optimales pour l'extraction des terpènes en milieu fermentaire et dans la matrice sanguine. Le premier essai in vitro a conduit à une discrimination des terpènes testés en termes de leur disparition dans le jus de rumen, qui a été associée au type chimique du terpène considéré. Les terpènes hydrocarbones ont montré en effet une disparition beaucoup plus marquée par rapport aux terpènes oxygénés. Cette différence tient principalement à leurs différences de propriétés physico-chimiques, qui sépare en partie leur voie métabolique. La disparition de terpènes semble avoir deux causes principales, une intervention biologique d'origine microbienne et une interaction avec la matrice. Une propriété moins toxique et plus hydrophobe semble renforcer le métabolisme (dégradation) microbien et l'intervention de la matrice sur les terpènes hydrate de carbones par rapport à ceux oxygénés. Dans le deuxième essai in vitro, l'effet de trois facteurs de variation, le type d'inoculum (riche en fibre vs. riche en amidon), le type des bactéries (Gram + vs Gram -, sélectionnées par l'apport d'antibiotique) et le potentiel redox ont été étudiés sur le métabolisme des terpènes en milieu fermentaire. Les résultats obtenus ont montré que l'inoculum riche en fibre, théoriquement favorisant les bactéries cellulolytiques accroît la dégradation apparente de terpènes. L'absence d'un effet de l'ajout de l'antibiotique éliminant des bactéries Gram + a montré que ce sont les bactéries Gram - qui contribuent au métabolisme des terpènes. Enfin, l'augmentation du potentiel redox a augmenté la disparition de certains des terpènes testés, notamment dans l'inoculum riche en amidon. Les résultats obtenus dans les études in vitro concernant le métabolisme des terpènes, ont été confirmé par ceux observés in vivo. Toutefois une disparition supérieure observée in vivo a suggéré l'intervention d'autres facteurs de variation qui peuvent être attribué à l'absorption dans le rumen et une perte causée par rumination et éructation. L'impact de terpènes sur le métabolisme du rumen et la performance des chèvres laitières a été étudié par l'incorporation d'un mélange de quatre terpènes (mentionnées ci-dessus) à deux doses (0.05 et 0.5 ml/kg MSI). L'ingestion de terpènes n'a provoqué aucun effet sur le métabolisme ruminal des fibres, et des protéines. Les performances de production des chèvres n'ont pas été affectées par les terpènes; cependant une modification du taux protéique (chute du Taux protéique à dose faible) observée, peut être considérée comme un effet secondaire (effet de dilution) lié à une augmentation numérique de la production du lait à cette dose
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Dispan, Jérôme. „Biodégradabilité de la matière organique dans le continuum aquatique réseau d'assainissement - station d'épuration - milieu naturel récepteur“. Phd thesis, Marne-la-vallée, ENPC, 2003. https://pastel.archives-ouvertes.fr/pastel-00000954.

Der volle Inhalt der Quelle
Annotation:
Ce travail est une contribution à la mise au point d’un outil de caractérisation de la biodégradabilité de la matière organique dissoute des eaux. La méthodologie développée vise à être applicable sur tout le continuum aquatique, formé par le réseau d’assainissement, la station d’épuration et le milieu naturel récepteur, dans le but de répondre aux besoins de gestion intégrée de la pollution domestique urbaine. La méthodologie développée résulte du couplage de deux méthodes de caractérisation de la biodégradabilité de la matière organique : la méthode respiromètrique développée par Xu et Hasselblad (1996) qui permet de quantifier la fraction de matière organique rapidement biodégradable et la méthode en batch de Tusseau et al. (2003) qui permet de quantifier les fractions réfractaire et biodégradable. L’interprétation des données expérimentales se fait via l’utilisation d’un modèle mathématique (modèle ASM3 développé par un groupe de travail de l’International Water Assosiation – IWA). Une méthode d’assimilation de données, basée sur la théorie du contrôle optimal, nous a permis de combiner de façon optimale modèle et résultats des deux méthodes afin d’aboutir à un fractionnement de la matière organique en classes de biodégradabilité. Les résultats obtenus lors de la biodégradation d’un substrat rapidement biodégradable (l’acétate), noté SS dans le modèle, ont permis de valider le bon fonctionnement du modèle ASM3 et de développer un modèle dérivé (modèle ASM3z). Par la suite, ce modèle a encore été modifié pour permettre la bonne simulation et l’interprétation des résultats expérimentaux obtenus sur des eaux usées domestiques prélevées en entrée et sortie d’une station d’épuration. Cette modification a consisté à ajouter un compartiment de matière organique dissoute (noté S2) plus lentement biodégradable que SS et ce nouveau modèle est noté ASM3z_S2. Les résultats obtenus sont satisfaisants et montrent qu’il est possible de quantifier S2 et SS, dans des eaux usées domestiques en utilisant des expériences réalisées avec une large gamme de rapports substrat/biomasse bactérienne (S0/X0). Enfin ce modèle a été appliqué, lors d’une même optimisation, sur des eaux usées brutes, des eaux traitées et des eaux de rivière. Ce travail a mis en évidence l’importance de parvenir à une excellente homogénéisation de la biomasse utilisée lors des tests respirométriques.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Younus, Muhammad Usman. „Contribution to energy optimization in WSN : routing based on RL and SDN oriented routing“. Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30052.

Der volle Inhalt der Quelle
Annotation:
Les réseaux de capteurs sans fil (WSN) ont atteint une grande importance, car ces réseaux permettent des observations réelles en raison de leur déploiement technique dans de nombreuses applications mondiales et de la faible consommation énergétique des appareils informatiques. Ces réseaux se composent de plusieurs micro-capteurs de faible puissance et à moindre coût. La communication multi-sauts à faible débit est faite par une petite partie des nœuds, mais avec une bande passante limitée. Par conséquent, les appareils individuels transmettent leurs données à un dispositif central (par exemple, un nœud-puits) en détectant le milieu environnant à travers les multi-sauts. Les applications de WSN comprennent principalement la surveillance des soins de santé, la surveillance de l’environnement, la surveillance industrielle, le suivi des cibles et de nombreux autres domaines commerciaux. Ces types d’applications WSN sont des nœuds de faible puissance qui restent actifs après leur déploiement initial à long terme sans aucunes commandes externes. Un nœud déchargera sa batterie en quelques jours lorsqu’aucune approche écoénergétique n’est utilisée pour la communication. Cela a conduit les chercheurs à élaborer des protocoles de routage qui devraient être en mesure de minimiser la consommation d’énergie. La consommation d’énergie des WSN peut être réduite en gérant les ressources de réseau. À cette fin, certaines architectures réseaux (c.-à-d. le réseau à définition logicielle (SDN)) et les techniques d’apprentissage (c.-à-d. l’apprentissage par renforcement (RL)) peuvent être utilisées pour la gestion du réseau (routage) permettant de réduire la consommation d’énergie des nœuds. L’une des solutions proposées est la technique RL pour surmonter le problème de routage. RL est une catégorie d’apprentissage automatique (ML) qui fournit un cadre pour apprendre le système à partir de ses interactions antérieures avec l’environnement afin de sélectionner l’action future efficacement. Dans RL, l’apprenant est considéré comme un agent qui interagit avec son environnement pour sélectionner la prochaine action qui serait appliquée à l’environnement. De plus, il reçoit un retour, en termes de récompense, qui peut être positif ou négatif, selon l’action effectuée. Par exemple, pour prendre la décision de routage, le routeur interagit avec les nœuds voisins pour sélectionner le prochain expéditeur pour la transmission du paquet de données jusqu’à la destination (c.-à-d. la station de base (BS) ou le nœud-puits). Dans ce cas, le routeur est un agent, les nœuds voisins se comportent comme l’environnement de cet agent, et l’action est de choisir les prochains nœuds voisins pour envoyer les paquets de données. RL peut être un bon choix pour trouver une route où la consommation d’énergie réseau est réduite afin d’améliorer la durée de vie. Une autre solution proposée est le concept de SDN pour dépasser le problème de routage. Il peut être défini comme une architecture émergente des réseaux pour extraire la partie contrôle du réseau qui est précisément programmable. Ce nouveau paradigme est considérablement prometteur pour gérer l’évolution et la gestion de réseau. L’idée de base derrière ce concept est la même que les ressources informatiques et le stockage. Dans cette thèse, nous proposons des mécanismes écoénergétiques dans les WSN à des fins de routage pour prolonger la durée de vie du réseau
Wireless Sensor Networks (WSNs) have achieved great significance as these networks allow real-world observations because of their technical deployment into many global applications and low-power usage of computing devices. These networks consist of several on-chip sensors that are low-power and low-cost. The multi-hop communication at low data rates is made by a small range of communication of sensor nodes, but with limited bandwidth. Therefore, individual devices transmit their data to a central device (e.g., sink) by detecting the surrounding environment through the multiple-hops. WSNs applications mainly include healthcare monitoring, environmental monitoring, industrial monitoring, target tracking, and many other commercial areas. Such types of WSNs applications are low-powered nodes that remain active after their initial deployment for long-term without any external control. A node will discharge its battery in a couple of days when no energy-efficient approach is used for communication. It leads the researchers to develop routing protocols that should be able to minimize energy consumption. WSNs energy consumption can be reduced by managing network resources. For this purpose, some networking architectures (i.e., Software Defined Networking (SDN)) and learning techniques (i.e., Reinforcement Learning (RL)) can be used for network management (routing) that lead to reduce the energy consumption of sensor nodes. One of the solutions being proposed is the RL technique to overcome the routing problem. RL is a class of machine learning (ML) which provides a framework to learn the system from its previous interactions with environment to select future action efficiently. In RL, the learner is known as an agent that interacts with its environment to select the next action that would be applied to the environment. Also, it gets the feedback in terms of reward that can be positive or negative according to performed action. For example, to make the routing decision, the router interacts with neighboring nodes to select the next forwarder for the data packet transmission up to the destination (i.e., Base Station (BS) or sink node). In such case the router is an agent, the neighboring nodes behave as an environment for that agent, and actions select the next neighboring nodes to send the data packets. RL can be a good choice to optimize a routing path where network energy consumption is reduced to enhance the lifetime. Another proposed solution is the concept of SDN to overcome the routing problem. It can be defined as an emergent architecture of networks to carry out the decoupling of network control that is precisely programmable. This novel paradigm is dramatically promising to enable evolution and network management. The basic idea behind this concept is the same as computing resources and storage. In this thesis, we propose energy-efficient mechanisms in WSNs for the routing purposes to extend the network’s lifetime. The proposed work is performed by using two different techniques, namely as RL and SDN. The first part of this thesis provides a comprehensive detail of existing energy-efficient mechanisms; while, the second part contains the proposed techniques
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Belabed, Dallal. „Design and Evaluation of Cloud Network Optimization Algorithms“. Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066149/document.

Der volle Inhalt der Quelle
Annotation:
Le but de cette thèse est de tenté de donner une meilleure compréhension des nouveaux paradigmes de l'informatique en Nuage. En ce qui concerne l'Ingénierie du Trafic, l'économie d'énergie, de l'équité dans le partage du débit.Dans la première partie de note thèse, nous étudions l'impact de ces nouvelles techniques dans les réseaux de Data Center, nous avons formulé notre problème en un modèle d'optimisation, et nous le résolvons en utilisons un algorithme glouton. Nous avons étudié l'impact des ponts virtuels et du multi chemin sur différentes architectures de Data Centers. Nous avons en particulier étudié l’impact de la virtualisation des switches et l’utilisation du multi-chemin sur les différents objectifs d'optimisation tels que l'Ingénierie du Trafic, l'économie d'énergie.Dans notre seconde partie, nous avons essayé d’avoir une meilleure compréhension de l'impact des nouvelles architectures sur le contrôle de congestion, et vice versa. En effet, l'une des préoccupations majeures du contrôle de congestion est l'équité en terme de débit, l'impact apporté par le multi-chemin, les nouvelles architectures Data Center et les nouveaux protocoles, sur le débit des points terminaux et des points d'agrégations reste vague.Enfin, dans la troisième partie nous avons fait un travail préliminaire sur le nouveau paradigme introduit par la possibilité de virtualisé les Fonctions Réseaux. Dans cette partie, nous avons formulé le problème en un modèle linéaire, dans le but est de trouver le meilleur itinéraire à travers le réseau où les demandes des clients doivent passer par un certain nombre de NFV
This dissertation tries to give a deep understanding of the impact of the new Cloud paradigms regarding to the Traffic Engineering goal, to the Energy Efficiency goal, to the fairness in the endpoints offered throughput, and of the new opportunities given by virtualized network functions.In the first part of our dissertation we investigate the impact of these novel features in Data Center Network optimization, providing a formal comprehensive mathematical formulation on virtual machine placement and a metaheuristic for its resolution. We show in particular how virtual bridging and multipath forwarding impact common DCN optimization goals, Traffic Engineering and Energy Efficiency, assess their utility in the various cases in four different DCN topologies.In the second part of the dissertation our interest move into better understand the impact of novel attened and modular DCN architectures on congestion control protocols, and vice-versa. In fact, one of the major concerns in congestion control being the fairness in the offered throughput, the impact of the additional path diversity, brought by the novel DCN architectures and protocols, on the throughput of individual endpoints and aggregation points is unclear.Finally, in the third part we did a preliminary work on the new Network Function Virtualization paradigm. In this part we provide a linear programming formulation of the problem based on virtual network function chain routing problem in a carrier network. The goal of our formulation is to find the best route in a carrier network where customer demands have to pass through a number of NFV node, taking into consideration the unique constraints set by NFV
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Newham, Nikki. „Power System Investment Planning using Stochastic Dual Dynamic Programming“. Thesis, University of Canterbury. Electrical and Computer Engineering, 2008. http://hdl.handle.net/10092/1975.

Der volle Inhalt der Quelle
Annotation:
Generation and transmission investment planning in deregulated markets faces new challenges particularly as deregulation has introduced more uncertainty to the planning problem. Tradi- tional planning techniques and processes cannot be applied to the deregulated planning problem as generation investments are profit driven and competitive. Transmission investments must facilitate generation access rather than servicing generation choices. The new investment plan- ning environment requires the development of new planning techniques and processes that can remain flexible as uncertainty within the system is revealed. The optimisation technique of Stochastic Dual Dynamic Programming (SDDP) has been success- fully used to optimise continuous stochastic dynamic planning problems such as hydrothermal scheduling. SDDP is extended in this thesis to optimise the stochastic, dynamic, mixed integer power system investment planning problem. The extensions to SDDP allow for optimisation of large integer variables that represent generation and transmission investment options while still utilising the computational benefits of SDDP. The thesis also details the development of a math- ematical representation of a general power system investment planning problem and applies it to a case study involving investment in New Zealand’s HVDC link. The HVDC link optimisation problem is successfully solved using the extended SDDP algorithm and the output data of the optimisation can be used to better understand risk associated with capital investment in power systems. The extended SDDP algorithm offers a new planning and optimisation technique for deregulated power systems that provides a flexible optimal solution and informs the planner about investment risk associated with uncertainty in the power system.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Salhab, Nazih. „Resource provisioning and dynamic optimization of Network Slices in an SDN/NFV environment“. Thesis, Paris Est, 2020. http://www.theses.fr/2020PESC2019.

Der volle Inhalt der Quelle
Annotation:
Pour offrir le haut débit mobile amélioré, les communications massives et critiques pour l'Internet des objets, la cinquième génération (5G) des réseaux mobiles est déployée à nos jours, en se basant sur plusieurs catalyseurs: le réseau d'accès radio nuagique (C-RAN), les réseaux programmables (SDN), et la virtualisation des fonctions réseaux (NFV). Le C-RAN décompose la nouvelle génération Node-B (gNB) en: i) tête radio distante (RRH), ii) unité digitale (DU), et iii) unité centrale (CU), appelée aussi unité cloud ou collaborative. Les DU et CU implémentent la base bande (BBU) tout en utilisant les huit options du split du front-haul pour une performance affinée. La RRH implémente la circuiterie extérieure pour la radio. Le SDN permet la programmation du comportement du réseau en découplant le plan de contrôle du plan utilisateur tout en centralisant la gestion des flux en un nœud de contrôle dédié. La NFV, d'autre part, utilise les technologies de virtualisation pour lancer les fonctions réseaux virtualisées (FRV) sur des serveurs conventionnels du marché. SDN et NFV permettent la partition du C-RAN, réseaux de transport et cœur en tant que tranches définies comme des réseaux virtuels et isolés de bout en bout conçus pour couvrir des exigences spécifiques aux différentes cas d’utilisations. L'objectif principal de cette thèse est de développer des algorithmes de provisionnement des ressources (unité de traitement centrale (CPU), mémoire, énergie, et spectre) pour la 5G, tout en garantissant un emplacement optimal des FRV dans une infrastructure nuagique. Pour achever ce but ultime, on adresse l'optimisation des ressources et d'infrastructure dans les trois domaines des réseaux mobiles: le cœur de réseau 5G (5GC), le C-RAN et les contrôleurs SDN. En tant qu’une première contribution, nous formulons la décharge du 5GC en tant qu'une optimisation sous contraintes ciblant plusieurs objectifs (coût de virtualisation, puissance de traitement, et charge du réseau) pour faire les décisions optimales et avec la plus faible latence. On optimise l'utilisation de l'infrastructure réseau en termes de capacité de traitement, consommation d'énergie et de débit, tout en respectant les exigences par tranche (latence, fiabilité, et capacité, etc.). Sachant que l'infrastructure est assujettie à des évènements fréquents tels que l'arrivée et le départ des utilisateurs/dispositifs, les changements continuels du réseau (reconfigurations, et défauts inévitables), nous proposons l'optimisation dynamique moyennant la technique de Branch, Cut and Price (BCP), en discutant les effets de ces objectifs sur plusieurs métriques. Notre 2ème contribution consiste à optimiser le C-RAN par un regroupement dynamique des RRH aux BBU (DU, CU). D’une part, nous proposons ce regroupement pour optimiser le débit en down-link. D’autre part, nous proposons la prédiction du power Head-room (PHR), sur le lien hertzien pour optimiser le débit en up-link. Dans notre troisième contribution, nous adressons l'orchestration des tranches réseaux 5G à travers le contrôleur C-RAN défini par logiciel en utilisant des approches de ML pour: la classification des exigences de performance, la prédiction des ratios de tranchage, le contrôle d'admission, le séquencement, et la gestion adaptative des ressources. En se basant sur des évaluations exhaustives moyennant notre prototype 5G basé sur OpenAirInterface, et en utilisant une pile de performance intégrée, nous montrons que nos propositions dépassent les stratégies connexes en termes de rapidité d'optimisation, des coûts de virtualisation et de débit
To address the enhanced mobile broadband, massive and critical communications for the Internet of things, Fifth Generation (5G) of mobile communications is being deployed, nowadays, relying on multiple enablers, namely: Cloud Radio Access Network (C-RAN), Software-Defined Networking (SDN) and Network Function Virtualization (NFV).C-RAN decomposes the new generation Node-B into: i) Remote Radio Head (RRH), ii) Digital Unit (DU), and iii) Central Unit (CU), also known as Cloud or Collaborative Unit.DUs and CUs are the two blocks that implement the former 4G Baseband Unit (BBU) while leveraging eight options of functional splits of the front-haul for a fine-tuned performance. The RRH implements the radio frequency outdoor circuitry. SDN allows programming network's behavior by decoupling the control plane from the user plane and centralizing the flow management in a dedicated controller node. NFV, on the other hand, uses virtualization technology to run Virtualized Network Functions (VNFs) on commodity servers. SDN and NFV allow the partitioning of the C-RAN, transport and core networks as network slices defined as isolated and virtual end-to-end networks tailored to fulfill diverse requirements requested by a particular application. The main objective of this thesis is to develop resource-provisioning algorithms (Central Processing Unit (CPU), memory, energy, and spectrum) for 5G networks while guaranteeing optimal provisioning of VNFs for a cloud-based infrastructure. To achieve this ultimate goal, we address the optimization of both resources and infrastructure within three network domains: 5G Core Network (5GC), C-RAN and the SDN controllers. We, first formulate the 5GC offloading problem as a constrained-optimization to meet multiple objectives (virtualization cost, processing power and network load) by making optimal decisions with minimum latency. We optimize the usage of the network infrastructure in terms of computing capabilities, power consumption, and bitrate, while meeting the needs per slice (latency, reliability, efficiency, etc.). Knowing that the infrastructure is subject to frequent and massive events such as the arrival/departure of users/devices, continuous network evolution (reconfigurations, and inevitable failures), we propose a dynamic optimization using Branch, Cut and Price, while discussing objectives effects on multiple metrics.Our second contribution consists of optimizing the C-RAN by proposing a dynamic mapping of RRHs to BBUs (DUs and CUs). On first hand, we propose clustering the RRHs in an aim to optimize the downlink throughput. On second hand, we propose the prediction of the Power Headroom (PHR), to optimize the throughput on the uplink.We formulate our RRHs clustering problem as k-dimensional multiple Knapsacks and the prediction of PHR using different Machine Learning (ML) approaches to minimize the interference and maximize the throughput.Finally, we address the orchestration of 5G network slices through the software defined C-RAN controller using ML-based approaches, for all of: classification of performance requirements, forecasting of slicing ratios, admission controlling, scheduling and adaptive resource management.Based on extensive evaluations conducted in our 5G experimental prototype based on OpenAirInterface, and using an integrated performance management stack, we show that our proposals outperform the prominent related strategies in terms of optimization speed, computing cost, and achieved throughput
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Mazure-Bonnefoy, Alice. „Modèle cinématique et dynamique tridimensionnel du membre inférieur : Estimation des forces musculaires et des réactions articulaires au cours de la phase d'appui de la marche“. Phd thesis, Université Claude Bernard - Lyon I, 2006. http://tel.archives-ouvertes.fr/tel-00567644.

Der volle Inhalt der Quelle
Annotation:
L'objectif de ce travail a été d'acquérir une meilleure connaissance de la motricité humaine tant au niveau clinique que fondamentale à travers deux études bien précises. La première portait sur une étude clinique à savoir, l'influence d'injection ciblée de toxine botulique au niveau du couple musculaire rectus fémoris – semitendinosus sur la vélocité mise en jeu au cours de la marche globale d'enfants infirmes moteurs cérébraux (IMC). La deuxième portait quant à elle sur une question plus fondamentale, à savoir, la modélisation biomécanique avancée du système musculo-squelettique au cours de la phase d'appui de la marche. En ce qui concerne l'étude clinique, le but a donc été à la fois biomécanique et clinique. D'un point de vue expérimental, plusieurs étapes ont été nécessaires avant la mise en place du protocole final utilisé à l'heure actuelle. De plus, un long travail d'analyse a été réalisé avec le clinicien responsable de ce projet, le docteur Dohin, afin d'établir et de sélectionner les critères cinématiques et cinétiques qui nous ont semblés pertinents. Ainsi, cette étude a été l'occasion de valider les critères discriminatifs d'évaluation en analyse quantifiée de la marche (AQM) pour des résultats visant à améliorer ou à restaurer la marche chez les enfants infirmes moteurs cérébraux. Au niveau fondamental, le but de notre étude a été la mise en place d'un protocole expérimental et des méthodes de calculs permettant d'évaluer quantitativement le fonctionnement du système ostéo-articulaire et musculaire non pathologique. Pour cela, une modélisation avancée a été développée afin d'appréhender le rôle des différentes structures : géométrie articulaires, ligaments, muscles, dans le fonctionnement des articulations humaines à travers des mouvements tel que la marche. D'un point de vue expérimental, l'acquisition de via points directement sur le sujet, permettant ainsi la personnalisation des bras de levier selon la morphologie de notre sujet, a été une étape importante et originale de notre travail. Afin de vérifier la pertinence de nos bras de levier « personnalisés », nous avons dans un premier temps, utilisé une technique d'optimisation statique « classique » visant à minimiser le critère : sommes des contraintes musculaires au carré. Les résultats obtenus sont tout à fait cohérents avec ceux présentés dans la littérature et avec le mouvement étudié. D'un point de vue modélisation, nous avons décidé d'affiner la représentation numérique du comportement du muscle pour rendre le modèle plus proche de la réalité. Ainsi, le comportement mécanique du complexe musculo-tendineux c'est-à-dire les relations forces longueurs, forces vitesses d'élongations et forces activations ont été prises en compte grâce au modèle rhéologique de Hill. Pour cela une étude bibliographique poussée a été nécessaire afin de cerner les nombreuses contraintes liées aux comportements mécaniques du complexe musculo-tendineux. Suite à cette étude bibliographique, nous avons sélectionné la modélisation mathématique la mieux adaptée à nos besoins. Les équations mathématiques mises en place dans notre travail contiennent donc de nombreux paramètres physiques tel que : la force isométrique maximale, la section physiologique, la longueur optimale de la fibre musculaire, l'angle de pennation, la longueur du tendon à partir de laquelle une force est développé... Une fois les forces musculaires calculées à partir du modèle rhéologiques de type Hill, ces dernières ont été implémentées dans la fonction d'optimisation classique. Plusieurs critères ont été alors testés. Le but étant d'essayer de comprendre l'influence du critère sur nos résultats et lequel serait à utiliser afin de prédire au mieux les forces musculaires mises en jeu au de la phase d'appui de la marche. Puis pour finaliser notre étude, les réactions articulaires au niveau de la cheville et du genou ont été calculées à partir des différentes configurations. Dans un premier temps, à partir des forces musculaires prédites par l'optimisation statique classique puis à partir de l'optimisation statique avec le critère modifié. Ceci nous a permis de voir au niveau de la réaction articulaire l'influence de la prise en compte des paramètres physiologiques des muscles. Cette donnée est très importante dans le domaine de la rééducation fonctionnelle et pour les concepteurs de prothèse.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Bedjou, Ramdane. „Interactions morpho-fonctionnelles des protéines de liaison des stéroïdes (PLS : ABP et SBP) avec les cellules spermatogénétiques : étude chez l'homme et chez le rat“. Nancy 1, 1995. http://www.theses.fr/1995NAN10326.

Der volle Inhalt der Quelle
Annotation:
Cette étude comprend plusieurs parties: la première section concerne le suivi de l'internalisation des PLS dans les cellules germinales humaines par la méthode d'autohistoradiographie en MET et la mise en évidence d'un récepteur membranaire par la méthode de Scatchard. Ces PLS sont considérées comme des transporteurs de stéroïdes au niveau de la lignée germinale humaine grâce à leur internalisation par l'intermédiaire des vésicules recouvertes de clathrines selon un mécanisme déjà décrit pour la transferrine. La deuxième partie traite l'optimisation des milieux de culture pour une survie plus longue que possible de la lignée germinale suivie par le test de viabilité et le comptage du nombre cellulaire ainsi que le suivi de la métabolisation du glucose et du lactate et une étude en CMF. À noter que les milieux sont composes de milieu de base (A), les milieux (B), (C) et (D). La troisième partie est une étude de la prolifération de la lignée germinale de rat par l'incorporation de thymidine tritiée, sous l'effet des PLS (SBPh et ABPr) et d'autres substances connues par leur effet stimulateur de prolifération cellulaire
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Ibn, Khedher Hatem. „Optimization and virtualization techniques adapted to networking“. Electronic Thesis or Diss., Evry, Institut national des télécommunications, 2018. http://www.theses.fr/2018TELE0007.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, on présente nos travaux sur la virtualisation dans le contexte de la réplication des serveurs de contenu vidéo. Les travaux couvrent la conception d’une architecture de virtualisation pour laquelle on présente aussi plusieurs algorithmes qui peuvent réduire les couts globaux à long terme et améliorer la performance du système. Le travail est divisé en plusieurs parties : les solutions optimales, les solutions heuristiques pour des raisons de passage à l’échelle, l’orchestration des services, l’optimisation multi-objective, la planification de services dans des réseaux actifs et complexes et l'intégration d'algorithmes dans une plate-forme réelle
In this thesis, we designed and implemented a tool which performs optimizations that reduce the number of migrations necessary for a delivery task. We present our work on virtualization in the context of replication of video content servers. The work covers the design of a virtualization architecture for which there are also several algorithms that can reduce overall costs and improve system performance. The thesis is divided into several parts: optimal solutions, greedy (heuristic) solutions for reasons of scalability, orchestration of services, multi-objective optimization, service planning in complex active networks, and integration of algorithms in real platform. This thesis is supported by models, implementations and simulations which provide results that showcase our work, quantify the importance of evaluating optimization techniques and analyze the trade-off between reducing operator cost and enhancing end user satisfaction index
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Abida, Rachid. „Construction optimale de réseaux fixes et mobiles pour la surveillance opérationnelle des rejets accidentels atmosphériques“. Phd thesis, Ecole des Ponts ParisTech, 2010. http://pastel.archives-ouvertes.fr/pastel-00638050.

Der volle Inhalt der Quelle
Annotation:
Mon travail de thèse se situe dans le contexte général de l'optimisation de réseaux de mesure de pollution atmosphérique, mais plus spécifiquement centré sur la surveillance des rejets accidentels de radionucléides dans l'air. Le problème d'optimisation de réseaux de mesure de la qualité de l'air a été abordé dans la littérature. En revanche, il n'a pas été traité dans le contexte de la surveillance des rejets accidentels atmosphériques. Au cours de cette thèse nous nous sommes intéressés dans un premier temps à l'optimisation du futur réseau de télésurveillance des aérosols radioactifs dans l'air, le réseau DESCARTES. Ce réseau sera mis en œuvre par l'Institut de Radioprotection et de Sûreté Nucléaire (IRSN), afin de renforcer son dispositif de surveillance de radionucléides en France métropolitaine. Plus précisément, l'objectif assigné à ce réseau est de pouvoir mesurer des rejets atmosphériques de radionucléides, provenant de l'ensemble des installations nucléaires françaises ou étrangères. Notre principal rôle était donc de formuler des recommandations vis-à-vis aux besoins exprimés par l'IRSN, concernant la construction optimale du futur réseau. Á cette fin, l'approche que nous avons considérée pour optimiser le réseau (le futur réseau), vise à maximiser sa capacité à extrapoler les concentrations d'activité mesurées sur les stations du réseau sur tout le domaine d'intérêt. Cette capacité est évaluée quantitativement à travers une fonction de coût, qui mesure les écarts entre les champs de concentrations extrapolés et ceux de références. Ces derniers représentent des scénarios de dispersion accidentels provenant des 20 centrales nucléaires françaises et, calculés sur une année de météorologie. Nos résultats soulignent notamment l'importance du choix de la fonction coût dans la conception optimale du futur réseau de surveillance. Autrement dit, la configuration spatiale du réseau optimal s'avère extrêmement sensible à la forme de la fonction coût utilisée. La deuxième partie de mon travail s'intéresse essentiellement au problème du ciblage d'observations en cas d'un rejet accidentel de radionucléides, provenant d'une centrale nucléaire. En effet, en situation d'urgence, une prévision très précise en temps réel de la dispersion du panache radioactif est vivement exigée par les décideurs afin d'entreprendre des contre-mesures plus appropriées. Cependant, la précision de la prévision du panache est très dépendante de l'estimation du terme source de l'accident. À cet égard, les techniques d'assimilation de données et de modélisation inverse peuvent être appliquées. Toutefois, le nuage radioactif peut être localement très mince et pourrait s'échapper à une partie importante du réseau local, installé autour de la centrale nucléaire. Ainsi, un déploiement de stations de mesure mobiles en suivant l'évolution du nuage pourrait contribuer à améliorer l'estimation du terme source. À cet effet, nous avons exploré la possibilité d'améliorer la qualité de la prévision numérique du panache radioactif, en couplant une stratégie de déploiement optimal de stations mobiles avec un schéma d'assimilation de données pour la reconstruction séquentielle du panache radioactif. Nos résultats montrent que le gain d'information apporté par les observations ciblées est nettement mieux que l'information apportée par les observations fixes.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Kervella, Marine. „Contribution à la modélisation et à la simulation numérique de la spectroscopie optique des tissus biologiques : application à l'imagerie moléculaire de fluorescence résolue en temps“. Phd thesis, Université d'Angers, 2008. http://tel.archives-ouvertes.fr/tel-00433858.

Der volle Inhalt der Quelle
Annotation:
Le diagnostic des tumeurs à un stade précoce est une clé indispensable à la lutte contre le cancer. Les techniques de détection se sont donc développées, notamment dans le domaine de l'optique biomédicale. Ce travail de thèse s'inscrit dans ce domaine d'étude. Nous proposons dans ce manuscrit une description et une comparaison des modèles statistique et déterministe mis en oeuvre pour simuler la propagation de la lumière dans les tissus biologiques par les méthodes de Monte Carlo, Monte Carlo hybride et les éléments finis avec intégration du processus de fluorescence exogène. La performance de la méthode des éléments finis a permis d'étudier la sensibilité des signaux de fluorescence résolus en temps en analysant l'influence de différents paramètres structurels et informels. Enfin , deux techniques de reconstruction d'images des tissus analysés sont implémentées. Pour ce faire, les méthodes d'inversion proposées ( Gauss Newton et méthode gradients conjugués ) sont non linéaires et font appel à des processus itératifs cherchant à optimiser les résultats obtenus par les simulations résolues par la méthode des éléments finis. Une adaptation stratégique et automatique du maillage est réalisée et intégrée dans le modèle d'inversion non linéaire. Une confrontation des deux méthodes est effectuée pour différents cas d'étude. Nous considérons tout d'abord un domain dans lequel est inséré une unique source fluorescente. Puis, le milieu biologique est simulé avec deux objets fluorescents. Nous étudions l'influence sur les images reconstruites de la distance entre les deux tumeurs ainsi que l'effet de la présence de fluorescence résiduelle au sein des tissus biologiques environnants.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Blanc, Guylaine. „Selection assistee par marqueurs (sam) dans un dispositif multiparental connecte - application au maÏs et approche par simulations“. Phd thesis, INAPG (AgroParisTech), 2006. http://pastel.archives-ouvertes.fr/pastel-00003478.

Der volle Inhalt der Quelle
Annotation:
L'avènement des marqueurs moléculaires dans les années 80 a ouvert de nouvelles perspectives pour l'identification de locus impliqués dans la variation de caractères quantitatifs (QTL). De nombreuses études, notamment théoriques, ont montré que l'utilisation en sélection des marqueurs associés aux QTL (la Sélection Assistée par Marqueurs, SAM) pourrait permettre un gain d'efficacité par rapport à la sélection conventionnelle. En génétique végétale, la plupart des expériences de détection de QTL sont réalisées dans des populations issues du croisement entre deux lignées pures. Ainsi, beaucoup de moyens se retrouvent concentrés sur une base génétique étroite. Pourtant la probabilité de détecter des QTL est plus importante dans des populations avec une base génétique large, impliquant plus de deux parents car la diversité génétique est plus importante. Dans un contexte multiparental, le cas des populations multiparentales connectées, c'est-à-dire issues de croisements ayant un des parents en commun, présente un intérêt majeur puisque les connexions entre populations permettent pour un effectif global donné d'augmenter la puissance de détection des QTL, de comparer pour chaque QTL l'intérêt relatif de plusieurs allèles, et d'étudier leurs éventuelles interactions avec le fonds génétique. En termes de SAM, on peut penser que les marqueurs seront particulièrement intéressants dans un tel contexte pour diriger les croisements entre individus, afin de contrôler les recombinaisons entre les différents génomes parentaux et d'aider à la sélection d'individus qui cumulent les allèles favorables provenant des différents parents de départ. Aussi l'objectif de ce programme est-il de valider l'intérêt d'un schéma de SAM dans un dispositif multiparental connecté. Un croisement diallèle entre quatre lignées de maïs a permis de générer 6 populations de 150 plantes F2 chacune. La détection de QTL sur ce dispositif de 900 individus a été réalisée pour différents caractères grâce à MCQTL qui permet de prendre en compte les connexions entre populations. La comparaison des QTL détectés population par population et ceux détectés sur le dispositif complet en prenant en compte les connexions ou non, montre que l'analyse globale du dispositif en prenant en compte les connexions entre populations permet un gain de puissance substantiel et conduit à une meilleure précision de la localisation des QTL. A partir de ces résultats nous avons mis en place trois cycles de sélection sur marqueurs dans deux schémas présentant des objectifs distincts : i. obtenir un matériel plus précoce, pour le premier ii. augmenter le rendement tout en conservant une humidité des grains constante à la récolte pour le second. Pour pouvoir suivre la transmission des allèles parentaux aux QTL au cours des générations, un programme de calcul de probabilités d'identité par descendance adapté au dispositif à été développé. L'évaluation expérimentale du progrès génétique nous a permis de mettre en évidence, après 3 cycles de sélection, un gain significatif de précocité de 3 jours pour le schéma floraison et un gain significatif de 3.2 quintaux de rendement pour le schéma rendement. Parallèlement, nous avons comparé par simulation différents schémas de sélection, en nous basant sur le dispositif expérimental mis en place (nombre et effet des QTL, h²
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Belabed, Dallal. „Design and Evaluation of Cloud Network Optimization Algorithms“. Electronic Thesis or Diss., Paris 6, 2015. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2015PA066149.pdf.

Der volle Inhalt der Quelle
Annotation:
Le but de cette thèse est de tenté de donner une meilleure compréhension des nouveaux paradigmes de l'informatique en Nuage. En ce qui concerne l'Ingénierie du Trafic, l'économie d'énergie, de l'équité dans le partage du débit.Dans la première partie de note thèse, nous étudions l'impact de ces nouvelles techniques dans les réseaux de Data Center, nous avons formulé notre problème en un modèle d'optimisation, et nous le résolvons en utilisons un algorithme glouton. Nous avons étudié l'impact des ponts virtuels et du multi chemin sur différentes architectures de Data Centers. Nous avons en particulier étudié l’impact de la virtualisation des switches et l’utilisation du multi-chemin sur les différents objectifs d'optimisation tels que l'Ingénierie du Trafic, l'économie d'énergie.Dans notre seconde partie, nous avons essayé d’avoir une meilleure compréhension de l'impact des nouvelles architectures sur le contrôle de congestion, et vice versa. En effet, l'une des préoccupations majeures du contrôle de congestion est l'équité en terme de débit, l'impact apporté par le multi-chemin, les nouvelles architectures Data Center et les nouveaux protocoles, sur le débit des points terminaux et des points d'agrégations reste vague.Enfin, dans la troisième partie nous avons fait un travail préliminaire sur le nouveau paradigme introduit par la possibilité de virtualisé les Fonctions Réseaux. Dans cette partie, nous avons formulé le problème en un modèle linéaire, dans le but est de trouver le meilleur itinéraire à travers le réseau où les demandes des clients doivent passer par un certain nombre de NFV
This dissertation tries to give a deep understanding of the impact of the new Cloud paradigms regarding to the Traffic Engineering goal, to the Energy Efficiency goal, to the fairness in the endpoints offered throughput, and of the new opportunities given by virtualized network functions.In the first part of our dissertation we investigate the impact of these novel features in Data Center Network optimization, providing a formal comprehensive mathematical formulation on virtual machine placement and a metaheuristic for its resolution. We show in particular how virtual bridging and multipath forwarding impact common DCN optimization goals, Traffic Engineering and Energy Efficiency, assess their utility in the various cases in four different DCN topologies.In the second part of the dissertation our interest move into better understand the impact of novel attened and modular DCN architectures on congestion control protocols, and vice-versa. In fact, one of the major concerns in congestion control being the fairness in the offered throughput, the impact of the additional path diversity, brought by the novel DCN architectures and protocols, on the throughput of individual endpoints and aggregation points is unclear.Finally, in the third part we did a preliminary work on the new Network Function Virtualization paradigm. In this part we provide a linear programming formulation of the problem based on virtual network function chain routing problem in a carrier network. The goal of our formulation is to find the best route in a carrier network where customer demands have to pass through a number of NFV node, taking into consideration the unique constraints set by NFV
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Olmos-Perez, Alejandra. „Contribution à l'optimisation de la conduite des procédés alimentaires“. Phd thesis, ENSIA (AgroParisTech), 2003. http://pastel.archives-ouvertes.fr/pastel-00003702.

Der volle Inhalt der Quelle
Annotation:
L'objectif principal de cette thèse est la mise au point d'une méthodologie de travail pour l'optimisation, hors ligne, des conditions opératoires applicables en conduite des procédés alimentaires. La première partie du travail est consacrée à l'élaboration d'une stratégie d'optimisation en deux étapes : la construction du problème d'optimisation et le choix de la méthode de résolution. Ce dernier point est réalisé à l'aide d'un diagramme décisionnel, qui propose une méthode d'optimisation déterministe (la programmation quadratique séquentielle, SQP), une méthode stochastique (l'algorithme génétique, AG) ou bien, une méthode hybride (AG-SQP). La méthodologie est adaptée aux caractéristiques des procédés alimentaires, c'est-à-dire à des systèmes dynamiques, non linéaires, multivariables et soumis aux contraintes diverses. L'optimisation est réalisée numériquement à l'aide d'un modèle dynamique du système. Dans la deuxième partie du travail, la méthodologie est appliquée à trois procédés alimentaires afin d'obtenir les trajectoires des variables de commande optimisant un critère économique, technologique ou de qualité : un procédé discontinu de séchage du riz, un procédé discontinu de déshydratation, imprégnation d'un produit carné par immersion et un procédé continu de cuisson des biscuits. Ces trois applications mettent en évidence, d'une part, la capacité de la stratégie d'optimisation à gérer différents types de problèmes posés par les procédés alimentaires, et d'autre part, le bénéfice qu'une démarche d'optimisation peut apporter lors de la conduite des procédés. Cette méthodologie peut être appliquée dans un grand nombre des procédés alimentaires. La performance des résultats dépend néanmoins de l'utilisation d'un modèle de système fiable, de la prise en compte des caractéristiques de la matière première lors du calcul de l'optimum et de la poursuite des conditions optimales à l'aide d'un bon système de commande.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Nguyen, Xuan-Nam. „Une approche « boite noire » pour résoudre le problème de placement des règles dans un réseau OpenFlow“. Thesis, Nice, 2016. http://www.theses.fr/2016NICE4012/document.

Der volle Inhalt der Quelle
Annotation:
Le grand nombre d’appareils connectés combiné au volume croissant de trafic ont poussé les réseaux dans leurs derniers retranchements. Pour résoudre ce problème, l’approche “Software-Defined Networking” (SDN) qui découple le plan de contrôle du plan de données a été proposée. OpenFlow est un nouveau protocole qui réalise le concept SDN. Pour traiter ces flux, OpenFlow utilise des listes de règles sur les commutateurs. Ces règles sont utilisées pour déterminer les actions dans le réseau. Ceci permet de simplifier la mise en place de services réseaux complexes mais soulève la question de savoir quelles règles définir et où les placer dans le réseau afin d’en respecter ses contraintes. Dans cette thèse, nous nous concentrons sur le problème de placement de règles dans OpenFlow (ORPP) et proposons une abstraction de type boite noire afin de masquer la gestion du réseau. Tout d'abord, nous formalisons le problème de placement de règles et faisons une étude des solutions existantes. Les solutions existantes sont cependant inefficaces car elles reposent majoritairement sur le concept du plus court chemin. Nous proposons de relaxer le problème en autorisant l’utilisation de chemins arbitraires et proposons deux algorithmes complémentaires : OFFICER et aOFFICER. L'idée générale d’OFFICER et aOFFICER est d’utiliser les chemins les plus efficaces pour le trafic de haute importance et autoriser le trafic de plus basse importance à suivre des détours. Ces deux propositions sont évaluées en utilisant des traces de trafic. Finalement, nous appliquons le principe de la boite noire pour améliorer les performances d'un service de diffusion de contenus dans les réseaux cellulaires
The massive number of connected devices combined with an increasing traffic push network operators to their limit by limiting their profitability. To tackle this problem, Software-Defined Networking (SDN), which decouples network control logic from forwarding devices, has been proposed. An important part of the SDN concepts is implemented by the OpenFlow protocol that abstracts network communications as flows and processes them using a prioritized list of rules on the network forwarding elements. While the abstraction offered by OpenFlow allows to implement many applications, it raises the new problem of how to define the rules and where to place them in the network while respecting all requirements, which we refer as the OpenFlow Rules Placement Problem (ORPP). In this thesis, we focus on the ORPP and hide the complexity of network management by proposing a black box abstraction. First, we formalize that problem, classify and discuss existing solutions. We discover that most of the solutions enforce the routing policy when placing rules, which is not memory efficient in some cases. Second, by trading routing for better resource efficiency, we propose OFFICER and aOFFICER, two frameworks that select OpenFlow rules satisfying policies and network constraints, while minimizing overheads. The main idea of OFFICER an aOFFICER is to give high priority for large flows to be installed on efficient paths, and let other flows follow default paths. These proposals are evaluated and compared to existing solutions in realistic scenarios. Finally, we study a use case of the black box abstraction, in which we improve the performance of content delivery services in cellular networks
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

Ballesta, Annabelle. „Approche combinée expérimentale et mathématique pour la personnalisation sur base moléculaire des thérapies anticancéreuses standards et chronomodulées“. Phd thesis, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00628629.

Der volle Inhalt der Quelle
Annotation:
Personnaliser les traitements anticancéreux sur base moléculaire consiste à optimiser la thérapie en fonction des profils d'expression de gènes des cellules saines et tumorales du patient. Les différences au niveau moléculaire entre tissus normaux et cancéreux sont exploitées afin de maximiser l'efficacité du traitement et minimiser sa toxicité. Cette thèse propose une approche pluridisciplinaire expérimentale et mathématique ayant pur but la détermination de stratégies anticancéreuses optimales sur base moléculaire. Cette approche est, tout d'abord, mise en œuvre pour la personnalisation de la chronothérapeutique des cancers, puis pour l'optimisation de la thérapie anticancéreuse dans le cas d'une mutation de l'oncogène SRC. La plupart des fonctions physiologiques chez les mammifères présentent une rythmicité circadienne, c'est-à-dire de période environ égale à 24 h. C'est par exemple le cas de l'alternance activité-repos, de la température corporelle, et de la concentration intracellulaire d'enzymes du métabolisme. Ces rythmes ont pour conséquence une variation de la toxicité et de l'efficacité d'un grand nombre de médicaments anticancéreux selon leur heure circadienne d'administration. De récentes études soulignent la nécessité d'adapter les schémas d'injection chronomodulés au profil moléculaire du patient. La première partie de cette thèse propose une approche combinée expérimentale et modélisatrice pour personnaliser sur base moléculaire la chronothérapie. La première étape a consisté en une preuve de concept impliquant des expérimentations in vitro sur cultures de cellules humaines et des travaux de modélisation in silico. Nous nous sommes focalisés sur l'étude de l'irinotecan (CPT11), un médicament anticancéreux actuellement utilisé en clinique dans le traitement des cancers colorectaux, et présentant des rythmes de chronotoxicité et de chronoefficacité chez la souris et chez l'homme. Sa pharmacocinétique (PK) et pharmacodynamie (PD) moléculaires ont été étudiées dans la lignée de cellules d'adénocarcinome colorectal humain Caco-2. Un modèle mathématique de la PK-PD moléculaire du CPT11, à base d'équations différentielles ordinaires, a été conçu. Il a guidé l'expérimentation qui a été réalisée dans le but de d'évaluer les paramètres du modèle. L'utilisation de procédures d'optimisation, appliquées au modèle calibré aux données biologiques, a permis la conception de schéma d'exposition au CPT11 théoriquement optimaux dans le cas particulier des cellules Caco-2. Le CPT11 s'est accumulé dans les cellules Caco-2 où il a été biotransformé en son métabolite actif le SN38, sous l'action des carboxylestérases (CES). La pré-incubation des cellules avec du verapamil, un inhibiteur non spécifique des transporteurs ABC (ATP-Binding Cassette) a permis la mise en évidence du rôle de ces pompes d'efflux ABC dans le transport du CPT11. Après synchronisation des cellules par choc sérique, qui définit le temps circadien (CT) 0, des rythmes circadiens d'une période de 26 h 50 (SD 63 min) ont été mis en évidence pour l'expression de trois gènes de l'horloge circadienne: REV-ERBα, PER2, et BMAL1; et six gènes de la pharmacologie du CPT11: la cible du médicament la topoisomerase 1 (TOP1), l'enzyme d'activation CES2, l'enzyme de désactivation UGT1A1, et les quatre transporteurs ABCB1, ABCC1, ABCC2, ABCG2. Au contraire, l'expression protéique et l'activité de la TOP1 sont restées constantes. Enfin, la quantité de TOP1 liée à l'ADN en présence de CPT11, un marqueur de la PD du médicament, a été plus importante pour une exposition à CT14 (47±5.2% de la quantité totale de TOP1), que pour une exposition à CT28 (35.5±1.8%). Les paramètres du modèle mathématique de la PK-PD du CPT11 ont ensuite été estimés par une approche de bootstrap, en utilisant des résultats expérimentaux obtenus sur les cellules Caco-2, combinés aux données de la littérature. Ensuite, des algorithmes d'optimisation ont été utilisés pour concevoir les schémas d'exposition théoriquement optimaux des cellules Caco-2 à l'irinotecan. Les cellules synchronisées par un choc sérique ont été considérées comme les cellules saines et les cellules non-synchronisées ont joué le rôle de cellules cancéreuses puisque l'organisation circadienne est souvent perturbée dans les tissus tumoraux. La stratégie thérapeutique optimale a été définie comme celle qui maximise l'efficacité sur les cellules cancéreuses, sous une contrainte de toxicité maximale sur les cellules saines. Les schémas d'administration considérés ont pris la forme d'une exposition à une concentration donnée de CPT11, débutant à un CT particulier, sur une durée comprise entre 0 et 27 h. Les simulations numériques prédisent que toute dose de CPT11 devrait être optimalement administrée sur une durée de 3h40 à 7h10, débutant entre CT2h10 et CT2h30, un intervalle de temps correspondant à 1h30 à 1h50 avant le minimum des rythmes de bioactivation du CPT11 par les CES. Une interprétation clinique peut être établie en ramenant à 24 h ces résultats pour les cellules Caco-2 qui présentent une période de 27 h. Ainsi, une administration optimale du CPT11 chez le patient cancéreux résulterait en une présence du médicament dans le sang pendant 3h30 à 6h30, débutant de 1h30 à 1h40 avant le minimum des rythmes d'activité des CES chez le patient. La deuxième étape de nos travaux a consisté à adapter l'approche mise en œuvre pour optimiser l'exposition des cellules Caco-2 au CPT11, pour l'optimisation de l'administration du médicament chez la souris. Des études récentes mettent en évidence trois classes de chronotoxicité à l'irinotecan chez la souris. La classe 1, les souris de la lignée B6D2F1 femelles, présentent la pire tolérabilité au CPT11 après une administration à ZT3, et la meilleure pour une administration à ZT15, où ZT est le temps de Zeitgeber, ZT0 définissant le début de la phase de lumière. La classe 2, les souris B6D2F1 mâles, montrent une pire heure d'administration à ZT23 et une meilleure à ZT11. Enfin, la classe 3, les B6CBAF1 femelles présentent la pire tolérabilité pour une injection à ZT7, et la meilleure pour ZT15. Nous avons entrepris une approche pluridisciplinaire in vivo et in silico dont le but est la caractérisation moléculaire des trois classes de chronotoxicité, ainsi que la conception de schémas optimaux d'administration pour chacune d'elles. Le modèle mathématique mis au point pour une population de cellules en culture a été adapté pour la construction d'un modèle "corps entier" à base physiologique de la PK-PD de l'irinotecan. Un ensemble de paramètres a été estimé pour la classe 2, en utilisant deux sortes de résultats expérimentaux: d'une part, les concentrations sanguines et tissulaires (foie, colon, moelle osseuse, tumeur) du CPT11 administré aux pire et meilleure heures circadiennes de tolérabilité, et d'autre part, les variations circadiennes des protéines de la pharmacologie du médicament dans le foie et l'intestin. Le modèle ainsi calibré reproduit de façon satisfaisante les données biologiques. Cette étude est en cours pour les classes 1 et 3. Une fois les ensembles de paramètres validés pour chacune des trois classes, ils seront comparés entre eux pour mettre en évidence de possibles différences moléculaires. L'étape suivante consiste en l'application d'algorithmes d'optimisation sur le modèle corps entier pour définir des schémas d'administration chronomodulés optimaux pour chaque classe. La deuxième partie de cette thèse s'intéresse à l'étude de la tyrosine kinase SRC, dont l'expression est dérégulée dans de nombreux cancers. Des études récentes montrent un contrôle de SRC sur la voie mitochondriale de l'apoptose dans des fibroblastes de souris NIH-3T3 transfectés avec l'oncogène v-src, cette régulation étant inexistante dans les cellules parentales. L'oncogène SRC active la voie RAS / RAK / MEK1/2 / ERK1/2 qui augmente la vitesse de phosphorylation de la protéine pro-apoptotique BIK, menant ainsi à sa dégradation par le protéasome. La faible expression de BIK résultant de ce mécanisme rendrait ainsi les cellules v-src résistantes à la plupart des stress apoptotiques. Notre étude a consisté à déterminer, par une approche combinée mathématique et expérimentale, les stratégies thérapeutiques optimales lorsque les cellules NIH-3T3 parentales jouent le rôle de cellules saines, et les fibroblastes transformés celui de cellules cancéreuses. Pour cela, nous avons, tout d'abord, construit un modèle mathématique de la cinétique de BIK en conditions non-apoptotiques. L'estimation des paramètres de ce modèle, en utilisant des données expérimentales existantes, confirme que la phosphorylation de BIK sous le contrôle de SRC est inactive dans les cellules normales. L'étude exprimentale de l'évolution de BIK après le signal apoptotique que constitue une exposition à la staurosporine, démontre une relocalisation de BIK aux mitochondries, la concentration totale de la protéine restant constante durant le stress. Nous avons ensuite conçu un modèle mathématique de la voie mitochondriale de l'apoptose mettant en jeu les protéines anti-apoptotiques de type Bcl2, les protéines effectrices de type BAX, les protéines BH3-only activatrices et les BH3-only sensibilisatrices. Un ensemble de paramètres a été déterminé pour les cellules NIH-3T3 parentales, et celles transformées v-src, en comparant le modèle aux données expérimentales. Le modèle reproduit le fait expérimentalement démontré que la préincubation des cellules v-src avec un inhibiteur de la tyrosine kinase SRC, avant l'exposition à la staurosporine, annihile la résistance des fibroblastes transformés au stress apoptotique. Le modèle prédit que l'administration de l'ABT-737, un inhibiteur de protéines anti-apoptotiques, avant l'exposition à la staurosporine, ne devrait pas être entreprise dans notre systéme biologique, ce qui a été expérimentalement validé. Enfin, le modèle a été utilisé dans des procédures d'optimisation pour déterminer la stratégie thérapeutique théoriquement optimale, lorsque les cellules normales et transformées sont exposées aux mêmes médicaments. Les combinaisons médicamenteuses considérées consiste en une exposition à la staurosporine, précédée d'une exposition à des répresseurs ou activateurs d'expression des protéines de la famille Bcl2. La stratégie optimale est définie comme celle qui maximise le pourcentage de cellules apoptotiques dans les fibroblastes v-src, sous la contrainte que celui dans les cellules normales reste au-dessous d'un seuil de tolérabilité. Les simulations numériques nous permettent de conclure à une combinaison médicamenteuse optimale constituée d'une exposition à la staurosporine, précédée d'une exposition à un répresseur de l'expression de BAX (de manière à diminuer sa concentration en-dessous du seuil apoptotique dans les cellules normales, mais pas dans les cellules cancéreuses), combinée à un répresseur de BCL2 ou un inhibiteur de tyrosines kinases SRC. Cette stratégie optimale aboutit à moins d'1% de cellules apoptotiques dans les cellules saines et plus de 98% dans les cellules cancéreuses.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Pustoc'H, Audrey. „Elaboration d'un modèle mécanique de l'articulation de la hanche sous sollicitations dynamiques – Application à l'étude de l'influence d'une orthèse podale sur une hanche arthrosique“. Phd thesis, Université Claude Bernard - Lyon I, 2007. http://tel.archives-ouvertes.fr/tel-00261947.

Der volle Inhalt der Quelle
Annotation:
L'objectif de ce travail est d'élaborer un modèle mécanique de la hanche saine susceptible d'être utilisé comme référence pour pouvoir ensuite analyser le comportement de hanches pathologiques en évaluant l'effet des traitements préconisés par comparaison des différents comportements simulés. Dans ce contexte, un modèle éléments finis générique de l'articulation de la hanche est développé. Il est également nécessaire de déterminer l'état de chargement de l'articulation de la hanche pour notre simulation. L'analyse du mouvement permet le calcul des données cinématiques et dynamiques à partir des mesures expérimentales. A partir de ces données, un modèle musculo-squelettique associant une méthode de dynamique inverse et d'optimisation statique, permet de déterminer les efforts musculaires mis en jeu par les muscles croisant l'articulation de la hanche. L'évaluation des forces développées par les muscles de la hanche permet de calculer la réaction de contact articulaire exercée par le fémur sur le bassin. C'est cette réaction que nous implémentons dans le modèle éléments finis. Ainsi, les simulations du comportement de la hanche saine sont réalisées pour la phase d'appui de la marche et la phase d'appui de la montée d'escaliers. Nous traitons ensuite d'une application clinique visant à évaluer l'influence du port d'une orthèse podale sur le comportement mécanique d'une hanche arthrosique. La démarche suivie est la même que celle mise en place pour l'étude du comportement de la hanche saine. L'état de chargement de la hanche arthrosique est déterminé chez le patient pendant la marche et la montée d'escaliers évoluant successivement avec puis sans orthèses.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie