Dissertations / Theses on the topic 'Selection et optimisation d'hyperparamètre'

To see the other types of publications on this topic, follow the link: Selection et optimisation d'hyperparamètre.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 26 dissertations / theses for your research on the topic 'Selection et optimisation d'hyperparamètre.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Bertrand, Quentin. "Hyperparameter selection for high dimensional sparse learning : application to neuroimaging." Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG054.

Full text
Abstract:
Grâce à leur caractère non invasif et leur excellente résolution temporelle, la magnéto- et l'électroencéphalographie (M/EEG) sont devenues des outils incontournables pour observer l'activité cérébrale. La reconstruction des signaux cérébraux à partir des enregistrements M/EEG peut être vue comme un problème inverse de grande dimension mal posé. Les estimateurs typiques des signaux cérébraux se basent sur des problèmes d'optimisation difficiles à résoudre, composés de la somme d'un terme d'attache aux données et d'un terme favorisant la parcimonie. À cause du paramètre de régularisation notoirement difficile à calibrer, les estimateurs basés sur la parcimonie ne sont actuellement pas massivement utilisés par les praticiens. L'objectif de cette thèse est de fournir un moyen simple, rapide et automatisé de calibrer des modèles linéaires parcimonieux. Nous étudions d'abord quelques propriétés de la descente par coordonnées : identification du modèle, convergence linéaire locale, et accélération. En nous appuyant sur les schémas d'extrapolation d'Anderson, nous proposons un moyen efficace d'accélérer la descente par coordonnées en théorie et en pratique. Nous explorons ensuite une approche statistique pour calibrer le paramètre de régularisation des problèmes de type Lasso. Il est possible de construire des estimateurs pour lesquels le paramètre de régularisation optimal ne dépend pas du niveau de bruit. Cependant, ces estimateurs nécessitent de résoudre des problèmes d'optimisation "non lisses + non lisses". Nous montrons que le lissage partiel préserve leurs propriétés statistiques et nous proposons une application aux problèmes de localisation de sources M/EEG. Enfin, nous étudions l'optimisation d'hyperparamètres, qui comprend notamment la validation croisée. Cela nécessite de résoudre des problèmes d'optimisation à deux niveaux avec des problèmes internes non lisses. De tels problèmes sont résolus de manière usuelle via des techniques d'ordre zéro, telles que la recherche sur grille ou la recherche aléatoire. Nous présentons une technique efficace pour résoudre ces problèmes d'optimisation à deux niveaux en utilisant des méthodes du premier ordre
Due to non-invasiveness and excellent time resolution, magneto- and electroencephalography (M/EEG) have emerged as tools of choice to monitor brain activity. Reconstructing brain signals from M/EEG measurements can be cast as a high dimensional ill-posed inverse problem. Typical estimators of brain signals involve challenging optimization problems, composed of the sum of a data-fidelity term, and a sparsity promoting term. Because of their notoriously hard to tune regularization hyperparameters, sparsity-based estimators are currently not massively used by practitioners. The goal of this thesis is to provide a simple, fast, and automatic way to calibrate sparse linear models. We first study some properties of coordinate descent: model identification, local linear convergence, and acceleration. Relying on Anderson extrapolation schemes, we propose an effective way to speed up coordinate descent in theory and practice. We then explore a statistical approach to set the regularization parameter of Lasso-type problems. A closed-form formula can be derived for the optimal regularization parameter of L1 penalized linear regressions. Unfortunately, it relies on the true noise level, unknown in practice. To remove this dependency, one can resort to estimators for which the regularization parameter does not depend on the noise level. However, they require to solve challenging "nonsmooth + nonsmooth" optimization problems. We show that partial smoothing preserves their statistical properties and we propose an application to M/EEG source localization problems. Finally we investigate hyperparameter optimization, encompassing held-out or cross-validation hyperparameter selection. It requires tackling bilevel optimization with nonsmooth inner problems. Such problems are canonically solved using zeros order techniques, such as grid-search or random-search. We present an efficient technique to solve these challenging bilevel optimization problems using first-order methods
APA, Harvard, Vancouver, ISO, and other styles
2

YACOUB, MEZIANE. "Selection de caracteristiques et optimisation d'architectures dans les systemes d'apprentissage connexionnistes." Paris 13, 1999. http://www.theses.fr/1999PA132014.

Full text
Abstract:
Cette these est consacree au probleme du choix d'une architecture dont la capacite est adaptee a la difficulte de la tache. Nous proposons une approche structurelle du controle de la capacite de generalisation des systemes d'apprentissage connexionnistes. Cette approche est basee sur une mesure de pertinence, baptisee hvs (heuristic for variable selection), permettant d'evaluer l'importance de chacune des composantes du modele. La mesure sera utilisee dans un premier temps pour le probleme difficile de la selection de variables puis etendue a l'optimisation d'architectures de type perceptron multicouche. Une autre utilisation de cette mesure nous a permis de developper une methodologie d'aide au choix d'une architecture initiale pour traiter des sequences temporelles. Enfin on montre sur un probleme reel d'identification de visages qu'une extension de la mesure de pertinence hvs permet de detecter et de selectionner des zones discriminantes pour ce type d'application en reconnaissance des formes.
APA, Harvard, Vancouver, ISO, and other styles
3

PURBA, ABDUL RAZAK. "Optimisation de la selection recurrente reciproque du palmier a huile (elaeis guineensis jacq. ) par l'utilisation conjointe des index de selection et des marqueurs moleculaires." Montpellier, ENSA, 2000. http://www.theses.fr/2000ENSA0018.

Full text
Abstract:
Le programme d'amelioration du palmier a huile a l'iopri (indonesian oil palm research institute = l'institut indonesien pour les recherches sur le palmier a huile) a debute dans les annees soixante dix apres l'introduction de plusieurs populations selectionnees d'origine africaine. Un programme de selection recurrente reciproque (srr) entre ces origines et l'origine deli (introduite en 1848) a ete engage. Ce programme necessitait de classer les parents utilises en fonction de leur aptitude a la combinaison. Cependant, l'estimation precise de la valeur genetique de parents est rendue difficile a cause des contraintes liees a la biologie de la plante et du caractere desequilibre des essais genetiques disponibles. L'objectif de ce travail de these a ete d'estimer les parametres genetiques des parents en utilisant toutes les informations disponibles : les donnees genealogiques, les donnees agronomiques et les donnees de marqueurs moleculaires. L'exploitation conjointe de l'ensemble de ces informations permet de mieux gerer la variabilite et le controle de la recombinaison. Les aflp (amplified fragment length polymorphism) et les isoenzymes ont ete utilises pour estimer la distance genetique entre individus ou entre populations ainsi que pour structurer les materiels de selection de l'iopri. Des ecarts a l'equilibre de hardy-weinberg et une separation des parents, en au moins trois groupes, ont ete detectes dans les populations etudiees. L'organisation de la variabilite genetique obtenue ouvre donc une discussion sur la separation stricte des populations du palmier a huile en deux groupes heterotiques applique actuellement dans le schema d'amelioration de srr. Les donnees agronomiques et de pedigree des parents testes au premiere cycle de selection a l'iopri ont utilise pour ameliorer l'estimation de leurs parametres genetiques en utilisant la methode de blup (best linear unbiased predictor). En depit du fait que la variabilite genetique du groupe deli soit moins importante que celle du groupe africain, la divergence des individus de deli, choisis comme parents des hybrides testes, entraine d'une contribution comparable de ce groupe a la variabilite genetique. Les resultats ont aussi demontre la coherence de la methode de blup en determinant le classement des geniteurs en se basant sur leurs valeurs genetiques additives. En effet, ces valeurs au stade adulte peuvent etre lineairement expliquees par celles au stade jeune, ce qui implique une possibilite de simplifier le schema srr en effectuant une selection precoce. Les correlations entre les valeurs observees et les valeurs predites des performances des croisements sont en general assez moderees mais sont envisageables pour une selection basee sur la production d'huile, ce qui, en fait, est l'objectif des selectionneurs du palmier a huile. D'autres part, le recours a des marqueurs moleculaires permet de predire les performances de croisements aussi efficacement que celui des donnees de pedigree. Les informations moleculaires peuvent donc etre utilisees si les informations de pedigree sont obscures ou indisponibles. La connaissance sur la structure et la valeur genetique des parents a permis de choisir les meilleurs combinaisons et d'eliminer les mauvais croisements des tests a realiser. Du point de vue pratique, les resultats donneront une contribution significative sur la production de semences et des clones du palmier a huile.
APA, Harvard, Vancouver, ISO, and other styles
4

Sarmis, Merdan. "Etude de l'activité neuronale : optimisation du temps de simulation et stabilité des modèles." Thesis, Mulhouse, 2013. http://www.theses.fr/2013MULH3848/document.

Full text
Abstract:
Les neurosciences computationnelles consistent en l’étude du système nerveux par la modélisation et la simulation. Plus le modèle sera proche de la réalité et plus les ressources calculatoires exigées seront importantes. La question de la complexité et de la précision est un problème bien connu dans la simulation. Les travaux de recherche menés dans le cadre de cette thèse visent à améliorer la simulation de modèles mathématiques représentant le comportement physique et chimique de récepteurs synaptiques. Les modèles sont décrits par des équations différentielles ordinaires (EDO), et leur résolution passe par des méthodes numériques. Dans le but d’optimiser la simulation, j’ai implémenté différentes méthodes de résolution numérique des EDO. Afin de faciliter la sélection du meilleur algorithme de résolution numérique, une méthode nécessitant un minimum d’information a été proposée. Cette méthode permet de choisir l’algorithme qui optimise la simulation. La méthode a permis de démontrer que la dynamique d’un modèle de récepteur synaptique influence plus les performances des algorithmes de résolution que la structure cinétique du modèle lui-même. De plus, afin de caractériser des comportements pathogènes, une phase d’optimisation est réalisée. Cependant, certaines valeurs de paramètres rendent le modèle instable. Une étude de stabilité a permis de déterminer la stabilité du modèle pour des paramètres fournis par la littérature, mais également de remonter à des contraintes de stabilité sur les paramètres. Le respect de ces contraintes permet de garantir la stabilité des modèles étudiés, et donc de garantir le succès de la procédure permettant de rendre un modèle pathogène
Computational Neuroscience consists in studying the nervous system through modeling and simulation. It is to characterize the laws of biology by using mathematical models integrating all known experimental data. From a practical point of view, the more realistic the model, the largest the required computational resources. The issue of complexity and accuracy is a well known problem in the modeling and identification of models. The research conducted in this thesis aims at improving the simulation of mathematical models representing the physical and chemical behavior of synaptic receptors. Models of synaptic receptors are described by ordinary differential equations (ODE), and are resolved with numerical procedures. In order to optimize the performance of the simulations, I have implemented various ODE numerical resolution methods. To facilitate the selection of the best solver, a method, requiring a minimum amount of information, has been proposed. This method allows choosing the best solver in order to optimize the simulation. The method demonstrates that the dynamic of a model has greater influence on the solver performances than the kinetic scheme of the model. In addition, to characterize pathogenic behavior, a parameter optimization is performed. However, some parameter values lead to unstable models. A stability study allowed for determining the stability of the models with parameters provided by the literature, but also to trace the stability constraints depending to these parameters. Compliance with these constraints ensures the stability of the models studied during the optimization phase, and therefore the success of the procedure to study pathogen models
APA, Harvard, Vancouver, ISO, and other styles
5

Rincent, Renaud. "Optimisation des stratégies de génétique d'association et de sélection génomique pour des populations de diversité variable : Application au maïs." Thesis, Paris, AgroParisTech, 2014. http://www.theses.fr/2014AGPT0018/document.

Full text
Abstract:
D'importants progrès ont été réalisés dans les domaines du génotypage et du séquençage, ce qui permet de mieux comprendre la relation génotype/phénotype. Il est possible d'analyser l'architecture génétique des caractères (génétique d'association, GA), ou de prédire la valeur génétique des candidats à la sélection (sélection génomique, SG). L'objectif de cette thèse était de développer des outils pour mener ces stratégies de manière optimale. Nous avons d'abord dérivé analytiquement la puissance du modèle mixte de GA, et montré que la puissance était plus faible pour les marqueurs présentant une faible diversité, une forte différentiation entre sous groupes et une forte corrélation avec les marqueurs utilisés pour estimer l'apparentement (K). Nous avons donc considéré deux estimateurs alternatifs de K. Des simulations ont montré qu'ils sont aussi efficaces que la méthode classique pour contrôler les faux positifs et augmentent la puissance. Ces résultats ont été confirmés sur les panels corné et denté du programme Cornfed, avec une augmentation de 40% du nombre de SNP détectés. Ces panels, génotypés avec une puce 50k SNP et phénotypés pour leur précocité et leur biomasse ont permis de décrire la diversité de ces groupes et de détecter des QTL. En SG, des études ont montré l'importance de la composition du jeu de calibration sur la fiabilité des prédictions. Nous avons proposé un algorithme d'échantillonnage dérivé de la théorie du G-BLUP permettant de maximiser la fiabilité des prédictions. Par rapport à un échantillon aléatoire, il permettrait de diminuer de moitié l'effort de phénotypage pour atteindre une même fiabilité de prédiction sur les panels Cornfed
Major progresses have been achieved in genotyping technologies, which makes it easier to decipher the relationship between genotype and phenotype. This contributed to the understanding of the genetic architecture of traits (Genome Wide Association Studies, GWAS), and to better predictions of genetic value to improve breeding efficiency (Genomic Selection, GS). The objective of this thesis was to define efficient ways of leading these approaches. We first derived analytically the power from classical GWAS mixed model and showed that it was lower for markers with a small minimum allele frequency, a strong differentiation among population subgroups and that are strongly correlated with markers used for estimating the kinship matrix K. We considered therefore two alternative estimators of K. Simulations showed that these were as efficient as classical estimators to control false positive and provided more power. We confirmed these results on true datasets collected on two maize panels, and could increase by up to 40% the number of detected associations. These panels, genotyped with a 50k SNP-array and phenotyped for flowering and biomass traits, were used to characterize the diversity of Dent and Flint groups and detect QTLs. In GS, studies highlighted the importance of relationship between the calibration set (CS) and the predicted set on the accuracy of predictions. Considering low present genotyping cost, we proposed a sampling algorithm of the CS based on the G-BLUP model, which resulted in higher accuracies than other sampling strategies for all the traits considered. It could reach the same accuracy than a randomly sampled CS with half of the phenotyping effort
APA, Harvard, Vancouver, ISO, and other styles
6

Blanc, Guylaine. "Selection assistee par marqueurs (sam) dans un dispositif multiparental connecte - application au maÏs et approche par simulations." Phd thesis, INAPG (AgroParisTech), 2006. http://pastel.archives-ouvertes.fr/pastel-00003478.

Full text
Abstract:
L'avènement des marqueurs moléculaires dans les années 80 a ouvert de nouvelles perspectives pour l'identification de locus impliqués dans la variation de caractères quantitatifs (QTL). De nombreuses études, notamment théoriques, ont montré que l'utilisation en sélection des marqueurs associés aux QTL (la Sélection Assistée par Marqueurs, SAM) pourrait permettre un gain d'efficacité par rapport à la sélection conventionnelle. En génétique végétale, la plupart des expériences de détection de QTL sont réalisées dans des populations issues du croisement entre deux lignées pures. Ainsi, beaucoup de moyens se retrouvent concentrés sur une base génétique étroite. Pourtant la probabilité de détecter des QTL est plus importante dans des populations avec une base génétique large, impliquant plus de deux parents car la diversité génétique est plus importante. Dans un contexte multiparental, le cas des populations multiparentales connectées, c'est-à-dire issues de croisements ayant un des parents en commun, présente un intérêt majeur puisque les connexions entre populations permettent pour un effectif global donné d'augmenter la puissance de détection des QTL, de comparer pour chaque QTL l'intérêt relatif de plusieurs allèles, et d'étudier leurs éventuelles interactions avec le fonds génétique. En termes de SAM, on peut penser que les marqueurs seront particulièrement intéressants dans un tel contexte pour diriger les croisements entre individus, afin de contrôler les recombinaisons entre les différents génomes parentaux et d'aider à la sélection d'individus qui cumulent les allèles favorables provenant des différents parents de départ. Aussi l'objectif de ce programme est-il de valider l'intérêt d'un schéma de SAM dans un dispositif multiparental connecté. Un croisement diallèle entre quatre lignées de maïs a permis de générer 6 populations de 150 plantes F2 chacune. La détection de QTL sur ce dispositif de 900 individus a été réalisée pour différents caractères grâce à MCQTL qui permet de prendre en compte les connexions entre populations. La comparaison des QTL détectés population par population et ceux détectés sur le dispositif complet en prenant en compte les connexions ou non, montre que l'analyse globale du dispositif en prenant en compte les connexions entre populations permet un gain de puissance substantiel et conduit à une meilleure précision de la localisation des QTL. A partir de ces résultats nous avons mis en place trois cycles de sélection sur marqueurs dans deux schémas présentant des objectifs distincts : i. obtenir un matériel plus précoce, pour le premier ii. augmenter le rendement tout en conservant une humidité des grains constante à la récolte pour le second. Pour pouvoir suivre la transmission des allèles parentaux aux QTL au cours des générations, un programme de calcul de probabilités d'identité par descendance adapté au dispositif à été développé. L'évaluation expérimentale du progrès génétique nous a permis de mettre en évidence, après 3 cycles de sélection, un gain significatif de précocité de 3 jours pour le schéma floraison et un gain significatif de 3.2 quintaux de rendement pour le schéma rendement. Parallèlement, nous avons comparé par simulation différents schémas de sélection, en nous basant sur le dispositif expérimental mis en place (nombre et effet des QTL, h²
APA, Harvard, Vancouver, ISO, and other styles
7

Hamdi, Faiza. "Optimisation et planification de l'approvisionnement en présence du risque de rupture des fournisseurs." Thesis, Ecole nationale des Mines d'Albi-Carmaux, 2017. http://www.theses.fr/2017EMAC0002/document.

Full text
Abstract:
La libéralisation des échanges, le développement des moyens de transport de marchandises à faible coût et l’essor économique des pays émergents font de la globalisation (mondialisation) des chaînes logistiques un phénomène irréversible. Si ces chaines globalisées permettent de réduire les coûts, en contrepartie, elles multiplient les risques de rupture depuis la phase d’approvisionnement jusqu’à la phase finale de distribution. Dans cette thèse, nous nous focalisons sur la phase amont. Nous traitons plus spécifiquement le cas d’une centrale d’achat devant sélectionner des fournisseurs et allouer les commandes aux fournisseurs retenus. Chacun des fournisseurs risque de ne pas livrer ses commandes pour des raisons qui lui sont propres (problèmes internes, mauvaise qualité) ou externes (catastrophe naturelle, problèmes de transport). Selon que les fournisseurs sélectionnés livrent ou non leurs commandes, l’opération dégagera un profit ou sera déficitaire. L’objectif de cette thèse, est de fournir des outils d’aide à la décision à un décideur confronté à ce problème tout en prenant en compte le comportement du dit décideur face au risque. Des programmes stochastiques en nombre entiers mixtes ont été proposés pour modéliser ce problème. La première partie du travail porte sur l’élaboration d’un outil visuel d’aide à la décision permettant à un décideur de trouver une solution maximisant le profit espéré pour un risque de perte fixé. La deuxième partie applique les techniques d’estimation et de quantification du risque VAR et CVaR à ce problème. L’objectif est d’aider un décideur qui vise à minimiser la valeur de l’espérance du coût (utilisation de VaR) ou à minimiser la valeur de l’espérance du coût dans le pire des cas (utilisation de VAR et CVaR). Selon nos résultats, il apparaît que le décideur doit prendre en compte les différents scénarios possibles quelque soit leurs probabilités de réalisation, pour que la décision soit efficace
Trade liberalization, the development of mean of transport and the development economic of emerging countries which lead to globalization of supply chain is irreversible phenomen. They can reduce costs, in return, they multiply the risk of disruption from upstream stage to downstream stage. In this thesis, we focus on the inbound supply chain stage. We treat more specifically the case of a purchasing central to select suppliers and allocate the orders. Each of the suppliers cannot deliver its orders due to internal reasons (poor quality problems) or external reasons (natural disasters, transport problems). According to the selected suppliers deliver their orders or not, the transaction operation will generate a profit or loss. The objective of this thesis is to provide decision support tools to a decision maker faced with this problem by taking into account the behavior of decision maker toward risk. We proposed stochastic mixed integer linear programs to model this problem. In the first part, we focuses on the development of a decision support visual tool that allows a decision maker to find a compromise between maximizing the expected profit and minimize the risk of loss. In the second part, we integrated the techniques of estimation of risk VaR and CVaR in this problem. The objective is to help decision maker to minimize the expected cost and minimize the conditional value at risk simultanously via calculating of VaR. Result shows that the decision maker must tack into account the different scenarios of disruption regardless their probability of realisation
APA, Harvard, Vancouver, ISO, and other styles
8

Landru, Didier. "Aides informatisées à la selection des matériaux et des procédés dans la conception des pièces de structure." Grenoble INPG, 2000. http://www.theses.fr/2000INPG0012.

Full text
Abstract:
La selection des materiaux et des procedes pour les mettre en forme, les assembler et les proteger est une etape fondamentale de la conception d'une piece de structure. Nous avons developpe et valide des methodes et des outils d'aide a la conception permettant rechercher les combinaisons optimales de materiaux, formes et procedes pour realiser un cahier des charges. Cette recherche est effectuee de maniere objective, en particulier pour les conceptions multi-contraintes (par un pre-dimensionnement) ou multi-objectives (par une analyse de la valeur). Un module d'aide a la redaction et a la correction du cahier des charges fonde sur une expertise des erreurs les plus courantes permet d'ameliorer la qualite des conceptions les plus complexes. Parallelement a ce travail, nous avons concu un logiciel d'aide a la recherche d'applications pour un materiau donne. Il permet d'identifier les points forts et faibles d'un materiau en vue de son utilisation dans differents domaines d'applications et de suggerer ainsi des applications potentielles.
APA, Harvard, Vancouver, ISO, and other styles
9

Akkouche, Nourredine. "Optimisation du test de production de circuits analogiques et RF par des techniques de modélisation statistique." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00625469.

Full text
Abstract:
La part dû au test dans le coût de conception et de fabrication des circuits intégrés ne cesse de croître, d'où la nécessité d'optimiser cette étape devenue incontournable. Dans cette thèse, de nouvelles méthodes d'ordonnancement et de réduction du nombre de tests à effectuer sont proposées. La solution est un ordre des tests permettant de détecter au plus tôt les circuits défectueux, qui pourra aussi être utilisé pour éliminer les tests redondants. Ces méthodes de test sont basées sur la modélisation statistique du circuit sous test. Cette modélisation inclus plusieurs modèles paramétriques et non paramétrique permettant de s'adapté à tous les types de circuit. Une fois le modèle validé, les méthodes de test proposées génèrent un grand échantillon contenant des circuits défectueux. Ces derniers permettent une meilleure estimation des métriques de test, en particulier le taux de défauts. Sur la base de cette erreur, un ordonnancement des tests est construit en maximisant la détection des circuits défectueux au plus tôt. Avec peu de tests, la méthode de sélection et d'évaluation est utilisée pour obtenir l'ordre optimal des tests. Toutefois, avec des circuits contenant un grand nombre de tests, des heuristiques comme la méthode de décomposition, les algorithmes génétiques ou les méthodes de la recherche flottante sont utilisées pour approcher la solution optimale.
APA, Harvard, Vancouver, ISO, and other styles
10

Pham, Viet Nga. "Programmation DC et DCA pour l'optimisation non convexe/optimisation globale en variables mixtes entières : Codes et Applications." Phd thesis, INSA de Rouen, 2013. http://tel.archives-ouvertes.fr/tel-00833570.

Full text
Abstract:
Basés sur les outils théoriques et algorithmiques de la programmation DC et DCA, les travaux de recherche dans cette thèse portent sur les approches locales et globales pour l'optimisation non convexe et l'optimisation globale en variables mixtes entières. La thèse comporte 5 chapitres. Le premier chapitre présente les fondements de la programmation DC et DCA, et techniques de Séparation et Evaluation (B&B) (utilisant la technique de relaxation DC pour le calcul des bornes inférieures de la valeur optimale) pour l'optimisation globale. Y figure aussi des résultats concernant la pénalisation exacte pour la programmation en variables mixtes entières. Le deuxième chapitre est consacré au développement d'une méthode DCA pour la résolution d'une classe NP-difficile des programmes non convexes non linéaires en variables mixtes entières. Ces problèmes d'optimisation non convexe sont tout d'abord reformulées comme des programmes DC via les techniques de pénalisation en programmation DC de manière que les programmes DC résultants soient efficacement résolus par DCA et B&B bien adaptés. Comme première application en optimisation financière, nous avons modélisé le problème de gestion de portefeuille sous le coût de transaction concave et appliqué DCA et B&B à sa résolution. Dans le chapitre suivant nous étudions la modélisation du problème de minimisation du coût de transaction non convexe discontinu en gestion de portefeuille sous deux formes : la première est un programme DC obtenu en approximant la fonction objectif du problème original par une fonction DC polyèdrale et la deuxième est un programme DC mixte 0-1 équivalent. Et nous présentons DCA, B&B, et l'algorithme combiné DCA-B&B pour leur résolution. Le chapitre 4 étudie la résolution exacte du problème multi-objectif en variables mixtes binaires et présente deux applications concrètes de la méthode proposée. Nous nous intéressons dans le dernier chapitre à ces deux problématiques challenging : le problème de moindres carrés linéaires en variables entières bornées et celui de factorisation en matrices non négatives (Nonnegative Matrix Factorization (NMF)). La méthode NMF est particulièrement importante de par ses nombreuses et diverses applications tandis que les applications importantes du premier se trouvent en télécommunication. Les simulations numériques montrent la robustesse, rapidité (donc scalabilité), performance et la globalité de DCA par rapport aux méthodes existantes.
APA, Harvard, Vancouver, ISO, and other styles
11

Bouchakri, Rima. "Conception physique statique et dynamique des entrepôts de données." Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2015. http://www.theses.fr/2015ESMA0012/document.

Full text
Abstract:
Les entrepôts de données permettent le stockage et la consolidation, en une seule localité, d'une quantité gigantesque d'information pour être interrogée par des requêtes décisionnelles complexes dites requêtes de jointures en étoiles. Afin d'optimiser ses requêtes, plusieurs travaux emploient des techniques d'optimisations comme les index de jointure binaires et la fragmentation horizontale durant la phase de conception physique d'un entrepôt de données. Cependant, ces travaux proposent des algorithmes statiques qui sélectionnent ces techniques de manière isolée et s'intéressent à l'optimisation d'un seul objectif à savoir les performances des requêtes. Notre principale contribution dans cette thèse est de proposer une nouvelle vision de sélection des techniques d'optimisation. Notre première contribution est une sélection incrémentale qui permet de mettre à jour de manière continuelle le schéma d'optimisation implémenté sur l'ED, ce qui assure l'optimisation continuelle des requêtes décisionnelles. Notre seconde contribution est une sélection incrémentale jointe qui combine deux techniques d'optimisation pour couvrir l'optimisation d'un maximum de requêtes et respecter au mieux les contraintes d'optimisation liées à chacune de ces techniques. A l'issu de ces propositions, nous avons constaté que la sélection incrémentale engendre un coût de maintenance de l'ED. Ainsi, notre troisième proposition est une formulation et r!:solution du problème multi-objectif de sélection des techniques d'optimisation où il faut optimiser deux objectifs: la performance des requêtes et le coût de maintenance de l'ED
Data Warehouses store into a single location a huge amount of data. They are interrogated by complex decisional queries called star join queries. To optimize such queries, several works propose algorithms for selecting optimization techniques such as Binary Join Indexes and Horizontal Partitioning during the DW physical design. However, these works propose static algorithms, select optimization techniques in and isolated way and focus on optimizing a single objective which is the query performance. Our main contribution in this thesis is to propose a new vision of optimization techniques selection. Our first contribution is an incremental selection that updates continuously the optimization scheme implemented on the DW, to ensure the continual optimization of queries. To deal with queries complexity increase, our second contribution is a join incremental selection of two optimization techniques which covers the optimization of a maximum number or queries and respects the optimization constraints. Finally, we note that the incremental selection generates a maintenance cost to update the optimization schemes. Thus, our third prop05ilion is to formulate and resolve a multi-objective selection problem or optimization techniques where we have two objectives to optimize : queries performance and maintenance cost of the DW
APA, Harvard, Vancouver, ISO, and other styles
12

Dubois, Amaury. "Optimisation et apprentissage de modèles biologiques : application à lirrigation [sic l'irrigation] de pomme de terre." Thesis, Littoral, 2020. http://www.theses.fr/2020DUNK0560.

Full text
Abstract:
Le sujet de la thèse porte sur une des thématiques du LISIC : la modélisation et la simulation de systèmes complexes, ainsi que sur l'optimisation et l'apprentissage automatique pour l'agronomie. Les objectifs de la thèse sont de répondre aux questions de pilotage de l'irrigation de la culture de pomme de terre par le développement d'outils d'aide à la décision à destination des exploitants agricoles. Le choix de cette culture est motivé par sa part importante dans la région des Hauts-de-France. Le manuscrit s'articule en 3 parties. La première partie traite de l'optimisation continue mutlimodale dans un contexte de boîte noire. Il en suit une présentation d'une méthodologie d'étalonnage automatique de paramètres de modèle biologique grâce à une reformulation en un problème d'optimisation continue mono-objectif multimodale de type boîte noire. La pertinence de l'utilisation de l'analyse inverse comme méthodologie de paramétrage automatique de modèles de grandes dimensions est ensuite démontrée. La deuxième partie présente 2 nouveaux algorithmes UCB Random with Decreasing Step-size et UCT Random with Decreasing Step-size. Ce sont des algorithmes d'optimisation continue multimodale boîte noire dont le choix de la position initiale des individus est assisté par un algorithmes d'apprentissage par renforcement. Les résultats montrent que ces algorithmes possèdent de meilleures performances que les algorithmes état de l'art Quasi Random with Decreasing Step-size. Enfin, la dernière partie est focalisée sur les principes et les méthodes d'apprentissage automatique (machine learning). Une reformulation du problème de la prédiction à une semaine de la teneur en eau dans le sol en un problème d'apprentissage supervisé a permis le développement d'un nouvel outil d'aide à la décision pour répondre à la problématique du pilotage des cultures
The subject of this PhD concerns one of the LISIC themes : modelling and simulation of complex systems, as well as optimization and automatic learning for agronomy. The objectives of the thesis are to answer the questions of irrigation management of the potato crop and the development of decision support tools for farmers. The choice of this crop is motivated by its important share in the Haut-de-France region. The manuscript is divided into 3 parts. The first part deals with continuous multimodal optimization in a black box context. This is followed by a presentation of a methodology for the automatic calibration of biological model parameters through reformulation into a black box multimodal optimization problem. The relevance of the use of inverse analysis as a methodology for automatic parameterisation of large models in then demonstrated. The second part presents 2 new algorithms, UCB Random with Decreasing Step-size and UCT Random with Decreasing Step-size. Thes algorithms are designed for continuous multimodal black-box optimization whose choice of the position of the initial local search is assisted by a reinforcement learning algorithms. The results show that these algorithms have better performance than (Quasi) Random with Decreasing Step-size algorithms. Finally, the last part focuses on machine learning principles and methods. A reformulation of the problem of predicting soil water content at one-week intervals into a supervised learning problem has enabled the development of a new decision support tool to respond to the problem of crop management
APA, Harvard, Vancouver, ISO, and other styles
13

VANDEMOORTELE, JEAN-LUC. "Optimisation de la micropropagation de deux especes legumieres (petroselinum crispum mill. Et brassica oleracea l. Var. Botrytis) en vue de l'obtention de vitroplants conformes pour un programme de selection." Caen, 1997. http://www.theses.fr/1997CAEN2008.

Full text
Abstract:
Plusieurs voies de micropropagation du persil (embryogenese somatique, caulogenese et bourgeonnement axillaire), a partir d'explants de plantes adultes, ont ete mises au point et comparees. La propagation par bourgeonnement axillaire, realisee pour la premiere fois chez une apiacee, est la seule methode permettant d'obtenir des vitroplants apparemment conformes. Le bourgeonnement axillaire est realise sur milieu ms additionne de 5 m de ba et de 0,5 m d'ana, plusieurs subcultures sont possibles sur ce milieu. L'enracinement est induit par une culture de deux semaines en presence 2,5 m d'ana, l'emergence des racines intervient au cours de l'acclimatation. Ce protocole est le premier qui soit applicable a un programme de selection du persil. Une methode efficace de propagation, limitee a une seule phase de culture in vitro, a partir d'explants de preinflorescence de chou-fleur d'hiver et de printemps, est proposee. Chez les cultivars d'ete et d'automne sensibles a l'hyperhydricite, des conditions de culture permettant de reduire l'apport des regulateurs de croissance, ont ete recherchees. L'existence d'une interaction entre les regulateurs de croissance et la composition du milieu a ete demontree. Le protocole de propagation mis au point est constitue d'une induction par un pretraitement osmotique de 24 h dans une solution de saccharose a -2 mpa puis d'une culture sur un milieu depourvu de regulateur de croissance. Les pousses produites par cette voie ne presentent aucune manifestation d'un etat hyperhydrique et subissent l'acclimatation sans dommages. L'ensemble de nos resultats revele l'intervention de l'ethylene et des cytokinines lors de l'induction osmotique de la multiplication vegetative a partir de preinflorescence de chou-fleur. Le choc osmotique provoque en effet une importante augmentation des teneurs en cytokinines endogenes, notamment en zeatine et en zeatine riboside, composes a forte activite cytokinique. Cette methode originale de propagation du chou-fleur presente toutes les caracteristiques indispensables pour une integration a un programme de selection : une bonne qualite physiologique des pousses obtenues ; la conformite des vitroplants ; une mise en oeuvre particulierement aisee et peu couteuse.
APA, Harvard, Vancouver, ISO, and other styles
14

Chopin, Morgan. "Problèmes d'optimisation avec propagation dans les graphes : complexité paramétrée et approximation." Phd thesis, Université Paris Dauphine - Paris IX, 2013. http://tel.archives-ouvertes.fr/tel-00933769.

Full text
Abstract:
Dans cette thèse, nous étudions la complexité algorithmique de problèmes d'optimisation impliquant un processus de diffusion dans un graphe. Plus précisément, nous nous intéressons tout d'abord au problème de sélection d'un ensemble cible. Ce problème consiste à trouver le plus petit ensemble de sommets d'un graphe à "activer" au départ tel que tous les autres sommets soient activés après un nombre fini d'étapes de propagation. Si nous modifions ce processus en permettant de "protéger" un sommet à chaque étape, nous obtenons le problème du pompier dont le but est de minimiser le nombre total de sommets activés en protégeant certains sommets. Dans ce travail, nous introduisons et étudions une version généralisée de ce problème dans laquelle plus d'un sommet peut être protégé à chaque étape. Nous proposons plusieurs résultats de complexité pour ces problèmes à la fois du point de vue de l'approximation mais également de la complexité paramétrée selon des paramètres standards ainsi que des paramètres liés à la structure du graphe.
APA, Harvard, Vancouver, ISO, and other styles
15

Challita, Nicole. "Contributions à la sélection des attributs de signaux non stationnaires pour la classification." Thesis, Troyes, 2018. http://www.theses.fr/2018TROY0012.

Full text
Abstract:
Pour surveiller le fonctionnement d’un système, le nombre de mesures et d’attributs peut désormais être très grand. Mais il est souhaitable de réduire la dimension du problème en ne conservant que les attributs discriminants pour l’apprentissage de la règle de surveillance et pour réduire le volume de traitement. Il s’agit donc de choisir un sous-ensemble d'attributs pour obtenir les meilleures performances de classification possible. Ce manuscrit présente différentes méthodes de sélection d'attributs existantes et en propose deux nouvelles. La première nommée "EN-ReliefF" est une combinaison d’une méthode séquentielle sous-optimale ReliefF et d’une approche basée sur une régression pondérée : Elastic Net. La seconde s’inspire des réseaux de neurones. Elle est formulée comme un problème d’optimisation permettant de définir simultanément une régression non linéaire qui s’adapte aux données d’apprentissage et une pondération parcimonieuse des attributs. Les poids sont ensuite utilisés pour sélectionner les attributs pertinents. Les deux méthodes sont testées sur des données de synthèse et sur des données issues de machines tournantes. Les résultats expérimentaux montrent l’efficacité des deux méthodes. Les caractéristiques remarquables sont la stabilité de la sélection et la capacité à gérer des attributs linéairement corrélés pour "EN-ReliefF" et la sensibilité et la capacité à gérer des dépendances non linéaires pour la seconde
To monitor the functioning of a system, the number of measurements and attributes can now be very large. But it is desirable to reduce the size of the problem by keeping only the discriminating features to learn the monitoring rule and to reduce the processing demand. The problem is therefore to select a subset of attributes to obtain the best possible classification performance. This thesis dissertation presents different existing methods for feature selection and proposes two new ones. The first one, named "EN-ReliefF", is a combination of a sequential ReliefF method and a weighted regression approach: Elastic Net. The second one is inspired by neural networks. It is formulated as an optimization problem allowing defining at the same time a non-linear regression that adapts to the learning data and a parsimonious weighting of the features. The weights are then used to select the relevant features. Both methods are tested on synthesis data and data from rotating machines. Experimental results show the effectiveness of both methods. Remarkable characteristics are the stability of selection and ability to manage linearly correlated attributes for "EN-ReliefF" and the sensitivity and ability to manage non-linear dependencies for the second method
APA, Harvard, Vancouver, ISO, and other styles
16

Apatean, Anca Ioana. "Contributions à la fusion des informations : application à la reconnaissance des obstacles dans les images visible et infrarouge." Phd thesis, INSA de Rouen, 2010. http://tel.archives-ouvertes.fr/tel-00621202.

Full text
Abstract:
Afin de poursuivre et d'améliorer la tâche de détection qui est en cours à l'INSA, nous nous sommes concentrés sur la fusion des informations visibles et infrarouges du point de vue de reconnaissance des obstacles, ainsi distinguer entre les véhicules, les piétons, les cyclistes et les obstacles de fond. Les systèmes bimodaux ont été proposées pour fusionner l'information à différents niveaux: des caractéristiques, des noyaux SVM, ou de scores SVM. Ils ont été pondérés selon l'importance relative des capteurs modalité pour assurer l'adaptation (fixe ou dynamique) du système aux conditions environnementales. Pour évaluer la pertinence des caractéristiques, différentes méthodes de sélection ont été testés par un PPV, qui fut plus tard remplacée par un SVM. Une opération de recherche de modèle, réalisée par 10 fois validation croisée, fournit le noyau optimisé pour SVM. Les résultats ont prouvé que tous les systèmes bimodaux VIS-IR sont meilleurs que leurs correspondants monomodaux.
APA, Harvard, Vancouver, ISO, and other styles
17

Monrousseau, Thomas. "Développement du système d'analyse des données recueillies par les capteurs et choix du groupement de capteurs optimal pour le suivi de la cuisson des aliments dans un four." Thesis, Toulouse, INSA, 2016. http://www.theses.fr/2016ISAT0054.

Full text
Abstract:
Dans un monde où tous les appareils électro-ménagers se connectent et deviennent intelligents, il est apparu pour des industriels français le besoin de créer des fours de cuisson innovants capables de suivre l’état de cuisson à cœur de poissons et de viandes sans capteur au contact. Cette thèse se place dans ce contexte et se divise en deux grandes parties. La première est une phase de sélection d’attributs parmi un ensemble de mesures issues de capteurs spécifiques de laboratoire afin de permettre d’appliquer un algorithme de classification supervisée sur trois états de cuisson. Une méthode de sélection basée sur la logique floue a notamment été appliquée pour réduire grandement le nombre de variable à surveiller. La seconde partie concerne la phase de suivi de cuisson en ligne par plusieurs méthodes. Les techniques employées sont une approche par classification sur dix états à cœur, la résolution d’équation de la chaleur discrétisée, ainsi que le développement d’un capteur logiciel basé sur des réseaux de neurones artificiels synthétisés à partir d’expériences de cuisson, pour réaliser la reconstruction du signal de la température au cœur des aliments à partir de mesures disponibles en ligne. Ces algorithmes ont été implantés sur microcontrôleur équipant une version prototype d’un nouveau four afin d’être testés et validés dans le cas d’utilisations réelles
In a world where all personal devices become smart and connected, some French industrials created a project to make ovens able detecting the cooking state of fish and meat without contact sensor. This thesis takes place in this context and is divided in two major parts. The first one is a feature selection phase to be able to classify food in three states: under baked, well baked and over baked. The point of this selection method, based on fuzzy logic is to strongly reduce the number of features got from laboratory specific sensors. The second part concerns on-line monitoring of the food cooking state by several methods. These technics are: classification algorithm into ten bake states, the use of a discrete version of the heat equation and the development of a soft sensor based on an artificial neural network model build from cooking experiments to infer the temperature inside the food from available on-line measurements. These algorithms have been implemented on microcontroller equipping a prototype version of a new oven in order to be tested and validated on real use cases
APA, Harvard, Vancouver, ISO, and other styles
18

Bérodier, Marie. "Utilisation en ferme des données de génotypage pour une gestion optimisée et durable de l'élevage laitier." Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASA001.

Full text
Abstract:
Depuis une dizaine d’années, de nouvelles méthodes d’estimation du niveau génétique des bovins sont proposées aux éleveurs de race Montbéliarde. Ces méthodes reposent sur le génotypage des individus, c’est-à-dire la lecture du génome en certains points-clés afin de connaitre une partie de ses caractéristiques. Ces informations peuvent être utilisées au cours de la vie de l’animal pour choisir le meilleur partenaire afin de produire une descendance conforme aux attentes de l’éleveur.Par une augmentation de la fiabilité et le large éventail des informations à disposition pour planifier et optimiser les accouplements à venir, le génotypage des femelles permet un plus grand progrès génétique, un plus faible apparentement des couples et un risque de concevoir un embryon atteint d’anomalie génétique diminué. La prise en compte des objectifs de sélection spécifiques du système d’élevage où évolue le troupeau permet d’améliorer encore ces résultats
Over the last 10 years, new methods have emerged for farmers to estimate the genetic level of their Montbéliarde cattle. These methods rely on the genotyping of animals, an approach to read and interpret key parts of their genome. This genomic information can be used during the entire life of the animal in order to find the best mate to produce offspring according to the farmer’s expectations.Female genotyping allows for a higher genetic gain, a smaller mate co-ancestry and a reduced risk to conceive an embryo affected by a genetic defect thanks to more complete and reliable information to be used to optimize the matings. Considering farming systems specific breeding objectives when planning the matings further improves these results
APA, Harvard, Vancouver, ISO, and other styles
19

Rommel, Cédric. "Exploration de données pour l'optimisation de trajectoires aériennes." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLX066/document.

Full text
Abstract:
Cette thèse porte sur l'utilisation de données de vols pour l'optimisation de trajectoires de montée vis-à-vis de la consommation de carburant.Dans un premier temps nous nous sommes intéressé au problème d'identification de modèles de la dynamique de l'avion dans le but de les utiliser pour poser le problème d'optimisation de trajectoire à résoudre. Nous commençont par proposer une formulation statique du problème d'identification de la dynamique. Nous l'interpretons comme un problème de régression multi-tâche à structure latente, pour lequel nous proposons un modèle paramétrique. L'estimation des paramètres est faite par l'application de quelques variations de la méthode du maximum de vraisemblance.Nous suggérons également dans ce contexte d'employer des méthodes de sélection de variable pour construire une structure de modèle de régression polynomiale dépendant des données. L'approche proposée est une extension à un contexte multi-tâche structuré du bootstrap Lasso. Elle nous permet en effet de sélectionner les variables du modèle dans un contexte à fortes corrélations, tout en conservant la structure du problème inhérente à nos connaissances métier.Dans un deuxième temps, nous traitons la caractérisation des solutions du problème d'optimisation de trajectoire relativement au domaine de validité des modèles identifiés. Dans cette optique, nous proposons un critère probabiliste pour quantifier la proximité entre une courbe arbitraire et un ensemble de trajectoires échantillonnées à partir d'un même processus stochastique. Nous proposons une classe d'estimateurs de cette quantitée et nous étudions de façon plus pratique une implémentation nonparamétrique basé sur des estimateurs à noyau, et une implémentation paramétrique faisant intervenir des mélanges Gaussiens. Ce dernier est introduit comme pénalité dans le critère d'optimisation de trajectoire dans l'objectif l'intention d'obtenir directement des trajectoires consommant peu sans trop s'éloigner des régions de validité
This thesis deals with the use of flight data for the optimization of climb trajectories with relation to fuel consumption.We first focus on methods for identifying the aircraft dynamics, in order to plug it in the trajectory optimization problem. We suggest a static formulation of the identification problem, which we interpret as a structured multi-task regression problem. In this framework, we propose parametric models and use different maximum likelihood approaches to learn the unknown parameters.Furthermore, polynomial models are considered and an extension to the structured multi-task setting of the bootstrap Lasso is used to make a consistent selection of the monomials despite the high correlations among them.Next, we consider the problem of assessing the optimized trajectories relatively to the validity region of the identified models. For this, we propose a probabilistic criterion for quantifying the closeness between an arbitrary curve and a set of trajectories sampled from the same stochastic process. We propose a class of estimators of this quantity and prove their consistency in some sense. A nonparemetric implementation based on kernel density estimators, as well as a parametric implementation based on Gaussian mixtures are presented. We introduce the later as a penalty term in the trajectory optimization problem, which allows us to control the trade-off between trajectory acceptability and consumption reduction
APA, Harvard, Vancouver, ISO, and other styles
20

Akgul, Yeter. "Gestion de la consommation basée sur l’adaptation dynamique de la tension, fréquence et body bias sur les systèmes sur puce en technologie FD-SOI." Thesis, Montpellier 2, 2014. http://www.theses.fr/2014MON20132/document.

Full text
Abstract:
Au-delà du nœud technologique CMOS BULK 28nm, certaines limites ont été atteintes dans l'amélioration des performances en raison notamment d'une consommation énergétique devenant trop importante. C'est une des raisons pour lesquelles de nouvelles technologies ont été développées, notamment celles basées sur Silicium sur Isolant (SOI). Par ailleurs, la généralisation des architectures complexes de type multi-cœurs, accentue le problème de gestion de la consommation à grain-fin. Les technologies CMOS FD-SOI offrent de nouvelles opportunités pour la gestion de la consommation en permettant d'ajuster, outre les paramètres usuels que sont la tension d'alimentation et la fréquence d'horloge, la tension de body bias. C'est dans ce contexte que ce travail étudie les nouvelles possibilités offertes et explore des solutions innovantes de gestion dynamique de la tension d'alimentation, fréquence d'horloge et tension de body bias afin d'optimiser la consommation énergétique des systèmes sur puce. L'ensemble des paramètres tensions/fréquence permettent une multitude de points de fonctionnement, qui doivent satisfaire des contraintes de fonctionnalité et de performance. Ce travail s'intéresse donc dans un premier temps à une problématique de conception, en proposant une méthode d'optimisation du placement de ces points de fonctionnement. Une solution analytique permettant de maximiser le gain en consommation apporté par l'utilisation de plusieurs points de fonctionnement est proposée. La deuxième contribution importante de cette thèse concerne la gestion dynamique de la tension d'alimentation, de la fréquence et de la tension de body bias, permettant d'optimiser l'efficacité énergétique en se basant sur le concept de convexité. La validation expérimentale des méthodes proposées s'appuie sur des échantillons de circuits réels, et montre des gains en consommation moyens allant jusqu'à 35%
Beyond 28nm CMOS BULK technology node, some limits have been reached in terms of performance improvements. This is mainly due to the increasing power consumption. This is one of the reasons why new technologies have been developed, including those based on Silicon-On-Insulator (SOI). Moreover, the standardization of complex architectures such as multi-core architectures emphasizes the problem of power management at fine-grain. FD-SOI technologies offer new power management opportunities by adjusting, in addition to the usual parameters such as supply voltage and clock frequency, the body bias voltage. In this context, this work explores new opportunities and searches novel solutions for dynamically manage supply voltage, clock frequency and body bias voltage in order to optimize the power consumption of System on Chip.Adjusting supply voltage, frequency and body bias parameters allows multiple operating points, which must satisfy the constraints of functionality and performance. This work focuses initially at design time, proposing a method to optimize the placement of these operating points. An analytical solution to maximize power savings achieved through the use of several operating points is provided. The second important contribution of this work is a method based on convexity concept to dynamically manage the supply voltage, the frequency and the body bias voltage so as to optimize the energy efficiency. The experimental results based on real circuits show average power savings reaching 35%
APA, Harvard, Vancouver, ISO, and other styles
21

Ben, Hassine Soumaya. "Évaluation et requêtage de données multisources : une approche guidée par la préférence et la qualité des données : application aux campagnes marketing B2B dans les bases de données de prospection." Thesis, Lyon 2, 2014. http://www.theses.fr/2014LYO22012/document.

Full text
Abstract:
Avec l’avènement du traitement distribué et l’utilisation accrue des services web inter et intra organisationnels alimentée par la disponibilité des connexions réseaux à faibles coûts, les données multisources partagées ont de plus en plus envahi les systèmes d’informations. Ceci a induit, dans un premier temps, le changement de leurs architectures du centralisé au distribué en passant par le coopératif et le fédéré ; et dans un deuxième temps, une panoplie de problèmes d’exploitation allant du traitement des incohérences des données doubles à la synchronisation des données distribuées. C’est le cas des bases de prospection marketing où les données sont enrichies par des fichiers provenant de différents fournisseurs.Nous nous intéressons au cadre particulier de construction de fichiers de prospection pour la réalisation de campagnes marketing B-to-B, tâche traitée manuellement par les experts métier. Nous visons alors à modéliser le raisonnement de brokers humains, afin d’optimiser et d’automatiser la sélection du « plan fichier » à partir d’un ensemble de données d’enrichissement multisources. L’optimisation en question s’exprimera en termes de gain (coût, qualité) des données sélectionnées, le coût se limitant à l’unique considération du prix d’utilisation de ces données.Ce mémoire présente une triple contribution quant à la gestion des bases de données multisources. La première contribution concerne l’évaluation rigoureuse de la qualité des données multisources. La deuxième contribution porte sur la modélisation et l’agrégation préférentielle des critères d’évaluation qualité par l’intégrale de Choquet. La troisième contribution concerne BrokerACO, un prototype d’automatisation et d’optimisation du brokering multisources basé sur l’algorithme heuristique d’optimisation par les colonies de fourmis (ACO) et dont la Pareto-optimalité de la solution est assurée par l’utilisation de la fonction d’agrégation des préférences des utilisateurs définie dans la deuxième contribution. L’efficacité du prototype est montrée par l’analyse de campagnes marketing tests effectuées sur des données réelles de prospection
In Business-to-Business (B-to-B) marketing campaigns, manufacturing “the highest volume of sales at the lowest cost” and achieving the best return on investment (ROI) score is a significant challenge. ROI performance depends on a set of subjective and objective factors such as dialogue strategy, invested budget, marketing technology and organisation, and above all data and, particularly, data quality. However, data issues in marketing databases are overwhelming, leading to insufficient target knowledge that handicaps B-to-B salespersons when interacting with prospects. B-to-B prospection data is indeed mainly structured through a set of independent, heterogeneous, separate and sometimes overlapping files that form a messy multisource prospect selection environment. Data quality thus appears as a crucial issue when dealing with prospection databases. Moreover, beyond data quality, the ROI metric mainly depends on campaigns costs. Given the vagueness of (direct and indirect) cost definition, we limit our focus to price considerations.Price and quality thus define the fundamental constraints data marketers consider when designing a marketing campaign file, as they typically look for the "best-qualified selection at the lowest price". However, this goal is not always reachable and compromises often have to be defined. Compromise must first be modelled and formalized, and then deployed for multisource selection issues. In this thesis, we propose a preference-driven selection approach for multisource environments that aims at: 1) modelling and quantifying decision makers’ preferences, and 2) defining and optimizing a selection routine based on these preferences. Concretely, we first deal with the data marketer’s quality preference modelling by appraising multisource data using robust evaluation criteria (quality dimensions) that are rigorously summarized into a global quality score. Based on this global quality score and data price, we exploit in a second step a preference-based selection algorithm to return "the best qualified records bearing the lowest possible price". An optimisation algorithm, BrokerACO, is finally run to generate the best selection result
APA, Harvard, Vancouver, ISO, and other styles
22

Harsan, Horea. "Analyse cyclique de sécurité : approche temps réel et intégration dans la gestion prévisionnelle." Grenoble INPG, 1996. http://www.theses.fr/1996INPG0166.

Full text
Abstract:
L'un des aspects important de la conception et de l'exploitation des grands réseaux de transport et d'interconnexion est le maintien de la sécurité du système. Cette sécurité concerne aussi bien les limites thermiques sur les ouvrages de transport que les limites de tension aux noeuds du réseau (contraintes d'isolation et de stabilité). A cet effet, le développement de méthodes nouvelles qui permettront à l'opérateur d'exploiter le réseau de façon à ce qu'aucun incident ne puisse causer les dépassements de limites de sécurité du système, est de plus en plus une nécessité. Cette thèse présente un algorithme général pour rendre plus efficace l'naisse de sécurité et donc permettre une analyse réellement systématique des incidents. Cet outil est basé sur l'utilisation des informations intrinsèquement contenues dans les résultats d'une analyse de sécurité systématique. Ces dernières peuvent être utilisées à des instants suivants en temps réel ou pour construire la carte des contraintes sur un horizon journalier. Une partie importante de cette thèse est consacrée à l'intégration de l'analyse de sécurité cyclique dans la réalisation du couplage production-réseau (introduction de la sécurité réseau dans la gestion prévisionnelle). Les résultats obtenus sur des données de planification issues du dispatching national montrent un gain de temps considérable acquit grâce à l'analyse cyclique. Elle se prête également bien aux analyses successives utilisées dans les optimisations du plan de tension en sécurité N et N-1. Un des chapitres de cette thèse traite l'analyse cyclique de sécurité en parallèle. La validation de la stratégie de parallélisation choisie a été faite sur un ordinateur parallèle CRAY
APA, Harvard, Vancouver, ISO, and other styles
23

Gigan, Daniel. "Modélisation des comportements d'un pilote expert en situation de collision en vol vers une nouvelle technologie "voir et éviter" pour les drones : Pour un fonctionnalisme holistique à vocation intégrative." Thesis, Toulouse, ISAE, 2013. http://www.theses.fr/2013ESAE0022.

Full text
Abstract:
Le principe du “Voir et Eviter” est un principe essentiel pour la sécurité de l'espace aérienet nécessaire pour l'insertion des drones dans la Circulation Aérienne Générale (CAG). Lessolutions actuelles ne permettent pas toujours d'appliquer le principe du "Voir et Eviter" etn'assurent pas, par leurs actions d'évitements, une cohabitation sans risques des drones et desavions pilotés dans la CAG. Ces mêmes solutions ne permettent pas, avec un seul capteurpassif, la détermination, à tout moment, du temps restant avant collision. Ce temps estessentiel pour qualifier la dangerosité de la situation de collision et adapter, en conséquencede cette dangerosité, le comportement d'évitement. Aussi, pouvoir faire appliquer à unemachine le principe du "Voir et Eviter" tout en permettant une cohabitation sans risquesimplique un paradigme de conception basé sur la modélisation de l'être humain expert del'espace aérien, le pilote. Un tel paradigme s'applique d'ailleurs à toute problématiquenécessitant une cohabitation homme machine sans risque.Aussi, l'objectif de cette thèse est la modélisation des comportements d'un pilote expert ensituation de collision en vol. Cette modélisation permet de poser les premières basestechnologiques pour l'élaboration d'un nouveau système “Voir et Eviter” répondant auproblème d'intégration des machines dans la CAG.La modélisation proposée, résultat d'une démarche intégrative, s'appuie sur unedescription des processus cognitifs et des processus de traitement de l'information ainsi quesur l'organisation des unités ou systèmes qui encapsulent ces traitements. L'ensemble des cessystèmes et processus permet la résolution de problèmes et amène au comportementobservable qui est la solution du ou des problèmes posés par ou au travers de l'environnement.Cela a permis, notamment, la construction d'un modèle générique du processus cognitif etsensoriel d'identification par catégorisation et/ou classification d'objets. Cette modélisations'appuie mathématiquement sur les théories de régression non linéaire et sur l'utilisation desméthodes numériques pour la résolution de problèmes d'optimisation.Le nouveau système "Voir et Eviter" issu de cette modélisation, construit à partir d'unsimple capteur optique passif, émule, par des algorithmes simples, les processus de détection,de reconnaissance et de sélection d'une action amenant au comportement d'évitement dans unesituation de collision face à face avec un mobile protagoniste. Grâce au modèle générique decatégorisation et/ou de classification, le principal résultat technologique de cette thèse, qui estaussi la principale qualité de ce nouveau système "Voir et Eviter" proposé, est sa capacité àdéterminer, à tout moment, le temps restant avant la collision, avec un seul capteur passif. Deplus, par sa conception (bio et psycho mimétique), ce nouveau système pourrait bien poser lespremières bases d'une démarche de certification type Equivalent Level Of Safety (ELOS).Celle-ci permettrait alors une validation sécuritaire d'un système "Voir et Eviter" parcomparaison avec les pilotes de la CAG qui sont, par ailleurs, les véritables éléments desécurité de dernier recours de l'espace aérien actuel
The aim of this doctoral thesis is the modeling of expert pilot behaviors in flight collisions. This modeling gives the first echnologic steps to elaborate a new "sense and avoid" system allowing the future integration of Unmanned Air Vehicles in eneral air traffic. The proposed modeling is the result of global and holistic way and describes the cognitive process and he architecture of systems allowing the expression of these cognitive processes. This model allows solving the collision problem thanks to an observable and adapted piloted behavior. Besides a generic modeling of cognitive process of ategorization has been built and based on non linear regression theory and numeric methods for the resolution of ptimization problems.hanks to this global modeling, this new "sense and avoid" system is made of a simple passive optic sensor and it emulates he detection process, the recognition process and the and the actions selection process allowing the resolution of collision problem by a adapted piloted behavior. Thanks to the generic categorization modeling, the main technologic result is to be ble to determinate the Time To Collision (ITC) with a passive sensor. The determination of the TTC is essential for the 'sense and avoid" systems to get the level safety certification required to integrate drones in general air traffic
APA, Harvard, Vancouver, ISO, and other styles
24

Huang, Changwu. "Kriging-assisted evolution strategy for optimization and application in material parameters identification." Thesis, Normandie, 2017. http://www.theses.fr/2017NORMIR05.

Full text
Abstract:
Afin de réduire le coût de calcul pour des problèmes d'optimisation coûteuse, cette thèse a été consacrée à la Stratégie d'Evolution avec Adaptation de Matrice de Covariance assistée par modèle de Krigeage (KA-CMA-ES). Plusieurs algorithmes de KA-CMA-ES ont été développés et étudiés. Une application de ces algorithmes KA-CMA-ES développés est réalisée par l'identification des paramètres matériels avec un modèle constitutif d'endommagement élastoplastique. Les résultats expérimentaux démontrent que les algorithmes KA-CMA-ES développés sont plus efficaces que le CMA-ES standard. Ils justifient autant que le KA-CMA-ES couplé avec ARP-EI est le plus performant par rapport aux autres algorithmes étudiés dans ce travail. Les résultats obtenus par l'algorithme ARP-EI dans l'identification des paramètres matériels montrent que le modèle d'endommagement élastoplastique utilisé est suffisant pour décrire le comportement d'endommage plastique et ductile. Ils prouvent également que la KA-CMA-ES proposée améliore l'efficace de la CMA-ES. Par conséquent, le KA-CMA-ES est plus puissant et efficace que CMA-ES pour des problèmes d'optimisation coûteuse
In order to reduce the cost of solving expensive optimization problems, this thesis devoted to Kriging-Assisted Covariance Matrix Adaptation Evolution Strategy (KA-CMA-ES). Several algorithms of KA-CMA-ES were developed and a comprehensive investigation on KA-CMA-ES was performed. Then applications of the developed KA-CMA-ES algorithm were carried out in material parameter identification of an elastic-plastic damage constitutive model. The results of experimental studies demonstrated that the developed KA-CMA-ES algorithms generally are more efficient than the standard CMA-ES and that the KA-CMA-ES using ARP-EI has the best performance among all the investigated KA-CMA-ES algorithms in this work. The results of engineering applications of the algorithm ARP-EI in material parameter identification show that the presented elastic-plastic damage model is adequate to describe the plastic and ductile damage behavior and also prove that the proposed KA-CMA-ES algorithm apparently improve the efficiency of the standard CMA-ES. Therefore, the KA-CMA-ES is more powerful and efficient than CMA-ES for expensive optimization problems
APA, Harvard, Vancouver, ISO, and other styles
25

Vaiter, Samuel. "Régularisations de Faible Complexité pour les Problèmes Inverses." Phd thesis, Université Paris Dauphine - Paris IX, 2014. http://tel.archives-ouvertes.fr/tel-01026398.

Full text
Abstract:
Cette thèse se consacre aux garanties de reconstruction et de l'analyse de sensibilité de régularisation variationnelle pour des problèmes inverses linéaires bruités. Il s'agit d'un problème d'optimisation convexe combinant un terme d'attache aux données et un terme de régularisation promouvant des solutions vivant dans un espace dit de faible complexité. Notre approche, basée sur la notion de fonctions partiellement lisses, permet l'étude d'une grande variété de régularisations comme par exemple la parcimonie de type analyse ou structurée, l'antiparcimonie et la structure de faible rang. Nous analysons tout d'abord la robustesse au bruit, à la fois en termes de distance entre les solutions et l'objet original, ainsi que la stabilité de l'espace modèle promu. Ensuite, nous étudions la stabilité de ces problèmes d'optimisation à des perturbations des observations. À partir d'observations aléatoires, nous construisons un estimateur non biaisé du risque afin d'obtenir un schéma de sélection de paramètre.
APA, Harvard, Vancouver, ISO, and other styles
26

Belbekkouche, Abdeltouab. "Routage adaptatif et qualité de service dans les réseaux optiques à commutation de rafales." Thèse, 2010. http://hdl.handle.net/1866/4776.

Full text
Abstract:
Les réseaux optiques à commutation de rafales (OBS) sont des candidats pour jouer un rôle important dans le cadre des réseaux optiques de nouvelle génération. Dans cette thèse, nous nous intéressons au routage adaptatif et au provisionnement de la qualité de service dans ce type de réseaux. Dans une première partie de la thèse, nous nous intéressons à la capacité du routage multi-chemins et du routage alternatif (par déflection) à améliorer les performances des réseaux OBS, pro-activement pour le premier et ré-activement pour le second. Dans ce contexte, nous proposons une approche basée sur l’apprentissage par renforcement où des agents placés dans tous les nœuds du réseau coopèrent pour apprendre, continuellement, les chemins du routage et les chemins alternatifs optimaux selon l’état actuel du réseau. Les résultats numériques montrent que cette approche améliore les performances des réseaux OBS comparativement aux solutions proposées dans la littérature. Dans la deuxième partie de cette thèse, nous nous intéressons au provisionnement absolu de la qualité de service où les performances pire-cas des classes de trafic de priorité élevée sont garanties quantitativement. Plus spécifiquement, notre objectif est de garantir la transmission sans pertes des rafales de priorité élevée à l’intérieur du réseau OBS tout en préservant le multiplexage statistique et l’utilisation efficace des ressources qui caractérisent les réseaux OBS. Aussi, nous considérons l’amélioration des performances du trafic best effort. Ainsi, nous proposons deux approches : une approche basée sur les nœuds et une approche basée sur les chemins. Dans l’approche basée sur les nœuds, un ensemble de longueurs d’onde est assigné à chaque nœud du bord du réseau OBS pour qu’il puisse envoyer son trafic garanti. Cette assignation prend en considération les distances physiques entre les nœuds du bord. En outre, nous proposons un algorithme de sélection des longueurs d’onde pour améliorer les performances des rafales best effort. Dans l’approche basée sur les chemins, le provisionnement absolu de la qualité de service est fourni au niveau des chemins entre les nœuds du bord du réseau OBS. À cette fin, nous proposons une approche de routage et d’assignation des longueurs d’onde qui a pour but la réduction du nombre requis de longueurs d’onde pour établir des chemins sans contentions. Néanmoins, si cet objectif ne peut pas être atteint à cause du nombre limité de longueurs d’onde, nous proposons de synchroniser les chemins en conflit sans le besoin pour des équipements additionnels. Là aussi, nous proposons un algorithme de sélection des longueurs d’onde pour les rafales best effort. Les résultats numériques montrent que l’approche basée sur les nœuds et l’approche basée sur les chemins fournissent le provisionnement absolu de la qualité de service pour le trafic garanti et améliorent les performances du trafic best effort. En outre, quand le nombre de longueurs d’ondes est suffisant, l’approche basée sur les chemins peut accommoder plus de trafic garanti et améliorer les performances du trafic best effort par rapport à l’approche basée sur les nœuds.
Optical Burst Switching (OBS) networks are candidates to play an important role in the context of next generation optical networks. In this thesis, we are interested in adaptive routing and quality of service provisioning for these networks. In the first part of the thesis, we study the capability of multi-path routing and alternative routing (deflection routing) to improve the performance of the OBS network proactively for the former and reactively for the latter. In this context, we propose a reinforcement learning-based approach where learning agents, placed in each OBS node, cooperate to learn, continuously, optimal routing paths and alternative paths according to the current state of the network. Numerical results show that the proposed approach improves the performance of the OBS network compared to existing solutions in the literature. In the second part of the thesis, we consider the problem of absolute quality of service provisioning for OBS networks where worst-case performance of high priority traffic is guaranteed quantitatively. Particularly, we are interested in the loss-free transmission, inside the OBS network, of high priority bursts, while preserving statistical multiplexing gain and high resources utilization of the OBS network. Also, we aim to improve the performance of best effort traffic. Hence, we propose two approaches: (a) the node-based approach; and (b) the path-based approach. In the node-based approach, we propose to assign a set of wavelengths to each OBS edge node that it can use to send its guaranteed traffic. This assignment takes into consideration physical distances between edge nodes. Furthermore, we propose a wavelength selection algorithm to improve the performance of best effort bursts. In the path-based approach, absolute quality of service provisioning is offered at end-to-end path level. To do this, we propose a routing and wavelength assignment approach which aims to reduce the number of wavelengths required to establish contention free paths. Nevertheless, if this objective cannot be reached because of the limited number of wavelengths in each fiber link, we propose an approach to synchronize overlapping paths without the need for additional equipments for synchronization. Here again, we propose a wavelength selection algorithm for best effort bursts. Numerical results show that both the node-based and the path-based approaches successfully provide absolute quality of service provisioning for guaranteed traffic and improve the performance of best effort traffic. Also, path-based approach could accommodate more guaranteed traffic and improve the performance of best effort traffic compared to node-based approach when the number of wavelengths is sufficient.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography