To see the other types of publications on this topic, follow the link: Optimisation de boîte noire.

Dissertations / Theses on the topic 'Optimisation de boîte noire'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 45 dissertations / theses for your research on the topic 'Optimisation de boîte noire.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Ros, Raymond. "Optimisation Continue Boîte Noire : Comparaison et Conception d'Algorithmes." Phd thesis, Université Paris Sud - Paris XI, 2009. http://tel.archives-ouvertes.fr/tel-00595922.

Full text
Abstract:
En optimisation continue, un problème donné consiste à trouver l'optimum d'une fonction objectif f définie dans R^n à valeur dans R. Dans ce contexte, le scénario boîte noire fait l'hypothèse que seule l'évaluation de f nous fournit de l'information. Dans une première partie, nous étudions l'algorithme CMA-ES, stratégie d'évolution avec adaptation de la matrice de covariance ; une approche reconnue pour résoudre les problèmes d'optimisation boîte noire. Nous démontrons les limites de cet algorithme en terme de complexités spatiale et temporelle pour faire face à des problèmes à grande dimensionalité. Pour dépasser ces limites, nous proposons des variantes de CMA-ES qui ne mettent à jour que les éléments diagonaux par bloc de la matrice de covariance, qui exploitent donc la séparabilité. Nous montrons que ces variantes peuvent avoir de meilleures performances que CMA-ES sur des fonctions non-séparables à condition que le problème considéré ait une dimension assez grande. Dans une seconde partie, nous définissons et exploitons un cadre expérimental pour la comparaison systématique de résultats en optimisation boîte noire, où les pratiquants du domaine peuvent ainsi tester et comparer des algorithmes sur des fonctions artificielles. Nos résultats montrent la dépendance des performances des algorithmes en fonction du budget alloué à l'optimisation. Des méthodes classiques telles que NEWUOA ou BFGS sont ainsi appropriées à des petits budgets. L'approche CMA-ES avec redémarrage et contrôle de la taille de population obtient de bons résultats pour des budgets plus larges. Le logiciel COCO pour COmparing Continuous Optimisers, utilisé pour faire ces comparaisons systématiques est décrit techniquement dans une troisième partie. COCO sert d'implémentation de notre cadre expérimental et permet en plus de fournir des résultats tels que ceux que nous exploitons dans ce document.
APA, Harvard, Vancouver, ISO, and other styles
2

Irfan, Muhammad Naeem. "Analyse et optimisation d'algorithmes pour l'inférence de modèles de composants logiciels." Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00767894.

Full text
Abstract:
Les Components-Off-The-Shelf (COTS) sont utilisés pour le développement rapide et efficace de logiciels tout en limitant le coût. Il est important de tester le fonctionnement des composants dans le nouvel environnement. Pour les logiciels tiers,le code source des composants, les spécifications et les modèles complets ne sont pas disponibles. Dans la littérature de tels systèmes sont appelés composants "boîte noire". Nous pouvons vérifier leur fonctionnement avec des tests en boîte noire tels que le test de non-régression, le test aléatoire ou le test à partir de modèles. Pour ce dernier, un modèle qui représente le comportement attendu du système sous test(SUT) est nécessaire. Ce modèle contient un ensemble d'entrées, le comportement du SUT après stimulation par ces entrées et l'état dans lequel le système se trouve.Pour les systèmes en boîte noire, les modèles peuvent être extraits à partir des traces d'exécutions, des caractéristiques disponibles ou encore des connaissances des experts. Ces modèles permettent ensuite d'orienter le test de ces systèmes.Les techniques d'inférence de modèles permettent d'extraire une information structurelle et comportementale d'une application et de la présenter sous forme d'un modèle formel. Le modèle abstrait appris est donc cohérent avec le comportement du logiciel. Cependant, les modèles appris sont rarement complets et il est difficile de calculer le nombre de tests nécessaires pour apprendre de façon complète et précise un modèle.Cette thèse propose une analyse et des améliorations de la version Mealy de l'algorithme d'inférence L* [Angluin 87]. Elle vise à réduire le nombre de tests nécessaires pour apprendre des modèles. La version Mealy de L* nécessite d'utiliser deux types de test. Le premier type consiste à construire les modèles à partir des sorties du système, tandis que le second est utilisé pour tester l'exactitude des modèles obtenus. L'algorithme utilise ce que l'on appelle une table d'observation pour enregistrer les réponses du système.Le traitement d'un contre-exemple peut exiger d'envoyer un nombre conséquent de requêtes au système. Cette thèse aborde ce problème et propose une technique qui traite les contre-exemples de façon efficace. Nous observons aussi que l'apprentissage d'un modèle ne nécessite pas de devoir remplir complètement ces tables. Nous proposons donc un algorithme d'apprentissage qui évite de demander ces requêtes superflues.Dans certains cas, pour apprendre un modèle, la recherche de contre-exemples peut coûter cher. Nous proposons une méthode qui apprend des modèles sans demander et traiter des contre-exemples. Cela peut ajouter de nombreuses colonnes à la table d'observation mais au final, nous n'avons pas besoin d'envoyer toutes les requêtes. Cette technique ne demande que les requêtes nécessaires.Ces contributions réduisent le nombre de tests nécessaires pour apprendre des modèles de logiciels, améliorant ainsi la complexité dans le pire cas. Nous présentons les extensions que nous avons apportées à l'outil RALT pour mettre en oeuvre ces algorithmes. Elles sont ensuite validées avec des exemples tels que les tampons, les distributeurs automatiques, les protocoles d'exclusion mutuelle et les planificateurs.
APA, Harvard, Vancouver, ISO, and other styles
3

Varelas, Konstantinos. "Randomized Derivative Free Optimization via CMA-ES and Sparse Techniques : Applications to Radars." Thesis, Institut polytechnique de Paris, 2021. http://www.theses.fr/2021IPPAX012.

Full text
Abstract:
Dans cette thèse, nous étudions des aspects des méthodes aléatoires adaptatives pour l’optimisation continue sans gradients. Les algorithmes que nous étudions sont basés sur l’algorithme Covariance Matrix Adaptation Evolution Strategy (CMA-ES) et se concentrent sur des problèmes d’optimisation en grande dimension.Nous commençons par une description de CMA-ES et sa relation avec le cadre de Information Geometric Optimization (IGO), suivie d’une étude comparative de variantes de CMA-ES à grande échelle. Nous proposons en outre de nouvelles méthodes qui intègrent des outils d’estimation en grande dimension au sein de CMA-ES, afin d’obtenir des algorithmes plus efficaces pour des problèmes partiellement séparables.De plus, nous décrivons la méthodologie pour l’évaluation de la performance des algorithmes adopté par la plateforme Comparing Continuous Optimizers (COCO), et finalisons la suite de tests bbob-largescale, une nouvelle suite d’analyse comparative avec des problèmes de grandes dimensions et avec un faible coût de calcul.Enfin, nous présentons la formulation, la méthodologie et les résultats obtenus pour deux applications liées aux problèmes de Radar, le problème d’optimisation du code de phase et le problème de synthèse des faisceaux
In this thesis, we investigate aspects of adaptive randomized methods for black-box continuous optimization. The algorithms that we study are based on the Covariance Matrix Adaptation Evolution Strategy (CMA-ES) algorithm and focus on large scale optimization problems.We start with a description of CMA-ES and its relation to the Information Geometric Optimization (IGO) framework, succeeded by a comparative study of large scale variants of CMA-ES. We furthermore propose novel methods which integrate tools of high dimensional analysis within CMA-ES, to obtain more efficient algorithms for large scale partially separable problems.Additionally, we describe the methodology for algorithm performance evaluation adopted by the Comparing Continuous Optimizers (COCO) platform, and finalize the bbob-largescale test suite, a novel benchmarking suite with problems of increased dimensions and with a low computational cost.Finally, we present the formulation, methodology and obtained results for two applications related to Radar problems, the Phase Code optimization problem and the Phased-Array Pattern design problem
APA, Harvard, Vancouver, ISO, and other styles
4

Nguyen, Xuan-Nam. "Une approche « boite noire » pour résoudre le problème de placement des règles dans un réseau OpenFlow." Thesis, Nice, 2016. http://www.theses.fr/2016NICE4012/document.

Full text
Abstract:
Le grand nombre d’appareils connectés combiné au volume croissant de trafic ont poussé les réseaux dans leurs derniers retranchements. Pour résoudre ce problème, l’approche “Software-Defined Networking” (SDN) qui découple le plan de contrôle du plan de données a été proposée. OpenFlow est un nouveau protocole qui réalise le concept SDN. Pour traiter ces flux, OpenFlow utilise des listes de règles sur les commutateurs. Ces règles sont utilisées pour déterminer les actions dans le réseau. Ceci permet de simplifier la mise en place de services réseaux complexes mais soulève la question de savoir quelles règles définir et où les placer dans le réseau afin d’en respecter ses contraintes. Dans cette thèse, nous nous concentrons sur le problème de placement de règles dans OpenFlow (ORPP) et proposons une abstraction de type boite noire afin de masquer la gestion du réseau. Tout d'abord, nous formalisons le problème de placement de règles et faisons une étude des solutions existantes. Les solutions existantes sont cependant inefficaces car elles reposent majoritairement sur le concept du plus court chemin. Nous proposons de relaxer le problème en autorisant l’utilisation de chemins arbitraires et proposons deux algorithmes complémentaires : OFFICER et aOFFICER. L'idée générale d’OFFICER et aOFFICER est d’utiliser les chemins les plus efficaces pour le trafic de haute importance et autoriser le trafic de plus basse importance à suivre des détours. Ces deux propositions sont évaluées en utilisant des traces de trafic. Finalement, nous appliquons le principe de la boite noire pour améliorer les performances d'un service de diffusion de contenus dans les réseaux cellulaires
The massive number of connected devices combined with an increasing traffic push network operators to their limit by limiting their profitability. To tackle this problem, Software-Defined Networking (SDN), which decouples network control logic from forwarding devices, has been proposed. An important part of the SDN concepts is implemented by the OpenFlow protocol that abstracts network communications as flows and processes them using a prioritized list of rules on the network forwarding elements. While the abstraction offered by OpenFlow allows to implement many applications, it raises the new problem of how to define the rules and where to place them in the network while respecting all requirements, which we refer as the OpenFlow Rules Placement Problem (ORPP). In this thesis, we focus on the ORPP and hide the complexity of network management by proposing a black box abstraction. First, we formalize that problem, classify and discuss existing solutions. We discover that most of the solutions enforce the routing policy when placing rules, which is not memory efficient in some cases. Second, by trading routing for better resource efficiency, we propose OFFICER and aOFFICER, two frameworks that select OpenFlow rules satisfying policies and network constraints, while minimizing overheads. The main idea of OFFICER an aOFFICER is to give high priority for large flows to be installed on efficient paths, and let other flows follow default paths. These proposals are evaluated and compared to existing solutions in realistic scenarios. Finally, we study a use case of the black box abstraction, in which we improve the performance of content delivery services in cellular networks
APA, Harvard, Vancouver, ISO, and other styles
5

Berthier, Vincent. "Studies on Stochastic Optimisation and applications to the Real-World." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS336/document.

Full text
Abstract:
Un grand nombre d'études ont été faites dans le domaine de l'Optimisation Stochastique en général et les Algorithmes Génétiques en particulier. L'essentiel des nouveaux développements ou des améliorations faites sont alors testés sur des jeux de tests très connus tels que BBOB, CEC, etc. conçus de telle manière que soient présents les principaux défis que les optimiseurs doivent relever : non séparabilité, multimodalité, des vallées où le gradient est quasi-nul, et ainsi de suite. La plupart des études ainsi faites se déroulent via une application directe sur le jeu de test, optimisant un nombre donné de variables pour atteindre un critère précis. La première contribution de ce travail consiste à étudier l'impact de la remise en cause de ce fonctionnement par deux moyens : le premier repose sur l'introduction d'un grand nombre de variables qui n'ont pas d'impact sur la valeur de la fonction optimisée ; le second quant à lui relève de l'étude des conséquences du mauvais conditionnement d'une fonction en grande dimension sur les performances des algorithmes d'optimisation stochastique. Une deuxième contribution se situe dans l'étude de l'impact de la modification des mutations de l'algorithme CMA-ES,où, au lieu d'utiliser des mutations purement aléatoires, nous allons utiliser des mutations quasi-aléatoires. Ce travail introduit également la ``Sieves Method'', bien connue des statisticiens. Avec cette méthode, nous commençons par optimiser un faible nombre de variables, nombre qui est ensuite graduellement incrémenté au fil de l'optimisation.Bien que les jeux de tests existants sont bien sûr très utiles, ils ne peuvent constituer que la première étape : dans la plupart des cas, les jeux de tests sont constitués d'un ensemble de fonctions purement mathématiques, des plus simples comme la sphère, aux plus complexes. Le but de la conception d'un nouvel optimiseur, ou l'amélioration d'un optimiseur existant, doit pourtant in fine être de répondre à des problèmes du monde réel. Ce peut-être par exemple la conception d'un moteur plus efficace, d'identifier les bons paramètres d'un modèle physique ou encore d'organiser des données en groupes.Les optimiseurs stochastiques sont bien évidemment utilisés sur de tels problèmes, mais dans la plupart des cas, un optimiseur est choisi arbitrairement puis appliqué au problème considéré. Nous savons comment les optimiseurs se comparent les uns par rapport aux autres sur des fonctions artificielles, mais peu de travaux portent sur leur efficacité sur des problèmes réels. L'un des principaux aspects de des travaux présentés ici consiste à étudier le comportement des optimiseurs les plus utilisés dans la littérature sur des problèmes inspirés du monde réel, voire des problèmes qui en viennent directement. Sur ces problèmes, les effets des mutations quasi-aléatoires de CMA-ES et de la``Sieves Method'' sont en outre étudiés
A lot of research is being done on Stochastic Optimisation in general and Genetic Algorithms in particular. Most of the new developments are then tested on well know testbeds like BBOB, CEC, etc. conceived to exhibit as many pitfalls as possible such as non-separability, multi-modality, valleys with an almost null gradient and so on. Most studies done on such testbeds are pretty straightforward, optimising a given number of variables for there cognized criterion on the testbed. The first contribution made here is to study the impact of some changes in those assumptions, namely the effect of supernumerary variables that don't change anything to a function evaluation on the one hand, and the effect of a change of the studied criterion on the other hand. A second contribution is in the modification of the mutation design for the algorithm CMA-ES, where we will use Quasi-Random mutations instead of purely random ones. This will almost always result in a very clear improvement ofthe observed results. This research also introduces the Sieves Method well known in statistics, to stochastic optimisers: by first optimising a small subset of the variables and gradually increasing the number of variables during the optimization process, we observe on some problems a very clear improvement. While artificial testbeds are of course really useful, they can only be the first step: in almost every case, the testbeds are a collection of purely mathematical functions, from the simplest one like the sphere, to some really complex functions. The goal of the design of new optimisers or the improvement of an existing one is however, in fine, to answer some real world question. It can be the design of a more efficient engine, finding the correct parameters of a physical model or even to organize data in clusters. Stochastic optimisers are used on those problems, in research or industry, but in most instances, an optimiser ischosen almost arbitrarily. We know how optimisers compare on artificial functions, but almost nothing is known abouttheir performances on real world problems. One of the main aspect of the research exposed here will be to compare someof the most used optimisers in the literature on problems inspired or directly coming from the real-world. On those problems, we will additionally test the efficiency of quasi-random mutations in CMA-ES and the Sieves-Method
APA, Harvard, Vancouver, ISO, and other styles
6

Jankovic, Anja. "Towards Online Landscape-Aware Algorithm Selection in Numerical Black-Box Optimization." Electronic Thesis or Diss., Sorbonne université, 2021. http://www.theses.fr/2021SORUS302.

Full text
Abstract:
Les algorithmes d'optimisation de boîte noire (BBOA) sont conçus pour des scénarios où les formulations exactes de problèmes sont inexistantes, inaccessibles, ou trop complexes pour la résolution analytique. Les BBOA sont le seul moyen de trouver une bonne solution à un tel problème. En raison de leur applicabilité générale, les BBOA présentent des comportements différents lors de l'optimisation de différents types de problèmes. Cela donne un problème de méta-optimisation consistant à choisir l'algorithme le mieux adapté à un problème particulier, appelé problème de sélection d'algorithmes (AS). La vision d'automatiser cette sélection a vite gagné du terrain dans la communauté. Un moyen important de le faire est l'AS tenant compte du paysage, où le choix de l'algorithme est basé sur la prédiction de ses performances via des représentations numériques d'instances de problèmes appelées caractéristiques. Un défi clé auquel l'AS tenant compte du paysage est confrontée est le coût de calcul de l'extraction des caractéristiques, une étape qui précède l'optimisation. Dans cette thèse, nous proposons une approche d'AS tenant compte du paysage basée sur la trajectoire de recherche qui intègre cette étape d'extraction dans celle d'optimisation. Nous montrons que les caractéristiques calculées à l'aide de la trajectoire conduisent à des prédictions robustes et fiables des performances des algorithmes, et à de puissants modèles d'AS construits dessus. Nous présentons aussi plusieurs analyses préparatoires, y compris une perspective de combinaison de 2 stratégies de régression complémentaires qui surpasse des modèles classiques de régression simple et amplifie la qualité du sélecteur
Black-box optimization algorithms (BBOAs) are conceived for settings in which exact problem formulations are non-existent, inaccessible, or too complex for an analytical solution. BBOAs are essentially the only means of finding a good solution to such problems. Due to their general applicability, BBOAs can exhibit different behaviors when optimizing different types of problems. This yields a meta-optimization problem of choosing the best suited algorithm for a particular problem, called the algorithm selection (AS) problem. By reason of inherent human bias and limited expert knowledge, the vision of automating the selection process has quickly gained traction in the community. One prominent way of doing so is via so-called landscape-aware AS, where the choice of the algorithm is based on predicting its performance by means of numerical problem instance representations called features. A key challenge that landscape-aware AS faces is the computational overhead of extracting the features, a step typically designed to precede the actual optimization. In this thesis, we propose a novel trajectory-based landscape-aware AS approach which incorporates the feature extraction step within the optimization process. We show that the features computed using the search trajectory samples lead to robust and reliable predictions of algorithm performance, and to powerful algorithm selection models built atop. We also present several preparatory analyses, including a novel perspective of combining two complementary regression strategies that outperforms any of the classical, single regression models, to amplify the quality of the final selector
APA, Harvard, Vancouver, ISO, and other styles
7

Samaké, Oumar. "Analyse thermo-économique d'un système de dessalement par thermocompression de vapeur et conception de l'éjecteur." Thèse, Université de Sherbrooke, 2016. http://hdl.handle.net/11143/8782.

Full text
Abstract:
L’objectif de cette thèse est de présenter les travaux d’une analyse thermo-économique d’un système de dessalement par distillation dans l’optique de revaloriser les pertes thermiques industrielles. Les rejets en question sont ceux d’un moteur Diesel utilisé dans une centrale de production d’électricité. Premièrement, une étude préliminaire est faite en utilisant un modèle boite noire. L’optimisation des fonctions objectives de ce modèle a permis de déterminer les paramètres de conception. Ensuite un nouveau modèle d’éjecteur distinct des deux modèles classiques utilisés en thermodynamique (à pression et à section constante) est développé. Les performances des procédés de détente et de compression dans cet éjecteur sont calculées en appliquant un rendement polytropique comme dans les turbomachines. La méthode développée a permis de déterminer toutes les dimensions de l’éjecteur ainsi que la position de l’onde de choc. Enfin une analyse détaillée du système de dessalement est faite pour déterminer le nombre d’effets ou cellules et les conditions qui permettent de satisfaire les conditions optimales obtenues lors de l’analyse préliminaire. L’analyse thermodynamique se base sur un tout nouveau modèle mathématique qui permet de simuler à la fois les deux configurations les plus utilisées en dessalement. De plus, une analyse thermo-économique basée sur l’exergo-économie a permis de calculer le coût de production et les investissements nécessaires.
APA, Harvard, Vancouver, ISO, and other styles
8

Torossian, Léonard. "Méthodes d'apprentissage statistique pour la régression et l'optimisation globale de mesures de risque." Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30192.

Full text
Abstract:
Cette thèse s'inscrit dans le contexte général de l'estimation et de l'optimisation de fonctions de type boîte noire dont la sortie est une variable aléatoire. Motivé par la nécessité de quantifier l'occurrence d'événements extrêmes dans des disciplines comme la médecine, l'agriculture ou la finance, dans cette thèse des indicateurs sur certaines propriétés de la distribution en sortie, comme la variance ou la taille des queues de dis- tribution, sont étudiés. De nombreux indicateurs, aussi connus sous le nom de mesure de risque, ont été proposés dans la littérature ces dernières années. Dans cette thèse nous concentrons notre intérêt sur les quantiles, CVaR et expectiles. Dans un premier temps, nous comparons les approches K-plus proches voisins, forêts aléatoires, régression dans les RKHS, régression par réseaux de neurones et régression par processus gaussiens pour l'estimation d'un quantile conditionnel d'une fonction boite noire. Puis, nous proposons l'utilisation d'un modèle de régression basé sur le couplage de deux processus gaussiens estimés par une méthode variationnelle. Nous montrons que ce modèle, ini- tialement développé pour la régression quantile, est facilement adaptable à la régression d'autres mesures de risque. Nous l'illustrons avec l'expectile. Dans un second temps, nous analysons le problème relatif à l'optimisation d'une mesure de risque. Nous proposons une approche générique inspirée de la littérature X-armed bandits, permettantde fournir un algorithme d'optimisation, ainsi qu'une borne supérieure sur le regret, adaptable au choix de la mesure de risque. L'applicabilité de cette approche est illustrée par l'optimisation d'un quantile ou d'une CVaR. Enfin, nous proposons des algorithmes d'optimisation utilisant des processus gaussiens associés aux stratégies UCB et Thompson sampling, notre objectif étant l'optimisation d'un quantile ou d'un expectile
This thesis presents methods for estimation and optimization of stochastic black box functions. Motivated by the necessity to take risk-averse decisions in medecine, agriculture or finance, in this study we focus our interest on indicators able to quantify some characteristics of the output distribution such as the variance or the size of the tails. These indicators also known as measure of risk have received a lot of attention during the last decades. Based on the existing literature on risk measures, we chose to focus this work on quantiles, CVaR and expectiles. First, we will compare the following approaches to perform quantile regression on stochastic black box functions: the K-nearest neighbors, the random forests, the RKHS regression, the neural network regression and the Gaussian process regression. Then a new regression model is proposed in this study that is based on chained Gaussian processes inferred by variational techniques. Though our approach has been initially designed to do quantile regression, we showed that it can be easily applied to expectile regression. Then, this study will focus on optimisation of risk measures. We propose a generic approach inspired from the X-armed bandit which enables the creation of an optimiser and an upper bound on the simple regret that can be adapted to any risk measure. The importance and relevance of this approach is illustrated by the optimization of quantiles and CVaR. Finally, some optimisation algorithms for the conditional quantile and expectile are developed based on Gaussian processes combined with UCB and Thompson sampling strategies
APA, Harvard, Vancouver, ISO, and other styles
9

Bittar, Thomas. "Stochastic optimization of maintenance scheduling : blackbox methods, decomposition approaches - Theoretical and numerical aspects." Thesis, Marne-la-vallée, ENPC, 2021. http://www.theses.fr/2021ENPC2004.

Full text
Abstract:
Le but de cette thèse est de développer des algorithmes pour la planification optimale de la maintenance. On s'intéresse à des systèmes de grande taille constitués de plusieurs composants liés par un stock commun de pièces de rechange. Les tests numériques sont effectués sur des systèmes de composants d'une même centrale hydroélectrique. La première partie est consacrée à l'étude des méthodes de type boîte noire qui sont souvent utilisées pour la planification de la maintenance. On s'intéresse à un algorithme basé sur le krigeage, Efficient Global Optimization (EGO), et à une méthode de recherche directe, Mesh Adaptive Direct Search (MADS). On présente le fonctionnement des algorithmes aussi bien d'un point de vue théorique que pratique et on propose quelques améliorations pour l'implémentation d'EGO. On compare MADS et EGO sur un banc d'essai académique et sur des cas industriels de petite taille, montrant la supériorité de MADS mais aussi les limites des méthodes boîte noire lorsque l'on veut s'attaquer à des problèmes de grande taille. Dans une deuxième partie, on veut prendre en compte la structure du système, constitué de plusieurs composants liés par un stock commun, afin de pouvoir résoudre des problèmes d'optimisation de maintenance en grande dimension. Dans ce but, on développe un modèle de la dynamique du système étudié et on formule explicitement un problème de contrôle optimal stochastique. On met en place un schéma de décomposition par prédiction, basé sur le Principe du Problème Auxiliaire (PPA), qui permet de ramener la résolution du problème en grande dimension à la résolution itérative d'une suite de sous-problèmes de plus petite taille. La décomposition est d'abord appliquée sur des cas tests académiques où elle se révèle très performante. Dans le cas industriel, il est nécessaire de procéder à une "relaxation" du système pour appliquer la méthode de décomposition. Lors des tests numériques, on résout une approximation de Monte-Carlo du problème. La décomposition permet d'obtenir des gains substantiels par rapport à l'algorithme de référence. Pour résoudre l'approximation de Monte-Carlo du problème de maintenance, on a utilisé une version déterministe du PPA. Dans la troisième partie, on étudie le PPA dans le cadre de l'approximation stochastique dans un espace de Banach. On prouve la mesurabilité des itérés de l'algorithme, on étend aux espaces de Banach des résultats de convergence existant dans les espaces de Hilbert et on donne des vitesses de convergence
The aim of the thesis is to develop algorithms for optimal maintenance scheduling. We focus on the specific case of large systems that consist of several components linked by a common stock of spare parts. The numerical experiments are carried out on systems of components from a single hydroelectric power plant.The first part is devoted to blackbox methods which are commonly used in maintenance scheduling. We focus on a kriging-based algorithm, Efficient Global Optimization (EGO), and on a direct search method, Mesh Adaptive Direct Search (MADS). We present a theoretical and practical review of the algorithms as well as some improvements for the implementation of EGO. MADS and EGO are compared on an academic benchmark and on small industrial maintenance problems, showing the superiority of MADS but also the limitation of the blackbox approach when tackling large-scale problems.In a second part, we want to take into account the fact that the system is composed of several components linked by a common stock in order to address large-scale maintenance optimization problems. For that purpose, we develop a model of the dynamics of the studied system and formulate an explicit stochastic optimal control problem. We set up a scheme of decomposition by prediction, based on the Auxiliary Problem Principle (APP), that turns the resolution of the large-scale problem into the iterative resolution of a sequence of subproblems of smaller size. The decomposition is first applied on synthetic test cases where it proves to be very efficient. For the industrial case, a "relaxation" of the system is needed and developed to apply the decomposition methodology. In the numerical experiments, we solve a Sample Average Approximation (SAA) of the problem and show that the decomposition leads to substantial gains over the reference algorithm.As we use a SAA method, we have considered the APP in a deterministic setting. In the third part, we study the APP in the stochastic approximation framework in a Banach space. We prove the measurability of the iterates of the algorithm, extend convergence results from Hilbert spaces to Banach spaces and give efficiency estimates
APA, Harvard, Vancouver, ISO, and other styles
10

Loshchilov, Ilya. "Surrogate-Assisted Evolutionary Algorithms." Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00823882.

Full text
Abstract:
Les Algorithmes Évolutionnaires (AEs) ont été très étudiés en raison de leur capacité à résoudre des problèmes d'optimisation complexes en utilisant des opérateurs de variation adaptés à des problèmes spécifiques. Une recherche dirigée par une population de solutions offre une bonne robustesse par rapport à un bruit modéré et la multi-modalité de la fonction optimisée, contrairement à d'autres méthodes d'optimisation classiques telles que les méthodes de quasi-Newton. La principale limitation de AEs, le grand nombre d'évaluations de la fonction objectif, pénalise toutefois l'usage des AEs pour l'optimisation de fonctions chères en temps calcul. La présente thèse se concentre sur un algorithme évolutionnaire, Covariance Matrix Adaptation Evolution Strategy (CMA-ES), connu comme un algorithme puissant pour l'optimisation continue boîte noire. Nous présentons l'état de l'art des algorithmes, dérivés de CMA-ES, pour résoudre les problèmes d'optimisation mono- et multi-objectifs dans le scénario boîte noire. Une première contribution, visant l'optimisation de fonctions coûteuses, concerne l'approximation scalaire de la fonction objectif. Le meta-modèle appris respecte l'ordre des solutions (induit par la valeur de la fonction objectif pour ces solutions) ; il est ainsi invariant par transformation monotone de la fonction objectif. L'algorithme ainsi défini, saACM-ES, intègre étroitement l'optimisation réalisée par CMA-ES et l'apprentissage statistique de meta-modèles adaptatifs ; en particulier les meta-modèles reposent sur la matrice de covariance adaptée par CMA-ES. saACM-ES préserve ainsi les deux propriété clé d'invariance de CMA-ES~: invariance i) par rapport aux transformations monotones de la fonction objectif; et ii) par rapport aux transformations orthogonales de l'espace de recherche. L'approche est étendue au cadre de l'optimisation multi-objectifs, en proposant deux types de meta-modèles (scalaires). La première repose sur la caractérisation du front de Pareto courant (utilisant une variante mixte de One Class Support Vector Machone (SVM) pour les points dominés et de Regression SVM pour les points non-dominés). La seconde repose sur l'apprentissage d'ordre des solutions (rang de Pareto) des solutions. Ces deux approches sont intégrées à CMA-ES pour l'optimisation multi-objectif (MO-CMA-ES) et nous discutons quelques aspects de l'exploitation de meta-modèles dans le contexte de l'optimisation multi-objectif. Une seconde contribution concerne la conception d'algorithmes nouveaux pour l'optimi\-sation mono-objectif, multi-objectifs et multi-modale, développés pour comprendre, explorer et élargir les frontières du domaine des algorithmes évolutionnaires et CMA-ES en particulier. Spécifiquement, l'adaptation du système de coordonnées proposée par CMA-ES est couplée à une méthode adaptative de descente coordonnée par coordonnée. Une stratégie adaptative de redémarrage de CMA-ES est proposée pour l'optimisation multi-modale. Enfin, des stratégies de sélection adaptées aux cas de l'optimisation multi-objectifs et remédiant aux difficultés rencontrées par MO-CMA-ES sont proposées.
APA, Harvard, Vancouver, ISO, and other styles
11

Dubois, Amaury. "Optimisation et apprentissage de modèles biologiques : application à lirrigation [sic l'irrigation] de pomme de terre." Thesis, Littoral, 2020. http://www.theses.fr/2020DUNK0560.

Full text
Abstract:
Le sujet de la thèse porte sur une des thématiques du LISIC : la modélisation et la simulation de systèmes complexes, ainsi que sur l'optimisation et l'apprentissage automatique pour l'agronomie. Les objectifs de la thèse sont de répondre aux questions de pilotage de l'irrigation de la culture de pomme de terre par le développement d'outils d'aide à la décision à destination des exploitants agricoles. Le choix de cette culture est motivé par sa part importante dans la région des Hauts-de-France. Le manuscrit s'articule en 3 parties. La première partie traite de l'optimisation continue mutlimodale dans un contexte de boîte noire. Il en suit une présentation d'une méthodologie d'étalonnage automatique de paramètres de modèle biologique grâce à une reformulation en un problème d'optimisation continue mono-objectif multimodale de type boîte noire. La pertinence de l'utilisation de l'analyse inverse comme méthodologie de paramétrage automatique de modèles de grandes dimensions est ensuite démontrée. La deuxième partie présente 2 nouveaux algorithmes UCB Random with Decreasing Step-size et UCT Random with Decreasing Step-size. Ce sont des algorithmes d'optimisation continue multimodale boîte noire dont le choix de la position initiale des individus est assisté par un algorithmes d'apprentissage par renforcement. Les résultats montrent que ces algorithmes possèdent de meilleures performances que les algorithmes état de l'art Quasi Random with Decreasing Step-size. Enfin, la dernière partie est focalisée sur les principes et les méthodes d'apprentissage automatique (machine learning). Une reformulation du problème de la prédiction à une semaine de la teneur en eau dans le sol en un problème d'apprentissage supervisé a permis le développement d'un nouvel outil d'aide à la décision pour répondre à la problématique du pilotage des cultures
The subject of this PhD concerns one of the LISIC themes : modelling and simulation of complex systems, as well as optimization and automatic learning for agronomy. The objectives of the thesis are to answer the questions of irrigation management of the potato crop and the development of decision support tools for farmers. The choice of this crop is motivated by its important share in the Haut-de-France region. The manuscript is divided into 3 parts. The first part deals with continuous multimodal optimization in a black box context. This is followed by a presentation of a methodology for the automatic calibration of biological model parameters through reformulation into a black box multimodal optimization problem. The relevance of the use of inverse analysis as a methodology for automatic parameterisation of large models in then demonstrated. The second part presents 2 new algorithms, UCB Random with Decreasing Step-size and UCT Random with Decreasing Step-size. Thes algorithms are designed for continuous multimodal black-box optimization whose choice of the position of the initial local search is assisted by a reinforcement learning algorithms. The results show that these algorithms have better performance than (Quasi) Random with Decreasing Step-size algorithms. Finally, the last part focuses on machine learning principles and methods. A reformulation of the problem of predicting soil water content at one-week intervals into a supervised learning problem has enabled the development of a new decision support tool to respond to the problem of crop management
APA, Harvard, Vancouver, ISO, and other styles
12

Berthou, Thomas. "Développement de modèles de bâtiment pour la prévision de charge de climatisation et l'élaboration de stratégies d'optimisation énergétique et d'effacement." Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2013. http://pastel.archives-ouvertes.fr/pastel-00935434.

Full text
Abstract:
Pour atteindre les objectifs de réduction de consommation et augmenter la flexibilité de la demande des bâtiments, il est nécessaire de disposer de modèles de prévision de charge de climatisation facilement diffusables sur site et performants qui permettent la mise en place de stratégies d'optimisation énergétique et d'effacement. Cette thèse compare plusieurs architectures de modèles inverses (" boite noire ", " boite grise "). Un modèle semi-physique d'ordre 2 (R6C2) a été retenu pour prévoir la puissance de climatisation et la température intérieure moyenne en chauffage et en refroidissement. Il permet aussi d'interpréter des situations inédites (effacement), absentes de la phase d'apprentissage. Trois stratégies d'optimisation énergétique et d'effacement adaptées aux contraintes d'exploitation sont étudiées. La première permet d'optimiser la relance en chauffage afin de réduire la consommation et d'atteindre effectivement la température de confort le matin. La seconde stratégie optimise les températures de consigne sur une journée dans un contexte de prix variable de l'énergie, ceci afin de réduire la facture énergétique. Enfin, la troisième stratégie permet au bâtiment de s'effacer en limitant la charge tout en respectant des critères de confort spécifiés. Le modèle R6C2 et les stratégies ont été confrontés à un bâtiment réel (une école élémentaire). L'étude montre qu'il est possible de prévoir la puissance électrique et la température moyenne d'un bâtiment complexe avec un modèle mono-zone ; elle permet d'évaluer les stratégies développées et d'identifier les limites du modèle.
APA, Harvard, Vancouver, ISO, and other styles
13

Ali, Marwan. "Nouvelles architectures intégrées de filtre CEM hybride." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2012. http://tel.archives-ouvertes.fr/tel-00847144.

Full text
Abstract:
Cette thèse est focalisée sur la conception et la réalisation d'un filtre CEM hybride intégré pour une application aéronautique. Les travaux effectués durant cette thèse sont réalisés dans le cadre d'un projet FRAE (Fondation de Recherche pour l'Aéronautique et l'Espace) intitulé FEMINA (Filtrage Electromagnétiques et Matériaux pour l'INtégration en Aéronautique). Afin de protéger le réseau de bord des perturbations électromagnétiques conduites et rayonnées et répondre aux normes concernant la compatibilité électromagnétique (CEM) et plus particulièrement la norme aéronautique "DO160F [150KHz, 30MHz]", un filtre CEM est absolument nécessaire pour les cartes d'alimentations des dispositifs électroniques d'un avion. Les niveaux des perturbations générées par ce type d'équipement exigent une conception soignée pour assurer le filtrage des courants parasites qui se propagent en mode commun (MC) et en mode différentiel (MD). C'est pourquoi, la première partie du travail réalisé est consacrée à la modélisation électromagnétique de la carte d'alimentation utilisée comme support à cette étude. Cette modélisation est basée sur une représentation de type "boîte noire". Le modèle identifié est composé de sources de perturbations et d'impédances de MC et de MD équivalentes. Cette première étape permet de définir la structure électrique du filtre et les valeurs des composants à mettre en œuvre. Pour atteindre les performances requises, nous proposons dans ce travail un filtre CEM hybride optimisé, hybride signifiant qu'il est réalisé par association d'une partie purement passive et d'un filtre actif. Cette association permet de tirer le meilleur parti de chaque technologie de filtrage. Le filtre actif permet de traiter les perturbations à basses fréquences et la partie passive est dimensionnée pour les perturbations à hautes fréquences. Une intégration complète dans le circuit imprimé (PCB) des parties passives, capacitives et inductives, est proposée dans la deuxième partie de ce travail. Après avoir choisi les matériaux magnétique et diélectrique qui répondent au mieux au cahier de charge défini dans la première partie, plusieurs tests d'intégration dans le PCB ont été effectués. En prenant en compte la fragilité des matériaux magnétiques (ferrites), une géométrie plane qui répond aux spécifications a été proposée. Les principaux avantages de l'intégration proposée sont la réduction des effets inductifs et capacitifs parasites conduisant, de fait, à une augmentation des atténuations à hautes fréquences et l'augmentation de la compacité du filtre CEM. Nous démontrons que le filtre passif intégré réalisé réduit les interférences en MC et en MD dans la gamme de fréquences qui s'étend de 2,5MHz à 30MHz. Afin de compenser les tensions perturbatrices de mode différentiel jusqu'à 2,5MHz, une nouvelle topologie de filtre actif est proposée. Dans cette structure, l'injection des tensions de compensation des perturbations est effectuée à l'aide d'un enroulement auxiliaire ajouté aux enroulements couplés du filtre passif intégré. Les composants du filtre actif sont montés sur la face supérieure du PCB (composants CMS) dans lequel le filtre passif est intégré. L'assemblage du filtre hybride intégré (4 x 5 x 0,4 cm3) réduit les perturbations en MC et en MD dans la gamme de fréquence [150 kHz, 30 MHz]. Grâce à l'intégration et à l'optimisation de la topologie du filtre actif, le volume du filtre hybride est 75% plus faible que celui de l'ancien filtre CEM utilisé à l'entrée du convertisseur (4 x 5 x 1,6 cm3) tout en conservant un rendement élevé.
APA, Harvard, Vancouver, ISO, and other styles
14

Akerma, Mahdjouba. "Impact énergétique de l’effacement dans un entrepôt frigorifique : analyse des approches systémiques : boîte noire / boîte blanche." Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS187.

Full text
Abstract:
Les entrepôts frigorifiques et chambres froides forment, de par l'inertie thermique de la masse des produits, une source importante de stockage thermique rapidement accessible et fortement attractive pour répondre aux besoins d’effacement électrique. Cependant, le risque pour le produit lors des fluctuations de température liées aux périodes d’effacement et la crainte d’une surconsommation énergétique, limitent le recours aux effacements par les industriels et acteurs du froid alimentaire. Cette thèse vise à caractériser l’effacement électrique des entrepôts en apportant un éclairage sur le comportement thermique d’un système, en termes de fluctuation de température et de consommation électrique. Une étude expérimentale a été mise en œuvre afin d’étudier plusieurs scénarios d’effacement (durée, fréquence et conditions opératoires) et de développer de nouveaux indicateurs pour caractériser l’impact de l’effacement sur le comportement thermique et énergétique des systèmes frigorifiques. Cette étude a mis en avant, l’importance de l’état de chargement pour limiter la remontée de température de l’air, et réduire l’impact de l’effacement sur les produits entreposés. Par ailleurs, le potentiel d’application de l’effacement dans le cas d’un entrepôt frigorifique ou d’une chambre froide a été évalué, en s’appuyant sur le développement des deux approches de modélisation « boîte noire » (apprentissage automatique par des réseaux de neurones artificiels de type Deep Learning) et « boîte blanche » (physique). Une possibilité d’interaction entre ces deux approches a été proposée. Elle est fondée sur l’utilisation des modèles boîte noire pour la prédiction et l’emploi du modèle boîte blanche pour générer les données d’entrée et de sortie
Refrigerated warehouses and cold rooms, mainly used for food conservation, constitute available storage cells; they can be considered as a network of "thermal batteries" ready to be used and one of the best existing solutions to store and delay electricity consumption. However, the risk related to temperature fluctuations of products due to periods of demand response - DR* and the risk of energy overconsumption limit the use of this strategy by industrials in food refrigeration. The present PhD thesis aims to characterize the electrical DR of warehouses and cold rooms by examining the thermal behavior of those systems, in terms of temperature fluctuation and electrical consumption. An experimental set-up was developed to study several DR scenarios (duration, frequency and operating conditions) and to propose new indicators to characterize the impact of DR periods on the thermal and energy behavior of refrigeration systems. This study has highlighted the importance of the presence of load to limit the temperature rise and thus to reduce the impact on stored products. The potential for DR application in the case of a cold store and a cold room was assessed, based on the development of two modeling approaches: “black box” (Machine Learning by artificial neural networks using Deep Learning models) and “white box” (physics). A possibility of interaction between these two approaches has been proposed, based on the use of black box models for prediction and the use of the white box model to generate input and output data
APA, Harvard, Vancouver, ISO, and other styles
15

Bout, Erwan David Mickaël. "Poïétique et procédure : pour une esthétique de la boîte noire." Paris 1, 2009. http://www.theses.fr/2009PA010631.

Full text
Abstract:
Cette thèse s'articule autour d'une pratique revendiquant la procédure en tant que forme artistique, c'est a dire un ensemble d'actions prévues dans leur succession et destiné à être appliqué par les spectateurs. Elle met en place des notions: l' esthétique de la boîte noire, aménagement conscient de conditions de création intégrant un abandon partiel de l'auteur permettant l'initialisation d'un système auto nome ; l' échelle d'appréhension, extension de l' échelle traditionnelle ad' autres dimensions; l' intergradation, transposition conceptuelle et interconceptuelle des représentations par changement d'échelle d'appréhension. Elle définit également des outils permettant de caractériser les procédures: finalité, application et destination.
APA, Harvard, Vancouver, ISO, and other styles
16

Barbillon, Pierre. "Méthodes d'interpolation à noyaux pour l'approximation de fonctions type boîte noire coûteuses." Phd thesis, Université Paris Sud - Paris XI, 2010. http://tel.archives-ouvertes.fr/tel-00559502.

Full text
Abstract:
Cette thèse se place dans le cadre des expériences simulées auxquelles on a recours lorsque des expériences physiques ne sont pas réalisables. Une expérience simulée consiste à évaluer une fonction déterministe type boîte-noire coûteuse qui décrit un modèle physique. Les entrées de ce modèle, entachées d'incertitude, forment un vecteur aléatoire. Cela implique que les sorties que nous souhaitons étudier sont aléatoires. Une technique standard pour rendre possibles de nombreux traitements statistiques, est de remplacer la fonction type boîte-noire par un métamodèle d'évaluation quasi-instantanée l'approchant. Nous nous concentrons plus particulièrement sur les métamodèles d'interpolateurs à noyaux dont nous étudions la construction et l'utilisation. Dans ce cadre, une première contribution est la proposition d'une définition plus générale de noyau conditionnellement positif qui permet une vraie généralisation du concept de noyau défini positif et des théorèmes associés. Nous donnons ensuite, dans une deuxième contribution, un algorithme de construction de plans d'expérience dans des domaines éventuellement non hypercubiques suivant un critère maximin pertinent pour ces métamodèles. Dans une troisième contribution, nous traitons un problème statistique inverse en utilisant un métamodèle d'interpolateurs à noyaux dans un algorithme stochastique EM puisque le modèle liant les entrées aux sorties est de type boîte-noire coûteux. Enfin, nous proposons aussi, dans la dernière contribution, l'utilisation d'un tel métamodèle pour développer deux stratégies d'estimation et de majoration de probabilités d'événements rares dépen\-dant d'une fonction type boîte-noire coûteuse.
APA, Harvard, Vancouver, ISO, and other styles
17

Berthou, Thomas. "Développement de modèles de bâtiment pour la prévision de charge de climatisation et l’élaboration de stratégies d’optimisation énergétique et d’effacement." Thesis, Paris, ENMP, 2013. http://www.theses.fr/2013ENMP0030/document.

Full text
Abstract:
Pour atteindre les objectifs de réduction de consommation et augmenter la flexibilité de la demande des bâtiments, il est nécessaire de disposer de modèles de prévision de charge de climatisation facilement diffusables sur site et performants qui permettent la mise en place de stratégies d’optimisation énergétique et d’effacement. Cette thèse compare plusieurs architectures de modèles inverses (« boite noire », « boite grise »). Un modèle semi-physique d’ordre 2 (R6C2) a été retenu pour prévoir la puissance de climatisation et la température intérieure moyenne en chauffage et en refroidissement. Il permet aussi d’interpréter des situations inédites (effacement), absentes de la phase d’apprentissage. Trois stratégies d’optimisation énergétique et d’effacement adaptées aux contraintes d’exploitation sont étudiées. La première permet d’optimiser la relance en chauffage afin de réduire la consommation et d’atteindre effectivement la température de confort le matin. La seconde stratégie optimise les températures de consigne sur une journée dans un contexte de prix variable de l’énergie, ceci afin de réduire la facture énergétique. Enfin, la troisième stratégie permet au bâtiment de s’effacer en limitant la charge tout en respectant des critères de confort spécifiés. Le modèle R6C2 et les stratégies ont été confrontés à un bâtiment réel (une école élémentaire). L’étude montre qu’il est possible de prévoir la puissance électrique et la température moyenne d’un bâtiment complexe avec un modèle mono-zone ; elle permet d’évaluer les stratégies développées et d’identifier les limites du modèle
To reach the objectives of reducing the energy consumption and increasing the flexibility of buildings energy demand, it is necessary to have load forecast models easy to adapt on site and efficient for the implementation of energy optimization and load shedding strategies. This thesis compares several inverse model architectures ("black box", "grey box"). A 2nd order semi-physical model (R6C2) has been selected to forecast load curves and the average indoor temperature for heating and cooling. It is also able to simulate unknown situations (load shedding), absent from the learning phase. Three energy optimization and load shedding strategies adapted to operational constraints are studied. The first one optimizes the night set-back to reduce consumption and to reach the comfort temperature in the morning. The second strategy optimizes the set-point temperatures during a day in the context of variable energy prices, thus reducing the energy bill. The third strategy allows load curtailment in buildings by limiting load while meeting specified comfort criteria. The R6C2 model and strategies have been faced with a real building (elementary school). The study shows that it is possible to forecast the electrical power and the average temperature of a complex building with a single-zone model; the developed strategies are assessed and the limitations of the model are identified
APA, Harvard, Vancouver, ISO, and other styles
18

Bensadon, Jérémy. "Applications de la théorie de l'information à l'apprentissage statistique." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS025/document.

Full text
Abstract:
On considère ici deux sujets différents, en utilisant des idées issues de la théorie de l'information : 1) Context Tree Weighting est un algorithme de compression de texte qui calcule exactement une prédiction Bayésienne qui considère tous les modèles markoviens visibles : on construit un "arbre de contextes", dont les nœuds profonds correspondent aux modèles complexes, et la prédiction est calculée récursivement à partir des feuilles. On étend cette idée à un contexte plus général qui comprend également l'estimation de densité et la régression, puis on montre qu'il est intéressant de remplacer les mixtures Bayésiennes par du "switch", ce qui revient à considérer a priori des suites de modèles plutôt que de simples modèles. 2) Information Geometric Optimization (IGO) est un cadre général permettant de décrire plusieurs algorithmes d'optimisation boîte noire, par exemple CMA-ES et xNES. On transforme le problème initial en un problème d'optimisation d'une fonction lisse sur une variété Riemannienne, ce qui permet d'obtenir une équation différentielle du premier ordre invariante par reparamétrage. En pratique, il faut discrétiser cette équation, et l'invariance n'est plus valable qu'au premier ordre. On définit l'algorithme IGO géodésique (GIGO), qui utilise la structure de variété Riemannienne mentionnée ci-dessus pour obtenir un algorithme totalement invariant par reparamétrage. Grâce au théorème de Noether, on obtient facilement une équation différentielle du premier ordre satisfaite par les géodésiques de la variété statistique des gaussiennes, ce qui permet d'implémenter GIGO. On montre enfin que xNES et GIGO sont différents dans le cas général, mais qu'il est possible de définir un nouvel algorithme presque invariant par reparamétrage, GIGO par blocs, qui correspond exactement à xNES dans le cas Gaussien
We study two different topics, using insight from information theory in both cases: 1) Context Tree Weighting is a text compression algorithm that efficiently computes the Bayesian combination of all visible Markov models: we build a "context tree", with deeper nodes corresponding to more complex models, and the mixture is computed recursively, starting with the leaves. We extend this idea to a more general context, also encompassing density estimation and regression; and we investigate the benefits of replacing regular Bayesian inference with switch distributions, which put a prior on sequences of models instead of models. 2) Information Geometric Optimization (IGO) is a general framework for black box optimization that recovers several state of the art algorithms, such as CMA-ES and xNES. The initial problem is transferred to a Riemannian manifold, yielding parametrization-invariant first order differential equation. However, since in practice, time is discretized, this invariance only holds up to first order. We introduce the Geodesic IGO (GIGO) update, which uses this Riemannian manifold structure to define a fully parametrization invariant algorithm. Thanks to Noether's theorem, we obtain a first order differential equation satisfied by the geodesics of the statistical manifold of Gaussians, thus allowing to compute the corresponding GIGO update. Finally, we show that while GIGO and xNES are different in general, it is possible to define a new "almost parametrization-invariant" algorithm, Blockwise GIGO, that recovers xNES from abstract principles
APA, Harvard, Vancouver, ISO, and other styles
19

Saives, Jérémie. "Identification Comportementale "Boîte-noire" des Systèmes à Evénements Discrets par Réseaux de Petri Interprétés." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLN018/document.

Full text
Abstract:
Cette thèse contribue à l’identification de modèles compacts et expressifs de Systèmes à Evénements Discrets (SED) réactifs, à des fins de rétro-conception ou de certification. L’identification est passive, et boîte-noire, la connaissance se limitant aux signaux d’entrées/sorties du système. Les Réseaux de Petri Interprétés (RdPI) permettent de modéliser à la fois le comportement observable (causalités entrées/sorties observées directement), et le comportement non observable du système (évolutions de variables internes). Cette thèse vise à identifier des modèles RdPI à partir d’une séquence observée de vecteurs entrées/sorties. Notamment, l’enjeu étant de traiter des systèmes concurrents de taille réaliste, l’approche développée permet le passage à l’échelle de résultats précédents.La construction de la partie observable est d’abord améliorée par l’ajout d’un filtre. Celui-ci détecte et supprime les synchronisations parasites causées par le contrôleur en présence de systèmes concurrents. Une nouvelle approche est ensuite proposée pour découvrir la partie non observable, basée sur l’utilisation de projections, et garantissant la reproductibilité du comportement observé malgré la concurrence. Une heuristique permet de construire un modèle satisfaisant pour la rétro-ingénierie, à coût de calcul limité. Enfin, une approche distribuée est proposée pour réduire davantage le coût de calcul, en partitionnant automatiquement le système en sous-systèmes. L’effet cumulatif de ces contributions est illustré par l’identification de RdPI sur un système de taille raisonnable, validant leur efficacité
This thesis proposes a method to identify compact and expressive models of closed-loop reactive Discrete Event Systems (DES), for reverse-engineering or certification. The identification is passive, and blackbox, accessible knowledge being limited to input/output signals. Interpreted Petri Nets (IPN) represent both the observable behaviour (direct input/output causalities) and the unobservable behaviour (internal state evolutions) of the system. This thesis aims at identifying IPN models from an observed sequence of I/O vectors. The proposed contributions extend previous results towards scalability, to deal with realistic systems who exhibit concurrency.Firstly, the construction of the observable part of the IPN is improved by the addition of a filter limiting the effect of concurrency. It detects and removes spurious synchronizations caused by the controller. Then, a new approach is proposed to improve the discovery of the unobservable part. It is based on the use of projections and guarantees the reproduction of the observed behaviour, despite concurrency. An efficient heuristic is proposed to compute a model adapted to reverse-engineering, limiting the computational cost. Finally, a distributed approach is proposed to further reduce the computational cost, by automatically partitioning the system into subsystems. The efficiency of the cumulative effect of these contributions is validated on a system of realistic size
APA, Harvard, Vancouver, ISO, and other styles
20

Muzammil, Shahbaz Muhammad. "Rétro-conception de modèles d'automates étendus de composant logiciels boîte-noire pour le test d'intégration." Grenoble INPG, 2008. http://www.theses.fr/2008INPG0166.

Full text
Abstract:
Le problème principal auquel on est confronté dans l'utilisation d'outils automatiques de validation (test ou vérification) est l'absence de spécification des composants également connus comme boîtes-noires. Même lorsqu'une spécification a été disponible à un stade antérieur, elle est souvent incomplète. C'est pourquoi une bonne part de la validation consiste à émettre et valider des hypothèses sur les composants assemblés. Nous proposons une solution pour l'intégration de composants boîtes-noires par une approche d'apprentissage. Cette approche apprend le modèle du composant sous la forme d’une machine d'état finis entrées/sorties (avec des paramètres). Ensuite, nous proposons un framework de test pour les systèmes intégrés basé sur les modèles appris. Nous avons validé notre approche sur plusieurs études de cas fournies par France Telecom R&D et présentons leurs résultats
A challenging issue in component based software engineering is to deliver quality of service. When components come from third-party sources (aka black boxes), the specifications are often absent/insufficient for their formal analysis. The thesis addresses the problem of uncovering the behaviors of black box software components to support testing and analysis of the integrated system that is composed of such components. We propose to learn finite state machine models (where transitions are labelled with parameterized inputs/outputs) and provide a framework for testing and analyzing the integrated system using the inferred models. The approach has been validated on various case studies provides by France Telecom that has produced encouraging results
APA, Harvard, Vancouver, ISO, and other styles
21

Graux, François. "Méthodologie de modélisation boîte noire de circuits hyperfréquences non linéaires par réseaux de neurones : applications au radar." Lille 1, 2001. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2001/50376-2001-47.pdf.

Full text
Abstract:
L'objectif de ce travail consiste à mettre au point une méthodologie de modélisation boîte noire non linéaire pour circuits hyperfréquences. Cette méthodologie est générique et peut s'appliquer à plusieurs fonctions radar. Pour cela nous avons d'abord étudié les différents modes d'analyses non linéaires d'un logiciel du commerce : MDS de Hewlett Packard. Aussi nous avons décrit les impératifs de notre modèle pour son utilisation optimal. Ensuite nous avons développé un logiciel de modélisation par l'intermédiaire d'un réseau de neurones nous permettant de gérer un grand nombre de variables. Enfin, une modélisation commencant d'abord par une bonne caractérisation, nous avons développé un banc de caractérisation load pull / source pull passif non linéaire associé à une acquisition temporelle. L'ensemble de la procédure nous a permis de mettre au point une méthode viable, encourageante pour de nouvelles possibilités de modélisations non linéaires
APA, Harvard, Vancouver, ISO, and other styles
22

Bustos, Avila Cecilia. "Optimisation du procédé d'aboutage par entures multiples du bois d'épinette noire." Thesis, Université Laval, 2003. http://www.theses.ulaval.ca/2003/21006/21006.pdf.

Full text
Abstract:
Le but de cette thèse fut d'optimiser le procédé d'aboutage par entures multiples du bois d'épinette noire. L'approche développée propose une méthodologie basée sur l'optimisation des paramètres de procédé dans les différentes étapes de l'aboutage soit l'effet de la forme et géométrie des joints, l'effet de la pression et temps de durcissement de l'adhésif, l'effet de la température et de la teneur en humidité du bois et les effets de la vitesse de coupe et de l'avance par couteau. Les variables étudiées ont été choisies suite à un sondage effectué dans cinq usines de bois abouté du Québec. La méthodologie adoptée a considéré des essais préliminaires et des essais d'optimisation du procédé. La thèse fournit de l'information sur des paramètres optimisés de l'aboutage du bois de l'épinette noire, inconnus jusqu'à aujourd'hui.
In Eastern Canada, black spruce (Picea mariana (Mill.) B.S.P.) has recently been introduced to finger-joined wood products. While there is a growing economic importance of the species in such applications, little information is available on the manufacturing parameters that influence the finger-jointing process for this species. The purpose of this work was to optimize the finger-jointing process of black spruce wood. Various parameters associated with the finger-jointing process were evaluated. Those included the following: finger-joint configurations, curing time and end-pressure, wood temperature and moisture content and wood machining parameters. Isocyanate adhesive was used for all types of evaluations. Results from configurations evaluation indicated that the feather configuration performs better than male-female and reverse profiles, especially for horizontal structural joints. The effect of moisture content on the mechanical performance of joined black spruce wood was not very conclusive. However, the experiment on wood temperature showed the lowest tensile strength at -5°C. Results on the effect of pressure and curing time showed that curing time and end-pressure have a statistically significant influence on the performance of structural finger-joints. Analysis indicated that finger-joined black spruce has the best performance at an end-pressure of 3.43 MPa (498 psi). For wood machining parameters, results indicated that suitable finger-jointing in black spruce could be achieved within a range of 1676 m/min (5498 feet/min) and 2932 m/min (9621 feet/min) of cutting speed and between 0.86 mm and 1.14 mm of chip-load. The microscopical analysis of damaged cells confirmed the effect of cutting speed on the finger-jointing process. In general, depth of damage was more severe as cutting speed increased. Results obtained in this research could help mills to optimize the process and improve the mechanical performance of finger-joined black spruce product.
APA, Harvard, Vancouver, ISO, and other styles
23

Bustos, Cecilia. "Optimisation du procédé d'aboutage par entures multiples du bois d'épinette noire." Doctoral thesis, Université Laval, 2003. http://hdl.handle.net/20.500.11794/17809.

Full text
Abstract:
Le but de cette thèse fut d'optimiser le procédé d'aboutage par entures multiples du bois d'épinette noire. L'approche développée propose une méthodologie basée sur l'optimisation des paramètres de procédé dans les différentes étapes de l'aboutage soit l'effet de la forme et géométrie des joints, l'effet de la pression et temps de durcissement de l'adhésif, l'effet de la température et de la teneur en humidité du bois et les effets de la vitesse de coupe et de l'avance par couteau. Les variables étudiées ont été choisies suite à un sondage effectué dans cinq usines de bois abouté du Québec. La méthodologie adoptée a considéré des essais préliminaires et des essais d'optimisation du procédé. La thèse fournit de l'information sur des paramètres optimisés de l'aboutage du bois de l'épinette noire, inconnus jusqu'à aujourd'hui.
In Eastern Canada, black spruce (Picea mariana (Mill.) B.S.P.) has recently been introduced to finger-joined wood products. While there is a growing economic importance of the species in such applications, little information is available on the manufacturing parameters that influence the finger-jointing process for this species. The purpose of this work was to optimize the finger-jointing process of black spruce wood. Various parameters associated with the finger-jointing process were evaluated. Those included the following: finger-joint configurations, curing time and end-pressure, wood temperature and moisture content and wood machining parameters. Isocyanate adhesive was used for all types of evaluations. Results from configurations evaluation indicated that the feather configuration performs better than male-female and reverse profiles, especially for horizontal structural joints. The effect of moisture content on the mechanical performance of joined black spruce wood was not very conclusive. However, the experiment on wood temperature showed the lowest tensile strength at -5°C. Results on the effect of pressure and curing time showed that curing time and end-pressure have a statistically significant influence on the performance of structural finger-joints. Analysis indicated that finger-joined black spruce has the best performance at an end-pressure of 3.43 MPa (498 psi). For wood machining parameters, results indicated that suitable finger-jointing in black spruce could be achieved within a range of 1676 m/min (5498 feet/min) and 2932 m/min (9621 feet/min) of cutting speed and between 0.86 mm and 1.14 mm of chip-load. The microscopical analysis of damaged cells confirmed the effect of cutting speed on the finger-jointing process. In general, depth of damage was more severe as cutting speed increased. Results obtained in this research could help mills to optimize the process and improve the mechanical performance of finger-joined black spruce product.
APA, Harvard, Vancouver, ISO, and other styles
24

Cool, Julie. "Optimisation de l'usinage de finition du bois d'épinette noire pour fins d'adhésion." Thesis, Université Laval, 2011. http://www.theses.ulaval.ca/2011/28194/28194.pdf.

Full text
Abstract:
La présente recherche a eu pour but principal d’évaluer l’effet de l’usinage de finition du bois d’épinette noire en fonction de la qualité de surface et la performance d’une colle d’acétate de polyvinyle et d’un revêtement de finition aqueux, deux types de produits typiquemment utilisés dans la fabrication de produits d’apparence à usage intérieur. Dans un premier volet, on a évalué la qualité de surface et la résistance au cisaillement à la ligne de colle d’échantillons poncés, rabotés en coupe oblique et en coupe périphérique droite et fraisés. Les quatre procédés ont généré des surfaces ayant des rugosités et des résistances au cisaillement semblables avant et après un vieillissement accéléré. Il en ressortit que le bois d’épinette noire est relativement facile à coller. Seule la pénétration de la colle d’acétate de polyvinyle et la fibrillation des surfaces ont été quand même affectées par les types d’usinage. Dans un second volet, on a optimisé certains paramètres de cinq procédés d’usinage, soit le ponçage, la coupe oblique, le fraisage et les coupes périphériques droite et hélicoïdale en fonction de la qualité de surface et de l’adhésion d’un vernis en phase aqueuse. L’étude des quatre procédés de rabotage avait également pour objectif d’évaluer leur potentiel quant au remplacement du ponçage. Le ponçage fait suivant un programme P100-150-grain, à une vitesse d’avance de 17 m/min a permis d’obtenir une faible rugosité ainsi qu’une mouillabilité et une adhésion élevées suite au traitement de vieillissement accéléré. Le fraisage a induit une rugosité et une mouillabilité supérieures à celles des autres procédés d’usinage. Cependant, la pénétration plus importante du vernis et le plus grand niveau de fibrillation ont réduit l’épaisseur de la couche de vernis sur la surfaces. L’effet protecteur du vernis a donc été réduit durant le vieillissement accéléré, ce qui a diminué son adhésion. De leur côté, la coupe oblique avec un angle oblique de 35°, la coupe hélicoïdale avec une onde d’usinage de 1,43 mm et la coupe périphérique droite avec un angle d’attaque de 10 ou 20° ont généré des surfaces ayant une rugosité et une mouillabilité intermédiaires, mais une adhésion du vernis similaire à celle des échantillons poncés. Ces trois procédés ont donc montré être de bonnes alternatives pour faire face aux aspects nuisibles de l’utilisation du ponçage.
The main objective of this research project was to evaluate the effect of surfacing processes in black spruce wood in relation to surface quality and performance of poly (vynil acetate) glue and water-based coating. First, oblique cutting, peripheral planing, face milling and sanding were used prior to gluing with two-component poly (vinyl acetate) glue. The four machining processes produced surfaces having similar surface roughness and glue line shear strength before and after an accelerated aging treatment. Thus, black spruce wood is relatively easy to glue. Only glue penetration, as well as the level of fibrillation, was affected by the machining processes. In the second part of the project, the objective was to optimize cutting parameters of sanding, oblique cutting, helical planing, peripheral planing and face milling for surface quality and coating performance. In addition, the four planing processes were evaluated in order to evaluate their potential to be used as alternatives to sanding. Sanding with a two-stage program (P100-150-grit) at a feed speed of 17 m/min generated low surface roughness and high wettability and pull-off strength after the accelerated aging treatment. On one hand, face milling induced superior surface roughness and wettability when compared with other studied surfacing processes. These samples were also characterized by the most important coating penetration and level of fibrillation. This contributed to reduce the coating layer protecting the samples during the aging treatment. As a consequence, face-milled samples had a significant lower pull-off strength compared with those prepared by the other four machining processes. On the other hand, oblique cutting with an oblique angle fo 35°, helical planing with a wavelength of 1.43 mm and peripheral planing with a 10 or 20° rake angle all produced surfaces with intermediate surface roughness and wetting properties, but coating performance statistically similar to that of sanded samples. As a result, these three planing processes are to be considered as alternatives to the sanding process.
APA, Harvard, Vancouver, ISO, and other styles
25

Cool, Julie, and Julie Cool. "Optimisation de l'usinage de finition du bois d'épinette noire pour fins d'adhésion." Doctoral thesis, Université Laval, 2011. http://hdl.handle.net/20.500.11794/22507.

Full text
Abstract:
La présente recherche a eu pour but principal d’évaluer l’effet de l’usinage de finition du bois d’épinette noire en fonction de la qualité de surface et la performance d’une colle d’acétate de polyvinyle et d’un revêtement de finition aqueux, deux types de produits typiquemment utilisés dans la fabrication de produits d’apparence à usage intérieur. Dans un premier volet, on a évalué la qualité de surface et la résistance au cisaillement à la ligne de colle d’échantillons poncés, rabotés en coupe oblique et en coupe périphérique droite et fraisés. Les quatre procédés ont généré des surfaces ayant des rugosités et des résistances au cisaillement semblables avant et après un vieillissement accéléré. Il en ressortit que le bois d’épinette noire est relativement facile à coller. Seule la pénétration de la colle d’acétate de polyvinyle et la fibrillation des surfaces ont été quand même affectées par les types d’usinage. Dans un second volet, on a optimisé certains paramètres de cinq procédés d’usinage, soit le ponçage, la coupe oblique, le fraisage et les coupes périphériques droite et hélicoïdale en fonction de la qualité de surface et de l’adhésion d’un vernis en phase aqueuse. L’étude des quatre procédés de rabotage avait également pour objectif d’évaluer leur potentiel quant au remplacement du ponçage. Le ponçage fait suivant un programme P100-150-grain, à une vitesse d’avance de 17 m/min a permis d’obtenir une faible rugosité ainsi qu’une mouillabilité et une adhésion élevées suite au traitement de vieillissement accéléré. Le fraisage a induit une rugosité et une mouillabilité supérieures à celles des autres procédés d’usinage. Cependant, la pénétration plus importante du vernis et le plus grand niveau de fibrillation ont réduit l’épaisseur de la couche de vernis sur la surfaces. L’effet protecteur du vernis a donc été réduit durant le vieillissement accéléré, ce qui a diminué son adhésion. De leur côté, la coupe oblique avec un angle oblique de 35°, la coupe hélicoïdale avec une onde d’usinage de 1,43 mm et la coupe périphérique droite avec un angle d’attaque de 10 ou 20° ont généré des surfaces ayant une rugosité et une mouillabilité intermédiaires, mais une adhésion du vernis similaire à celle des échantillons poncés. Ces trois procédés ont donc montré être de bonnes alternatives pour faire face aux aspects nuisibles de l’utilisation du ponçage.
La présente recherche a eu pour but principal d’évaluer l’effet de l’usinage de finition du bois d’épinette noire en fonction de la qualité de surface et la performance d’une colle d’acétate de polyvinyle et d’un revêtement de finition aqueux, deux types de produits typiquemment utilisés dans la fabrication de produits d’apparence à usage intérieur. Dans un premier volet, on a évalué la qualité de surface et la résistance au cisaillement à la ligne de colle d’échantillons poncés, rabotés en coupe oblique et en coupe périphérique droite et fraisés. Les quatre procédés ont généré des surfaces ayant des rugosités et des résistances au cisaillement semblables avant et après un vieillissement accéléré. Il en ressortit que le bois d’épinette noire est relativement facile à coller. Seule la pénétration de la colle d’acétate de polyvinyle et la fibrillation des surfaces ont été quand même affectées par les types d’usinage. Dans un second volet, on a optimisé certains paramètres de cinq procédés d’usinage, soit le ponçage, la coupe oblique, le fraisage et les coupes périphériques droite et hélicoïdale en fonction de la qualité de surface et de l’adhésion d’un vernis en phase aqueuse. L’étude des quatre procédés de rabotage avait également pour objectif d’évaluer leur potentiel quant au remplacement du ponçage. Le ponçage fait suivant un programme P100-150-grain, à une vitesse d’avance de 17 m/min a permis d’obtenir une faible rugosité ainsi qu’une mouillabilité et une adhésion élevées suite au traitement de vieillissement accéléré. Le fraisage a induit une rugosité et une mouillabilité supérieures à celles des autres procédés d’usinage. Cependant, la pénétration plus importante du vernis et le plus grand niveau de fibrillation ont réduit l’épaisseur de la couche de vernis sur la surfaces. L’effet protecteur du vernis a donc été réduit durant le vieillissement accéléré, ce qui a diminué son adhésion. De leur côté, la coupe oblique avec un angle oblique de 35°, la coupe hélicoïdale avec une onde d’usinage de 1,43 mm et la coupe périphérique droite avec un angle d’attaque de 10 ou 20° ont généré des surfaces ayant une rugosité et une mouillabilité intermédiaires, mais une adhésion du vernis similaire à celle des échantillons poncés. Ces trois procédés ont donc montré être de bonnes alternatives pour faire face aux aspects nuisibles de l’utilisation du ponçage.
The main objective of this research project was to evaluate the effect of surfacing processes in black spruce wood in relation to surface quality and performance of poly (vynil acetate) glue and water-based coating. First, oblique cutting, peripheral planing, face milling and sanding were used prior to gluing with two-component poly (vinyl acetate) glue. The four machining processes produced surfaces having similar surface roughness and glue line shear strength before and after an accelerated aging treatment. Thus, black spruce wood is relatively easy to glue. Only glue penetration, as well as the level of fibrillation, was affected by the machining processes. In the second part of the project, the objective was to optimize cutting parameters of sanding, oblique cutting, helical planing, peripheral planing and face milling for surface quality and coating performance. In addition, the four planing processes were evaluated in order to evaluate their potential to be used as alternatives to sanding. Sanding with a two-stage program (P100-150-grit) at a feed speed of 17 m/min generated low surface roughness and high wettability and pull-off strength after the accelerated aging treatment. On one hand, face milling induced superior surface roughness and wettability when compared with other studied surfacing processes. These samples were also characterized by the most important coating penetration and level of fibrillation. This contributed to reduce the coating layer protecting the samples during the aging treatment. As a consequence, face-milled samples had a significant lower pull-off strength compared with those prepared by the other four machining processes. On the other hand, oblique cutting with an oblique angle fo 35°, helical planing with a wavelength of 1.43 mm and peripheral planing with a 10 or 20° rake angle all produced surfaces with intermediate surface roughness and wetting properties, but coating performance statistically similar to that of sanded samples. As a result, these three planing processes are to be considered as alternatives to the sanding process.
The main objective of this research project was to evaluate the effect of surfacing processes in black spruce wood in relation to surface quality and performance of poly (vynil acetate) glue and water-based coating. First, oblique cutting, peripheral planing, face milling and sanding were used prior to gluing with two-component poly (vinyl acetate) glue. The four machining processes produced surfaces having similar surface roughness and glue line shear strength before and after an accelerated aging treatment. Thus, black spruce wood is relatively easy to glue. Only glue penetration, as well as the level of fibrillation, was affected by the machining processes. In the second part of the project, the objective was to optimize cutting parameters of sanding, oblique cutting, helical planing, peripheral planing and face milling for surface quality and coating performance. In addition, the four planing processes were evaluated in order to evaluate their potential to be used as alternatives to sanding. Sanding with a two-stage program (P100-150-grit) at a feed speed of 17 m/min generated low surface roughness and high wettability and pull-off strength after the accelerated aging treatment. On one hand, face milling induced superior surface roughness and wettability when compared with other studied surfacing processes. These samples were also characterized by the most important coating penetration and level of fibrillation. This contributed to reduce the coating layer protecting the samples during the aging treatment. As a consequence, face-milled samples had a significant lower pull-off strength compared with those prepared by the other four machining processes. On the other hand, oblique cutting with an oblique angle fo 35°, helical planing with a wavelength of 1.43 mm and peripheral planing with a 10 or 20° rake angle all produced surfaces with intermediate surface roughness and wetting properties, but coating performance statistically similar to that of sanded samples. As a result, these three planing processes are to be considered as alternatives to the sanding process.
APA, Harvard, Vancouver, ISO, and other styles
26

Censier, Benjamin. "Étude et optimisation de la voie ionisation dansl'expérience EDELWEISS de détection directe de lamatière noire." Phd thesis, Université Paris Sud - Paris XI, 2006. http://tel.archives-ouvertes.fr/tel-00109453.

Full text
Abstract:
Le but de l'expérience EDELWEISS est la détection de particules massives très faiblement interagissantes, candidats actuellement majeurs pour résoudre le problème de la matière noire. On identifie les particules ionisantes du fond grâce à la mesure simultanée de chaleur et d'ionisation dans les détecteurs. La principale limitation à cette méthode provient de la mesure d'ionisation, la collecte de charges étant altérée dans certaines zones dites «mortes» du détecteur. La spécificité de la mesure tient à l'emploi de très basses températures et de faibles champs de collecte. Cette thèse est consacrée à l'étude du piégeage de porteurs, par l'utilisation conjointe de mesures résolues en temps et d'un code de simulation adapté à ces conditions physiques particulières. On présente tout d'abord les résultats concernant le piégeage sur les surfaces libres des détecteurs. Notre méthode permet de constituer une charge surfacique de manière contrôlée sous irradiation par une source de forte activité, pour ensuite la caractériser à l'aide d'une source plus faible utilisée comme une sonde. Dans une deuxième étude, les caractéristiques du piégeage en volume sont déduites de mesures du rendement de collecte, ainsi que par une méthode originale utilisant la localisation des évènements dans le détecteur. Les résultats montrent qu'une proportion importante des impuretés dopantes sont chargées, comme l'indique de manière indépendante l'étude concernant les phénomènes de dégradation liés à la constitution d'une charge d'espace. Ce dernier volet met également en évidence la présence de nombreux pièges chargés sous les électrodes, et leur lien avec les effets de zone morte.
APA, Harvard, Vancouver, ISO, and other styles
27

Censier, Benjamin. "Etude et optimisation de la voie ionisation dans l'expérience EDELWEISS de détection directe de la matière noire." Paris 11, 2006. https://tel.archives-ouvertes.fr/tel-00109453.

Full text
Abstract:
Le but de l'expérience EDELWEISS est la détection de particules massives très faiblement interagissantes, candidats actuellement majeurs pour résoudre le problème de la matière noire. On identifie les particules ionisantes du fond grâce à la mesure simultanée de chaleur et d'ionisation dans les détecteurs. La principale limitation à cette méthode provient de la mesure d'ionisation, la collecte de charges étant altérée dans certaines zones dites "mortes" du détecteur. La spécificité de la mesure tient à l'emploi de très basses températures et de faibles champs de collecte. Cette thèse est consacrée à l'étude du piégeage de porteurs, par l'utilisation conjointe de mesures résolues en temps et d'un code de simulation adapté à ces conditions physiques particulières. On présente tout d'abord les résultats concernant le piégeage sur les surfaces libres des détecteurs. Notre méthode permet de constituer une charge surfacique de manière contrôlée sous irradiation par une source de forte activité, pour ensuite la caractériser à l'aide d'une source plus faible utilisée comme une sonde. Dans une deuxième étude, les caractéristiques du piégeage en volume sont déduites de mesures du rendement de collecte, ainsi que par une méthode originale utilisant la localisation des évènements dans le détecteur. Les résultats montrent qu'une proportion importante des impuretés dopantes sont chargées, comme l'indique de manière indépendante l'étude concernant les phénomènes de dégradation liés à la constitution d'une charge d'espace. Ce dernier volet met également en évidence la présence de nombreux pièges chargés sous les électrodes, et leur lien avec les effets de zone morte
The EDELWEISS experiment is aiming at the detection of Weakly Interactive Massive Particles (WIMPs), today's most favoured candidates for solving the dark matter issue. Background ionising particles are identified thanks to the simultaneous measurement of heat and ionisation in the detectors. The main limitation to this method is coming from the ionisation measurement, charge collection being less efficient in some part of the detectors known as "dead" areas. The specificity of the measurement is due to the use of very low temperatures and low collection fields. This thesis is dedicated to the study of carrier trapping. It involves time-resolved charge measurements as well as a simulation code adapted to the specific physical conditions. We first present results concerning charge trapping at the free surfaces of the detectors. Our method allows to build a surface-charge in a controlled manner by irradiation with a strong radioactive source. This charge is then caracterised with a weaker source which acts as a probe. In a second part of the work, bulk-trapping characteristics are deduced from charge collection efficiency measurements, and by an original method based on event localisation in the detector. The results show that a large proportion of the doping impurities are ionised, as indicated independently by the study of degradation by space-charge build-up. In this last part, near-electrodes areas are found to contain large densities of charged trapping centres, in connection with dead-layer effects
APA, Harvard, Vancouver, ISO, and other styles
28

Begin, Thomas. "Modélisation et calibrage automatiques de systèmes." Paris 6, 2008. http://www.theses.fr/2008PA066540.

Full text
Abstract:
Cette thèse s'intéresse au calibrage et à la génération automatiques de modèles. Une nouvelle méthode de modélisation, nommée HLM ("High Level Modeling") est proposée afin de permettre la modélisation rapide et automatique de systèmes opérationnels de type "boîte noire" pour lesquels on dispose uniquement de mesures. Son principe consiste à rechercher parmi un ensemble présupposé de modèles génériques si, une fois correctement calibré, l'un d’eux permet de reproduire le comportement d'entrée/sortie du système tel qu'il est décrit par les mesures. La méthode HLM comprend la description (1) de modèles classiques de type file d’attente ainsi que des modèles plus originaux et (2) d'une méthode de calibrage automatique permettant de déterminer les paramètres d'un modèle de type file d'attente à partir de mesures. La recherche du calibrage est formulée comme un problème d'optimisation numérique pour lequel un algorithme de recherche efficace de type "Derivative Free Optimization" est proposé. Des exemples d'applications de la méthode HLM sur des systèmes réels et variés sont présentés. Enfin, une partie de cette thèse concerne l'influence que peuvent avoir les propriétés distributionnelles d'ordre supérieur sur les performances de files classiques de la théorie des files d'attente.
APA, Harvard, Vancouver, ISO, and other styles
29

NAVICK, XAVIER-FRANCOIS. "Etude et optimisation de bolometres a mesure simultanee de l'ionisation et de la chaleur pour la recherche de la matiere noire." Paris 7, 1997. http://www.theses.fr/1997PA077146.

Full text
Abstract:
Pour la recherche de la matiere noire non baryonique par detection directe, la collaboration edelweiss a choisi d'utiliser le bolometre ionisation-chaleur qui permet de distinguer les evenements recherches de ceux produits par la radioactivite ambiante. La condition d'une rejection efficace des evenements parasites est de fonctionner a tres basse temperature et d'appliquer une faible tension de polarisation pour la mesure de l'ionisation. Or a basse tension, celle-ci est instable au cours du temps. Nous avons montre que ce phenomene est lie a la creation d'une charge d'espace qui est due a l'ionisation des niveaux peu profonds par l'absorption de photons infrarouges parasites, emis par les parois chaudes du cryostat. Nous proposons a cette occasion un nouveau moyen de caracteriser les impuretes, pouvant egalement servir a mesurer le rayonnement infrarouge residuel et une methode pour cartographier le champ electrique. La fabrication des detecteurs, l'etude des electrodes et les caracterisations des impuretes presentes dans les monocristaux semi-conducteurs utilises sont detaillees. L'analyse des caracteristiques i(v) permet de definir la tension a appliquer et d'etudier les contacts a basse temperature. La determination de meilleures conditions de fabrication et d'utilisation (protection ir, regeneration, etc. ) ont permis d'ameliorer tres nettement la stabilite des reponses et la resolution en energie et d'obtenir les meilleures performances en mesure de l'ionisation. Nous avons ensuite etudie la contribution du piegeage a la resolution et cherche a mettre en evidence la presence ou non d'une zone morte. Cette etude permet d'envisager l'emploi d'autres semi-conducteurs moins purs et de gap plus etroit que ge et de simplifier les procedures de fabrication. Cette these a abouti a la realisation et a l'etude du premier detecteur ionisation chaleur d'edelweiss, dont nous presentons les premiers resultats de mesure obtenus au laboratoire souterrain de modane.
APA, Harvard, Vancouver, ISO, and other styles
30

Cabana, Antoine. "Contribution à l'évaluation opérationnelle des systèmes biométriques multimodaux." Thesis, Normandie, 2018. http://www.theses.fr/2018NORMC249/document.

Full text
Abstract:
Le développement et la multiplication de dispositifs connectés, en particulier avec les \textit{smartphones}, nécessitent la mise en place de moyens d'authentification. Dans un soucis d'ergonomie, les industriels intègrent massivement des systèmes biométrique afin de garantir l'identité du porteur, et ce afin d'autoriser l'accès à certaines applications et fonctionnalités sensibles (paiements, e-banking, accès à des données personnelles : correspondance électronique..). Dans un soucis de garantir, une adéquation entre ces systèmes d'authentification et leur usages, la mise en œuvre d'un processus d'évaluation est nécessaire.L'amélioration des performances biométriques est un enjeux important afin de permettre l'intégration de telles solutions d'authentification dans certains environnement ayant d'importantes exigences sur les performances, particulièrement sécuritaires. Afin d'améliorer les performances et la fiabilité des authentifications, différentes sources biométriques sont susceptibles d'être utilisées dans un processus de fusion. La biométrie multimodale réalise, en particulier, la fusion des informations extraites de différentes modalités biométriques
Development and spread of connected devices, in particular smartphones, requires the implementation of authentication methods. In an ergonomic concern, manufacturers integrates biometric systems in order to deal with logical control access issues. These biometric systems grant access to critical data and application (payment, e-banking, privcy concerns : emails...). Thus, evaluation processes allows to estimate the systems' suitabilty with these uses. In order to improve recognition performances, manufacturer are susceptible to perform multimodal fusion.In this thesis, the evaluation of operationnal biometric systems has been studied, and an implementation is presented. A second contribution studies the quality estimation of speech samples, in order to predict recognition performances
APA, Harvard, Vancouver, ISO, and other styles
31

Romero, Ugalde Héctor Manuel. "Identification de systèmes utilisant les réseaux de neurones : un compromis entre précision, complexité et charge de calculs." Thesis, Paris, ENSAM, 2013. http://www.theses.fr/2013ENAM0001/document.

Full text
Abstract:
Ce rapport porte sur le sujet de recherche de l'identification boîte noire du système non linéaire. En effet, parmi toutes les techniques nombreuses et variées développées dans ce domaine de la recherche ces dernières décennies, il semble toujours intéressant d'étudier l'approche réseau de neurones dans l'estimation de modèle de système complexe. Même si des modèles précis ont été obtenus, les principaux inconvénients de ces techniques restent le grand nombre de paramètres nécessaires et, en conséquence, le coût important de calcul nécessaire pour obtenir le niveau de pratique de la précision du modèle désiré. Par conséquent, motivés pour remédier à ces inconvénients, nous avons atteint une méthodologie complète et efficace du système d'identification offrant une précision équilibrée, la complexité et les modèles de coûts en proposant, d'une part, de nouvelles structures de réseaux de neurones particulièrement adapté à une utilisation très large en matière de modélisation système pratique non linéaire, d'autre part, un simple et efficace technique de réduction de modèle, et, troisièmement, une procédure de réduction de coût de calcul. Il est important de noter que ces deux dernières techniques de réduction peut être appliquée à une très large gamme d'architectures de réseaux de neurones sous deux simples hypothèses spécifiques qui ne sont pas du tout contraignant. Enfin, la dernière contribution importante de ce travail est d'avoir montré que cette phase d'estimation peut être obtenue dans un cadre robuste si la qualité des données d'identification qu'il oblige. Afin de valider la procédure d'identification système proposé, des exemples d'applications entraînées en simulation et sur un procédé réel, de manière satisfaisante validé toutes les contributions de cette thèse, confirmant tout l'intérêt de ce travail
This report concerns the research topic of black box nonlinear system identification. In effect, among all the various and numerous techniques developed in this field of research these last decades, it seems still interesting to investigate the neural network approach in complex system model estimation. Even if accurate models have been derived, the main drawbacks of these techniques remain the large number of parameters required and, as a consequence, the important computational cost necessary to obtain the convenient level of the model accuracy desired. Hence, motivated to address these drawbacks, we achieved a complete and efficient system identification methodology providing balanced accuracy, complexity and cost models by proposing, firstly, new neural network structures particularly adapted to a very wide use in practical nonlinear system modeling, secondly, a simple and efficient model reduction technique, and, thirdly, a computational cost reduction procedure. It is important to notice that these last two reduction techniques can be applied to a very large range of neural network architectures under two simple specific assumptions which are not at all restricting. Finally, the last important contribution of this work is to have shown that this estimation phase can be achieved in a robust framework if the quality of identification data compels it. In order to validate the proposed system identification procedure, application examples driven in simulation and on a real process, satisfactorily validated all the contributions of this thesis, confirming all the interest of this work
APA, Harvard, Vancouver, ISO, and other styles
32

Romero, ugalde Héctor manuel. "Identification de systèmes utilisant les réseaux de neurones : un compromis entre précision, complexité et charge de calculs." Phd thesis, Ecole nationale supérieure d'arts et métiers - ENSAM, 2013. http://pastel.archives-ouvertes.fr/pastel-00869428.

Full text
Abstract:
Ce rapport porte sur le sujet de recherche de l'identification boîte noire du système non linéaire. En effet, parmi toutes les techniques nombreuses et variées développées dans ce domaine de la recherche ces dernières décennies, il semble toujours intéressant d'étudier l'approche réseau de neurones dans l'estimation de modèle de système complexe. Même si des modèles précis ont été obtenus, les principaux inconvénients de ces techniques restent le grand nombre de paramètres nécessaires et, en conséquence, le coût important de calcul nécessaire pour obtenir le niveau de pratique de la précision du modèle désiré. Par conséquent, motivés pour remédier à ces inconvénients, nous avons atteint une méthodologie complète et efficace du système d'identification offrant une précision équilibrée, la complexité et les modèles de coûts en proposant, d'une part, de nouvelles structures de réseaux de neurones particulièrement adapté à une utilisation très large en matière de modélisation système pratique non linéaire, d'autre part, un simple et efficace technique de réduction de modèle, et, troisièmement, une procédure de réduction de coût de calcul. Il est important de noter que ces deux dernières techniques de réduction peut être appliquée à une très large gamme d'architectures de réseaux de neurones sous deux simples hypothèses spécifiques qui ne sont pas du tout contraignant. Enfin, la dernière contribution importante de ce travail est d'avoir montré que cette phase d'estimation peut être obtenue dans un cadre robuste si la qualité des données d'identification qu'il oblige. Afin de valider la procédure d'identification système proposé, des exemples d'applications entraînées en simulation et sur un procédé réel, de manière satisfaisante validé toutes les contributions de cette thèse, confirmant tout l'intérêt de ce travail.
APA, Harvard, Vancouver, ISO, and other styles
33

Dolgorouky, Youri. "Optimisation du pouvoir de résolution et du rejet du fond radioactif de détecteurs ionisation-chaleur équipés de couches minces thermométriques pour la détection directe de WIMPs." Phd thesis, Université Paris Sud - Paris XI, 2008. http://tel.archives-ouvertes.fr/tel-00401690.

Full text
Abstract:
Pour la recherche de la matière noire sous forme de WIMPs l'expérience EDELWEISS utilise des détecteurs ionisation-chaleur qui permettent de les discriminer du fond radioactif. Cette méthode est limitée par les événements à collecte incomplète de charge qui ont lieu près des électrodes. Dans le but d'identifier et rejeter ces événements, des détecteurs équipés de couches minces servant à la fois de thermomètres, sensibles au régime thermique transitoire (régime athermique), et d'électrodes de collecte sont développés. Leur optimisation en terme de rejet des événements de surface et la modélisation des processus physiques permettant cette identification font l'objet de cette thèse. L'optimisation doit conserver une résolution en énergie qui conduise à un seuil de l'ordre de 30 keV et un volume fiduciel de détecteur maximal. Ce travail explore quatre générations de détecteurs qui correspondent à des évolutions successives de leur conception. Dans tous les cas l'électrode-thermomètre est une couche mince de NbSi amorphe de type isolant d'Anderson polarisée par deux peignes interdigités en Niobium. En dépit des progrès réalisés la génération la plus aboutie ne présente pas les performances requises pour l'expérience EDELWEISS II. L'étude menée a montré la difficulté de la modélisation des signaux thermique transitoires car la collecte des charges y apporte des contributions complexes. Des pistes émergent de ce travail pour explorer de nouvelles configuration de ces détecteurs afin d'exploiter mieux le régime athermique pour améliorer le pouvoir de rejet et la résolution.
APA, Harvard, Vancouver, ISO, and other styles
34

Ouenzar, Mohammed. "Validation de spécifications de systèmes d'information avec Alloy." Mémoire, Université de Sherbrooke, 2013. http://hdl.handle.net/11143/6594.

Full text
Abstract:
Le présent mémoire propose une investigation approfondie de l’analyseur Alloy afin de juger son adaptabilité en tant que vérificateur de modèles. Dans un premier temps, l’étude dresse un tableau comparatif de six vérificateurs de modèles, incluant Alloy, afin de déterminer lequel d’entre eux est le plus apte à résoudre les problématiques de sécurité fonctionnelle posées par les systèmes d’information. En conclusion de cette première phase, Alloy émerge comme l’un des analyseurs les plus performants pour vérifier les modèles sur lesquels se fondent les systèmes d’information. Dans un second temps, et sur la base des problématiques rencontrées au cours de cette première phase, l’étude rapporte une série d’idiomes pour, d’une part, présenter une manière optimisée de spécifier des traces et, d’autre part, trouver des recours afin de contourner les limitations imposées par Alloy. À ces fins, le mémoire propose deux nouveaux cas d’espèce, ceux d’une cuisinière intelligente et d’une boîte noire, afin de déterminer si oui ou non l’analyseur est capable de gérer les systèmes dynamiques possédant de nombreuses entités avec autant d’efficacité que les systèmes qui en possèdent moins. En conclusion, le mémoire rapporte que Alloy est un bon outil pour vérifier des systèmes dynamiques mais que sa version récente, DynAlloy, peut être encore mieux adapté pour le faire puisque précisément conçu pour faire face aux spécificités de ce type de système. Le mémoire s’achève sur une présentation sommaire de ce dernier outil.
APA, Harvard, Vancouver, ISO, and other styles
35

Dominique, Cyril. "Modélisation dynamique des modules actifs à balayage électronique par séries de Volterra et intégration de ces modèles pour une simulation de type système." Paris 6, 2002. http://www.theses.fr/2002PA066106.

Full text
APA, Harvard, Vancouver, ISO, and other styles
36

Longuet, Delphine. "Test à partir de spécifications axiomatiques." Phd thesis, Université d'Evry-Val d'Essonne, 2007. http://tel.archives-ouvertes.fr/tel-00258792.

Full text
Abstract:
Le test est l'une des méthodes les plus utilisées pour la validation du logiciel. L'activité de test consiste à exécuter le logiciel sur un sous-ensemble de ses entrées possibles de manière à déceler d'éventuelles erreurs. La présence d'erreurs est établie par confrontation du comportement du logiciel avec un objet de référence. Le processus de test est généralement décomposé en trois phases : la sélection du sous-ensemble des entrées sur lequel le logiciel sera exécuté, la soumission de ces entrées au logiciel en collectant les sorties (les réponses du logiciel) et la décision de l'adéquation de ces sorties avec les sorties attendues.

La sélection des données à soumettre au logiciel peut être effectuée selon différentes approches. Lorsque la phase de sélection d'un jeu de tests est opérée à partir d'un objet de référence décrivant plus ou moins formellement le comportement du logiciel, sans connaissance de l'implantation elle-même, on parle de test « boîte noire ». Une des approches de test boîte noire pour laquelle un cadre formel a été proposé est celle qui utilise comme objet de référence une spécification logique du système sous test.

Le cadre général de test à partir de spécifications logiques (ou axiomatiques) pose les conditions et les hypothèses sous lesquelles il est possible de tester un système. La première hypothèse consiste à considérer le système sous test comme un modèle formel implantant les opérations dont le comportement est décrit par la spécification. La seconde hypothèse a trait à l'observabilité du système sous test. Il faut fixer la forme des formules qui peuvent être interprétées par le système, c'est-à-dire qui peuvent être des tests. On se restreint généralement au moins aux formules qui ne contiennent pas de variables. Une fois ces hypothèses de test posées, on dispose d'un jeu de tests initial, celui de toutes les formules observables qui sont des conséquences logiques de la spécification.

Le premier résultat à établir est l'exhaustivité de cet ensemble, c'est-à-dire sa capacité à prouver la correction du système s'il pouvait être soumis dans son intégralité. Le jeu de tests exhaustif étant le plus souvent infini, une phase de sélection intervient afin de choisir un jeu de tests de taille finie et raisonnable à soumettre au système. Plusieurs approches sont possibles. L'approche suivie dans ma thèse, dite par partition, consiste a diviser le jeu de tests exhaustif initial en sous-jeux de tests, selon un certain critère de sélection relatif à une fonctionnalité ou à une caractéristique du système que l'on veut tester. Une fois cette partition suffisamment fine, il suffit de choisir un cas de test dans chaque sous-jeu de test obtenu en appliquant l'hypothèse d'uniformité (tous les cas de test d'un jeu de test sont équivalents pour faire échouer le système). Le deuxième résultat à établir est que la division du jeu de tests initial n'ajoute pas (correction de la procédure) et ne fait pas perdre (complétude) de cas de test.

Dans le cadre des spécifications algébriques, une des méthodes de partition du jeu de tests exhaustif qui a été très étudiée, appelée dépliage des axiomes, consiste à procéder à une analyse par cas de la spécification. Jusqu'à présent, cette méthode s'appuyait sur des spécifications équationnelles dont les axiomes avaient la caractéristique d'être conditionnels positifs (une conjonction d'équations implique une équation).

Le travail de ma thèse a eu pour but d'étendre et d'adapter ce cadre de sélection de tests à des systèmes dynamiques spécifiés dans un formalisme axiomatique, la logique modale du premier ordre. La première étape a consisté à généraliser la méthode de sélection définie pour des spécifications équationnelles conditionnelles positives aux spécifications du premier ordre. Ce cadre de test a ensuite été d'adapté à des spécifications modales du premier ordre. Le premier formalisme de spécification considéré est une extension modale de la logique conditionnelle positive pour laquelle le cadre de test a été initialement défini. Une fois le cadre de test adapté aux spécifications modales conditionnelles positives, la généralisation aux spécifications modales du premier ordre a pu être effectuée.

Dans chacun de ces formalismes nous avons effectué deux tâches. Nous avons d'une part étudié les conditions nécessaires à imposer à la spécification et au système sous test pour obtenir l'exhaustivité du jeu de tests initial. Nous avons d'autre part adapté et étendu la procédure de sélection par dépliage des axiomes à ces formalismes et montré sa correction et sa complétude. Dans les deux cadres généraux des spécifications du premier ordre et des spécifications modales du premier ordre, nous avons montré que les conditions nécessaires à l'exhausitivité du jeu de test visé étaient mineures car faciles à assurer dans la pratique, ce qui assure une généralisation satisfaisante de la sélection dans ce cadre.
APA, Harvard, Vancouver, ISO, and other styles
37

Faye, Papa Abdoulaye. "Planification et analyse de données spatio-temporelles." Thesis, Clermont-Ferrand 2, 2015. http://www.theses.fr/2015CLF22638/document.

Full text
Abstract:
La Modélisation spatio-temporelle permet la prédiction d’une variable régionalisée à des sites non observés du domaine d’étude, basée sur l’observation de cette variable en quelques sites du domaine à différents temps t donnés. Dans cette thèse, l’approche que nous avons proposé consiste à coupler des modèles numériques et statistiques. En effet en privilégiant l’approche bayésienne nous avons combiné les différentes sources d’information : l’information spatiale apportée par les observations, l’information temporelle apportée par la boîte noire ainsi que l’information a priori connue du phénomène. Ce qui permet une meilleure prédiction et une bonne quantification de l’incertitude sur la prédiction. Nous avons aussi proposé un nouveau critère d’optimalité de plans d’expérience incorporant d’une part le contrôle de l’incertitude en chaque point du domaine et d’autre part la valeur espérée du phénomène
Spatio-temporal modeling allows to make the prediction of a regionalized variable at unobserved points of a given field, based on the observations of this variable at some points of field at different times. In this thesis, we proposed a approach which combine numerical and statistical models. Indeed by using the Bayesian methods we combined the different sources of information : spatial information provided by the observations, temporal information provided by the black-box and the prior information on the phenomenon of interest. This approach allowed us to have a good prediction of the variable of interest and a good quantification of incertitude on this prediction. We also proposed a new method to construct experimental design by establishing a optimality criterion based on the uncertainty and the expected value of the phenomenon
APA, Harvard, Vancouver, ISO, and other styles
38

Nesme, Vincent. "Complexité en requêtes et symétries." Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2007. http://tel.archives-ouvertes.fr/tel-00156762.

Full text
Abstract:
Ces travaux portent sur l'étude de la complexité en requêtes de
problèmes symétriques, dans les cadres du calcul probabiliste classique
et du calcul quantique.

Il est montré, dans le cas quantique, une application de la méthode de
bornes inférieures dite "polynomiale" au calcul de la complexité en
requêtes des problèmes de sous-groupes cachés abéliens, via la technique de "symétrisation".

Dans le cas du calcul probabiliste, sous une hypothèse de "symétrie
transitive" des problèmes, il est donné une formule combinatoire
permettant de calculer la complexité en requêtes exacte du meilleur
algorithme non-adaptatif. De plus, il est mis en évidence que sous
certaines hypothèses de symétrie, ce meilleur algorithme non-adaptatif
est optimal même parmi les algorithmes probabilistes plus généraux, ce qui donne pour la classe de problèmes correspondante une expression exacte de la complexité en requêtes.
APA, Harvard, Vancouver, ISO, and other styles
39

Vazquez, Emmanuel. "Modélisation comportementale de systèmes non-linéaires multivariables par méthodes à noyaux et applications." Phd thesis, Université Paris Sud - Paris XI, 2005. http://tel.archives-ouvertes.fr/tel-00010199.

Full text
Abstract:
Les méthodes de prédiction linéaire de processus aléatoires, ou krigeage, et les méthodes de régression régularisée par une norme d'espace hilbertien à noyau reproduisant (splines, approximation par fonctions de base radiales, régression à vecteurs de support, etc.) constituent deux approches fondamentales de modélisation comportementale de systèmes non-linéaires. Les liens mathématiques entre ces deux approches ont été mentionnés à plusieurs reprises dans le passé. Fort peu exploités, ces liens n'en restent pas moins fondamentaux puisqu'ils permettent par exemple de comprendre comment formuler le problème de régression régularisée pour l'approximation de fonctions à valeurs vectorielles (cas des systèmes multivariables dits MIMO). Dans les deux approches, le choix du noyau est essentiel car il conditionne la qualité des modèles. Les principaux résultats théoriques sont issus de travaux en statistiques. Bien que de type asymptotique, ils ont des conséquences pratiques importantes rappelées et illustrées dans cette étude. Les noyaux considérés habituellement forment une famille restreinte offrant relativement peu de souplesse. Ceci nous a suggéré de développer des méthodes assemblant un noyau à partir d'un grand nombre de noyaux élémentaires. Elles ont permis d'obtenir des résultats satisfaisants notamment sur un problème test classique issu du domaine de la prédiction de séries chronologiques. Enfin, ce travail s'attache à montrer comment utiliser les méthodes de régression à noyaux à travers la présentation de problèmes réels. Le choix de noyau est abordé en pratique. La prise en compte d'informations disponibles a priori par utilisation du krigeage intrinsèque (régression semi-régularisée) est illustrée. Finalement, des éléments de planification d'expériences sont discutés.
APA, Harvard, Vancouver, ISO, and other styles
40

Dumas, Jean-Guillaume. "Algorithmes parallèles efficaces pour le calcul formel : algèbre linéaire creuse et extensions algébriques." Phd thesis, Grenoble INPG, 2000. http://tel.archives-ouvertes.fr/tel-00002742.

Full text
Abstract:
Depuis quelques années, l'extension de l'utilisation de l'informatique dans tous les domaines de recherche scientifique et technique se traduit par un besoin croissant de puissance de calcul. Il est donc vital d'employer les microprocesseurs en parallèle. Le problème principal que nous cherchons à résoudre dans cette thèse est le calcul d'une forme canonique de très grandes matrices creuses à coefficients entiers, la forme normale de Smith. Par "très grandes", nous entendons un million d'inconnues et un million d'équations, c'est-à-dire mille milliards de variables. De tels systèmes sont même, en général, impossibles à stocker actuellement. Cependant, nous nous intéressons à des systèmes dans lesquels beaucoup de ces variables sont identiques et valent zéro; on parle dans ce cas de système creux. Enfin, nous voulons résoudre ces systèmes de manière exacte, c'est-à-dire que nous travaillons avec des nombres entiers ou dans une structure algébrique plus petite et autorisant toutes les opérations classiques, un corps fini. La reconstruction de la solution entière à partir des solutions plus petites est ensuite relativement aisée.
APA, Harvard, Vancouver, ISO, and other styles
41

Cheaito, Hassan. "Modélisation CEM des équipements aéronautiques : aide à la qualification de l’essai BCI." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSEC039/document.

Full text
Abstract:
L’intégration de l’électronique dans des environnements sévères d’un point de vue électromagnétique a entraîné en contrepartie l’apparition de problèmes de compatibilité électromagnétique (CEM) entre les différents systèmes. Afin d’atteindre un niveau de performance satisfaisant, des tests de sécurité et de certification sont nécessaires. Ces travaux de thèse, réalisés dans le cadre du projet SIMUCEDO (SIMUlation CEM basée sur la norme DO-160), contribuent à la modélisation du test de qualification "Bulk Current Injection" (BCI). Ce test, abordé dans la section 20 dans la norme DO-160 dédiée à l’aéronautique, est désormais obligatoire pour une très grande gamme d’équipements aéronautiques. Parmi les essais de qualification, le test BCI est l’un des plus contraignants et consommateurs du temps. Sa modélisation assure un gain de temps, et une meilleure maîtrise des paramètres qui influencent le passage des tests CEM. La modélisation du test a été décomposée en deux parties : l’équipement sous test (EST) d’une part, et la pince d’injection avec les câbles d’autre part. Dans cette thèse, seul l’EST est pris en compte. Une modélisation "boîte grise" a été proposée en associant un modèle "boîte noire" avec un modèle "extensif". Le modèle boîte noire s’appuie sur la mesure des impédances standards. Son identification se fait avec un modèle en pi. Le modèle extensif permet d’étudier plusieurs configurations de l’EST en ajustant les paramètres physiques. L’assemblage des deux modèles en un modèle boîte grise a été validé sur un convertisseur analogique-numérique (CAN). Une autre approche dénommée approche modale en fonction du mode commun (MC) et du mode différentiel (MD) a été proposée. Elle se base sur les impédances modales du système sous test. Des PCB spécifiques ont été conçus pour valider les équations développées. Une investigation est menée pour définir rigoureusement les impédances modales. Nous avons démontré qu’il y a une divergence entre deux définitions de l’impédance de MC dans la littérature. Ainsi, la conversion de mode (ou rapport Longitudinal Conversion Loss : LCL) a été quantifiée grâce à ces équations. Pour finir, le modèle a été étendu à N-entrées pour représenter un EST de complexité industrielle. Le modèle de l’EST est ensuite associé avec celui de la pince et des câbles travaux réalisés au G2ELAB. Des mesures expérimentales ont été faites pour valider le modèle complet. D’après ces mesures, le courant de MC est impacté par la mise en œuvre des câbles ainsi que celle de l’EST. Il a été montré que la connexion du blindage au plan de masse est le paramètre le plus impactant sur la distribution du courant de MC
Electronic equipments intended to be integrated in aircrafts are subjected to normative requirements. EMC (Electromagnetic Compatibility) qualification tests became one of the mandatory requirements. This PhD thesis, carried out within the framework of the SIMUCEDO project (SIMulation CEM based on the DO-160 standard), contributes to the modeling of the Bulk Current Injection (BCI) qualification test. Concept, detailed in section 20 in the DO-160 standard, is to generate a noise current via cables using probe injection, then monitor EUT satisfactorily during test. Among the qualification tests, the BCI test is one of the most constraining and time consuming. Thus, its modeling ensures a saving of time, and a better control of the parameters which influence the success of the equipment under test. The modeling of the test was split in two parts : the equipment under test (EUT) on one hand, and the injection probe with the cables on the other hand. This thesis focuses on the EUT modeling. A "gray box" modeling was proposed by associating the "black box" model with the "extensive" model. The gray box is based on the measurement of standard impedances. Its identification is done with a "pi" model. The model, having the advantage of taking into account several configurations of the EUT, has been validated on an analog to digital converter (ADC). Another approach called modal, in function of common mode and differential mode, has been proposed. It takes into account the mode conversion when the EUT is asymmetrical. Specific PCBs were designed to validate the developed equations. An investigation was carried out to rigorously define the modal impedances, in particular the common mode (CM) impedance. We have shown that there is a discrepancy between two definitions of CM impedance in the literature. Furthermore, the mode conversion ratio (or the Longitudinal Conversion Loss : LCL) was quantified using analytical equations based on the modal approach. An N-input model has been extended to include industrial complexity. The EUT model is combined with the clamp and the cables model (made by the G2ELAB laboratory). Experimental measurements have been made to validate the combined model. According to these measurements, the CM current is influenced by the setup of the cables as well as the EUT. It has been shown that the connection of the shield to the ground plane is the most influent parameter on the CM current distribution
APA, Harvard, Vancouver, ISO, and other styles
42

Pernet, Clément. "Algèbre linéaire exacte efficace : le calcul du polynôme caractéristique." Phd thesis, Université Joseph Fourier (Grenoble), 2006. http://tel.archives-ouvertes.fr/tel-00111346.

Full text
Abstract:
L'algèbre linéaire est une brique de base essentielle du calcul scientifique. Initialement dominée par le calcul numérique, elle connaît depuis les dix dernières années des progrès considérables en calcul exact. Ces avancées algorithmiques rendant l'approche exacte envisageable, il est devenu nécessaire de considérer leur mise en pratique. Nous présentons la mise en oeuvre de routines de base en algèbre linéaire exacte dont l'efficacité sur les corps finis est comparable celles des BLAS numériques. Au délà des applications propres au calcul exact, nous montrons qu'elles offrent une alternative au calcul numérique multiprécision pour la résolution de certains problèmes numériques mal conditionnés.

Le calcul du polynôme caractéristique est l'un des problèmes classiques en algèbre linéaire. Son calcul exact permet par exemple de déterminer la similitude entre deux matrices, par le calcul de la forme normale de Frobenius, ou la cospectralité de deux graphes. Si l'amélioration de sa complexité théorique reste un problème ouvert, tant pour les méthodes denses que boîte noire, nous abordons la question du point de vue de la praticabilité : des algorithmes adaptatifs pour les matrices denses ou boîte noire sont dérivés des meilleurs algorithmes existants pour assurer l'efficacité en pratique. Cela permet de traiter de façon exacte des problèmes de dimensions jusqu'alors inaccessibles.
APA, Harvard, Vancouver, ISO, and other styles
43

Pamart, Pierre-Yves. "Contrôle des décollements en boucle fermée." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2011. http://tel.archives-ouvertes.fr/tel-00659979.

Full text
Abstract:
La politique européenne recommande aux industriels de l'aéronautique de concevoir des aéronefs capables de proposer une réduction de 50% du bruit perçu, de 50% de la consommation et de 80% des émissions de gaz NOx d'ici 2020. Les ingénieurs sont donc amenés à envisager des solutions innovantes basées sur le contrôle des écoulements, en particulier celui des décollements puisqu'ils ont généralement des effets délétères sur les performances aérodynamiques. Les travaux présentés dans ce mémoire sont dédiés au contrôle en boucle fermée du décollement d'une rampe arrondie par un jet synthétique réglable en fréquence et en amplitude. Le mémoire s'articule autour de deux axes principaux. Le premier axe a permis d'étudier la réponse du décollement à une perturbation périodique par simulations numériques de type LES afin de poursuivre la compréhension de la phy- sique impliquée dans le contrôle et de définir des objectifs de contrôle. Les fréquences et amplitudes optimales au regard de différents critères ont ainsi été identifiées et analysées. Le second axe a été consacré au contrôle en boucle fermée de la réponse quasi-statique du système par l'application de stratégies de régulations PID, extremums-seekings optimisés et logique floue. Leur conception a nécessité l'identification d'un modèle boîte-noire non-linéaire NARX. Les algorithmes non-linéaires, en particulier celui par logique floue, se sont montrés particulièrement performants. La démarche a été validée grâce à une application en temps réel d'une régulation extremum-seeking sur simulation RANS instationnaire.
APA, Harvard, Vancouver, ISO, and other styles
44

Amara, Meriem. "Maîtrise des émissions conduites des électroniques de puissance." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSEC047.

Full text
Abstract:
Cette thèse est consacrée à la modélisation CEM « boîte noire » d’un onduleur triphasé pour une application aéronautique. Ces travaux effectués sont réalisés dans le cadre d’un projet intitulé MECEP (Maîtrise des Emissions Conduites des Electroniques de Puissance) financé par la DGAC.Afin de protéger les réseaux de bord des perturbations électromagnétiques conduites et répondre aux normes CEM et plus particulièrement la norme aéronautique « DO160F », un filtre CEM est absolument nécessaire pour chaque convertisseur de puissance. Les niveaux de perturbations générées par ce type de système nécessite une conception soignée afin d’assurer un filtrage efficace des courants parasites qui se propagent en MC et en MD. C’est pourquoi cette thèse est consacrée à l’étude d’une modélisation CEM générique, rapide et capable de représenter correctement le comportement électromagnétique du convertisseur du point de vue du réseau DC et de la charge AC sur la plage fréquentielle de la norme DO160F. La modélisation choisie est basée alors sur une représentation de type « boîte noire ». Le modèle CEM identifié contient des sources de perturbations et des impédances de MC et de MD équivalentes. Ce type de modèle est validé pour deux chaines d’entrainement classiques de 4 kW. Il est capable de prédire l’impact de différents paramètres comme le point de fonctionnement, l’impédance du réseau d’alimentation et l’impédance de la charge avec des résultats satisfaisants dans le domaine fréquentiel. Les résultats obtenus montrent que le modèle proposé peut prédire les perturbations conduites pour les différents cas jusqu’à une fréquence de 50 MHz.Finalement, le modèle CEM proposé, qui représente le comportement électromagnétique du convertisseur côté entrée DC, est étendu afin de représenter le comportement côté sortie AC.Les principaux avantages de la modélisation CEM « boîte noire » proposée sont la rapidité, la simplicité et la construction sans la connaissance de la structure interne du convertisseur qui peut être protégée par le secret industriel
This thesis is focused on the black box EMC modeling of a three-phase inverter for aerospace applications. The work performed in this thesis is carried out in the framework of DGAC project (Directorate General of Civil Aviation) titled MECEP (Control of conducted emissions of power electronics).To protect the network board from the conducted electromagnetic interferences and to meet the EMC standards and especially the aviation standard “DO160F”, an EMC filter is absolutely necessary for each power converter. This disturbance levels generated by this type of system require careful design to ensure the filtering of parasitic currents that propagate in common mode (CM) and differential mode (DM). Therefore, the work of this thesis is devoted to the study of a generic EMC modeling, rapid and able to represent correctly the electromagnetic behavior of the converter from the side of the DC network and from the side of the AC load. This modeling is based on a “black box” representation. The identified EMC model contains disturbance sources and equivalent CM and DM impedances. This type of model is validated for two standard drive chains of 4 kW. It is able to predict the impact of different parameters such as the operating point, the network impedance and the load impedance in the frequency domain. A good agreement is obtained in all cases up to a frequency of 50 MHz Finally, the proposed EMC modeling, which represents the electromagnetic behavior of the DC input side of the converter, is extended to represent the AC output side behavior. The main advantages of the proposed “black box” EMC modeling are the rapidity, the simplicity and the construction without the knowledge of the internal structure of the converter. That can be protected by the industrial secret
APA, Harvard, Vancouver, ISO, and other styles
45

Dahan, Jean-Jacques. "La démarche de découverte expérimentalement médiée par Cabri-Géomètre en mathématiques: un essai de formalisation à partir de l'analyse de démarches de résolutions de problèmes de boîtes noires." Phd thesis, 2005. http://tel.archives-ouvertes.fr/tel-00356107.

Full text
Abstract:
Notre travail est centré sur la démarche de découverte reposant sur des expérimentations réalisées avec Cabri-Géomètre. L'analyse d'un corpus débordant le cadre des Mathématiques clarifie la manière dont la découverte arrive ou est transmise, ainsi que le rôle de l'expérimentation dans ces processus. Elle justifie notre hypothèse de décomposition de la démarche de découverte expérimentale en macro-étapes pré- et post-conjectures elles-mêmes décomposables en micro-étapes du type exploration-interprétation..
L'analyse de la résolution d'une boîte noire particulière permet d'affiner notre modèle a priori de la démarche de découverte en y précisant le rôle de la figure (Duval), les niveaux de géométrie (praxéologies G1 et G2 de Parzysz) et leurs prolongements que nous développons (G1 et G2 informatiques), les cadres d'investigations (Millar) et la place de la preuve expérimentale (Johsua).
Les analyses des expérimentations mises en place permettent de disposer d'un modèle amélioré qui doit permettre aux enseignants d'avoir une connaissance minimale des étapes heuristiques du travail de leurs élèves, de concevoir des activités d'études et de recherches ayant des objectifs précis en liaison avec les étapes formalisées de notre modélisation et d'envisager leur possible évaluation.
Des analyses d'activités existantes avec notre grille montrent la validité du modèle étudié. Des propositions d'activités ont été construites pour favoriser l'apparition de telle ou telle phase de la recherche; elles montrent la viabilité de ce modèle dans la conception d'ingénieries didactiques générant une démarche conforme à la démarche postulée.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography