Teses / dissertações sobre o tema "Boîtes noires"

Siga este link para ver outros tipos de publicações sobre o tema: Boîtes noires.

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Veja os 42 melhores trabalhos (teses / dissertações) para estudos sobre o assunto "Boîtes noires".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Veja as teses / dissertações das mais diversas áreas científicas e compile uma bibliografia correta.

1

Laugel, Thibault. "Interprétabilité locale post-hoc des modèles de classification "boites noires"". Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS215.

Texto completo da fonte
Resumo:
Cette thèse porte sur le domaine du XAI (explicabilité de l'IA), et plus particulièrement sur le paradigme de l'interprétabilité locale post-hoc, c'est-à-dire la génération d'explications pour une prédiction unique d'un classificateur entraîné. En particulier, nous étudions un contexte totalement agnostique, c'est-à-dire que l'explication est générée sans utiliser aucune connaissance sur le modèle de classification (traité comme une boîte noire) ni les données utilisées pour l'entraîner. Dans cette thèse, nous identifions plusieurs problèmes qui peuvent survenir dans ce contexte et qui peuvent être préjudiciables à l'interprétabilité. Nous nous proposons d'étudier chacune de ces questions et proposons des critères et des approches nouvelles pour les détecter et les caractériser. Les trois questions sur lesquelles nous nous concentrons sont : le risque de générer des explications qui sont hors distribution ; le risque de générer des explications qui ne peuvent être associées à aucune instance d'entraînement ; et le risque de générer des explications qui ne sont pas assez locales. Ces risques sont étudiés à travers deux catégories spécifiques d'approches de l'interprétabilité : les explications contrefactuelles et les modèles de substitution locaux
This thesis focuses on the field of XAI (eXplainable AI), and more particularly local post-hoc interpretability paradigm, that is to say the generation of explanations for a single prediction of a trained classifier. In particular, we study a fully agnostic context, meaning that the explanation is generated without using any knowledge about the classifier (treated as a black-box) nor the data used to train it. In this thesis, we identify several issues that can arise in this context and that may be harmful for interpretability. We propose to study each of these issues and propose novel criteria and approaches to detect and characterize them. The three issues we focus on are: the risk of generating explanations that are out of distribution; the risk of generating explanations that cannot be associated to any ground-truth instance; and the risk of generating explanations that are not local enough. These risks are studied through two specific categories of interpretability approaches: counterfactual explanations, and local surrogate models
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Dahan, Jean-Jacques. "La démarche de découverte expérimentalement médiée par cabri-géométrie en mathématiques : un essai de formalisation à partir de l'analyse de démarches de résolutions de problèmes de boîtes noires". Université Joseph Fourier (Grenoble), 2005. https://tel.archives-ouvertes.fr/tel-00356107.

Texto completo da fonte
Resumo:
Notre travail est centré sur la démarche de découverte reposant sur des expérimentations réalisées avec Cabri-Géomètre. L'analyse d'un corpus débordant le cadre des Mathématiques clarifie la manière dont la découverte arrive ou est transmise, ainsi que le rôle de l'expérimentation dans ces processus. Elle justifie notre hypothèse de décomposition de la démarche de découverte expérimentale en macro-étapes pré- et post-conjectures ellesmêmes décomposables en micro-étapes du type exploration-interprétation. L'analyse de la résolution d'une boîte noire particulière permet d'affiner notre modèle a priori de la démarche de découverte en y précisant le rôle de la figure (Duval), les niveaux de géométrie (praxéologies Giet G2 de Parzysz) et leurs prolongements que nous développons (G 1 et G2 informatiques), les cadres d'investigations (Millar) et la place de la preuve expérimentale (Johsua). Les analyses des expérimentations mises en place permettent de disposer d'un modèle amélioré qui doit permettre aux enseignants d'avoir une connaissance minimale des étapes heuristiques du travail de leurs élèves, de concevoir des activités d'études et de recherches ayant des objectifs précis en liaison avec les étapes formalisées de notre modélisation et d'envisager leur possible évaluation. Des analyses d'activités existantes avec notre grille montrent la validité du modèle étudié. Des propositions d'activités ont été construites pour favoriser l'apparition de telle ou telle phase de la recherche ; elles montrent la viabilité de ce modèle dans la conception d'ingénieries didactiques générant une démarche conforme à la démarche postulée
Our work is focused on the process of discovery in the context of experimentations with Cabri-Geometry. The analysis of a corpus going beyond mathematics enlightens the way discovery happens, is possibly transmitted as weil as the role of experimentation in this process. This analysis validates our initial hypothesis breaking out the experimental process of discovery into macro-stages before and after conjecture including micro-stages of "exp loration- interpretation". The analysis of the solving process of a particular black box task allows us to refine our a priori model of discovery process by cIarifying the role of the figure (Duval), the levels of geometry (Parzysz's praxeologies : Gland G2) and the extensions we have developed (G 1 and G2 information), the uames ofinquiry (Millar) and the state of the experimental proof (Johsua). The analysis of the experimentations we carried out provides an improved model that allows teachers to have a minimal knowledge about the heuristic stages of their students' work, to develop analytical studies and research activities with precise aims that are linked with the formalised stages of our model and possibly to evaluate this work. At last, current activities have been analysed with our model and show its adequacy. Activities built to improve specific stages of the process of discovery, show the viability of our model as a basis for creating pedagogic scenarios according to the model
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Pernet, Clément. "Algèbre linéaire exacte efficace : le calcul du polynôme caractéristique". Phd thesis, Université Joseph Fourier (Grenoble), 2006. http://tel.archives-ouvertes.fr/tel-00111346.

Texto completo da fonte
Resumo:
L'algèbre linéaire est une brique de base essentielle du calcul scientifique. Initialement dominée par le calcul numérique, elle connaît depuis les dix dernières années des progrès considérables en calcul exact. Ces avancées algorithmiques rendant l'approche exacte envisageable, il est devenu nécessaire de considérer leur mise en pratique. Nous présentons la mise en oeuvre de routines de base en algèbre linéaire exacte dont l'efficacité sur les corps finis est comparable celles des BLAS numériques. Au délà des applications propres au calcul exact, nous montrons qu'elles offrent une alternative au calcul numérique multiprécision pour la résolution de certains problèmes numériques mal conditionnés.

Le calcul du polynôme caractéristique est l'un des problèmes classiques en algèbre linéaire. Son calcul exact permet par exemple de déterminer la similitude entre deux matrices, par le calcul de la forme normale de Frobenius, ou la cospectralité de deux graphes. Si l'amélioration de sa complexité théorique reste un problème ouvert, tant pour les méthodes denses que boîte noire, nous abordons la question du point de vue de la praticabilité : des algorithmes adaptatifs pour les matrices denses ou boîte noire sont dérivés des meilleurs algorithmes existants pour assurer l'efficacité en pratique. Cela permet de traiter de façon exacte des problèmes de dimensions jusqu'alors inaccessibles.
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Ros, Raymond. "Optimisation Continue Boîte Noire : Comparaison et Conception d'Algorithmes". Phd thesis, Université Paris Sud - Paris XI, 2009. http://tel.archives-ouvertes.fr/tel-00595922.

Texto completo da fonte
Resumo:
En optimisation continue, un problème donné consiste à trouver l'optimum d'une fonction objectif f définie dans R^n à valeur dans R. Dans ce contexte, le scénario boîte noire fait l'hypothèse que seule l'évaluation de f nous fournit de l'information. Dans une première partie, nous étudions l'algorithme CMA-ES, stratégie d'évolution avec adaptation de la matrice de covariance ; une approche reconnue pour résoudre les problèmes d'optimisation boîte noire. Nous démontrons les limites de cet algorithme en terme de complexités spatiale et temporelle pour faire face à des problèmes à grande dimensionalité. Pour dépasser ces limites, nous proposons des variantes de CMA-ES qui ne mettent à jour que les éléments diagonaux par bloc de la matrice de covariance, qui exploitent donc la séparabilité. Nous montrons que ces variantes peuvent avoir de meilleures performances que CMA-ES sur des fonctions non-séparables à condition que le problème considéré ait une dimension assez grande. Dans une seconde partie, nous définissons et exploitons un cadre expérimental pour la comparaison systématique de résultats en optimisation boîte noire, où les pratiquants du domaine peuvent ainsi tester et comparer des algorithmes sur des fonctions artificielles. Nos résultats montrent la dépendance des performances des algorithmes en fonction du budget alloué à l'optimisation. Des méthodes classiques telles que NEWUOA ou BFGS sont ainsi appropriées à des petits budgets. L'approche CMA-ES avec redémarrage et contrôle de la taille de population obtient de bons résultats pour des budgets plus larges. Le logiciel COCO pour COmparing Continuous Optimisers, utilisé pour faire ces comparaisons systématiques est décrit techniquement dans une troisième partie. COCO sert d'implémentation de notre cadre expérimental et permet en plus de fournir des résultats tels que ceux que nous exploitons dans ce document.
Estilos ABNT, Harvard, Vancouver, APA, etc.
5

Akerma, Mahdjouba. "Impact énergétique de l’effacement dans un entrepôt frigorifique : analyse des approches systémiques : boîte noire / boîte blanche". Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS187.

Texto completo da fonte
Resumo:
Les entrepôts frigorifiques et chambres froides forment, de par l'inertie thermique de la masse des produits, une source importante de stockage thermique rapidement accessible et fortement attractive pour répondre aux besoins d’effacement électrique. Cependant, le risque pour le produit lors des fluctuations de température liées aux périodes d’effacement et la crainte d’une surconsommation énergétique, limitent le recours aux effacements par les industriels et acteurs du froid alimentaire. Cette thèse vise à caractériser l’effacement électrique des entrepôts en apportant un éclairage sur le comportement thermique d’un système, en termes de fluctuation de température et de consommation électrique. Une étude expérimentale a été mise en œuvre afin d’étudier plusieurs scénarios d’effacement (durée, fréquence et conditions opératoires) et de développer de nouveaux indicateurs pour caractériser l’impact de l’effacement sur le comportement thermique et énergétique des systèmes frigorifiques. Cette étude a mis en avant, l’importance de l’état de chargement pour limiter la remontée de température de l’air, et réduire l’impact de l’effacement sur les produits entreposés. Par ailleurs, le potentiel d’application de l’effacement dans le cas d’un entrepôt frigorifique ou d’une chambre froide a été évalué, en s’appuyant sur le développement des deux approches de modélisation « boîte noire » (apprentissage automatique par des réseaux de neurones artificiels de type Deep Learning) et « boîte blanche » (physique). Une possibilité d’interaction entre ces deux approches a été proposée. Elle est fondée sur l’utilisation des modèles boîte noire pour la prédiction et l’emploi du modèle boîte blanche pour générer les données d’entrée et de sortie
Refrigerated warehouses and cold rooms, mainly used for food conservation, constitute available storage cells; they can be considered as a network of "thermal batteries" ready to be used and one of the best existing solutions to store and delay electricity consumption. However, the risk related to temperature fluctuations of products due to periods of demand response - DR* and the risk of energy overconsumption limit the use of this strategy by industrials in food refrigeration. The present PhD thesis aims to characterize the electrical DR of warehouses and cold rooms by examining the thermal behavior of those systems, in terms of temperature fluctuation and electrical consumption. An experimental set-up was developed to study several DR scenarios (duration, frequency and operating conditions) and to propose new indicators to characterize the impact of DR periods on the thermal and energy behavior of refrigeration systems. This study has highlighted the importance of the presence of load to limit the temperature rise and thus to reduce the impact on stored products. The potential for DR application in the case of a cold store and a cold room was assessed, based on the development of two modeling approaches: “black box” (Machine Learning by artificial neural networks using Deep Learning models) and “white box” (physics). A possibility of interaction between these two approaches has been proposed, based on the use of black box models for prediction and the use of the white box model to generate input and output data
Estilos ABNT, Harvard, Vancouver, APA, etc.
6

Bout, Erwan David Mickaël. "Poïétique et procédure : pour une esthétique de la boîte noire". Paris 1, 2009. http://www.theses.fr/2009PA010631.

Texto completo da fonte
Resumo:
Cette thèse s'articule autour d'une pratique revendiquant la procédure en tant que forme artistique, c'est a dire un ensemble d'actions prévues dans leur succession et destiné à être appliqué par les spectateurs. Elle met en place des notions: l' esthétique de la boîte noire, aménagement conscient de conditions de création intégrant un abandon partiel de l'auteur permettant l'initialisation d'un système auto nome ; l' échelle d'appréhension, extension de l' échelle traditionnelle ad' autres dimensions; l' intergradation, transposition conceptuelle et interconceptuelle des représentations par changement d'échelle d'appréhension. Elle définit également des outils permettant de caractériser les procédures: finalité, application et destination.
Estilos ABNT, Harvard, Vancouver, APA, etc.
7

Kadmiri, Younes. "Analyse vibroacoustique du bruit de graillonnement des boîtes de vitesses automobiles". Phd thesis, Ecole Centrale de Lyon, 2011. http://tel.archives-ouvertes.fr/tel-00670454.

Texto completo da fonte
Resumo:
L'objectif de cette étude est de caractériser le bruit de graillonnement des boîtes de vitesses automobiles, qui résulte des chocs entre les pignons au niveau des rapports non engagés, sous l'effet des fluctuations de vitesses imposées par le moteur. Outre les paramètres de conception de la boîte de vitesses et les conditions de fonctionnement, les paramètres qui gouvernent la réponse dynamique des pignons fous sont les couples de traînée et les caractéristiques des contacts qui gouvernent les chocs entre dents. Un modèle numérique non linéaire a été élaboré pour caractériser la réponse dynamique d'un pignon fou. Il permet d'identifier le seuil d'excitation au-delà duquel le phénomène de graillonnement apparaît et de qualifier la très grande diversité de comportements dynamiques susceptibles d'être observés, en fonction du niveau d'excitation adimensionnée, du jeu de denture et du coefficient de restitution des chocs entre dents. Les paramètres inconnus ont été identifiés expérimentalement, grâce à l'exploitation d'un banc d'acyclisme et l'implémentation de codeurs optiques sur les pignons menant et fou. Des essais en réponse libre amortie ont permis de discriminer les différentes sources de dissipation(roulements, palier du pignon fou, barbotage, etc.) et de valider les modèles permettant d'identifier le couple de traînée s'exerçant sur chaque pignon fou. D'autres essais en régime de fonctionnement stationnaire ont permis de décrire le coefficient de restitution des chocs entre les pignons, sa dispersion et sa variation avec la vitesse d'impact. Les mesures effectuées sous une excitation maîtrisée ont permis de caractériser le comportement dynamique du pignon fou et de valider les hypothèses retenues et les résultats numériques obtenus par le modèle non linéaire, recalé à partir des paramètres préalablement identifiés. Enfin, l'analyse du transfert entre les impulsions générées au niveau des pignons et la réponse vibratoire du carter a permis d'évaluer expérimentalement et numériquement le critère qui qualifie le bruit de graillonnement rayonné par la boîte de vitesses. La mise en oeuvre du modèle numérique permet d'analyser l'influence des paramètres de conception de la boîte de vitesses et de proposer des solutions qui minimisent le graillonnement, pour l'ensemble des rapports de la boîte et des conditions de fonctionnement.
Estilos ABNT, Harvard, Vancouver, APA, etc.
8

Barbillon, Pierre. "Méthodes d'interpolation à noyaux pour l'approximation de fonctions type boîte noire coûteuses". Phd thesis, Université Paris Sud - Paris XI, 2010. http://tel.archives-ouvertes.fr/tel-00559502.

Texto completo da fonte
Resumo:
Cette thèse se place dans le cadre des expériences simulées auxquelles on a recours lorsque des expériences physiques ne sont pas réalisables. Une expérience simulée consiste à évaluer une fonction déterministe type boîte-noire coûteuse qui décrit un modèle physique. Les entrées de ce modèle, entachées d'incertitude, forment un vecteur aléatoire. Cela implique que les sorties que nous souhaitons étudier sont aléatoires. Une technique standard pour rendre possibles de nombreux traitements statistiques, est de remplacer la fonction type boîte-noire par un métamodèle d'évaluation quasi-instantanée l'approchant. Nous nous concentrons plus particulièrement sur les métamodèles d'interpolateurs à noyaux dont nous étudions la construction et l'utilisation. Dans ce cadre, une première contribution est la proposition d'une définition plus générale de noyau conditionnellement positif qui permet une vraie généralisation du concept de noyau défini positif et des théorèmes associés. Nous donnons ensuite, dans une deuxième contribution, un algorithme de construction de plans d'expérience dans des domaines éventuellement non hypercubiques suivant un critère maximin pertinent pour ces métamodèles. Dans une troisième contribution, nous traitons un problème statistique inverse en utilisant un métamodèle d'interpolateurs à noyaux dans un algorithme stochastique EM puisque le modèle liant les entrées aux sorties est de type boîte-noire coûteux. Enfin, nous proposons aussi, dans la dernière contribution, l'utilisation d'un tel métamodèle pour développer deux stratégies d'estimation et de majoration de probabilités d'événements rares dépen\-dant d'une fonction type boîte-noire coûteuse.
Estilos ABNT, Harvard, Vancouver, APA, etc.
9

Saives, Jérémie. "Identification Comportementale "Boîte-noire" des Systèmes à Evénements Discrets par Réseaux de Petri Interprétés". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLN018/document.

Texto completo da fonte
Resumo:
Cette thèse contribue à l’identification de modèles compacts et expressifs de Systèmes à Evénements Discrets (SED) réactifs, à des fins de rétro-conception ou de certification. L’identification est passive, et boîte-noire, la connaissance se limitant aux signaux d’entrées/sorties du système. Les Réseaux de Petri Interprétés (RdPI) permettent de modéliser à la fois le comportement observable (causalités entrées/sorties observées directement), et le comportement non observable du système (évolutions de variables internes). Cette thèse vise à identifier des modèles RdPI à partir d’une séquence observée de vecteurs entrées/sorties. Notamment, l’enjeu étant de traiter des systèmes concurrents de taille réaliste, l’approche développée permet le passage à l’échelle de résultats précédents.La construction de la partie observable est d’abord améliorée par l’ajout d’un filtre. Celui-ci détecte et supprime les synchronisations parasites causées par le contrôleur en présence de systèmes concurrents. Une nouvelle approche est ensuite proposée pour découvrir la partie non observable, basée sur l’utilisation de projections, et garantissant la reproductibilité du comportement observé malgré la concurrence. Une heuristique permet de construire un modèle satisfaisant pour la rétro-ingénierie, à coût de calcul limité. Enfin, une approche distribuée est proposée pour réduire davantage le coût de calcul, en partitionnant automatiquement le système en sous-systèmes. L’effet cumulatif de ces contributions est illustré par l’identification de RdPI sur un système de taille raisonnable, validant leur efficacité
This thesis proposes a method to identify compact and expressive models of closed-loop reactive Discrete Event Systems (DES), for reverse-engineering or certification. The identification is passive, and blackbox, accessible knowledge being limited to input/output signals. Interpreted Petri Nets (IPN) represent both the observable behaviour (direct input/output causalities) and the unobservable behaviour (internal state evolutions) of the system. This thesis aims at identifying IPN models from an observed sequence of I/O vectors. The proposed contributions extend previous results towards scalability, to deal with realistic systems who exhibit concurrency.Firstly, the construction of the observable part of the IPN is improved by the addition of a filter limiting the effect of concurrency. It detects and removes spurious synchronizations caused by the controller. Then, a new approach is proposed to improve the discovery of the unobservable part. It is based on the use of projections and guarantees the reproduction of the observed behaviour, despite concurrency. An efficient heuristic is proposed to compute a model adapted to reverse-engineering, limiting the computational cost. Finally, a distributed approach is proposed to further reduce the computational cost, by automatically partitioning the system into subsystems. The efficiency of the cumulative effect of these contributions is validated on a system of realistic size
Estilos ABNT, Harvard, Vancouver, APA, etc.
10

Baudin, Sophie. "Détection et extraction des bruits de type grenaille des boîtes de vitesses par approche cyclostationnaire angle/temps". Thesis, Lyon, INSA, 2014. http://www.theses.fr/2014ISAL0118.

Texto completo da fonte
Resumo:
Les couples d'engrenages présents dans les boîtes de vitesses automobiles sont une source de bruit importante à prendre en compte et à maîtriser. L'acyclisme du moteur observable en entrée de boîte a notamment pour conséquence de provoquer des impacts entre les dents des engrenages non chargés, à l'origine du bruit de grenaille. Ce travail de thèse s'intéresse aux cas de grenaille dits périodiques, dont l'apparition et la sévérité dépendent, entre autres, des conditions de fonctionnement régime/charge. Pour détecter la présence et quantifier la sévérité de ce bruit, il est nécessaire de construire des indicateurs pertinents et dédiés, où il est particulièrement intéressant de conserver la dualité des informations temporelles (relatives aux voies de transfert des phénomènes vibratoires) et angulaires (relatives aux cycles de la machine) mesurées sur des boîtes en montée de régime. Une extension de l'approche cyclostationnaire classique est ainsi exploitée et la cohérence spectrale ordre/fréquence est utilisée afin de définir un indicateur de sévérité du bruit de grenaille. Deux campagnes d'essais ont été réalisées afin de valider la pertinence de cet indicateur, utilisant un banc d'essais qui permet d'imposer des montées en régime et de générer un acyclisme. Dans la première campagne d'essais, un pignon fou est instrumenté à l'aide d’un codeur optique afin de mesurer la vitesse relative pignon fou/pignon menant qui est utilisée comme référence pour détecter l'apparition des impacts. La comparaison avec l'indicateur proposé, calculé à partir du signal vibratoire d'un accéléromètre positionné sur le carter de boîte, démontre sa capacité à détecter effectivement des chocs. Des sessions d'écoute ont été organisées afin de comparer le ressenti d'auditeurs qualifiés pour faire des évaluations subjectives à l'évolution des valeurs données par l’indicateur, à partir d'une seconde campagne d'essais. Cet indicateur apparaît représentatif du ressenti des auditeurs. Une fois la grenaille détectée et quantifiée globalement en intensité, il est intéressant d'extraire sa composante du signal global mesuré. Pour cela, une extension du filtre de Wiener cyclique pour des signaux cyclostationnaires angle/temps est proposée. Le signal extrait étant supposé être généré uniquement par les impacts produisant le bruit de grenaille, les impulsions extraites sont exploitées afin d'estimer la fonction de transfert entre les points d'excitation et le capteur localisé sur le carter de boîte. Cette fonction de transfert est comparée à celle obtenue par une seconde méthode, également développée dans le cadre de cette thèse, qui consiste en une extraction de la partie déterministe de l'excitation à l'aide d'un filtre en peigne dans le domaine des ordres, puis en une identification aveugle de la réponse impulsionnelle dans le domaine cepstral
The improvement of the engine noise emissions causes the emergence of new sources which were previously masked, like gearbox noises. Because of the engine acyclism some impacts can appear between the teeth of unloaded gears. Those impacts generate the so called rattle noise which is a current problem for car manufacturers. This work is focused on periodic cases of rattle noise. Their appearance and their level depend on operating conditions. In order to propose a specific detection indicator it is particularly useful to exploit the angle/time duality from measures in non-stationary conditions: the angle domain is linked to the periodicity of the impacts while the time domain is linked to their nature. An extension of the cyclostationary approach is thus exploited and the order/frequency spectral coherence is used to define a severity indicator of rattle noise. The validation of this indicator is obtained from measurements. For a first level of validation, a loose gear has been instrumented with an optical encoder in order to measure the relative velocity between this loose gear and the driving gear. The comparison with the proposed indicator shows its ability to effectively detect the impacts. For a second level of validation some listening sessions have been organized. The evolution of values of our indicator appears in accordance with the feeling of the listeners. After the detection of rattle noise it is interesting to extract its contribution from the measured signal. An extension of the cyclic Wiener filter is thus proposed for angle/time cyclostationary sources. The extracted signal being supposed only produced by impacts, the extracted impulses are then exploited in order to estimate a transfer function. This transfer function is compared with the other one obtained by a second method, also developed in this work. This method exploits the non-stationary regime and proposes a blind identification with cepstrum
Estilos ABNT, Harvard, Vancouver, APA, etc.
11

Muzammil, Shahbaz Muhammad. "Rétro-conception de modèles d'automates étendus de composant logiciels boîte-noire pour le test d'intégration". Grenoble INPG, 2008. http://www.theses.fr/2008INPG0166.

Texto completo da fonte
Resumo:
Le problème principal auquel on est confronté dans l'utilisation d'outils automatiques de validation (test ou vérification) est l'absence de spécification des composants également connus comme boîtes-noires. Même lorsqu'une spécification a été disponible à un stade antérieur, elle est souvent incomplète. C'est pourquoi une bonne part de la validation consiste à émettre et valider des hypothèses sur les composants assemblés. Nous proposons une solution pour l'intégration de composants boîtes-noires par une approche d'apprentissage. Cette approche apprend le modèle du composant sous la forme d’une machine d'état finis entrées/sorties (avec des paramètres). Ensuite, nous proposons un framework de test pour les systèmes intégrés basé sur les modèles appris. Nous avons validé notre approche sur plusieurs études de cas fournies par France Telecom R&D et présentons leurs résultats
A challenging issue in component based software engineering is to deliver quality of service. When components come from third-party sources (aka black boxes), the specifications are often absent/insufficient for their formal analysis. The thesis addresses the problem of uncovering the behaviors of black box software components to support testing and analysis of the integrated system that is composed of such components. We propose to learn finite state machine models (where transitions are labelled with parameterized inputs/outputs) and provide a framework for testing and analyzing the integrated system using the inferred models. The approach has been validated on various case studies provides by France Telecom that has produced encouraging results
Estilos ABNT, Harvard, Vancouver, APA, etc.
12

Talbo, Vincent. "Étude théorique du transport électronique dans les nanodispositifs à boîtes quantiques semiconductrices". Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00783430.

Texto completo da fonte
Resumo:
La miniaturisation des composants, qui s'est engagée depuis l'avènement de l'électronique il y a plus de 50 ans, atteint aujourd'hui la dimension nanométrique, ouvrant la porte aux phénomènes quantiques. Ultime étape de cette miniaturisation, la boîte quantique, dans laquelle les électrons sont confinés dans les trois directions de l'espace, présente des propriétés remarquables, telles que l'augmentation du gap entre la bande de conduction et la bande de valence, ou la discrétisation des niveaux d'énergies. Autre conséquence du confinement, la forte interaction électron-électron régnant au sein de la boîte conduit à une énergie de charge importante, susceptible de bloquer l'entrée d'un électron dans la boîte sans apport d'énergie extérieur. Ce phénomène de blocage des charges est appelé blocage de Coulomb. Le transistor à un électron (SET), dispositif élémentaire tirant profit de ce phénomène, est pressenti pour quelques applications, comme la réalisation de fonctions logiques ou la détection de charge. Parmi les domaines concernés, la thermoélectricité, c'est-à-dire la possibilité de créer du courant électrique à partir d'une différence de température, s'intéresse de près aux dispositifs à un électron en raison de leurs niveaux d'énergie discrets qui conduisent à une très faible conductivité thermique. Ce travail présente le simulateur SENS (Single-Electron Nanodevice Simulation) développé dans l'équipe, et dont j'ai réalisé la partie destinée à la simulation du SET. Il s'appuie sur la résolution des équations couplées de Poisson et Schrödinger, nécessaire à la détermination des fonctions d'onde dans la boîte de silicium, elles-mêmes dépendantes des tensions appliquées aux électrodes. Les fréquences de transition tunnel sont ensuite calculées par la règle d'or de Fermi. L'étude approfondie du courant dans les SET permet d'extraire des diagrammes de stabilité en diamant, et démontre l'importance de paramètres tels que la taille de l'îlot, la dimension des barrières tunnel, la température et le nombre d'électrons occupant la boîte. L'étude du courant électronique et du courant de chaleur en présence d'une différence de température aux électrodes du SET est également faite pour juger de la pertinence de l'utilisation d'un SET en tant que générateur thermoélectrique, mais aussi comme étalon pour déterminer le coefficient Seebeck. Enfin, une étude du bruit de grenaille dans la double-jonction tunnel (SET sans la grille) est faite, démontrant le fort lien entre taux de transfert tunnel et bruit. En particulier, selon l'évolution des taux des transferts tunnel d'entrée et de sortie de l'îlot, pour un nombre d'électrons supérieur 2, il est possible d'observer une augmentation importante du bruit, qui devient alors super-Poissonien. L'étude de l'influence des paramètres géométriques démontre que le bruit de grenaille dépend essentiellement de la différence des épaisseurs de barrière tunnel.
Estilos ABNT, Harvard, Vancouver, APA, etc.
13

Chauvineau, Guillaume. "Modélisation de la dynamique des boîtes de vitesses automobiles soumises à des sollicitations acycliques : applications à la prédiction du bruit de grenaille et validation expérimentale". Thesis, Ecully, Ecole centrale de Lyon, 2014. http://www.theses.fr/2014ECDL0022.

Texto completo da fonte
Resumo:
La boite de vitesses est un des principaux organes d’une automobile et son développement est complexe. De nombreuses contraintes doivent être prises en compte et notamment son comportement acoustique et vibratoire. Cet aspect de la conception est de nos jours assez mal maitrisé et les nuisances acoustiques des boites de vitesses, telle que le bruit de grenaille, sont bien souvent découvertes tardivement. L’objectif de ces travaux était le développement d’un modèle numérique de dynamique des engrenages applicable aux boites de vitesses et permettant de prédire les conditions d’apparition du bruit de grenaille. La modélisation proposée dans cette thèse repose sur une association originale de différentes modélisations et est applicable à la grande majorité des boites de vitesses. Les éléments flexibles tels que les arbres et les carters sont modélisés par la méthode des éléments-finis. Un modèle d’engrenage basé sur le modèle de contact de Kelvin-Voigt est développé. Ce dernier permet la prise en compte des pertes de contact et des chocs sur les flancs avants et arrières. Pour compléter la modélisation, des modèles de pertes mécaniques sont implémentés afin de prendre en compte l’influence des roulements, des paliers lisses, des synchroniseurs et du barbotage des pignons dans l’huile. Le modèle développé, couplé à un indicateur de bruit de grenaille, permet de réaliser des études de sensibilités afin d’identifier les paramètres influents sur le bruit de grenaille mais aussi de comparer les comportements vibratoires de différentes configurations. Pour finir, une campagne d’essais sur une boite de vitesse industrielle est réalisée et des résultats de simulations lui sont confrontés
The gearbox is an important component of an automobile and its development is complex. Numerous constraints must be taken into account, particularly its noise and vibration behavior. This aspect of the conception is nowadays poorly mastered and the noise pollution of gearboxes, such as the rattle noise, are often discovered late. The aim of this work was the development of a numerical model of gear dynamics adapted to gearboxes’ modelling and allowing to predict the conditions of gear rattle noise appearance. The model proposed in this thesis is based on an original combination of different models and is applicable to the vast majority of gearboxes. Flexible components, such as shafts and housings are modeled by the finite element method. A gear model based on Kelvin-Voigt contact model is developed. It allows to take into account the contact losses and the back side contacts. To complete this model, mechanical loss models are implemented in order to take into account the influence of the bearings, plain bearings, synchronizers and gears’ immersion in oil. This model coupled with a noise indicator allows for sensitivity analyzes to identify influential parameters on the rattle noise but also to compare the dynamic behavior of different configurations. Finally, a test campaign on an industrial gerbox is conducted and simulation results are confronted to measurements
Estilos ABNT, Harvard, Vancouver, APA, etc.
14

Graux, François. "Méthodologie de modélisation boîte noire de circuits hyperfréquences non linéaires par réseaux de neurones : applications au radar". Lille 1, 2001. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2001/50376-2001-47.pdf.

Texto completo da fonte
Resumo:
L'objectif de ce travail consiste à mettre au point une méthodologie de modélisation boîte noire non linéaire pour circuits hyperfréquences. Cette méthodologie est générique et peut s'appliquer à plusieurs fonctions radar. Pour cela nous avons d'abord étudié les différents modes d'analyses non linéaires d'un logiciel du commerce : MDS de Hewlett Packard. Aussi nous avons décrit les impératifs de notre modèle pour son utilisation optimal. Ensuite nous avons développé un logiciel de modélisation par l'intermédiaire d'un réseau de neurones nous permettant de gérer un grand nombre de variables. Enfin, une modélisation commencant d'abord par une bonne caractérisation, nous avons développé un banc de caractérisation load pull / source pull passif non linéaire associé à une acquisition temporelle. L'ensemble de la procédure nous a permis de mettre au point une méthode viable, encourageante pour de nouvelles possibilités de modélisations non linéaires
Estilos ABNT, Harvard, Vancouver, APA, etc.
15

Begin, Thomas. "Modélisation et calibrage automatiques de systèmes". Paris 6, 2008. http://www.theses.fr/2008PA066540.

Texto completo da fonte
Resumo:
Cette thèse s'intéresse au calibrage et à la génération automatiques de modèles. Une nouvelle méthode de modélisation, nommée HLM ("High Level Modeling") est proposée afin de permettre la modélisation rapide et automatique de systèmes opérationnels de type "boîte noire" pour lesquels on dispose uniquement de mesures. Son principe consiste à rechercher parmi un ensemble présupposé de modèles génériques si, une fois correctement calibré, l'un d’eux permet de reproduire le comportement d'entrée/sortie du système tel qu'il est décrit par les mesures. La méthode HLM comprend la description (1) de modèles classiques de type file d’attente ainsi que des modèles plus originaux et (2) d'une méthode de calibrage automatique permettant de déterminer les paramètres d'un modèle de type file d'attente à partir de mesures. La recherche du calibrage est formulée comme un problème d'optimisation numérique pour lequel un algorithme de recherche efficace de type "Derivative Free Optimization" est proposé. Des exemples d'applications de la méthode HLM sur des systèmes réels et variés sont présentés. Enfin, une partie de cette thèse concerne l'influence que peuvent avoir les propriétés distributionnelles d'ordre supérieur sur les performances de files classiques de la théorie des files d'attente.
Estilos ABNT, Harvard, Vancouver, APA, etc.
16

Irfan, Muhammad Naeem. "Analyse et optimisation d'algorithmes pour l'inférence de modèles de composants logiciels". Phd thesis, Université de Grenoble, 2012. http://tel.archives-ouvertes.fr/tel-00767894.

Texto completo da fonte
Resumo:
Les Components-Off-The-Shelf (COTS) sont utilisés pour le développement rapide et efficace de logiciels tout en limitant le coût. Il est important de tester le fonctionnement des composants dans le nouvel environnement. Pour les logiciels tiers,le code source des composants, les spécifications et les modèles complets ne sont pas disponibles. Dans la littérature de tels systèmes sont appelés composants "boîte noire". Nous pouvons vérifier leur fonctionnement avec des tests en boîte noire tels que le test de non-régression, le test aléatoire ou le test à partir de modèles. Pour ce dernier, un modèle qui représente le comportement attendu du système sous test(SUT) est nécessaire. Ce modèle contient un ensemble d'entrées, le comportement du SUT après stimulation par ces entrées et l'état dans lequel le système se trouve.Pour les systèmes en boîte noire, les modèles peuvent être extraits à partir des traces d'exécutions, des caractéristiques disponibles ou encore des connaissances des experts. Ces modèles permettent ensuite d'orienter le test de ces systèmes.Les techniques d'inférence de modèles permettent d'extraire une information structurelle et comportementale d'une application et de la présenter sous forme d'un modèle formel. Le modèle abstrait appris est donc cohérent avec le comportement du logiciel. Cependant, les modèles appris sont rarement complets et il est difficile de calculer le nombre de tests nécessaires pour apprendre de façon complète et précise un modèle.Cette thèse propose une analyse et des améliorations de la version Mealy de l'algorithme d'inférence L* [Angluin 87]. Elle vise à réduire le nombre de tests nécessaires pour apprendre des modèles. La version Mealy de L* nécessite d'utiliser deux types de test. Le premier type consiste à construire les modèles à partir des sorties du système, tandis que le second est utilisé pour tester l'exactitude des modèles obtenus. L'algorithme utilise ce que l'on appelle une table d'observation pour enregistrer les réponses du système.Le traitement d'un contre-exemple peut exiger d'envoyer un nombre conséquent de requêtes au système. Cette thèse aborde ce problème et propose une technique qui traite les contre-exemples de façon efficace. Nous observons aussi que l'apprentissage d'un modèle ne nécessite pas de devoir remplir complètement ces tables. Nous proposons donc un algorithme d'apprentissage qui évite de demander ces requêtes superflues.Dans certains cas, pour apprendre un modèle, la recherche de contre-exemples peut coûter cher. Nous proposons une méthode qui apprend des modèles sans demander et traiter des contre-exemples. Cela peut ajouter de nombreuses colonnes à la table d'observation mais au final, nous n'avons pas besoin d'envoyer toutes les requêtes. Cette technique ne demande que les requêtes nécessaires.Ces contributions réduisent le nombre de tests nécessaires pour apprendre des modèles de logiciels, améliorant ainsi la complexité dans le pire cas. Nous présentons les extensions que nous avons apportées à l'outil RALT pour mettre en oeuvre ces algorithmes. Elles sont ensuite validées avec des exemples tels que les tampons, les distributeurs automatiques, les protocoles d'exclusion mutuelle et les planificateurs.
Estilos ABNT, Harvard, Vancouver, APA, etc.
17

Cabana, Antoine. "Contribution à l'évaluation opérationnelle des systèmes biométriques multimodaux". Thesis, Normandie, 2018. http://www.theses.fr/2018NORMC249/document.

Texto completo da fonte
Resumo:
Le développement et la multiplication de dispositifs connectés, en particulier avec les \textit{smartphones}, nécessitent la mise en place de moyens d'authentification. Dans un soucis d'ergonomie, les industriels intègrent massivement des systèmes biométrique afin de garantir l'identité du porteur, et ce afin d'autoriser l'accès à certaines applications et fonctionnalités sensibles (paiements, e-banking, accès à des données personnelles : correspondance électronique..). Dans un soucis de garantir, une adéquation entre ces systèmes d'authentification et leur usages, la mise en œuvre d'un processus d'évaluation est nécessaire.L'amélioration des performances biométriques est un enjeux important afin de permettre l'intégration de telles solutions d'authentification dans certains environnement ayant d'importantes exigences sur les performances, particulièrement sécuritaires. Afin d'améliorer les performances et la fiabilité des authentifications, différentes sources biométriques sont susceptibles d'être utilisées dans un processus de fusion. La biométrie multimodale réalise, en particulier, la fusion des informations extraites de différentes modalités biométriques
Development and spread of connected devices, in particular smartphones, requires the implementation of authentication methods. In an ergonomic concern, manufacturers integrates biometric systems in order to deal with logical control access issues. These biometric systems grant access to critical data and application (payment, e-banking, privcy concerns : emails...). Thus, evaluation processes allows to estimate the systems' suitabilty with these uses. In order to improve recognition performances, manufacturer are susceptible to perform multimodal fusion.In this thesis, the evaluation of operationnal biometric systems has been studied, and an implementation is presented. A second contribution studies the quality estimation of speech samples, in order to predict recognition performances
Estilos ABNT, Harvard, Vancouver, APA, etc.
18

Varelas, Konstantinos. "Randomized Derivative Free Optimization via CMA-ES and Sparse Techniques : Applications to Radars". Thesis, Institut polytechnique de Paris, 2021. http://www.theses.fr/2021IPPAX012.

Texto completo da fonte
Resumo:
Dans cette thèse, nous étudions des aspects des méthodes aléatoires adaptatives pour l’optimisation continue sans gradients. Les algorithmes que nous étudions sont basés sur l’algorithme Covariance Matrix Adaptation Evolution Strategy (CMA-ES) et se concentrent sur des problèmes d’optimisation en grande dimension.Nous commençons par une description de CMA-ES et sa relation avec le cadre de Information Geometric Optimization (IGO), suivie d’une étude comparative de variantes de CMA-ES à grande échelle. Nous proposons en outre de nouvelles méthodes qui intègrent des outils d’estimation en grande dimension au sein de CMA-ES, afin d’obtenir des algorithmes plus efficaces pour des problèmes partiellement séparables.De plus, nous décrivons la méthodologie pour l’évaluation de la performance des algorithmes adopté par la plateforme Comparing Continuous Optimizers (COCO), et finalisons la suite de tests bbob-largescale, une nouvelle suite d’analyse comparative avec des problèmes de grandes dimensions et avec un faible coût de calcul.Enfin, nous présentons la formulation, la méthodologie et les résultats obtenus pour deux applications liées aux problèmes de Radar, le problème d’optimisation du code de phase et le problème de synthèse des faisceaux
In this thesis, we investigate aspects of adaptive randomized methods for black-box continuous optimization. The algorithms that we study are based on the Covariance Matrix Adaptation Evolution Strategy (CMA-ES) algorithm and focus on large scale optimization problems.We start with a description of CMA-ES and its relation to the Information Geometric Optimization (IGO) framework, succeeded by a comparative study of large scale variants of CMA-ES. We furthermore propose novel methods which integrate tools of high dimensional analysis within CMA-ES, to obtain more efficient algorithms for large scale partially separable problems.Additionally, we describe the methodology for algorithm performance evaluation adopted by the Comparing Continuous Optimizers (COCO) platform, and finalize the bbob-largescale test suite, a novel benchmarking suite with problems of increased dimensions and with a low computational cost.Finally, we present the formulation, methodology and obtained results for two applications related to Radar problems, the Phase Code optimization problem and the Phased-Array Pattern design problem
Estilos ABNT, Harvard, Vancouver, APA, etc.
19

Basset, Julien. "High frequency quantum noise of mesoscopic systems and current-phase relation of hybrid junctions". Phd thesis, Université Paris Sud - Paris XI, 2011. http://tel.archives-ouvertes.fr/tel-00635825.

Texto completo da fonte
Resumo:
Cette thèse est consacrée à l'étude de deux aspects de la physique mésoscopique que sont le bruit quantique haute fréquence et l'effet de proximité supraconducteur en se focalisant toutefois sur un système modèle: le nanotube de carbone.Ainsi la première partie de cette thèse est dédiée à la mesure de bruit quantique haute fréquence. Afin de mesurer ces fluctuations nous avons développé un système de détection "on-chip" original dans lequel la source de bruit et le détecteur, une jonction Supraconducteur/Isolant/Supraconducteur, sont couplés par un circuit résonant. Cela nous a permis dans un premier temps de mesurer le bruit à l'équilibre du résonateur. Son bruit comporte une forte asymétrie entre émission et absorption reliée aux fluctuations de point zéro. Une seconde étape a été de mesurer le bruit hors équilibre d'émission du passage tunnel de quasi-particules dans une jonction Josephson. Ce bruit comporte une forte dépendance en fréquence en accord avec les prédictions théoriques et nous a permis de valider le principe de détection. Finalement, nous avons pu mesurer le bruit associé au régime Kondo hors équilibre d'une boîte quantique à nanotube de carbone (énergie caractéristique kBTK avec TK la température Kondo). Ce bruit d'émission à kBTK~hν possède une forte singularité à la tension V=hν/e (ν étant la fréquence de mesure). Cette singularité est reliée aux résonances Kondo dans la densité d'états de la boîte associés aux niveaux de Fermi de chaque réservoir. A plus haute fréquence hν~3kBTK, la singularité disparaît, ce qui est compris par des effets de décohérence induits par la tension.Dans la seconde partie, nous avons développé une technique permettant de mesurer à la fois la relation courant/phase et la caractéristique courant/tension d'un lien faible séparant deux supraconducteurs. Nous avons ainsi caractérisé une jonction à base de nanotube de carbone au travers de laquelle une relation courant-phase modulable par une tension de grille a été observée. Cette relation courant/phase exhibe une forte anharmonicité lorsque le supercourant présente une relativement grande amplitude.
Estilos ABNT, Harvard, Vancouver, APA, etc.
20

Delagrange, Raphaëlle. "Josephson effect and high frequency emission in a carbon nanotube in the Kondo regime". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS319/document.

Texto completo da fonte
Resumo:
Cette thèse est consacrée au transport quantique à travers une impureté Kondo, formée dans une boîte quantique réalisée dans un nanotube de carbone. L’effet Kondo est ainsi sondé à travers deux situations : en compétition avec l’effet Josephson induit dans le nanotube par des contacts supraconducteurs et à travers son émission haute fréquence. Dans une première série d’expériences, nous avons introduit un nanotube dans un SQUID, afin de mesurer la relation entre son supercourant et la différence de phase supraconductrice à ses bornes. Nous avons mesuré cette relation lorsque les corrélations Kondo et supraconductrices sont du même ordre de grandeur et montré que l’état du système, singulet ou doublet (correspondant respectivement à une jonction 0 ou π) peut alors être contrôlé par la phase supraconductrice. Nous avons également montré que, si un deuxième niveau d’énergie participe au transport des paires de Cooper, la transition 0-π n’est plus une transition du premier ordre comme c’est le cas quand un seul niveau est impliqué. Dans la deuxième partie de la thèse, le nanotube de carbone est couplé, aux fréquences déterminées par un résonateur, à une jonction tunnel supraconductrice servant de détecteur on-chip de bruit haute fréquence. Ceci nous a permis de mesurer le bruit en émission de la boîte quantique dans le régime Kondo avec des couplages aux réservoirs plus ou moins symétriques. Nos mesures posent le problème de l’asymétrie spatiale du bruit mesuré et semblent montrer que, plus le couplage aux réservoirs est symétrique, plus la résonance Kondo est affaiblie dans une situation hors équilibre. Enfin, ce dispositif a été utilisé afin de mesurer l’émission Josephson AC d’un nanotube avec des électrodes supraconductrices, afin de voir ce que devient la compétition entre l’effet Kondo et la supraconductivité à haute fréquence. Ces mesures révèlent une diminution de l’émission Josephson alors que l’on a un maximum de supercourant
This thesis is dedicated to quantum transport through a Kondo impurity, formed in a carbon nanotube quantum dot. We probe the Kondo effect in two situations: in competition with the Josephson effect induced in the nanotube by superconducting contacts and through its high frequency emission. In a first experiment, we have introduced a nanotube in a SQUID in order to measure its supercurrent as a function of the superconducting phase across it. We have measured this quantity in the regime where the Kondo and superconducting correlations are of the same order of magnitude and shown that the ground state of the system, singlet or doublet (corresponding respectively to 0 and π junctions), is then controlled by the superconducting phase. We have also demonstrated that, if a second energy level participates in the transport of Cooper pairs, the 0-π transition is not anymore a first order one as it is the case when only one level is involved. In the second part of the thesis, the carbon nanotube is coupled, at some frequencies determined by a resonator, to a tunnel superconducting junction which is used as an on-chip high-frequency noise detector. This enables the measurement of the emission noise of the quantum dot in the Kondo regime, with reservoirs coupled either symmetrically or not to the dot. Our measurements raise the problem of the spatial asymmetry of the measured noise and seem to show that, the more symmetric is the coupling of the reservoirs to the dot, the more the Kondo resonance is weaken in an out-of-equilibrium situation. Finally, this setup has been used in order to measure the AC Josephson emission of a nanotube contacted with superconducting electrodes, in order to extend our investigation of the competition between the Kondo effect and superconductivity at high frequency. These measurements reveal a decrease of the Josephson emission observed together with a maximum of supercurrent
Estilos ABNT, Harvard, Vancouver, APA, etc.
21

Romero, Ugalde Héctor Manuel. "Identification de systèmes utilisant les réseaux de neurones : un compromis entre précision, complexité et charge de calculs". Thesis, Paris, ENSAM, 2013. http://www.theses.fr/2013ENAM0001/document.

Texto completo da fonte
Resumo:
Ce rapport porte sur le sujet de recherche de l'identification boîte noire du système non linéaire. En effet, parmi toutes les techniques nombreuses et variées développées dans ce domaine de la recherche ces dernières décennies, il semble toujours intéressant d'étudier l'approche réseau de neurones dans l'estimation de modèle de système complexe. Même si des modèles précis ont été obtenus, les principaux inconvénients de ces techniques restent le grand nombre de paramètres nécessaires et, en conséquence, le coût important de calcul nécessaire pour obtenir le niveau de pratique de la précision du modèle désiré. Par conséquent, motivés pour remédier à ces inconvénients, nous avons atteint une méthodologie complète et efficace du système d'identification offrant une précision équilibrée, la complexité et les modèles de coûts en proposant, d'une part, de nouvelles structures de réseaux de neurones particulièrement adapté à une utilisation très large en matière de modélisation système pratique non linéaire, d'autre part, un simple et efficace technique de réduction de modèle, et, troisièmement, une procédure de réduction de coût de calcul. Il est important de noter que ces deux dernières techniques de réduction peut être appliquée à une très large gamme d'architectures de réseaux de neurones sous deux simples hypothèses spécifiques qui ne sont pas du tout contraignant. Enfin, la dernière contribution importante de ce travail est d'avoir montré que cette phase d'estimation peut être obtenue dans un cadre robuste si la qualité des données d'identification qu'il oblige. Afin de valider la procédure d'identification système proposé, des exemples d'applications entraînées en simulation et sur un procédé réel, de manière satisfaisante validé toutes les contributions de cette thèse, confirmant tout l'intérêt de ce travail
This report concerns the research topic of black box nonlinear system identification. In effect, among all the various and numerous techniques developed in this field of research these last decades, it seems still interesting to investigate the neural network approach in complex system model estimation. Even if accurate models have been derived, the main drawbacks of these techniques remain the large number of parameters required and, as a consequence, the important computational cost necessary to obtain the convenient level of the model accuracy desired. Hence, motivated to address these drawbacks, we achieved a complete and efficient system identification methodology providing balanced accuracy, complexity and cost models by proposing, firstly, new neural network structures particularly adapted to a very wide use in practical nonlinear system modeling, secondly, a simple and efficient model reduction technique, and, thirdly, a computational cost reduction procedure. It is important to notice that these last two reduction techniques can be applied to a very large range of neural network architectures under two simple specific assumptions which are not at all restricting. Finally, the last important contribution of this work is to have shown that this estimation phase can be achieved in a robust framework if the quality of identification data compels it. In order to validate the proposed system identification procedure, application examples driven in simulation and on a real process, satisfactorily validated all the contributions of this thesis, confirming all the interest of this work
Estilos ABNT, Harvard, Vancouver, APA, etc.
22

Romero, ugalde Héctor manuel. "Identification de systèmes utilisant les réseaux de neurones : un compromis entre précision, complexité et charge de calculs". Phd thesis, Ecole nationale supérieure d'arts et métiers - ENSAM, 2013. http://pastel.archives-ouvertes.fr/pastel-00869428.

Texto completo da fonte
Resumo:
Ce rapport porte sur le sujet de recherche de l'identification boîte noire du système non linéaire. En effet, parmi toutes les techniques nombreuses et variées développées dans ce domaine de la recherche ces dernières décennies, il semble toujours intéressant d'étudier l'approche réseau de neurones dans l'estimation de modèle de système complexe. Même si des modèles précis ont été obtenus, les principaux inconvénients de ces techniques restent le grand nombre de paramètres nécessaires et, en conséquence, le coût important de calcul nécessaire pour obtenir le niveau de pratique de la précision du modèle désiré. Par conséquent, motivés pour remédier à ces inconvénients, nous avons atteint une méthodologie complète et efficace du système d'identification offrant une précision équilibrée, la complexité et les modèles de coûts en proposant, d'une part, de nouvelles structures de réseaux de neurones particulièrement adapté à une utilisation très large en matière de modélisation système pratique non linéaire, d'autre part, un simple et efficace technique de réduction de modèle, et, troisièmement, une procédure de réduction de coût de calcul. Il est important de noter que ces deux dernières techniques de réduction peut être appliquée à une très large gamme d'architectures de réseaux de neurones sous deux simples hypothèses spécifiques qui ne sont pas du tout contraignant. Enfin, la dernière contribution importante de ce travail est d'avoir montré que cette phase d'estimation peut être obtenue dans un cadre robuste si la qualité des données d'identification qu'il oblige. Afin de valider la procédure d'identification système proposé, des exemples d'applications entraînées en simulation et sur un procédé réel, de manière satisfaisante validé toutes les contributions de cette thèse, confirmant tout l'intérêt de ce travail.
Estilos ABNT, Harvard, Vancouver, APA, etc.
23

Ouenzar, Mohammed. "Validation de spécifications de systèmes d'information avec Alloy". Mémoire, Université de Sherbrooke, 2013. http://hdl.handle.net/11143/6594.

Texto completo da fonte
Resumo:
Le présent mémoire propose une investigation approfondie de l’analyseur Alloy afin de juger son adaptabilité en tant que vérificateur de modèles. Dans un premier temps, l’étude dresse un tableau comparatif de six vérificateurs de modèles, incluant Alloy, afin de déterminer lequel d’entre eux est le plus apte à résoudre les problématiques de sécurité fonctionnelle posées par les systèmes d’information. En conclusion de cette première phase, Alloy émerge comme l’un des analyseurs les plus performants pour vérifier les modèles sur lesquels se fondent les systèmes d’information. Dans un second temps, et sur la base des problématiques rencontrées au cours de cette première phase, l’étude rapporte une série d’idiomes pour, d’une part, présenter une manière optimisée de spécifier des traces et, d’autre part, trouver des recours afin de contourner les limitations imposées par Alloy. À ces fins, le mémoire propose deux nouveaux cas d’espèce, ceux d’une cuisinière intelligente et d’une boîte noire, afin de déterminer si oui ou non l’analyseur est capable de gérer les systèmes dynamiques possédant de nombreuses entités avec autant d’efficacité que les systèmes qui en possèdent moins. En conclusion, le mémoire rapporte que Alloy est un bon outil pour vérifier des systèmes dynamiques mais que sa version récente, DynAlloy, peut être encore mieux adapté pour le faire puisque précisément conçu pour faire face aux spécificités de ce type de système. Le mémoire s’achève sur une présentation sommaire de ce dernier outil.
Estilos ABNT, Harvard, Vancouver, APA, etc.
24

Amara, Meriem. "Maîtrise des émissions conduites des électroniques de puissance". Thesis, Lyon, 2019. http://www.theses.fr/2019LYSEC047.

Texto completo da fonte
Resumo:
Cette thèse est consacrée à la modélisation CEM « boîte noire » d’un onduleur triphasé pour une application aéronautique. Ces travaux effectués sont réalisés dans le cadre d’un projet intitulé MECEP (Maîtrise des Emissions Conduites des Electroniques de Puissance) financé par la DGAC.Afin de protéger les réseaux de bord des perturbations électromagnétiques conduites et répondre aux normes CEM et plus particulièrement la norme aéronautique « DO160F », un filtre CEM est absolument nécessaire pour chaque convertisseur de puissance. Les niveaux de perturbations générées par ce type de système nécessite une conception soignée afin d’assurer un filtrage efficace des courants parasites qui se propagent en MC et en MD. C’est pourquoi cette thèse est consacrée à l’étude d’une modélisation CEM générique, rapide et capable de représenter correctement le comportement électromagnétique du convertisseur du point de vue du réseau DC et de la charge AC sur la plage fréquentielle de la norme DO160F. La modélisation choisie est basée alors sur une représentation de type « boîte noire ». Le modèle CEM identifié contient des sources de perturbations et des impédances de MC et de MD équivalentes. Ce type de modèle est validé pour deux chaines d’entrainement classiques de 4 kW. Il est capable de prédire l’impact de différents paramètres comme le point de fonctionnement, l’impédance du réseau d’alimentation et l’impédance de la charge avec des résultats satisfaisants dans le domaine fréquentiel. Les résultats obtenus montrent que le modèle proposé peut prédire les perturbations conduites pour les différents cas jusqu’à une fréquence de 50 MHz.Finalement, le modèle CEM proposé, qui représente le comportement électromagnétique du convertisseur côté entrée DC, est étendu afin de représenter le comportement côté sortie AC.Les principaux avantages de la modélisation CEM « boîte noire » proposée sont la rapidité, la simplicité et la construction sans la connaissance de la structure interne du convertisseur qui peut être protégée par le secret industriel
This thesis is focused on the black box EMC modeling of a three-phase inverter for aerospace applications. The work performed in this thesis is carried out in the framework of DGAC project (Directorate General of Civil Aviation) titled MECEP (Control of conducted emissions of power electronics).To protect the network board from the conducted electromagnetic interferences and to meet the EMC standards and especially the aviation standard “DO160F”, an EMC filter is absolutely necessary for each power converter. This disturbance levels generated by this type of system require careful design to ensure the filtering of parasitic currents that propagate in common mode (CM) and differential mode (DM). Therefore, the work of this thesis is devoted to the study of a generic EMC modeling, rapid and able to represent correctly the electromagnetic behavior of the converter from the side of the DC network and from the side of the AC load. This modeling is based on a “black box” representation. The identified EMC model contains disturbance sources and equivalent CM and DM impedances. This type of model is validated for two standard drive chains of 4 kW. It is able to predict the impact of different parameters such as the operating point, the network impedance and the load impedance in the frequency domain. A good agreement is obtained in all cases up to a frequency of 50 MHz Finally, the proposed EMC modeling, which represents the electromagnetic behavior of the DC input side of the converter, is extended to represent the AC output side behavior. The main advantages of the proposed “black box” EMC modeling are the rapidity, the simplicity and the construction without the knowledge of the internal structure of the converter. That can be protected by the industrial secret
Estilos ABNT, Harvard, Vancouver, APA, etc.
25

Dominique, Cyril. "Modélisation dynamique des modules actifs à balayage électronique par séries de Volterra et intégration de ces modèles pour une simulation de type système". Paris 6, 2002. http://www.theses.fr/2002PA066106.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
26

Longuet, Delphine. "Test à partir de spécifications axiomatiques". Phd thesis, Université d'Evry-Val d'Essonne, 2007. http://tel.archives-ouvertes.fr/tel-00258792.

Texto completo da fonte
Resumo:
Le test est l'une des méthodes les plus utilisées pour la validation du logiciel. L'activité de test consiste à exécuter le logiciel sur un sous-ensemble de ses entrées possibles de manière à déceler d'éventuelles erreurs. La présence d'erreurs est établie par confrontation du comportement du logiciel avec un objet de référence. Le processus de test est généralement décomposé en trois phases : la sélection du sous-ensemble des entrées sur lequel le logiciel sera exécuté, la soumission de ces entrées au logiciel en collectant les sorties (les réponses du logiciel) et la décision de l'adéquation de ces sorties avec les sorties attendues.

La sélection des données à soumettre au logiciel peut être effectuée selon différentes approches. Lorsque la phase de sélection d'un jeu de tests est opérée à partir d'un objet de référence décrivant plus ou moins formellement le comportement du logiciel, sans connaissance de l'implantation elle-même, on parle de test « boîte noire ». Une des approches de test boîte noire pour laquelle un cadre formel a été proposé est celle qui utilise comme objet de référence une spécification logique du système sous test.

Le cadre général de test à partir de spécifications logiques (ou axiomatiques) pose les conditions et les hypothèses sous lesquelles il est possible de tester un système. La première hypothèse consiste à considérer le système sous test comme un modèle formel implantant les opérations dont le comportement est décrit par la spécification. La seconde hypothèse a trait à l'observabilité du système sous test. Il faut fixer la forme des formules qui peuvent être interprétées par le système, c'est-à-dire qui peuvent être des tests. On se restreint généralement au moins aux formules qui ne contiennent pas de variables. Une fois ces hypothèses de test posées, on dispose d'un jeu de tests initial, celui de toutes les formules observables qui sont des conséquences logiques de la spécification.

Le premier résultat à établir est l'exhaustivité de cet ensemble, c'est-à-dire sa capacité à prouver la correction du système s'il pouvait être soumis dans son intégralité. Le jeu de tests exhaustif étant le plus souvent infini, une phase de sélection intervient afin de choisir un jeu de tests de taille finie et raisonnable à soumettre au système. Plusieurs approches sont possibles. L'approche suivie dans ma thèse, dite par partition, consiste a diviser le jeu de tests exhaustif initial en sous-jeux de tests, selon un certain critère de sélection relatif à une fonctionnalité ou à une caractéristique du système que l'on veut tester. Une fois cette partition suffisamment fine, il suffit de choisir un cas de test dans chaque sous-jeu de test obtenu en appliquant l'hypothèse d'uniformité (tous les cas de test d'un jeu de test sont équivalents pour faire échouer le système). Le deuxième résultat à établir est que la division du jeu de tests initial n'ajoute pas (correction de la procédure) et ne fait pas perdre (complétude) de cas de test.

Dans le cadre des spécifications algébriques, une des méthodes de partition du jeu de tests exhaustif qui a été très étudiée, appelée dépliage des axiomes, consiste à procéder à une analyse par cas de la spécification. Jusqu'à présent, cette méthode s'appuyait sur des spécifications équationnelles dont les axiomes avaient la caractéristique d'être conditionnels positifs (une conjonction d'équations implique une équation).

Le travail de ma thèse a eu pour but d'étendre et d'adapter ce cadre de sélection de tests à des systèmes dynamiques spécifiés dans un formalisme axiomatique, la logique modale du premier ordre. La première étape a consisté à généraliser la méthode de sélection définie pour des spécifications équationnelles conditionnelles positives aux spécifications du premier ordre. Ce cadre de test a ensuite été d'adapté à des spécifications modales du premier ordre. Le premier formalisme de spécification considéré est une extension modale de la logique conditionnelle positive pour laquelle le cadre de test a été initialement défini. Une fois le cadre de test adapté aux spécifications modales conditionnelles positives, la généralisation aux spécifications modales du premier ordre a pu être effectuée.

Dans chacun de ces formalismes nous avons effectué deux tâches. Nous avons d'une part étudié les conditions nécessaires à imposer à la spécification et au système sous test pour obtenir l'exhaustivité du jeu de tests initial. Nous avons d'autre part adapté et étendu la procédure de sélection par dépliage des axiomes à ces formalismes et montré sa correction et sa complétude. Dans les deux cadres généraux des spécifications du premier ordre et des spécifications modales du premier ordre, nous avons montré que les conditions nécessaires à l'exhausitivité du jeu de test visé étaient mineures car faciles à assurer dans la pratique, ce qui assure une généralisation satisfaisante de la sélection dans ce cadre.
Estilos ABNT, Harvard, Vancouver, APA, etc.
27

Duan, Jianan. "Dynamic and nonlinear properties of quantum dot lasers for photonic integrated circuits on silicon". Electronic Thesis or Diss., Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLT050.

Texto completo da fonte
Resumo:
La photonique sur silicium permet de palier au faible rendement et la consommation énergétique élevée des liens télécoms exploitant les câbles à paires torsadées ou les câbles coaxiaux. Cette technologie offre une versatilité exceptionnelle, de nouvelles fonctionnalités et des performances accrues pour les communications à haut-débit, les systèmes d’interconnexions optiques à courte portée et le déploiement de liaisons optiques d’une puce à une autre, d’une carte à une autre, ou d’un rack à un autre (datacom). Le silicium est un matériau semi-conducteur très efficace pour le guidage de la lumière, notamment en raison du fort contraste d’indice avec la silice. Cependant, sa bande interdite indirecte ne permet pas une émission radiative efficace. La réalisation de lasers repose donc sur des technologies hybrides de collage ou de report du matériau actif III- V (wafer-bonding, flip-chip) sur le silicium passif. Cependant, cette intégration hétérogène présente des inconvénients comme par exemple un coût élevé et une évolutivité limitée. Les lasers hybrides sur silicium sont aussi plus sensibles aux réflexions parasites provenant des transitions des différentes interfaces passives/actives. Un moyen permettant de surmonter ces inconvénients consiste à faire croître directement le matériau III-V sur le silicium. Dans ce contexte, les lasers à boîtes quantiques utilisant des atomes semi-conducteurs comme milieu de gain sont des candidats très prometteurs en raison de leur compacité, de leur grande stabilité thermique et d’une tolérance accrue aux défauts structuraux. Certaines applications comme les systèmes cohérents, les futures horloges atomiques intégrées sur puces et les radars où la sensibilité aux bruits de fréquence et d’intensité influe fortement le taux d’erreur binaire requièrent l’utilisation d’émetteurs optiques à très faible bruit. Dans une première partie, cette thèse révèle le potentiel de lasers à boîtes quantiques InAs/InP présentant une largeur de raie spectrale intrinsèque de 80 kHz et un bruit relatif d’intensité inférieur à -150 dB/Hz. A cet effet, il est montré qu’un faible couplage vertical entre les états liés est plus approprié pour une réduction du bruit d’intensité notamment grâce à la suppression du bruit de porteurs associée à l’état excité. Dans une deuxième partie, les propriétés dynamiques et non- linéaires des lasers à boîtes quantiques directement épitaxiés sur silicium sont étudiées. Comme susmentionné, les lasers intégrés de manière hétérogène sur le silicium sont plus sensibles aux réflexions parasites. Combinées à une rétroaction optique externe, la stabilité du laser peut s’en trouver fortement affectée. Sachant qu’il n’existe pas à ce jour d’isolateurs optiques intégrés sur puce ayant un taux d’isolation suffisant, le développement d’émetteurs insensibles aux rétroactions est un objectif majeur. Cette thèse présente notamment un résultat de transmission sans erreur à partir d’un laser à boîtes quantique directement épitaxié sur silicium soumis à une modulation externe à 10 Gb/s ainsi qu’à une rétroaction optique maximale de 100%. Cette insensibilité aux réflexions résulte de plusieurs propriétés remarquables comme un facteur d’élargissement spectral proche de zéro, un facteur d’amortissement élevé, un fort contraste entre les seuils d’émission des états liés, et une durée de vie des porteurs plus courte. Ces résultats permettent d’envisager le développement de futurs circuits intégrés photoniques sur silicium à haute performance et fonctionnant sans isolateur optique
Silicon photonics have been introduced to overcome low efficiency and high energy consumption of telecom links using twisted pairs or coaxial cables. This technology provides novel functionality and high performance for applications in high speed communication systems, short reach optical interconnects, and the deployment of optical links from chipto-chip, board-to-board or rack-to-rack (datacom). Silicon is known as a very efficient semiconductor material for waveguiding light in particular owing to the strong index contrast with silica. However, the indirect bandgap of silicon makes light emission from silicon inefficient, and other techniques such as wafer- or flipchip bonding must be investigated if light emission is to be realized. The drawbacks of such heterogeneous integration concentrate on the high cost and the limited scalability. Lasers heterogeneously integrated on silicon are also more sensitive to optical reflections originating from the transition between passive/active interfaces. The best way to overcome these drawbacks is to move on to direct epitaxial growth of IIIV materials on silicon for photonics integration. In this context, quantum dot lasers using semiconductor atoms as a gain medium are ideal because they enable smaller devices, amplification with large thermal stability and high tolerance to epitaxial defects. Ultra-low noise optical transmitters are required not only for the coherent systems but also for future chipscale atomic clocks and radar related applications because of the sensitivity to the frequency noise and intensity noise can strongly affect the bit error rates. To this end, the first part of the thesis reports an intrinsic spectral linewidth as low as 80 kHz and a relative intensity noise less than - 150 dB/Hz in InAs/InP quantum dot lasers. In particular, it is shown that a small vertical coupling is more suitable for low intensity noise operation due to the suppression of the carrier noise in the excited state. The second part of the thesis investigates the dynamic and nonlinear properties of epitaxial quantum dot lasers on silicon. As mentioned above, lasers heterogeneously integrated on silicon are more sensitive to parasitic reflections. When combined with external optical feedback, the laser stability can be dramatically affected. As no on-chip optical isolators integrated with lasers and having sufficient isolation ratio exist, the development of feedback insensitive transmitters remains a major objective. This thesis presents an error-free transmission of an epitaxial quantum dot laser on silicon externally modulated at 10 Gb/s and subjected to 100% optical feedback. Such remarkable feedback insensitivity directly results from the near-zero linewidth enhancement factor, the large damping factor, the strong contrast between the ground state and excited states and a shorter carrier lifetime. These results pave the way for future high-performance photonics integrated circuits on silicon operating without optical isolators
Estilos ABNT, Harvard, Vancouver, APA, etc.
28

Faye, Papa Abdoulaye. "Planification et analyse de données spatio-temporelles". Thesis, Clermont-Ferrand 2, 2015. http://www.theses.fr/2015CLF22638/document.

Texto completo da fonte
Resumo:
La Modélisation spatio-temporelle permet la prédiction d’une variable régionalisée à des sites non observés du domaine d’étude, basée sur l’observation de cette variable en quelques sites du domaine à différents temps t donnés. Dans cette thèse, l’approche que nous avons proposé consiste à coupler des modèles numériques et statistiques. En effet en privilégiant l’approche bayésienne nous avons combiné les différentes sources d’information : l’information spatiale apportée par les observations, l’information temporelle apportée par la boîte noire ainsi que l’information a priori connue du phénomène. Ce qui permet une meilleure prédiction et une bonne quantification de l’incertitude sur la prédiction. Nous avons aussi proposé un nouveau critère d’optimalité de plans d’expérience incorporant d’une part le contrôle de l’incertitude en chaque point du domaine et d’autre part la valeur espérée du phénomène
Spatio-temporal modeling allows to make the prediction of a regionalized variable at unobserved points of a given field, based on the observations of this variable at some points of field at different times. In this thesis, we proposed a approach which combine numerical and statistical models. Indeed by using the Bayesian methods we combined the different sources of information : spatial information provided by the observations, temporal information provided by the black-box and the prior information on the phenomenon of interest. This approach allowed us to have a good prediction of the variable of interest and a good quantification of incertitude on this prediction. We also proposed a new method to construct experimental design by establishing a optimality criterion based on the uncertainty and the expected value of the phenomenon
Estilos ABNT, Harvard, Vancouver, APA, etc.
29

Nesme, Vincent. "Complexité en requêtes et symétries". Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2007. http://tel.archives-ouvertes.fr/tel-00156762.

Texto completo da fonte
Resumo:
Ces travaux portent sur l'étude de la complexité en requêtes de
problèmes symétriques, dans les cadres du calcul probabiliste classique
et du calcul quantique.

Il est montré, dans le cas quantique, une application de la méthode de
bornes inférieures dite "polynomiale" au calcul de la complexité en
requêtes des problèmes de sous-groupes cachés abéliens, via la technique de "symétrisation".

Dans le cas du calcul probabiliste, sous une hypothèse de "symétrie
transitive" des problèmes, il est donné une formule combinatoire
permettant de calculer la complexité en requêtes exacte du meilleur
algorithme non-adaptatif. De plus, il est mis en évidence que sous
certaines hypothèses de symétrie, ce meilleur algorithme non-adaptatif
est optimal même parmi les algorithmes probabilistes plus généraux, ce qui donne pour la classe de problèmes correspondante une expression exacte de la complexité en requêtes.
Estilos ABNT, Harvard, Vancouver, APA, etc.
30

Jankovic, Anja. "Towards Online Landscape-Aware Algorithm Selection in Numerical Black-Box Optimization". Electronic Thesis or Diss., Sorbonne université, 2021. http://www.theses.fr/2021SORUS302.

Texto completo da fonte
Resumo:
Les algorithmes d'optimisation de boîte noire (BBOA) sont conçus pour des scénarios où les formulations exactes de problèmes sont inexistantes, inaccessibles, ou trop complexes pour la résolution analytique. Les BBOA sont le seul moyen de trouver une bonne solution à un tel problème. En raison de leur applicabilité générale, les BBOA présentent des comportements différents lors de l'optimisation de différents types de problèmes. Cela donne un problème de méta-optimisation consistant à choisir l'algorithme le mieux adapté à un problème particulier, appelé problème de sélection d'algorithmes (AS). La vision d'automatiser cette sélection a vite gagné du terrain dans la communauté. Un moyen important de le faire est l'AS tenant compte du paysage, où le choix de l'algorithme est basé sur la prédiction de ses performances via des représentations numériques d'instances de problèmes appelées caractéristiques. Un défi clé auquel l'AS tenant compte du paysage est confrontée est le coût de calcul de l'extraction des caractéristiques, une étape qui précède l'optimisation. Dans cette thèse, nous proposons une approche d'AS tenant compte du paysage basée sur la trajectoire de recherche qui intègre cette étape d'extraction dans celle d'optimisation. Nous montrons que les caractéristiques calculées à l'aide de la trajectoire conduisent à des prédictions robustes et fiables des performances des algorithmes, et à de puissants modèles d'AS construits dessus. Nous présentons aussi plusieurs analyses préparatoires, y compris une perspective de combinaison de 2 stratégies de régression complémentaires qui surpasse des modèles classiques de régression simple et amplifie la qualité du sélecteur
Black-box optimization algorithms (BBOAs) are conceived for settings in which exact problem formulations are non-existent, inaccessible, or too complex for an analytical solution. BBOAs are essentially the only means of finding a good solution to such problems. Due to their general applicability, BBOAs can exhibit different behaviors when optimizing different types of problems. This yields a meta-optimization problem of choosing the best suited algorithm for a particular problem, called the algorithm selection (AS) problem. By reason of inherent human bias and limited expert knowledge, the vision of automating the selection process has quickly gained traction in the community. One prominent way of doing so is via so-called landscape-aware AS, where the choice of the algorithm is based on predicting its performance by means of numerical problem instance representations called features. A key challenge that landscape-aware AS faces is the computational overhead of extracting the features, a step typically designed to precede the actual optimization. In this thesis, we propose a novel trajectory-based landscape-aware AS approach which incorporates the feature extraction step within the optimization process. We show that the features computed using the search trajectory samples lead to robust and reliable predictions of algorithm performance, and to powerful algorithm selection models built atop. We also present several preparatory analyses, including a novel perspective of combining two complementary regression strategies that outperforms any of the classical, single regression models, to amplify the quality of the final selector
Estilos ABNT, Harvard, Vancouver, APA, etc.
31

Vazquez, Emmanuel. "Modélisation comportementale de systèmes non-linéaires multivariables par méthodes à noyaux et applications". Phd thesis, Université Paris Sud - Paris XI, 2005. http://tel.archives-ouvertes.fr/tel-00010199.

Texto completo da fonte
Resumo:
Les méthodes de prédiction linéaire de processus aléatoires, ou krigeage, et les méthodes de régression régularisée par une norme d'espace hilbertien à noyau reproduisant (splines, approximation par fonctions de base radiales, régression à vecteurs de support, etc.) constituent deux approches fondamentales de modélisation comportementale de systèmes non-linéaires. Les liens mathématiques entre ces deux approches ont été mentionnés à plusieurs reprises dans le passé. Fort peu exploités, ces liens n'en restent pas moins fondamentaux puisqu'ils permettent par exemple de comprendre comment formuler le problème de régression régularisée pour l'approximation de fonctions à valeurs vectorielles (cas des systèmes multivariables dits MIMO). Dans les deux approches, le choix du noyau est essentiel car il conditionne la qualité des modèles. Les principaux résultats théoriques sont issus de travaux en statistiques. Bien que de type asymptotique, ils ont des conséquences pratiques importantes rappelées et illustrées dans cette étude. Les noyaux considérés habituellement forment une famille restreinte offrant relativement peu de souplesse. Ceci nous a suggéré de développer des méthodes assemblant un noyau à partir d'un grand nombre de noyaux élémentaires. Elles ont permis d'obtenir des résultats satisfaisants notamment sur un problème test classique issu du domaine de la prédiction de séries chronologiques. Enfin, ce travail s'attache à montrer comment utiliser les méthodes de régression à noyaux à travers la présentation de problèmes réels. Le choix de noyau est abordé en pratique. La prise en compte d'informations disponibles a priori par utilisation du krigeage intrinsèque (régression semi-régularisée) est illustrée. Finalement, des éléments de planification d'expériences sont discutés.
Estilos ABNT, Harvard, Vancouver, APA, etc.
32

Ali, Marwan. "Nouvelles architectures intégrées de filtre CEM hybride". Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2012. http://tel.archives-ouvertes.fr/tel-00847144.

Texto completo da fonte
Resumo:
Cette thèse est focalisée sur la conception et la réalisation d'un filtre CEM hybride intégré pour une application aéronautique. Les travaux effectués durant cette thèse sont réalisés dans le cadre d'un projet FRAE (Fondation de Recherche pour l'Aéronautique et l'Espace) intitulé FEMINA (Filtrage Electromagnétiques et Matériaux pour l'INtégration en Aéronautique). Afin de protéger le réseau de bord des perturbations électromagnétiques conduites et rayonnées et répondre aux normes concernant la compatibilité électromagnétique (CEM) et plus particulièrement la norme aéronautique "DO160F [150KHz, 30MHz]", un filtre CEM est absolument nécessaire pour les cartes d'alimentations des dispositifs électroniques d'un avion. Les niveaux des perturbations générées par ce type d'équipement exigent une conception soignée pour assurer le filtrage des courants parasites qui se propagent en mode commun (MC) et en mode différentiel (MD). C'est pourquoi, la première partie du travail réalisé est consacrée à la modélisation électromagnétique de la carte d'alimentation utilisée comme support à cette étude. Cette modélisation est basée sur une représentation de type "boîte noire". Le modèle identifié est composé de sources de perturbations et d'impédances de MC et de MD équivalentes. Cette première étape permet de définir la structure électrique du filtre et les valeurs des composants à mettre en œuvre. Pour atteindre les performances requises, nous proposons dans ce travail un filtre CEM hybride optimisé, hybride signifiant qu'il est réalisé par association d'une partie purement passive et d'un filtre actif. Cette association permet de tirer le meilleur parti de chaque technologie de filtrage. Le filtre actif permet de traiter les perturbations à basses fréquences et la partie passive est dimensionnée pour les perturbations à hautes fréquences. Une intégration complète dans le circuit imprimé (PCB) des parties passives, capacitives et inductives, est proposée dans la deuxième partie de ce travail. Après avoir choisi les matériaux magnétique et diélectrique qui répondent au mieux au cahier de charge défini dans la première partie, plusieurs tests d'intégration dans le PCB ont été effectués. En prenant en compte la fragilité des matériaux magnétiques (ferrites), une géométrie plane qui répond aux spécifications a été proposée. Les principaux avantages de l'intégration proposée sont la réduction des effets inductifs et capacitifs parasites conduisant, de fait, à une augmentation des atténuations à hautes fréquences et l'augmentation de la compacité du filtre CEM. Nous démontrons que le filtre passif intégré réalisé réduit les interférences en MC et en MD dans la gamme de fréquences qui s'étend de 2,5MHz à 30MHz. Afin de compenser les tensions perturbatrices de mode différentiel jusqu'à 2,5MHz, une nouvelle topologie de filtre actif est proposée. Dans cette structure, l'injection des tensions de compensation des perturbations est effectuée à l'aide d'un enroulement auxiliaire ajouté aux enroulements couplés du filtre passif intégré. Les composants du filtre actif sont montés sur la face supérieure du PCB (composants CMS) dans lequel le filtre passif est intégré. L'assemblage du filtre hybride intégré (4 x 5 x 0,4 cm3) réduit les perturbations en MC et en MD dans la gamme de fréquence [150 kHz, 30 MHz]. Grâce à l'intégration et à l'optimisation de la topologie du filtre actif, le volume du filtre hybride est 75% plus faible que celui de l'ancien filtre CEM utilisé à l'entrée du convertisseur (4 x 5 x 1,6 cm3) tout en conservant un rendement élevé.
Estilos ABNT, Harvard, Vancouver, APA, etc.
33

Bittar, Thomas. "Stochastic optimization of maintenance scheduling : blackbox methods, decomposition approaches - Theoretical and numerical aspects". Thesis, Marne-la-vallée, ENPC, 2021. http://www.theses.fr/2021ENPC2004.

Texto completo da fonte
Resumo:
Le but de cette thèse est de développer des algorithmes pour la planification optimale de la maintenance. On s'intéresse à des systèmes de grande taille constitués de plusieurs composants liés par un stock commun de pièces de rechange. Les tests numériques sont effectués sur des systèmes de composants d'une même centrale hydroélectrique. La première partie est consacrée à l'étude des méthodes de type boîte noire qui sont souvent utilisées pour la planification de la maintenance. On s'intéresse à un algorithme basé sur le krigeage, Efficient Global Optimization (EGO), et à une méthode de recherche directe, Mesh Adaptive Direct Search (MADS). On présente le fonctionnement des algorithmes aussi bien d'un point de vue théorique que pratique et on propose quelques améliorations pour l'implémentation d'EGO. On compare MADS et EGO sur un banc d'essai académique et sur des cas industriels de petite taille, montrant la supériorité de MADS mais aussi les limites des méthodes boîte noire lorsque l'on veut s'attaquer à des problèmes de grande taille. Dans une deuxième partie, on veut prendre en compte la structure du système, constitué de plusieurs composants liés par un stock commun, afin de pouvoir résoudre des problèmes d'optimisation de maintenance en grande dimension. Dans ce but, on développe un modèle de la dynamique du système étudié et on formule explicitement un problème de contrôle optimal stochastique. On met en place un schéma de décomposition par prédiction, basé sur le Principe du Problème Auxiliaire (PPA), qui permet de ramener la résolution du problème en grande dimension à la résolution itérative d'une suite de sous-problèmes de plus petite taille. La décomposition est d'abord appliquée sur des cas tests académiques où elle se révèle très performante. Dans le cas industriel, il est nécessaire de procéder à une "relaxation" du système pour appliquer la méthode de décomposition. Lors des tests numériques, on résout une approximation de Monte-Carlo du problème. La décomposition permet d'obtenir des gains substantiels par rapport à l'algorithme de référence. Pour résoudre l'approximation de Monte-Carlo du problème de maintenance, on a utilisé une version déterministe du PPA. Dans la troisième partie, on étudie le PPA dans le cadre de l'approximation stochastique dans un espace de Banach. On prouve la mesurabilité des itérés de l'algorithme, on étend aux espaces de Banach des résultats de convergence existant dans les espaces de Hilbert et on donne des vitesses de convergence
The aim of the thesis is to develop algorithms for optimal maintenance scheduling. We focus on the specific case of large systems that consist of several components linked by a common stock of spare parts. The numerical experiments are carried out on systems of components from a single hydroelectric power plant.The first part is devoted to blackbox methods which are commonly used in maintenance scheduling. We focus on a kriging-based algorithm, Efficient Global Optimization (EGO), and on a direct search method, Mesh Adaptive Direct Search (MADS). We present a theoretical and practical review of the algorithms as well as some improvements for the implementation of EGO. MADS and EGO are compared on an academic benchmark and on small industrial maintenance problems, showing the superiority of MADS but also the limitation of the blackbox approach when tackling large-scale problems.In a second part, we want to take into account the fact that the system is composed of several components linked by a common stock in order to address large-scale maintenance optimization problems. For that purpose, we develop a model of the dynamics of the studied system and formulate an explicit stochastic optimal control problem. We set up a scheme of decomposition by prediction, based on the Auxiliary Problem Principle (APP), that turns the resolution of the large-scale problem into the iterative resolution of a sequence of subproblems of smaller size. The decomposition is first applied on synthetic test cases where it proves to be very efficient. For the industrial case, a "relaxation" of the system is needed and developed to apply the decomposition methodology. In the numerical experiments, we solve a Sample Average Approximation (SAA) of the problem and show that the decomposition leads to substantial gains over the reference algorithm.As we use a SAA method, we have considered the APP in a deterministic setting. In the third part, we study the APP in the stochastic approximation framework in a Banach space. We prove the measurability of the iterates of the algorithm, extend convergence results from Hilbert spaces to Banach spaces and give efficiency estimates
Estilos ABNT, Harvard, Vancouver, APA, etc.
34

Dumas, Jean-Guillaume. "Algorithmes parallèles efficaces pour le calcul formel : algèbre linéaire creuse et extensions algébriques". Phd thesis, Grenoble INPG, 2000. http://tel.archives-ouvertes.fr/tel-00002742.

Texto completo da fonte
Resumo:
Depuis quelques années, l'extension de l'utilisation de l'informatique dans tous les domaines de recherche scientifique et technique se traduit par un besoin croissant de puissance de calcul. Il est donc vital d'employer les microprocesseurs en parallèle. Le problème principal que nous cherchons à résoudre dans cette thèse est le calcul d'une forme canonique de très grandes matrices creuses à coefficients entiers, la forme normale de Smith. Par "très grandes", nous entendons un million d'inconnues et un million d'équations, c'est-à-dire mille milliards de variables. De tels systèmes sont même, en général, impossibles à stocker actuellement. Cependant, nous nous intéressons à des systèmes dans lesquels beaucoup de ces variables sont identiques et valent zéro; on parle dans ce cas de système creux. Enfin, nous voulons résoudre ces systèmes de manière exacte, c'est-à-dire que nous travaillons avec des nombres entiers ou dans une structure algébrique plus petite et autorisant toutes les opérations classiques, un corps fini. La reconstruction de la solution entière à partir des solutions plus petites est ensuite relativement aisée.
Estilos ABNT, Harvard, Vancouver, APA, etc.
35

Torossian, Léonard. "Méthodes d'apprentissage statistique pour la régression et l'optimisation globale de mesures de risque". Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30192.

Texto completo da fonte
Resumo:
Cette thèse s'inscrit dans le contexte général de l'estimation et de l'optimisation de fonctions de type boîte noire dont la sortie est une variable aléatoire. Motivé par la nécessité de quantifier l'occurrence d'événements extrêmes dans des disciplines comme la médecine, l'agriculture ou la finance, dans cette thèse des indicateurs sur certaines propriétés de la distribution en sortie, comme la variance ou la taille des queues de dis- tribution, sont étudiés. De nombreux indicateurs, aussi connus sous le nom de mesure de risque, ont été proposés dans la littérature ces dernières années. Dans cette thèse nous concentrons notre intérêt sur les quantiles, CVaR et expectiles. Dans un premier temps, nous comparons les approches K-plus proches voisins, forêts aléatoires, régression dans les RKHS, régression par réseaux de neurones et régression par processus gaussiens pour l'estimation d'un quantile conditionnel d'une fonction boite noire. Puis, nous proposons l'utilisation d'un modèle de régression basé sur le couplage de deux processus gaussiens estimés par une méthode variationnelle. Nous montrons que ce modèle, ini- tialement développé pour la régression quantile, est facilement adaptable à la régression d'autres mesures de risque. Nous l'illustrons avec l'expectile. Dans un second temps, nous analysons le problème relatif à l'optimisation d'une mesure de risque. Nous proposons une approche générique inspirée de la littérature X-armed bandits, permettantde fournir un algorithme d'optimisation, ainsi qu'une borne supérieure sur le regret, adaptable au choix de la mesure de risque. L'applicabilité de cette approche est illustrée par l'optimisation d'un quantile ou d'une CVaR. Enfin, nous proposons des algorithmes d'optimisation utilisant des processus gaussiens associés aux stratégies UCB et Thompson sampling, notre objectif étant l'optimisation d'un quantile ou d'un expectile
This thesis presents methods for estimation and optimization of stochastic black box functions. Motivated by the necessity to take risk-averse decisions in medecine, agriculture or finance, in this study we focus our interest on indicators able to quantify some characteristics of the output distribution such as the variance or the size of the tails. These indicators also known as measure of risk have received a lot of attention during the last decades. Based on the existing literature on risk measures, we chose to focus this work on quantiles, CVaR and expectiles. First, we will compare the following approaches to perform quantile regression on stochastic black box functions: the K-nearest neighbors, the random forests, the RKHS regression, the neural network regression and the Gaussian process regression. Then a new regression model is proposed in this study that is based on chained Gaussian processes inferred by variational techniques. Though our approach has been initially designed to do quantile regression, we showed that it can be easily applied to expectile regression. Then, this study will focus on optimisation of risk measures. We propose a generic approach inspired from the X-armed bandit which enables the creation of an optimiser and an upper bound on the simple regret that can be adapted to any risk measure. The importance and relevance of this approach is illustrated by the optimization of quantiles and CVaR. Finally, some optimisation algorithms for the conditional quantile and expectile are developed based on Gaussian processes combined with UCB and Thompson sampling strategies
Estilos ABNT, Harvard, Vancouver, APA, etc.
36

Cheaito, Hassan. "Modélisation CEM des équipements aéronautiques : aide à la qualification de l’essai BCI". Thesis, Lyon, 2017. http://www.theses.fr/2017LYSEC039/document.

Texto completo da fonte
Resumo:
L’intégration de l’électronique dans des environnements sévères d’un point de vue électromagnétique a entraîné en contrepartie l’apparition de problèmes de compatibilité électromagnétique (CEM) entre les différents systèmes. Afin d’atteindre un niveau de performance satisfaisant, des tests de sécurité et de certification sont nécessaires. Ces travaux de thèse, réalisés dans le cadre du projet SIMUCEDO (SIMUlation CEM basée sur la norme DO-160), contribuent à la modélisation du test de qualification "Bulk Current Injection" (BCI). Ce test, abordé dans la section 20 dans la norme DO-160 dédiée à l’aéronautique, est désormais obligatoire pour une très grande gamme d’équipements aéronautiques. Parmi les essais de qualification, le test BCI est l’un des plus contraignants et consommateurs du temps. Sa modélisation assure un gain de temps, et une meilleure maîtrise des paramètres qui influencent le passage des tests CEM. La modélisation du test a été décomposée en deux parties : l’équipement sous test (EST) d’une part, et la pince d’injection avec les câbles d’autre part. Dans cette thèse, seul l’EST est pris en compte. Une modélisation "boîte grise" a été proposée en associant un modèle "boîte noire" avec un modèle "extensif". Le modèle boîte noire s’appuie sur la mesure des impédances standards. Son identification se fait avec un modèle en pi. Le modèle extensif permet d’étudier plusieurs configurations de l’EST en ajustant les paramètres physiques. L’assemblage des deux modèles en un modèle boîte grise a été validé sur un convertisseur analogique-numérique (CAN). Une autre approche dénommée approche modale en fonction du mode commun (MC) et du mode différentiel (MD) a été proposée. Elle se base sur les impédances modales du système sous test. Des PCB spécifiques ont été conçus pour valider les équations développées. Une investigation est menée pour définir rigoureusement les impédances modales. Nous avons démontré qu’il y a une divergence entre deux définitions de l’impédance de MC dans la littérature. Ainsi, la conversion de mode (ou rapport Longitudinal Conversion Loss : LCL) a été quantifiée grâce à ces équations. Pour finir, le modèle a été étendu à N-entrées pour représenter un EST de complexité industrielle. Le modèle de l’EST est ensuite associé avec celui de la pince et des câbles travaux réalisés au G2ELAB. Des mesures expérimentales ont été faites pour valider le modèle complet. D’après ces mesures, le courant de MC est impacté par la mise en œuvre des câbles ainsi que celle de l’EST. Il a été montré que la connexion du blindage au plan de masse est le paramètre le plus impactant sur la distribution du courant de MC
Electronic equipments intended to be integrated in aircrafts are subjected to normative requirements. EMC (Electromagnetic Compatibility) qualification tests became one of the mandatory requirements. This PhD thesis, carried out within the framework of the SIMUCEDO project (SIMulation CEM based on the DO-160 standard), contributes to the modeling of the Bulk Current Injection (BCI) qualification test. Concept, detailed in section 20 in the DO-160 standard, is to generate a noise current via cables using probe injection, then monitor EUT satisfactorily during test. Among the qualification tests, the BCI test is one of the most constraining and time consuming. Thus, its modeling ensures a saving of time, and a better control of the parameters which influence the success of the equipment under test. The modeling of the test was split in two parts : the equipment under test (EUT) on one hand, and the injection probe with the cables on the other hand. This thesis focuses on the EUT modeling. A "gray box" modeling was proposed by associating the "black box" model with the "extensive" model. The gray box is based on the measurement of standard impedances. Its identification is done with a "pi" model. The model, having the advantage of taking into account several configurations of the EUT, has been validated on an analog to digital converter (ADC). Another approach called modal, in function of common mode and differential mode, has been proposed. It takes into account the mode conversion when the EUT is asymmetrical. Specific PCBs were designed to validate the developed equations. An investigation was carried out to rigorously define the modal impedances, in particular the common mode (CM) impedance. We have shown that there is a discrepancy between two definitions of CM impedance in the literature. Furthermore, the mode conversion ratio (or the Longitudinal Conversion Loss : LCL) was quantified using analytical equations based on the modal approach. An N-input model has been extended to include industrial complexity. The EUT model is combined with the clamp and the cables model (made by the G2ELAB laboratory). Experimental measurements have been made to validate the combined model. According to these measurements, the CM current is influenced by the setup of the cables as well as the EUT. It has been shown that the connection of the shield to the ground plane is the most influent parameter on the CM current distribution
Estilos ABNT, Harvard, Vancouver, APA, etc.
37

Pamart, Pierre-Yves. "Contrôle des décollements en boucle fermée". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2011. http://tel.archives-ouvertes.fr/tel-00659979.

Texto completo da fonte
Resumo:
La politique européenne recommande aux industriels de l'aéronautique de concevoir des aéronefs capables de proposer une réduction de 50% du bruit perçu, de 50% de la consommation et de 80% des émissions de gaz NOx d'ici 2020. Les ingénieurs sont donc amenés à envisager des solutions innovantes basées sur le contrôle des écoulements, en particulier celui des décollements puisqu'ils ont généralement des effets délétères sur les performances aérodynamiques. Les travaux présentés dans ce mémoire sont dédiés au contrôle en boucle fermée du décollement d'une rampe arrondie par un jet synthétique réglable en fréquence et en amplitude. Le mémoire s'articule autour de deux axes principaux. Le premier axe a permis d'étudier la réponse du décollement à une perturbation périodique par simulations numériques de type LES afin de poursuivre la compréhension de la phy- sique impliquée dans le contrôle et de définir des objectifs de contrôle. Les fréquences et amplitudes optimales au regard de différents critères ont ainsi été identifiées et analysées. Le second axe a été consacré au contrôle en boucle fermée de la réponse quasi-statique du système par l'application de stratégies de régulations PID, extremums-seekings optimisés et logique floue. Leur conception a nécessité l'identification d'un modèle boîte-noire non-linéaire NARX. Les algorithmes non-linéaires, en particulier celui par logique floue, se sont montrés particulièrement performants. La démarche a été validée grâce à une application en temps réel d'une régulation extremum-seeking sur simulation RANS instationnaire.
Estilos ABNT, Harvard, Vancouver, APA, etc.
38

Loshchilov, Ilya. "Surrogate-Assisted Evolutionary Algorithms". Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00823882.

Texto completo da fonte
Resumo:
Les Algorithmes Évolutionnaires (AEs) ont été très étudiés en raison de leur capacité à résoudre des problèmes d'optimisation complexes en utilisant des opérateurs de variation adaptés à des problèmes spécifiques. Une recherche dirigée par une population de solutions offre une bonne robustesse par rapport à un bruit modéré et la multi-modalité de la fonction optimisée, contrairement à d'autres méthodes d'optimisation classiques telles que les méthodes de quasi-Newton. La principale limitation de AEs, le grand nombre d'évaluations de la fonction objectif, pénalise toutefois l'usage des AEs pour l'optimisation de fonctions chères en temps calcul. La présente thèse se concentre sur un algorithme évolutionnaire, Covariance Matrix Adaptation Evolution Strategy (CMA-ES), connu comme un algorithme puissant pour l'optimisation continue boîte noire. Nous présentons l'état de l'art des algorithmes, dérivés de CMA-ES, pour résoudre les problèmes d'optimisation mono- et multi-objectifs dans le scénario boîte noire. Une première contribution, visant l'optimisation de fonctions coûteuses, concerne l'approximation scalaire de la fonction objectif. Le meta-modèle appris respecte l'ordre des solutions (induit par la valeur de la fonction objectif pour ces solutions) ; il est ainsi invariant par transformation monotone de la fonction objectif. L'algorithme ainsi défini, saACM-ES, intègre étroitement l'optimisation réalisée par CMA-ES et l'apprentissage statistique de meta-modèles adaptatifs ; en particulier les meta-modèles reposent sur la matrice de covariance adaptée par CMA-ES. saACM-ES préserve ainsi les deux propriété clé d'invariance de CMA-ES~: invariance i) par rapport aux transformations monotones de la fonction objectif; et ii) par rapport aux transformations orthogonales de l'espace de recherche. L'approche est étendue au cadre de l'optimisation multi-objectifs, en proposant deux types de meta-modèles (scalaires). La première repose sur la caractérisation du front de Pareto courant (utilisant une variante mixte de One Class Support Vector Machone (SVM) pour les points dominés et de Regression SVM pour les points non-dominés). La seconde repose sur l'apprentissage d'ordre des solutions (rang de Pareto) des solutions. Ces deux approches sont intégrées à CMA-ES pour l'optimisation multi-objectif (MO-CMA-ES) et nous discutons quelques aspects de l'exploitation de meta-modèles dans le contexte de l'optimisation multi-objectif. Une seconde contribution concerne la conception d'algorithmes nouveaux pour l'optimi\-sation mono-objectif, multi-objectifs et multi-modale, développés pour comprendre, explorer et élargir les frontières du domaine des algorithmes évolutionnaires et CMA-ES en particulier. Spécifiquement, l'adaptation du système de coordonnées proposée par CMA-ES est couplée à une méthode adaptative de descente coordonnée par coordonnée. Une stratégie adaptative de redémarrage de CMA-ES est proposée pour l'optimisation multi-modale. Enfin, des stratégies de sélection adaptées aux cas de l'optimisation multi-objectifs et remédiant aux difficultés rencontrées par MO-CMA-ES sont proposées.
Estilos ABNT, Harvard, Vancouver, APA, etc.
39

Dubois, Amaury. "Optimisation et apprentissage de modèles biologiques : application à lirrigation [sic l'irrigation] de pomme de terre". Thesis, Littoral, 2020. http://www.theses.fr/2020DUNK0560.

Texto completo da fonte
Resumo:
Le sujet de la thèse porte sur une des thématiques du LISIC : la modélisation et la simulation de systèmes complexes, ainsi que sur l'optimisation et l'apprentissage automatique pour l'agronomie. Les objectifs de la thèse sont de répondre aux questions de pilotage de l'irrigation de la culture de pomme de terre par le développement d'outils d'aide à la décision à destination des exploitants agricoles. Le choix de cette culture est motivé par sa part importante dans la région des Hauts-de-France. Le manuscrit s'articule en 3 parties. La première partie traite de l'optimisation continue mutlimodale dans un contexte de boîte noire. Il en suit une présentation d'une méthodologie d'étalonnage automatique de paramètres de modèle biologique grâce à une reformulation en un problème d'optimisation continue mono-objectif multimodale de type boîte noire. La pertinence de l'utilisation de l'analyse inverse comme méthodologie de paramétrage automatique de modèles de grandes dimensions est ensuite démontrée. La deuxième partie présente 2 nouveaux algorithmes UCB Random with Decreasing Step-size et UCT Random with Decreasing Step-size. Ce sont des algorithmes d'optimisation continue multimodale boîte noire dont le choix de la position initiale des individus est assisté par un algorithmes d'apprentissage par renforcement. Les résultats montrent que ces algorithmes possèdent de meilleures performances que les algorithmes état de l'art Quasi Random with Decreasing Step-size. Enfin, la dernière partie est focalisée sur les principes et les méthodes d'apprentissage automatique (machine learning). Une reformulation du problème de la prédiction à une semaine de la teneur en eau dans le sol en un problème d'apprentissage supervisé a permis le développement d'un nouvel outil d'aide à la décision pour répondre à la problématique du pilotage des cultures
The subject of this PhD concerns one of the LISIC themes : modelling and simulation of complex systems, as well as optimization and automatic learning for agronomy. The objectives of the thesis are to answer the questions of irrigation management of the potato crop and the development of decision support tools for farmers. The choice of this crop is motivated by its important share in the Haut-de-France region. The manuscript is divided into 3 parts. The first part deals with continuous multimodal optimization in a black box context. This is followed by a presentation of a methodology for the automatic calibration of biological model parameters through reformulation into a black box multimodal optimization problem. The relevance of the use of inverse analysis as a methodology for automatic parameterisation of large models in then demonstrated. The second part presents 2 new algorithms, UCB Random with Decreasing Step-size and UCT Random with Decreasing Step-size. Thes algorithms are designed for continuous multimodal black-box optimization whose choice of the position of the initial local search is assisted by a reinforcement learning algorithms. The results show that these algorithms have better performance than (Quasi) Random with Decreasing Step-size algorithms. Finally, the last part focuses on machine learning principles and methods. A reformulation of the problem of predicting soil water content at one-week intervals into a supervised learning problem has enabled the development of a new decision support tool to respond to the problem of crop management
Estilos ABNT, Harvard, Vancouver, APA, etc.
40

Walker, Étienne. "Quand la ville ne dort pas : s'approprier l'espace-temps hypercentral nocturne par et autour de l'usage récréatif. Les exemples de Caen et Rennes. (Pour une approche aussi sonore des rapports sociaux de proximité)". Thesis, Normandie, 2018. http://www.theses.fr/2018NORMC032/document.

Texto completo da fonte
Resumo:
Cette thèse se propose d’analyser la ville contemporaine à partir des cas de Caen et Rennes et du prisme récréatif nocturne, dans une perspective morphogénétique, polémologique et dimensionnelle. Au travers de méthodes qualitatives et quantitatives spatialisées et temporalisées, ce sont les mobilisations des « sortants », « commerçants », « cohabitants » et institutions pour l’appropriation de l’espace-temps hypercentral nocturne qui ont fait l’objet d’analyses. Une première partie donne à voir l’importance de l’usage récréatif au sein des hypercentres de Caen et Rennes la nuit. Attribut central de la jeunesse, les sorties récréatives – plus que « festives » – sont dûment polarisées par une offre commerciale dédiée hypercentrale dense. Autour et à proximité parfois immédiate, sont amenés à cohabiter pour bonne part ces jeunes sortants une fois rentrés chez eux, mais aussi d’autres populations beaucoup plus insérées socialement. Ainsi, une « situation tensionnelle » entre usages reproductifs récréatif et biologique se dessine au sein des hypercentres durant le temps de la nuit. Une seconde partie insiste sur la manière dont certains sortants et commerçants se mobilisent au travers de l’usage récréatif nocturne, les uns dans la manière de se sociabiliser entre pairs au sein de bars et discothèques dûment sélectionnées, les seconds du fait de leur souci à attirer les premiers au sein de leurs établissements, mais aussi à les gérer. Ponctuellement, ces mobilisations quotidiennes cèdent le pas à des mobilisations politiques collectives, dès lors que l’appropriation récréative nocturne de certaines rues et place chez les sortants d’une part, la continuité de l’activité commerciale chez les commerçants de l’autre, sont menacées. Une troisième partie s’intéresse aux mobilisations des cohabitants autour de cet usage récréatif nocturne. Une fois la division sociale des hypercentres établie, différents caractères ont été mis en évidence pour expliquer l’inégal ressenti notamment sonore de cet usage, caractères aussi bien acoustiques et liés à l’exposition, que sociologiques. Sans doute davantage que ces deux premiers facteurs, il apparaît que l’appréciation des sorties récréatives nocturnes avoisinantes a fortement à voir avec l’évolution au sein des cycles de vie, l’ancienneté et la propriété allant notamment de pair avec l’expression d’une plus forte gêne. Cette dimension cognitive se double d’un volet actionnel : si ceux qui entretiennent un rapport encore intime avec lesdites sorties se limitent à s’adapter à leur marquage sonore ou à confronter leur bruiteur, le recours aux institutions et l’action collective semblent le propre de ceux qui s’en distancient. Enfin, une ultime partie s’intéresse à la manière dont les institutions gouvernent ces différentes mobilisations « ordinaires ». Si les années 2000 ont été marquées à Rennes et même à Caen par la répression policière et administrative des commerçants et surtout des sortants, si le détour des décennies 2000/2010 l’a notamment été par la contractualisation avec les premiers et la « sanitarisation » surtout communicationnelle des seconds, un changement semble se dessiner ces dernières années. Dans un contexte de restrictions budgétaires étatiques mais aussi municipales croissantes, les commerçants semblent de plus en plus considérés par les institutions tels des auxiliaires d’ordre et de santé publics, utiles pour gouverner à moindre coût la déviance des sortants, plutôt que comme les catalyseurs de cette dernière. Relativement peu suivis par les institutions, les cohabitants mobilisés font parfois même l’objet de dispositifs spécifiques conduisant à leur neutralisation. Se dessine le passage progressif de l’économie fordiste où la nuit servait à reproduire la force de travail diurne à une économie post-fordiste 24h/24, où la nuit devient un vecteur permettant de satisfaire aux besoins eux aussi reproductifs et nocturnes, mais récréatifs, du capitalisme devenu aussi cognitif
Through the examples of Caen and Rennes (France) and the night-time recreational prism, this PHD aims at analysing contemporary city, in a morphogenetic, polemological and dimensional way. Through both spatialised and temporalised qualitative (interviews, speech analysis, press review, archives ans institutional documents) and quantitative (especially statistical approach of censuses and questionnaires) methods, we focus on the mobilisations of night owls, bar owners, residents and institutions who try to appropriate city-center at night. In a first section, the importance of recreational use in the city centers of Caen and Rennes is depicted. As a central attribute of young persons, recreational (more than festive in fact) customs are polarised by a central and abundant commercial offer. Around and sometimes very closely, residents, who are mostly young night owls once they have come back home, but also populations who are much more socially integrated (professionaly, parentally and residentially), have to live with those customs. Therefore, a tension appears between both récrational and biological reproductive uses of city centers at night. A second section highlights the fact that both night owls and bars owners are mobilised through recreational use, the firsts by socialising one another in bars and night clubs which are duly selected ; the seconds by polarising but also managing the firsts. Sometimes, these daily mobilisations become both political and collective ones, the moment recreational and nocturnal appropriation of streets on one hand, commercial activity on the other hand, are threatened. The third section develops the link between recreational and nocturnal customs and residential mobilisations. The social division of urban centers once established, several characteristics have been highlighted so that to explain sound perceptions, such as acoustic and exposure ones, but also sociological ones. Perhaps more than the fists, the latest explains the differents ways of perceiving recreational and nocturnal sounds, the evolution throughout « cycles of life » – that is to say professional insertion and above all experience and property – being most important. This cognitive division goes with an actional one : on one hand, those who are still linked with recreational and nocturnal customs mainly get used to the noise or confront those who are responsible for their sound annoyance (mostly neighbours) ; on the other hand, those who are gradually distancing themselves from these customs do not hesitate to resort to institutions or even to engage in collective action. Eventually, a fourth section deals with the way institutions govern the night owls, the bar owners and the residents who are mobilised. After the administrative and police repression of the night owls but also the bar owners during the 2000’s in Rennes and even in Caen, after the contractualisation with the latests and the health handling of the firsts around 2010, a rupture have occurred these last few years. With increasing budgetary restrictions, bar owners seem to be considered today by the institutions more as order and health auxiliaries useful so as to restrain night owls’ deviance than as persons responsible for it. Seldom listened by institutions, residents who are mobilised are also being neutralised throughout dedicated devices. On the whole, this research shows the transition from fordist economy which considers night time as a mean to reproduce diurnal workforce to post-fordist one, in which 24/7 city has also to fulfil cognitive capitalism needs
Estilos ABNT, Harvard, Vancouver, APA, etc.
41

Dahan, Jean-Jacques. "La démarche de découverte expérimentalement médiée par Cabri-Géomètre en mathématiques: un essai de formalisation à partir de l'analyse de démarches de résolutions de problèmes de boîtes noires". Phd thesis, 2005. http://tel.archives-ouvertes.fr/tel-00356107.

Texto completo da fonte
Resumo:
Notre travail est centré sur la démarche de découverte reposant sur des expérimentations réalisées avec Cabri-Géomètre. L'analyse d'un corpus débordant le cadre des Mathématiques clarifie la manière dont la découverte arrive ou est transmise, ainsi que le rôle de l'expérimentation dans ces processus. Elle justifie notre hypothèse de décomposition de la démarche de découverte expérimentale en macro-étapes pré- et post-conjectures elles-mêmes décomposables en micro-étapes du type exploration-interprétation..
L'analyse de la résolution d'une boîte noire particulière permet d'affiner notre modèle a priori de la démarche de découverte en y précisant le rôle de la figure (Duval), les niveaux de géométrie (praxéologies G1 et G2 de Parzysz) et leurs prolongements que nous développons (G1 et G2 informatiques), les cadres d'investigations (Millar) et la place de la preuve expérimentale (Johsua).
Les analyses des expérimentations mises en place permettent de disposer d'un modèle amélioré qui doit permettre aux enseignants d'avoir une connaissance minimale des étapes heuristiques du travail de leurs élèves, de concevoir des activités d'études et de recherches ayant des objectifs précis en liaison avec les étapes formalisées de notre modélisation et d'envisager leur possible évaluation.
Des analyses d'activités existantes avec notre grille montrent la validité du modèle étudié. Des propositions d'activités ont été construites pour favoriser l'apparition de telle ou telle phase de la recherche; elles montrent la viabilité de ce modèle dans la conception d'ingénieries didactiques générant une démarche conforme à la démarche postulée.
Estilos ABNT, Harvard, Vancouver, APA, etc.
42

Hissem, Simon. "Contribution à la conception de contrôleur pour des systèmes de type boîtes noires et des systèmes à haut degré de fonctions de transfert = Contribution to the design of controller for systems of black boxes type and systems with high degree of transfer functions". Thèse, 2019. http://depot-e.uqtr.ca/9074/1/032317586.pdf.

Texto completo da fonte
Estilos ABNT, Harvard, Vancouver, APA, etc.
Oferecemos descontos em todos os planos premium para autores cujas obras estão incluídas em seleções literárias temáticas. Contate-nos para obter um código promocional único!

Vá para a bibliografia