Дисертації з теми "Optimisation sur modèles de substitution"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Optimisation sur modèles de substitution.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Optimisation sur modèles de substitution".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Cordonnier, Laurie. "Optimisation des traitements de substitution aux opiacés par action conjointe sur les systèmes dopaminergique et opioïde chez la souris." Paris 5, 2006. http://www.theses.fr/2006PA05P615.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'amisulpride (antagoniste des récepteurs dopaminergiques D2/D3) et le RB101 (inhibiteur mixte du catabolisme des enképhalines) ont été associés dans cette étude dans le but de constituer une nouvelle approche de traitement de substitution à l'héroïne. Après une étude comportementale effectuée sur des souris non-dépendantes, qui a révélé une potentialisation des effets induits par le RB101 suite à un traitement chronique à l'amisulpride, les mécanismes neurochimiques sous-jacents ont été recherchés grâce à l'utilisation de souris invalidées pour le gène de la préproenképhaline et une technique d'hybridation in situ. Le rôle des enképhalines dans le contrôle des réponses émotionnelles à travers leur action sur les récepteurs opioïdes a ensuite été étudié. Enfin, l'association amisulpride-RB101 a été utilisée pour bloquer l'expression de la sensibilisation comportementale à la morphine. Ces résultats ont été comparés aux traitements de substitution classiques, buprénorphine et méthadone
Amisulpride (D2/D3 dopamine receptor antagonist) and RB101 (mixed inhibitor of enkephalins catabolism) have been associated in this study in order to constitute a novel approach in heroin substitution treatments. After a behavioral study in non-dependent mice, which revealed a potentiation of RB101-induced effects following a chronic treatment with amisulpride, the sustaining neurochemical mechanisms had been investigated thanks to the use of preproenkephalin gene knockout mice and an in situ hybridization technique. The enkephalins role in the control of emotional responses through their action on opioid receptors had then been studied. Finally, the association amisulpride-RB101 had been used to block the expression of morphine-induced behavioral sensitization. These results were compared to classical substitution treatments, buprenorphine and methadone
2

Chamaret, Damien. "Plate-forme de réalité virtuelle pour l'étude de l'accessibilité et de l'extraction de lampes sur prototype virtuel automobile." Phd thesis, Université d'Angers, 2010. http://tel.archives-ouvertes.fr/tel-00540899.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Depuis quelques années, la plupart des constructeurs automobiles innovent en faisant appel aux techniques de la réalité virtuelle (RV). Cette approche possède un fort potentiel en termes de gain de temps et de réduction des coûts. Elle permet également d'évaluer de nouvelles approches liées au processus de conception lui-même. Cependant, un certain nombre de verrous technologiques et méthodologiques subsistent. Ils concernent en particulier (i) la simplification et la physicalisation des maquettes numériques issues des logiciels de CAO, (ii) le développement de configurations visuo-haptiques adaptées aux différentes tâches impliquées par le prototypage virtuel, et (iii) l'identification des retours sensoriels les plus pertinents, permettant à l'opérateur d'effectuer ces tâches efficacement. Un ensemble de problématiques soulevées par le service R&D de Valeo Lighting Systems (Angers) nous a conduit à traiter les trois aspects évoqués ci-dessus. Les tâches étudiées sont l'accessibilité, l'extraction et la manipulation de lampes sur prototype virtuel à l'échelle 1:1. Dans le manuscrit, nous commençons par aborder les limites du prototypage réel et les apports liés au prototypage virtuel. Ces apports sont examinés en particulier pour les phases de création et de validation des prototypes. Puis, nous présentons un état de l'art exhaustif des dispositifs d'affichage et des interfaces à retour d'effort, que nous avons classées en fonction de leur architecture mécanique et de leur support de référence. Ensuite, nous traitons la simplification et l'intégration de maquettes virtuelles ainsi que l'intégration du modèle biomécanique de l'opérateur humain. Différentes simulations permettant de valider la méthodologie d'intégration proposée sont décrites. Celles-ci sont basées sur l'utilisation de notre plate-forme de réalité virtuelle. Enfin, nous décrivons une série cohérente et progressive d'expérimentations permettant d'évaluer la pertinence et l'influence de différentes modalités sensorielles (visuelle, sonore, vibro-tactile, et kinesthésique) sur la performance humaine. L'objectif est d'identifier les avantages et inconvénients de ces retours d'information dans différentes configurations matérielles. Les résultats sont analysés via différents indicateurs de performance (temps de réalisation des tâches, précision de placement). Des données subjectives sont également recueillies via l'observation des sujets pendant l'exécution des tâches et à partir de questionnaires.
3

Berbecea, Alexandru. "Approches multi-niveaux pour la conception systémique optimale des chaînes de traction ferroviaire." Phd thesis, Ecole Centrale de Lille, 2012. http://tel.archives-ouvertes.fr/tel-00917657.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans le contexte actuel de globalisation des marchés, le processus classique de conception par essais et erreurs n'est plus capable de répondre aux exigences de plus en plus accrues en termes de délais très courts, réduction des coûts de production, etc. L'outil d'optimisation propose une réponse à ces questions, en accompagnant les ingénieurs dans la tâche de conception optimale.L'objectif de cette thèse est centré sur la conception optimale des systèmes complexes. Deux approches sont abordées dans ce travail: l'optimisation par modèles de substitution et la conception optimale basée sur la décomposition des systèmes complexes.L'utilisation de la conception assistée par ordinateur (CAO) est devenue une pratique régulière dans l'industrie. La démarche d'optimisation basée sur modèles de substitution est destinée à répondre à l'optimisation des dispositifs bénéficiant d'une telle modélisation précise, mais couteuse en temps de calcul.Les chaînes de traction ferroviaire sont trop complexes pour être traités comme un tout. La décomposition de ces systèmes s'impose en vue de simplifier le problème et de repartir la charge de calcul. Des stratégies appropries à la résolution de telles structures ont été analysées dans ce travail. Ces approches permettent à chaque équipe de spécialistes de travailler de façon autonome à l'objet de leur expertise.Les approches d'optimisation développées au sein de ce travail ont été appliquées pour résoudre plusieurs problèmes d'optimisation électromagnétiques, ainsi que la conception optimale d'un système de traction ferroviaire de la Société Alstom
4

Baudoui, Vincent. "Optimisation robuste multiobjectifs par modèles de substitution." Phd thesis, Toulouse, ISAE, 2012. http://tel.archives-ouvertes.fr/tel-00742023.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse traite de l'optimisation sous incertitude de fonctions coûteuses dans le cadre de la conception de systèmes aéronautiques. Nous développons dans un premier temps une stratégie d'optimisation robuste multiobjectifs par modèles de substitution. Au delà de fournir une représentation plus rapide des fonctions initiales, ces modèles facilitent le calcul de la robustesse des solutions par rapport aux incertitudes du problème. L'erreur de modélisation est maîtrisée grâce à une approche originale d'enrichissement de plan d'expériences qui permet d'améliorer conjointement plusieurs modèles au niveau des régions de l'espace possiblement optimales. Elle est appliquée à la minimisation des émissions polluantes d'une chambre de combustion de turbomachine dont les injecteurs peuvent s'obstruer de façon imprévisible. Nous présentons ensuite une méthode heuristique dédiée à l'optimisation robuste multidisciplinaire. Elle repose sur une gestion locale de la robustesse au sein des disciplines exposées à des paramètres incertains, afin d'éviter la mise en place d'une propagation d'incertitudes complète à travers le système. Un critère d'applicabilité est proposé pour vérifier a posteriori le bien-fondé de cette approche à partir de données récoltées lors de l'optimisation. La méthode est mise en oeuvre sur un cas de conception avion où la surface de l'empennage vertical n'est pas connue avec précision.
5

Saves, Paul. "High dimensional multidisciplinary design optimization for eco-design aircraft." Electronic Thesis or Diss., Toulouse, ISAE, 2024. http://www.theses.fr/2024ESAE0002.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
De nos jours, un intérêt significatif et croissant pour améliorer les processus de conception de véhicules s'observe dans le domaine de l'optimisation multidisciplinaire grâce au développement de nouveaux outils et de nouvelles techniques. Concrètement, en conception aérostructure, les variables aérodynamiques et structurelles s'influencent mutuellement et ont un effet conjoint sur des quantités d'intérêt telles que le poids ou la consommation de carburant. L'optimisation multidisciplinaire se présente alors comme un outil puissant pouvant effectuer des compromis interdisciplinaires.Dans le cadre de la conception aéronautique, le processus multidisciplinaire implique généralement des variables de conception mixtes, continues et catégorielles. Par exemple, la taille des pièces structurelles d'un avion peut être décrite à l'aide de variables continues, le nombre de panneaux est associé à un entier et la liste des sections transverses ou le choix des matériaux correspondent à des choix catégoriels. L'objectif de cette thèse est de proposer une approche efficace pour optimiser un modèle multidisciplinaire boîte noire lorsque le problème d'optimisation est contraint et implique un grand nombre de variables de conception mixtes (typiquement 100 variables). L'approche d'optimisation bayésienne utilisée consiste en un enrichissement séquentiel adaptatif d'un métamodèle pour approcher l'optimum de la fonction objectif tout en respectant les contraintes.Les modèles de substitution par processus gaussiens sont parmi les plus utilisés dans les problèmes d'ingénierie pour remplacer des modèles haute fidélité coûteux en temps de calcul. L'optimisation globale efficace est une méthode heuristique d'optimisation bayésienne conçue pour la résolution globale de problèmes d'optimisation coûteux à évaluer permettant d'obtenir des résultats de bonne qualité rapidement. Cependant, comme toute autre méthode d'optimisation globale, elle souffre du fléau de la dimension, ce qui signifie que ses performances sont satisfaisantes pour les problèmes de faible dimension, mais se détériorent rapidement à mesure que la dimension de l'espace de recherche augmente. Ceci est d'autant plus vrai que les problèmes de conception de systèmes complexes intègrent à la fois des variables continues et catégorielles, augmentant encore la taille de l'espace de recherche. Dans cette thèse, nous proposons des méthodes pour réduire de manière significative le nombre de variables de conception comme, par exemple, des techniques d'apprentissage actif telles que la régression par moindres carrés partiels. Ainsi, ce travail adapte l'optimisation bayésienne aux variables discrètes et à la grande dimension pour réduire le nombre d'évaluations lors de l'optimisation de concepts d'avions innovants moins polluants comme la configuration hybride électrique "DRAGON"
Nowadays, there has been significant and growing interest in improving the efficiency of vehicle design processes through the development of tools and techniques in the field of multidisciplinary design optimization (MDO). In fact, when optimizing both the aerodynamics and structures, one needs to consider the effect of the aerodynamic shape variables and structural sizing variables on the weight which also affects the fuel consumption. MDO arises as a powerful tool that can perform this trade-off automatically. The objective of the Ph. D project is to propose an efficient approach for solving an aero-structural wing optimization process at the conceptual design level. The latter is formulated as a constrained optimization problem that involves a large number of design variables (typically 700 variables). The targeted optimization approach is based on a sequential enrichment (typically efficient global optimization (EGO)), using an adaptive surrogate model. Kriging surrogate models are one of the most widely used in engineering problems to substitute time-consuming high fidelity models. EGO is a heuristic method, designed for the solution of global optimization problems that has performed well in terms of quality of the solution computed. However, like any other method for global optimization, EGO suffers from the curse of dimensionality, meaning that its performance is satisfactory on lower dimensional problems, but deteriorates as the dimensionality of the optimization search space increases. For realistic aircraft wing design problems, the typical size of the design variables exceeds 700 and, thus, trying to solve directly the problems using EGO is ruled out. In practical test cases, high dimensional MDO problems may possess a lower intrinsic dimensionality, which can be exploited for optimization. In this context, a feature mapping can then be used to map the original high dimensional design variable onto a sufficiently small design space. Most of the existing approaches in the literature use random linear mapping to reduce the dimension, sometimes active learning is used to build this linear embedding. Generalizations to non-linear subspaces are also proposed using the so-called variational autoencoder. For instance, a composition of Gaussian processes (GP), referred as deep GP, can be very useful. In this PhD thesis, we will investigate efficient parameterization tools to significantly reduce the number of design variables by using active learning technics. An extension of the method could be also proposed to handle mixed continuous and categorical inputs using some previous works on low dimensional problems. Practical implementations within the OpenMDAO framework (an open source MDO framework developed by NASA) are expected
6

Liu, Zhen. "Modèles d'exécutions parallèles sur des systèmes multiprocesseurs : analyse et optimisation." Paris 11, 1989. http://www.theses.fr/1989PA112011.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse est consacrée aux problèmes de la modélisation, de l'analyse, et de l'optimisation des performances soulevés par des systèmes multiprocesseurs exécutants des programmes parallèles. Dans nos modèles, les systèmes multiprocesseurs sont considérés comme un ensemble de processeurs connectés par un réseau d'interconnexion, les programmes parallèles sont représentés par des graphes orientés acycliques. Des méthodes d'analyse exactes et approchées sont élaborées pour divers modèles d'exécutions parallèles. Des mesures de performances telles que les temps de réponse des programmes parallèles, le débit et la condition de stabilité du système, etc. . . , sont étudiées. Des techniques d'ordonnancement de processus sont également proposées avec pour objectif l'optimisation du temps total d'achèvement des processus. En complément des études théoriques, le logiciel d'analyse de performances SPEC (Système d'évaluation de Performances d'Exécutions Concurrentes), conçu et réalisé par l'auteur, est décrit de manière succincte. Ce logiciel contient des outils d'analyse et de simulation
The main concerns of this thesis are the modeling, analysis and optimization problems arising in multiprocessor systems with concurrent tasks. Multiprocessor systems are modeled by a set of processors connected by an interconnection network, parallel programs by directed acyclic graphs. Both exact and approximate methods are proposed for various parallel processing models. The performance measures such as program response time, system throughput, and stability condition, etc. . . , are analyzed. Scheduling algorithm that minimize makespan are also considered. New heuristics are provided together with simple illustrative examples. Besides theoretical studies, the performance evaluation software package SPEC (Software package for Performances Evaluation of Concurrent systems), designed and implemented by the author, is described concisely. This software package contains analytical and simulation tools
7

Bompard, Manuel. "MODÈLES DE SUBSTITUTION POUR L'OPTIMISATION GLOBALE DE FORME EN AÉRODYNAMIQUE ET MÉTHODE LOCALE SANS PARAMÉTRISATION." Phd thesis, Université Nice Sophia Antipolis, 2011. http://tel.archives-ouvertes.fr/tel-00771799.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'optimisation aérodynamique de forme est un domaine de recherche très actif ces dernières années, en raison notamment de l'importance de ses applications industrielles. Avec le développement de la méthode adjointe, il est aujourd'hui possible de calculer rapidement, et indépendamment du nombre de paramètres de forme, le gradient des fonctions d'intérêt par rapport à ces paramètres. Cette étude concerne l'utilisation des dérivées ainsi obtenues pour perfectionner les algorithmes d'optimisation locale et globale. Dans une première partie, il s'agit d'utiliser ces gradients pour la construction de modèles de substitution, et de profiter de ces modèles pour réduire le coût des méthodes d'optimisation globale. Plusieurs types de modèles sont présentés et combinés à un algorithme de type " évolution différentielle " en utilisant la méthode EGO (Efficient Global Optimization). Cette procédure est appliquée à l'optimisation de fonctions mathématiques, puis à des cas test d'optimisation aérodynamique autour de profils d'aile. Les résultats sont concluants : l'utilisation d'un modèle de substitution permet de réduire sensiblement le nombre d'évaluations nécessaire du modèle physique, et la prise en compte des gradients accentue ce résultat. Dans la seconde partie de ce travail, la méthode adjointe est utilisée pour calculer le gradient des fonctions d'intérêt par rapport aux coordonnées des noeuds de la surface du profil. Un algorithme d'optimisation locale est alors appliqué en utilisant ces points comme paramètres de l'optimisation et le champ de gradient lissé comme direction de descente. Si l'étude est encore à approfondir, les résultats sont encourageants.
8

Jung, Matthieu. "Evolution du VIH : méthodes, modèles et algorithmes." Thesis, Montpellier 2, 2012. http://www.theses.fr/2012MON20052/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La donnée de séquences nucléotidiques permet d'inférer des arbres phylogénétiques, ou phylogénies, qui décrivent leur lien de parenté au cours de l'évolution. Associer à ces séquences leur date de prélèvement ou leur pays de collecte, permet d'inférer la localisation temporelle ou spatiale de leurs ancêtres communs. Ces données et procédures sont très utilisées pour les séquences de virus et, notamment, celles du virus de l'immunodéficience humaine (VIH), afin d'en retracer l'histoire épidémique à la surface du globe et au cours du temps. L'utilisation de séquences échantillonnées à des moments différents (ou hétérochrones) sert aussi à estimer leur taux de substitution, qui caractérise la vitesse à laquelle elles évoluent.Les méthodes les plus couramment utilisées pour ces différentes tâches sont précises, mais lourdes en temps de calcul car basées sur des modèles complexes, et ne peuvent traiter que quelques centaines de séquences. Devant le nombre croissant de séquences disponibles dans les bases de données, souvent plusieurs milliers pour une étude donnée, le développement de méthodes rapides et efficaces devient indispensable. Nous présentons une méthode de distances, Ultrametric Least Squares, basée sur le principe des moindres carrés, souvent utilisé en phylogénie, qui permet d'estimer le taux de substitution d'un ensemble de séquences hétérochrones, dont on déduit ensuite facilement les dates des spéciations ancestrales. Nous montrons que le critère à optimiser est parabolique par morceaux et proposons un algorithme efficace pour trouver l'optimum global.L'utilisation de séquences échantillonnées en des lieux différents permet aussi de retracer les chaînes de transmission d'une épidémie. Dans ce cadre, nous utilisons la totalité des séquences disponibles (~3 500) du sous-type C du VIH-1 (VIH de type 1), responsable de près de 50% des infections mondiales au VIH-1, pour estimer ses principaux flux migratoires à l'échelle mondiale, ainsi que son origine géographique. Des outils novateurs, basés sur le principe de parcimonie combiné avec différents critères statistiques, sont utilisés afin de synthétiser et interpréter l'information contenue dans une grande phylogénie représentant l'ensemble des séquences étudiées. Enfin, l'origine géographique et temporelle de ce variant (VIH-1 C) au Sénégal est précisément explorée lors d'une seconde étude, portant notamment sur les hommes ayant des rapports sexuels avec des hommes
Nucleotide sequences data enable the inference of phylogenetic trees, or phylogenies, describing their evolutionary re-lationships during evolution. Combining these sequences with their sampling date or country of origin, allows inferring the temporal or spatial localization of their common ancestors. These data and methods are widely used with viral sequences, and particularly with human immunodeficiency virus (HIV), to trace the viral epidemic history over time and throughout the globe. Using sequences sampled at different points in time (or heterochronous) is also a mean to estimate their substitution rate, which characterizes the speed of evolution. The most commonly used methods to achieve these tasks are accurate, but are computationally heavy since they are based on complex models, and can only handle few hundreds of sequences. With an increasing number of sequences avail-able in the databases, often several thousand for a given study, the development of fast and accurate methods becomes essential. Here, we present a new distance-based method, named Ultrametric Least Squares, which is based on the princi-ple of least squares (very popular in phylogenetics) to estimate the substitution rate of a set of heterochronous sequences and the dates of their most recent common ancestors. We demonstrate that the criterion to be optimized is piecewise parabolic, and provide an efficient algorithm to find the global minimum.Using sequences sampled at different locations also helps to trace transmission chains of an epidemic. In this respect, we used all available sequences (~3,500) of HIV-1 subtype C, responsible for nearly 50% of global HIV-1 infections, to estimate its major migratory flows on a worldwide scale and its geographic origin. Innovative tools, based on the principle of parsimony, combined with several statistical criteria were used to synthesize and interpret information in a large phylogeny representing all the studied sequences. Finally, the temporal and geographical origins of the HIV-1 subtype C in Senegal were further explored and more specifically for men who have sex with men
9

Glitia, Calin. "Optimisation des applications de traitement systématique intensives sur Systems-on-Chip." Electronic Thesis or Diss., Lille 1, 2009. http://www.theses.fr/2009LIL10070.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les applications de traitement intensif de signal apparaissent dans de nombreux domaines d'applications tels que multimédia ou systèmes de détection. Ces applications gèrent les structures de données multidimensionnelles (principalement des tableaux) pour traiter les différentes dimensions des données (espace, temps, fréquence). Un langage de spécification permettant l'utilisation directe de ces différentes dimensions avec un haut niveau d'abstraction est une des clés de la manipulation de la complexité de ces applications et permet de bénéficier de leur parallélisme potentiel. Le langage de spécification Array-OL est conçu pour faire exactement cela. Dans cette thèse, nous introduisons une extension d'Array-OL pour exprimer des dépendances cycliques par des dépendances interrépétitions uniformes. Nous montrons que ce langage de spécification est capable d'exprimer les principaux motifs de calcul du domaine de traitement de signal intensif. Nous discutons aussi de la modélisation répétitive des applications parallèles, des architectures répétitives et les placements uniformes des premières sur les secondes, en utilisant les concepts Array-OL intégrés dans le profil UML MARTE (Modeling and Analysis of Real-time and Embedded systems). Des transformations de haut niveau data-parallèles sont disponibles pour adapter l'application à l'exécution, ce qui permet de choisir la granularité des flots et une simple expression du placement en étiquetant chaque répétition par son mode d'exécution: data parallèle ou séquentiel. L'ensemble des transformations a été revu, étendu et implémenté dans le cadre de l'environnement de comodélisation pour les systèmes embarqués, Gaspard2. Avec l'introduction des dépendances uniformes, notre intérêt s'est tourné aussi sur l'interaction entre ces dépendances et les transformations de haut niveau. C'est essentiel, afin de permettre l'utilisation des outils de refactoring sur les modèles avec dépendances uniformes. En utilisant les outils de refactoring de haut niveau, des stratégies et des heuristiques peuvent être conçues pour aider à l'exploration de l'espace de conception. Nous proposons une stratégie qui permet de trouver de bons compromis entre l'usage de stockage et de ressources de calcul, et dans l'exploitation de parallélisme (à la fois de tâches et de données), stratégie illustrée sur une application industrielle radar
Intensive signal processing applications appear in many application domains such as video processing or detection systems. These applications handle multidimensional data structures (mainly arrays) to deal with the various dimensions of the data (space, time, frequency). A specification language allowing the direct manipulation of these different dimensions with a high level of abstraction is a key to handling the complexity of these applications and to benefit from their massive potential parallelism. The Array-OL specification language is designed to do just that. In this thesis, we introduce an extension of Array-OL to express cycle dependences by the way of uniform inter-repetition dependences. We show that this specification language is able to express the main patterns of computation of the intensive signal processing domain. We discuss also the repetitive modeling of parallel applications, repetitive architectures and uniform mappings of the former to the latter, using the Array-OL concepts integrated into the Modeling and Analysis of Real-time and Embedded systems (MARTE) UML profile. High-level data-parallel transformations are available to adapt the application to the execution, allowing to choose the granularity of the flows and a simple expression of the mapping by tagging each repetition by its execution mode: data-parallel or sequential. The whole set of transformations was reviewed, extended and implemented as a part of the Gaspard2 co-design environment for embedded systems. With the introduction of the uniform dependences into the specification, our interest turns also on the interaction between these dependences and the high-level transformations. This is essential in order to enable the usage of the refactoring tools on the models with uniform dependences. Based on the high-level refactoring tools, strategies and heuristics can be designed to help explore the design space. We propose a strategy that allows to find good trade-offs in the usage of storage and computation resources, and in the parallelism (both task and data parallelism) exploitation, strategy illustrated on an industrial radar application
10

Sbeity, Hoda. "Optimisation sur un modèle de comportement pour la thérapie en oncologie." Versailles-St Quentin en Yvelines, 2013. http://www.theses.fr/2013VERS0038.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Chez les êtres humains, les tumeurs solides, sont causées par une séquence d'anomalies génétiques qui surviennent dans les cellules normales et précancéreuses. La compréhension de ces séquences est importante pour améliorer les traitements du cancer, qui peuvent être par chimiothérapie, radiothérapie ou par chirurgie. Au cours des 15 dernières années, les biologistes et les généticiens moléculaires ont découvert certains des mécanismes les plus fondamentaux par lesquels les cellules souches normales dans certains tissus se transforment en tumeurs cancéreuses. Cette connaissance biologique sert de base pour différents modèles cancérogenèses. Ces théories biologiques peuvent ensuite être transformées en modèles mathématiques, soutenues par des méthodes d'analyse des données statistiques. Les modèles mathématiques permettent de tester quantitativement les nouvelles découvertes biologiques par rapport aux données humaines, en aidant les chercheurs à développer des stratégies efficaces de diagnostic, de contrôle, curatifs et préventifs contre le cancer. Ces modèles appartiennent à des catégories différentes, y compris les modèles déterministe, spatiaux-temporelles, compartimentaux et stochastiques. Dans cette thèse, on a résumé les modèles mathématiques utilisés i) dans les modèles déterministes, pour décrire l'évolution des cellules cancéreuses, et ii) pour l'administration de médicaments en chimiothérapie. Toutefois, la chimiothérapie est un mode de traitement complexe qui nécessite un équilibre entre l'efficacité et les effets secondaires toxiques indésirables causés par les médicaments anticancéreux. En réalité, les observations biologiques changent aléatoirement sous l'influence de plusieurs facteurs. Pour cette raison, on a essayé d'introduire des probabilités, qui sont utilisés dans les modèles stochastiques. Parmi les différents modèles stochastiques qui décrivent les processus biologiques, tels que le cancer, on a: le modèle de Moran, le modèle de Wright-Fisher (WF), le modèle de Galton-Watson (GW), le processus de la chaîne de Markov, et le modèle de Moolgavkar, Venzon et Knudson (MVK). L'un des objectifs de cette thèse est de développer ces modèles stochastiques pour suivre l'évolution du cancer et pour simuler le traitement chimiothérapeutique approprié qui cause la disparition des cellules cancéreuses. Il existe plusieurs méthodes d'optimisations, dans cette thèse l'algorithme génétique (AG) est adopté, pour trouver le juste équilibre entre le nombre minimum de cellules cancéreuses et le dosage minimal. Donc, un autre objectif de cette thèse est d'étudier comment la méthode d'optimisation AG peut être utilisée pour suivre l'évolution du cancer avec des traitements chimiothérapeutiques optimales qui provoquent la mort des cellules cancéreuses avec moins d'effets secondaires. On a résumé toutes ces idées en proposant une nouvelle stratégie pour optimiser le traitement de la chimiothérapie en se basant sur des protocoles réels et bien vérifiés. La stratégie de travail est définie comme suit, i) La première étape est de définir le cancer à traiter avec ces paramètres, ii) La deuxième étape est de choisir un protocole du traitement définit par le cancérologue, iii) La troisième étape est de choisir un modèle déterministe/stochastique qui peut décrire la trajectoire des cellules cancéreuses avec/sans traitement, et iv) La dernière étape est l'application de la méthode d'optimisation sur le modèle du cancer
Solid tumors in humans are believed to be caused by a sequence of genetic abnormalities that arise in both normal and premalignant cells. Understanding these sequences is important for improving cancer treatments, which can differ from chemotherapy to radiotherapy and surgery. In the past 15 years, molecular biologists and geneticists have uncovered some of the most basic mechanisms by which normal stem cells in certain tissues develop into cancerous tumors. This biological knowledge serves as a basis for various models of carcinogenesis. These biological theories can then be transformed into mathematical models, supported by relevant methods of statistical data analysis. Mathematical models will allow the novel biological findings to be quantitatively tested against human data, helping researchers develop efficient diagnostic, controlling, curative and preventive strategies for cancer. These models belong to different categories, including deterministic, state space, compartment and stochastic models. In this thesis, for the deterministic models, we summarize the mathematical models used to describe the evolution of cancer cells, as well as those used for drug delivery in chemotherapy. However, chemotherapy is a complex treatment mode that requires balancing the benefits of treating tumors with the adverse toxic side effects caused by the anti-cancer drugs. In reality, observations in biological cases are often presented in a fuzzy way. For this reason, we attempt to introduce probabilities, which are used in stochastic models. Among the various stochastic models that are able to describe biological processes, such as cancer, we have the following: the Moran Model, Wright-Fisher (WF) Model, Galton–Watson branching process (GWBP), Markov chain Processes, and Model of Moolgavkar, Venzon, and Knudson (MVK). With these models in mind, one of the goals of this thesis is to develop models to follow the evolution of this disease and simulate suitable chemotherapy treatments that cause the death of cancer. Some methods of computational optimization, genetic algorithms (GA) in particular, have proven useful in helping to strike the right balance. Another purpose of this thesis is to study how the GA optimization method can be used to follow the evolution of cancer and facilitate finding optimal chemotherapeutic treatments that cause the death of cancer cells with fewer side effects. All these ideas are summarize by generated our own strategy to optimize the treatment of chemotherapy using real protocols. Our strategy is defined as follows, i) The first step is to define the genre of cancer treated with his parameters, ii) The second step is to choose a real treatment protocol defined by the cancerologist, iii) The third step is to choose a deterministic / stochastic model that can describe the trajectory of cancer cells with / without treatment and iv) The last step is the application of the optimization method
11

Glitia, Calin. "Optimisation des applications de traitement systématique intensives sur Systems-on-Chip." Thesis, Lille 1, 2009. http://www.theses.fr/2009LIL10070/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les applications de traitement intensif de signal apparaissent dans de nombreux domaines d'applications tels que multimédia ou systèmes de détection. Ces applications gèrent les structures de données multidimensionnelles (principalement des tableaux) pour traiter les différentes dimensions des données (espace, temps, fréquence). Un langage de spécification permettant l'utilisation directe de ces différentes dimensions avec un haut niveau d'abstraction est une des clés de la manipulation de la complexité de ces applications et permet de bénéficier de leur parallélisme potentiel. Le langage de spécification Array-OL est conçu pour faire exactement cela. Dans cette thèse, nous introduisons une extension d'Array-OL pour exprimer des dépendances cycliques par des dépendances interrépétitions uniformes. Nous montrons que ce langage de spécification est capable d'exprimer les principaux motifs de calcul du domaine de traitement de signal intensif. Nous discutons aussi de la modélisation répétitive des applications parallèles, des architectures répétitives et les placements uniformes des premières sur les secondes, en utilisant les concepts Array-OL intégrés dans le profil UML MARTE (Modeling and Analysis of Real-time and Embedded systems). Des transformations de haut niveau data-parallèles sont disponibles pour adapter l'application à l'exécution, ce qui permet de choisir la granularité des flots et une simple expression du placement en étiquetant chaque répétition par son mode d'exécution: data parallèle ou séquentiel. L'ensemble des transformations a été revu, étendu et implémenté dans le cadre de l'environnement de comodélisation pour les systèmes embarqués, Gaspard2. Avec l'introduction des dépendances uniformes, notre intérêt s'est tourné aussi sur l'interaction entre ces dépendances et les transformations de haut niveau. C'est essentiel, afin de permettre l'utilisation des outils de refactoring sur les modèles avec dépendances uniformes. En utilisant les outils de refactoring de haut niveau, des stratégies et des heuristiques peuvent être conçues pour aider à l'exploration de l'espace de conception. Nous proposons une stratégie qui permet de trouver de bons compromis entre l'usage de stockage et de ressources de calcul, et dans l'exploitation de parallélisme (à la fois de tâches et de données), stratégie illustrée sur une application industrielle radar
Intensive signal processing applications appear in many application domains such as video processing or detection systems. These applications handle multidimensional data structures (mainly arrays) to deal with the various dimensions of the data (space, time, frequency). A specification language allowing the direct manipulation of these different dimensions with a high level of abstraction is a key to handling the complexity of these applications and to benefit from their massive potential parallelism. The Array-OL specification language is designed to do just that. In this thesis, we introduce an extension of Array-OL to express cycle dependences by the way of uniform inter-repetition dependences. We show that this specification language is able to express the main patterns of computation of the intensive signal processing domain. We discuss also the repetitive modeling of parallel applications, repetitive architectures and uniform mappings of the former to the latter, using the Array-OL concepts integrated into the Modeling and Analysis of Real-time and Embedded systems (MARTE) UML profile. High-level data-parallel transformations are available to adapt the application to the execution, allowing to choose the granularity of the flows and a simple expression of the mapping by tagging each repetition by its execution mode: data-parallel or sequential. The whole set of transformations was reviewed, extended and implemented as a part of the Gaspard2 co-design environment for embedded systems. With the introduction of the uniform dependences into the specification, our interest turns also on the interaction between these dependences and the high-level transformations. This is essential in order to enable the usage of the refactoring tools on the models with uniform dependences. Based on the high-level refactoring tools, strategies and heuristics can be designed to help explore the design space. We propose a strategy that allows to find good trade-offs in the usage of storage and computation resources, and in the parallelism (both task and data parallelism) exploitation, strategy illustrated on an industrial radar application
12

Capelle, Thomas. "Recherche sur des méthodes d'optimisation pour la mise en place de modèles intégrés de transport et usage des sols." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM008/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les modèles intégrés d'usage de sol et de transport (LUTI) visent à représenter les interactions complexes entre l'utilisation du sol et l'offre et la demande de transport sur le territoire. Ils sont principalement utilisés pour évaluer différents scénarios de planification, par la simulation de leurs effets tendanciels sur les modes d'utilisation des sols et les comportements de déplacement. La mise en place d'un modèle LUTI nécessite l'estimation de plusieurs types de paramètres pour reproduire le plus fidèlement possible les observations recueillies sur la zone étudiée (données socio-économiques, enquêtes de transport, etc.). La grande majorité des approches de calibration disponibles sont semi-automatiques et estiment un sous-ensemble de paramètres à la fois, sans estimation globale intégrée.Dans ce travail, nous améliorons la procédure de calibration de Tranus, l'un des modèles LUTI les plus utilisés, en développant des outils pour l'estimation automatique et simultanée des paramètres. Parmi les améliorations proposées, nous remplaçons l'estimation de la boucle interne des paramètres endogènes (connus sous le nom de ``shadow prices'') par une procédure d'optimisation appropriée. Pour faire ça, nous examinons attentivement les mathématiques et les théories micro-économiques impliqués dans le calcul des différentes équations du modèle. Pour proposer une solution d'optimisation efficace, nous dissocions l'ensemble du problème d'optimisation en problèmes équivalents plus petits. La validation de notre algorithme d'optimisation est alors réalisée dans des modèles synthétiques où l'ensemble optimal de paramètres est connu.Deuxièmement, dans notre objectif de développer une calibration automatique entièrement intégré, nous avons développé un schéma d'estimation intégré pour les ``shadow prices'' et un sous-ensemble de paramètres difficiles à calibrer. Le système se révèle être supérieur à la qualité de calibration obtenue par l'approche classique, même lorsqu'elle est effectuée par des experts. Nous proposons également une analyse de sensibilité pour identifier les paramètres influents, puis couplés à un algorithme d'optimisation pour améliorer l'étalonnage sur les paramètres sélectionnés.Troisièmement, nous contestons le point de vue classique adopté par Tranus et divers modèles LUTI, que la calibration devrait conduire à des paramètres du modèle pour lesquels la sortie du modèle correspond parfaitement aux données observées. Cela peut en effet entraîner le risque de surparametrisation(pour Tranus, en utilisant trop de paramètres des ``shadow prices''), ce qui, à son tour, minera les capacités prédictives du modèle. Nous proposons donc un modèle de schéma de sélection des paramètres pour atteindre un bon compromis entre la complexité du modèle (dans notre cas, la nombre de ``shadow prices'') et la qualité de l'ajustement des sorties du modèle aux observations.Nos expériences montrent qu'au moins les deux tiers des ``shadow prices'' peuvent être supprimes du modèle tout en donnant un ajustement presque parfait aux observations.La contribution décrite ci-dessus est démontrée sur des modèles Tranus et les données de deux régions métropolitaines, aux États-Unis et en Europe
Land use and transportation integrated (LUTI) models aim at representing the complex interactions between land use and transportation offer and demand within a territory. They are principally used to assess different alternative planning scenarios, via the simulation of their tendentious impacts on patterns of land use and travel behaviour. Setting up a LUTI model requires the estimation of several types of parameters to reproduce as closely as possible, observations gathered on the studied area (socio-economic data, transport surveys, etc.). The vast majority of available calibration approaches are semi-automatic and estimate one subset of parameters at a time, without a global integrated estimation.In this work, we improve the calibration procedure of Tranus, one of the most widely used LUTI models, by developing tools for the automatic and simultaneous estimation of parameters. Among the improvements proposed we replace the inner loop estimation of endogenous parameters (know as shadow prices) by a proper optimisation procedure. To do so, we carefully inspect the mathematics and micro-economic theories involved in the computation of the various model equations. To propose an efficient optimisation solution, we decouple the entire optimisation problem into equivalent smaller problems. The validation of our optimisation algorithm is then performed in synthetic models were the optimal set of parameters is known.Second, in our goal to develop a fully integrated automatic calibration, we developed an integrated estimation scheme for the shadow prices and a subset of hard to calibrate parameters. The scheme is shown to outperform calibration quality achieved by the classical approach, even when carried out by experts. We also propose a sensitivity analysis to identify influent parameters, this is then coupled with an optimisation algorithm to improve the calibration on the selected parameters.Third, we challenge the classical viewpoint adopted by Tranus and various other LUTI models, that calibration should lead to model parameters for which the model output perfectly fits observed data. This may indeed cause the risk of producing overfitting (as for Tranus, by using too many shadow price parameters), which will in turn undermine the models’ predictive capabilities. We thus propose a model selection scheme that aims at achieving a good compromise between the complexity of the model (in our case, the number of shadow prices) and the goodness of fit of model outputs to observations.Our experiments show that at least two thirds of shadow prices may be dropped from the model while still giving a near perfect fit to observations.The contribution outlined above are demonstrated on Tranus models and data from two metropolitan areas, in the USA and Europe
13

Loger, Benoit. "Modèles d’optimisation basés sur les données pour la planification des opérations dans les Supply Chain industrielles." Electronic Thesis or Diss., Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2023. http://www.theses.fr/2023IMTA0389.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Face à la complexité croissante des chaînes logistiques, l’utilisation d’outils d’aide à la décision automatisés devient nécessaire pour appréhender les multiples sources d’incertitude susceptibles de les impacter tout en garantissant un niveau de performance élevé. Pour répondre à ces objectif, les managers ont de plus en plus recours à des approches capables d’améliorer la résilience des chaînes logistiques en proposant des solutions robustes face aux aléas, pour garantir à la fois la qualité de service et la maîtrise des coûts liés à la production, au stockage et au transport de biens. Alors que la collecte et l’analyse des données occupe une place croissante dans la stratégie des entreprises, la bonne exploitation de ces informations afin de caractériser plus précisément ces incertitudes et leur impact sur les opérations devient un enjeu majeur pour optimiser les systèmes de production et de distribution modernes. Cette thèse se positionne au cœur de ces nouveaux défis en développant différentes méthodes d’optimisation mathématiques reposant sur l’utilisation de données historiques, dans le but de proposer des solutions robustes à plusieurs problèmes d’approvisionnement et de planification de production. Des expérimentations numériques sur des applications de natures diverses permettent de comparer ces nouvelles techniques à plusieurs autres approches classiques de la littérature pour valider leur pertinence en pratique. Les résultats obtenus démontrent l’intérêt de ces contributions, qui offrent des performances moyennes comparables tout en réduisant leur variabilité en contexte incertain. En particulier, les solutions restent satisfaisantes lorsqu’elles sont confrontées à des scenarios extrêmes, dont la probabilité d’apparition est faible. Enfin, les temps de résolution des procédures développées restent compétitifs et laissent envisager la possibilité d’une mise en œuvre sur des cas d’application à l’échelle industrielle
With the increasing complexity of supply chains, automated decision-support tools become necessary in order to apprehend the multiple sources of uncertainty that may impact them, while maintaining a high level of performance. To meet these objectives, managers rely more and more on approaches capable of improving the resilience of supply chains by proposing robust solutions that remain valid despite uncertainty, to guarantee both a quality of service and a control of the costs induced by the production, storage and transportation of goods. As data collection and analysis become central to define the strategy of companies, a proper usage of this information to characterize more precisely these uncertainties and their impact on operations is becoming a major challenge for optimizing modern production and distribution systems. This thesis addresses these new challenges by developing different mathematical optimization methods based on historical data, with the aim of proposing robust solutions to several supply and production planning problems. To validate the practical relevance of these new techniques, numerical experiments on various applications compare them with several other classical approachesfrom the literature. The results obtained demonstrate the value of these contributions, which offer comparable average performance while reducing their variability in an uncertain context. In particular, the solutions remain satisfactory when confronted with extreme scenarios, whose probability of occurrence is low. Finally, the computational time of the procedures developed remain competitive, making them suitable for industrial-scale applications
14

Aupetit, Sébastien. "Contributions aux Modèles de Markov Cachés : métaheuristiques d'apprentissage, nouveaux modèles et visualisation de dissimilarité." Phd thesis, Université François Rabelais - Tours, 2005. http://tel.archives-ouvertes.fr/tel-00168392.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans ce travail de thèse, nous présentons plusieurs contributions visant à améliorer l'utilisation des modèles de Markov cachés (MMC) dans les systèmes d'intelligence artificielle. Nous nous sommes concentrés sur trois objectifs : l'amélioration de l'apprentissage de MMC, l'expérimentation d'un nouveau type de MMC et la visualisation de dissimilarité pour mieux comprendre les interactions entre MMC. Dans la première partie, nous proposons, évaluons et comparons plusieurs nouvelles applications
de métaheuristiques biomimétiques classiques (les algorithmes génétiques, l'algorithme de fourmis artificielles API et l'optimisation par essaim particulaire) au problème de l'apprentissage de MMC. Dans la
deuxième partie, nous proposons un nouveau type de modèle de Markov caché, appelé modèle Markov caché à substitutions de symboles (MMCSS). Un MMCSS permet d'incorporer des connaissances a priori dans le processus d'apprentissage et de reconnaissance. Les premières expérimentations de ces modèles sur des images démontrent leur intérêt. Dans la troisième partie, nous proposons une nouvelle méthode de représentation de dissimilarité appelée matrice de scatterplots pseudo-euclidienne (MSPE), permettant de mieux comprendre les interactions entre des MMC. Cette MSPE est construite à partir
d'une technique que nous nommons analyse en composantes principales à noyau indéfini (ACPNI). Nous terminons par la présentation de la bibliothèque HMMTK, développée au cours de ce travail. Cette dernière intègre des mécanismes de parallélisation et les algorithmes développés au cours de la thèse.
15

Tinard, Violaine. "Modélisation et optimisation du casque de motocycliste sur critères biomécaniques : application au casque composite." Strasbourg, 2009. http://www.theses.fr/2009STRA6266.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
16

Albarello, Nicolas. "Etudes comparatives basées sur les modèles en phase de conception d'architectures de systèmes." Phd thesis, Ecole Centrale Paris, 2012. http://tel.archives-ouvertes.fr/tel-00879858.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La conception d'architectures de systèmes est une tâche complexe qui implique des enjeux majeurs. Au cours de cette activité, les concepteurs du système doivent créer des alternatives de conception et doivent les comparer entre elles afin de sélectionner l'architecture la plus appropriée suivant un ensemble de critères. Dans le but d'étudier différentes alternatives, les concepteurs doivent généralement limiter leur étude comparative à une petite partie de l'espace de conception qui peut être composé d'un nombre immense de solutions. Traditionnellement, le processus de conception d'architecture est principalement dirigé par le jugement et l'expérience des concepteurs, et les alternatives sélectionnées sont des versions adaptées de solutions connues. Le risque est donc de sélectionner une solution pertinente mais sous-optimale. Pour gagner en confiance sur l'optimalité de la solution retenue, la couverture de l'espace de conception doit être augmentée. L'utilisation de méthodes de synthèse calculatoire d'architecture a prouvé qu'elle était un moyen efficace pour supporter les concepteurs dans la conception d'artefacts d'ingénierie (structures, circuits électriques...). Pour assister les concepteurs de systèmes durant le processus de conception d'architecture, une méthode calculatoire pour les systèmes complexes est définie. Cette méthode emploie une approche évolutionnaire (algorithmes génétiques) pour guider le processus d'exploration de l'espace de conception vers les zones optimales. La population initiale de l'algorithme génétique est créée grâce à une technique de synthèse calculatoire d'architecture qui permet de créer différentes architectures physiques et tables d'allocations pour une architecture fonctionnelle donnée. La méthode permet d'obtenir les solutions optimales du problème de conception posé. Ces solutions peuvent être ensuite utilisées par les concepteurs pour des études comparatives plus détaillées ou pour des négociations avec les fournisseurs de systèmes.
17

Papastratos, Stylianos. "Modélisation, simulation dynamique et optimisation d'un procédé de fermentation éthanolique basé sur un bioréacteur à membrane : Saccharomyces cerevisiae." Châtenay-Malabry, Ecole centrale de Paris, 1996. http://www.theses.fr/1996ECAP0539.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objectif de cette thèse est de démontrer aux biologistes que la simulation des procédés peut être un moyen pour l'aide à la conception et à la conduite des procédés de fermentation. La thèse explique et montre les étapes nécessaires et la façon dont ces étapes doivent être implantées pour aboutir à des solutions réalistes concernant un procédé de fermentation éthanolique basé sur la levure saccharomyces Cerevisiae. La modélisation couplée à une validation expérimentale rigoureuse constitue l'étape fondamentale pour toute étude d'optimisation quantitative. Une bonne formulation mathématique couplée à une maitrise au niveau physique du problème et à l'utilisation de méthodes d'analyse numériques performantes disponibles sous une forme intelligente et conviviale peut donner des solutions à des problèmes réels industriels. Le domaine de validité de plusieurs modèles cinétiques a été examiné. Nous proposons un nouveau modèle cinétique basé sur le modèle de Sonnleitner qui inclut de nouvelles variables différentielles, pour tenir compte du passage progressif entre les différentes voies métaboliques. Une méthodologie concernant l'optimisation statique d'un procédé continu mono-étage et bi-étage avec recyclage de cellules a été élaborée. Nous proposons aussi un algorithme pour la réalisation d'une optimisation dynamique concernant une fermentation discontinue
18

Nguyen, Phi-Hung. "Impacts des modèles de pertes sur l’optimisation sur cycle d’un ensemble convertisseur – machine synchrone : applications aux véhicules hybrides." Thesis, Cachan, Ecole normale supérieure, 2011. http://www.theses.fr/2011DENS0049/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La quasi-totalité des études de machines synchrones à aimants permanents (MSAP) pour les applications aux véhicules hybrides concernent les performances uniquement sur quelques points particuliers d’un cycle de fonctionnement du véhicule (le point de base, le point à grande vitesse ou le point le plus sollicité). Cependant, ces machines électriques fonctionnent souvent à différents couples et à différentes vitesses. Cette thèse s’intéresse donc à l’étude des performances de MSAP sur l’ensemble d’un cycle de fonctionnement en vue de les optimiser sur cycle. Durant cette thèse, l’auteur a contribué à développer les modèles de couple, de défluxage, de pertes cuivre et de pertes magnétiques et les méthodes de calcul de ces pertes à vide et en charge pour les quatre MSAP dont trois machines à concentration de flux et une machine à aimants en surface du rotor et pour trois cycles de fonctionnement : NEDC, Artemis-Urbain et Artemis-Routier. Une validation expérimentale de ces modèles a été effectuée sur un banc d’essai moteur avec deux prototypes de MSAP. Ensuite, les MSAP ont été dimensionnées en vue d’une minimisation des pertes sur cycle et du courant efficace du point de base. Cette combinaison a pour but d’augmenter le rendement de la machine électrique et de minimiser la dimension de l’onduleur de tension associée. Ce problème d’optimisation multi-objectif a été réalisé en utilisant l'algorithme génétique, Non-Dominated Sorting Genetic Algorithm (NSGA-II). Ainsi, un Front de Pareto des solutions optimales peut être déduit. Les impacts des modèles de pertes (à vide et en charge) sur l’optimisation sur cycle des machines sont étudiés et l’intérêt de chaque modèle est présenté. Les modèles et méthodes de calcul proposés peuvent être appliqués à tous les cycles de fonctionnement, à différentes MSAP et à différentes applications
Almost all studies of permanent magnet synchronous machines (PMSM) for for hybrid vehicle applications relate to their performances on a specific point of a driving cycle of the vehicle (the base point, the point at high speed or the most used point). However, these machines often operate at different torques and at different speeds. This thesis studies therefore PMSM performances in order to optimize during an entire driving cycle. In this thesis, the author contributed to develop models of torque, field weakening, copper losses and iron losses and methods of calculating these losses at no-load and at load for four MSAP (three concentrated flux machine and a surface mounted PMSM) and for three driving cycles (New Eurepean Driving Cycle, Artemis-Urban and Artemis-Road). An experimental validation of these models was realized on a test bench with two prototypes of MSAP. Then, the MSAP were sized for a minimization of average power losses during the cycle and of the RMS current at the base point. This combination is designed to increase the efficiency of the electrical machine and minimize the size of the associated voltage inverter. This problem of multi-objective optimization was performed using the genetic algorithm, Non-Dominated Sorting Genetic Algorithm (NSGA-II). Thus, a Pareto front of optimal solutions can be derived. The impacts of loss models (at no-load and at load) on the PMSM optimization during the cycle are studied and the interest of each model is presented. Models and calculation methods proposed in this thesis can be applied to all cycles, at different MSAP and for other applications
19

Duchaine, Florent. "Optimisation de Forme Multi-Objectif sur Machines Parallèles avecMéta-Modèles et Coupleurs. Application aux Chambres de Combustion Aéronautiques." Phd thesis, Institut National Polytechnique de Toulouse - INPT, 2007. http://tel.archives-ouvertes.fr/tel-00362811.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les normes drastiques sur les émissions d'espèces polluantes et la volonté de réduire les délais de mise sur le marché incitent les motoristes à repenser les concepts de la nouvelle génération de chambres de combustion ainsi que leurs méthodes de conception. Les codes de simulation numérique des écoulements turbulents réactifs, basés sur une approche de moyenne de Reynolds (RANS), sont utilisés depuis quelques années par les ingénieurs dans les phases de conception des foyers aéronautiques. Leur emploi a permis de réduire les temps et les coûts de conception en diminuant notamment le nombre d'essais expérimentaux. La manière d'utiliser ces outils demeure un point clé pour élaborer des environnements performants d'aide à la décision.

Le but de ces travaux de thèse est de fournir une méthodologie basée sur des considérations issues de l'optimisation multi-objectif pour développer un outil de conception automatisé qui intègre des codes de simulation numérique pour évaluer les configurations. En premier lieu, les études concernent l'automatisation des procédures de simulation en insistant sur les aspects de génération automatique de maillage. Ensuite, le problème des temps de restitution liés à l'utilisation conjointe de techniques d'optimisation et de codes de calcul coûteux en ressources informatiques est adressé en proposant un algorithme basé sur des méta-modèles. L'outil final est construit à partir d'un coupleur de codes parallèles, lui conférant ainsi des caractéristiques intéressantes de performance et de flexibilité. Finalement, après divers tests de validation et d'évaluation, une application sur une chambre de combustion industrielle montre les capacités de la méthode à identifier des configurations prometteuses.
20

Bouhaddou, Imane. "Vers une optimisation de la chaine logistique : proposition de modèles conceptuels basés sur le PLM (Product Lifecycle Management)." Thesis, Le Havre, 2015. http://www.theses.fr/2015LEHA0026/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Consciente que l’unité de compétitivité n’est plus l’entreprise mais toute la chaîne logistique contribuant à la réalisation du produit, les efforts consentis par l’entreprise se matérialisent, d’une part, par la volonté de maîtriser au mieux les activités de conception des produits et d’autre part, par la construction de collaborations entre tous les acteurs de la chaîne logistique participant au cycle de vie du produit. Cela a conduit à l’émergence d’une gestion collaborative du cycle de vie du produit appelée communément PLM. L’objet de cette thèse consiste à définir une démarche méthodologique pour répondre à la problématique suivante : Comment le PLM pourra t-il participer à l’optimisation de la chaîne logistique ? Nous adoptons, dans cette thèse, une approche hybride combinant PLM et modèles mathématiques pour optimiser les décisions de conception simultanée du produit et de sa chaîne logistique. Nous proposons des modèles conceptuels pour résoudre de manière formelle le compromis entre PLM et modèles mathématiques pour une optimisation de la chaîne logistique. Contrairement aux approches classiques centralisées utilisées pour traiter le problème intégré de conception du produit et de sa chaîne logistique et qui engendrent des modèles mathématiques compliqués, nous adoptons une démarche couplant des décisions centralisées quand il s’agit d’intégrer les contraintes des différents maillons de la chaîne logistique et une approche décentralisée quand il s’agit d’optimiser localement chaque maillon de la chaîne. Le mode décentralisé réduit la complexité de résolution des modèles mathématiques et permet à la chaîne logistique de répondre rapidement à l’évolution des conditions locales de chaque maillon. Le PLM joue le rôle d’intégrateur. En effet, le regroupement centralisé des informations par le PLM permet de prendre en considération la dépendance entre les maillons améliorant ainsi les résultats obtenus par optimisation locale
AIt is recognized that competition is shifting from “firm versus firm” perspective to “supply chain versus supply chain” perspective. Therefore, the ability to optimize the supply chain is becoming the critical issue for companies to win the competitive advantage. Furthermore, all members of a given supply chain must work together to respond to the changes of market demand rapidly. In the actual context, enterprises not only must enhance their relationships with each others, but also need to integrate their business processes through product life cycle activities. This has led to the emergence of a collaborative product lifecycle management commonly known as PLM. The objective of this thesis is to define a methodological approach which answers to the following problematic: How can PLM contribute to supply chain optimization ? We adopt, in this thesis, a hybrid approach combining PLM and mathematical models to optimize decisions for simultaneous design of the product and its supply chain. We propose conceptual models to solve formally the compromise between PLM and mathematical models for supply chain optimization. Unlike traditional centralized approaches used to treat the problem of integrated design of the product and its supply chain which generate complex mathematical models, we adopt an approach combining centralized decisions while integrating the constraints of the different supply chain partners during the product design and decentralized decisions when it comes to locally optimize each supply chain partner. The decentralized approach reduces the complexity of solving mathematical models and allows the supply chain to respond quickly to the evolution of local conditions of each partner. PLM will assure the integration of the different supply chain partners. Indeed, the information centralization by the PLM enables to take into consideration the dependence between these partners, improving therefore local optimization results
21

Pétrault, Christine. "Optimisation du fonctionnement d'une régulation de climatisation sur véhicule ferroviaire - application aux remorques de T. G. V." Poitiers, 1998. http://www.theses.fr/1998POIT2253.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objet de ce travail porte sur l'optimisation du fonctionnement d'une regulation de climatisation sur vehicule ferroviaire. La mise en place d'une vitesse de ventilation variable a engendre des modifications du comportement du systeme. Afin de prendre en considerations toutes ces modifications et utiliser la vitesse de ventilation dans de nouvelles syntheses de commande, nous avons dans un premier temps modeliser et identifier le comportement du systeme. Un modele a temps continu a permis de definir des parametres pseudo physiques. La methode du modele, faisant appel a un algorithme de programmation non-lineaire (methode de marquardt), a ete utilisee pour determiner les parametres des modeles retenus. Deux principes de commande ont ete etudies et appliques sur les deux systemes thermiques. Le premier principe porte sur la commande par modele interne utilisant une boucle supplementaire permettant de determiner la loi de variation de la vitesse de ventilation. La loi de variation ainsi obtenue, respecte le confort des passagers. De part la presence de non-linearite de type saturation, l'utilisation de la commande par modele interne avec gestion de saturation a ete appliquee. Une synthese standard d'optimisation h infini a permis de determiner la structure du correcteur c2, implante dans la c. M. I. G. S. La robustesse, en presence d'une erreur de modelisation et dans le cas d'une variation parametrique, a ete validee en simulation et sur l'unite pilote de laboratoire, pour la c. M. I. G. S. Le deuxieme principe de commande est la commande predictive generalisee en continu. L'utilisation des indices de performances a permis de specifier, independamment, les objectifs de regulation et de poursuite. Pour cette technique, des parametres de synthese sont necessaires pour determiner la loi de commande. Le choix de ces parametres influence la stabilite et les performances du systeme en boucle fermee. Des criteres portant sur le choix de ceux-ci ont pu etre degages.
22

Canon, Louis-claude. "Outils et algorithmes pour gérer l'incertitude lors de l'ordonnancement d'application sur plateformes distribuées." Thesis, Nancy 1, 2010. http://www.theses.fr/2010NAN10097/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse traite de l'ordonnancement dans les systèmes distribués. L'objectif est d'étudier l'impact de l'incertitude sur les ordonnancements et de proposer des techniques pour en réduire les effets sur les critères à optimiser. Nous distinguons plusieurs aspects de l'incertitude en considérant celle liée aux limites des méthodes employées (e.g., modèle imparfait) et celle concernant la variabilité aléatoire qui est inhérente aux phénomènes physiques (e.g., panne matérielle). Nous considérons aussi les incertitudes qui se rapportent à l'ignorance portée sur les mécanismes en jeu dans un système donné (e.g., soumission de tâches en ligne dans une machine parallèle). En toute généralité, l'ordonnancement est l'étape qui réalise une association ordonnée entre des requêtes (dans notre cas, des tâches) et des ressources (dans notre cas, des processeurs). L'objectif est de réaliser cette association de manière à optimiser des critères d'efficacité (e.g., temps total consacré à l'exécution d'un application) tout en respectant les contraintes définies. Examiner l'effet de l'incertitude sur les ordonnancements nous amène à considérer les aspects probabilistes et multicritères qui sont traités dans la première partie. La seconde partie repose sur l'analyse de problèmes représentatifs de différentes modalités en terme d'ordonnancement et d'incertitude (comme l'étude de la robustesse ou de la fiabilité des ordonnancements)
This thesis consists in revisiting traditional scheduling problematics in computational environments, and considering the adjunction of uncertainty in the models. We adopt here a wide definition of uncertainty that encompasses the intrinsic stochastic nature of some phenomena (e.g., processor failures that follow a Poissonian distribution) and the imperfection of model characteristics (e.g., inaccuracy of the costs in a model due to a bias in measurements). We also consider uncertainties that stem from indeterminations such as the user behaviors that are uncontrolled although being deterministic. Scheduling, in its general form, is the operation that assigns requests to resources in some specific way. In distributed environments, we are concerned by a workload (i.e., a set of tasks) that needs to be executed onto a computational platform (i.e., a set of processors). Therefore, our objective is to specify how tasks are mapped onto processors. Produced schedules can be evaluated through many different metrics (e.g., processing time of the workload, resource usage, etc) and finding an optimal schedule relatively to some metric constitutes a challenging issue. Probabilistic tools and multi-objectives optimization techniques are first proposed for tackling new metrics that arise from the uncertainty. In a second part, we study several uncertainty-related criteria such as the robustness (stability in presence of input variations) or the reliability (probability of success) of a schedule
23

Canon, Louis-claude. "Outils et algorithmes pour gérer l'incertitude lors de l'ordonnancement d'application sur plateformes distribuées." Electronic Thesis or Diss., Nancy 1, 2010. http://www.theses.fr/2010NAN10097.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse traite de l'ordonnancement dans les systèmes distribués. L'objectif est d'étudier l'impact de l'incertitude sur les ordonnancements et de proposer des techniques pour en réduire les effets sur les critères à optimiser. Nous distinguons plusieurs aspects de l'incertitude en considérant celle liée aux limites des méthodes employées (e.g., modèle imparfait) et celle concernant la variabilité aléatoire qui est inhérente aux phénomènes physiques (e.g., panne matérielle). Nous considérons aussi les incertitudes qui se rapportent à l'ignorance portée sur les mécanismes en jeu dans un système donné (e.g., soumission de tâches en ligne dans une machine parallèle). En toute généralité, l'ordonnancement est l'étape qui réalise une association ordonnée entre des requêtes (dans notre cas, des tâches) et des ressources (dans notre cas, des processeurs). L'objectif est de réaliser cette association de manière à optimiser des critères d'efficacité (e.g., temps total consacré à l'exécution d'un application) tout en respectant les contraintes définies. Examiner l'effet de l'incertitude sur les ordonnancements nous amène à considérer les aspects probabilistes et multicritères qui sont traités dans la première partie. La seconde partie repose sur l'analyse de problèmes représentatifs de différentes modalités en terme d'ordonnancement et d'incertitude (comme l'étude de la robustesse ou de la fiabilité des ordonnancements)
This thesis consists in revisiting traditional scheduling problematics in computational environments, and considering the adjunction of uncertainty in the models. We adopt here a wide definition of uncertainty that encompasses the intrinsic stochastic nature of some phenomena (e.g., processor failures that follow a Poissonian distribution) and the imperfection of model characteristics (e.g., inaccuracy of the costs in a model due to a bias in measurements). We also consider uncertainties that stem from indeterminations such as the user behaviors that are uncontrolled although being deterministic. Scheduling, in its general form, is the operation that assigns requests to resources in some specific way. In distributed environments, we are concerned by a workload (i.e., a set of tasks) that needs to be executed onto a computational platform (i.e., a set of processors). Therefore, our objective is to specify how tasks are mapped onto processors. Produced schedules can be evaluated through many different metrics (e.g., processing time of the workload, resource usage, etc) and finding an optimal schedule relatively to some metric constitutes a challenging issue. Probabilistic tools and multi-objectives optimization techniques are first proposed for tackling new metrics that arise from the uncertainty. In a second part, we study several uncertainty-related criteria such as the robustness (stability in presence of input variations) or the reliability (probability of success) of a schedule
24

Duchaine, Florent. "Optimisation de forme multi-objectif sur machines parallèles avec méta-modèles et coupleurs : application aux chambres de combustion aéronautiques." Phd thesis, Toulouse, INPT, 2007. http://oatao.univ-toulouse.fr/7706/1/duchaine.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les normes drastiques sur les émissions d'espèces polluantes et la volonté de réduire les délais de mise sur le marché incitent les motoristes à repenser les concepts de la nouvelle génération de chambre de combustion ainsi que leurs méthodes de conception. Les codes de simulation numérique des écoulements turbulents réactifs, basés sur une approche de moyenne de Reynolds (RANS), sont utilisés depuis quelques années par les ingénieurs dans les phases de conception des foyer aéronautiques. Leur emploi a permis de réduire les temps et les coûts de conception en diminuant notamment le nombre d'essais expérimentaux. La manière d'utiliser ces outils demeure un point clef pour élaborer des environnements d'aide à la décision performants. Le but de ces travaux de thèse est de fournir une méthodologie basée sur des considérations issues de l'optimisation multi- bjectif pour développer un outil de conception automatisé qui intègre des codes de simulation numérique pour évaluer les configurations. En premier lieu, les études rapportées dans ce manuscrit concernent l'automatisation des procédures de simulation en insistant sur les aspects de génération automatique de maillage. Ensuite, le problème des temps de restitution liés à l'utilisation conjointe de techniques d'optimisation et de codes de calcul coûteux en ressources informatiques est adressé en proposant un algorithme basé sur des méta-modèles. L'outil final est construit à partir d'un coupleur de codes parallèles, lui conférant ainsi des caractéristiques intéressantes de performance et de flexibilité. Finalement, après divers tests de validation et d'évaluation, une application sur une chambre de combustion industrielle montre les capacités de la méthode à identifier des configurations prometteuses.
25

Langle, Frédéric. "Contribution à l'élaboration de design de substitution en similitude indirecte sur modèles réduits : application à l'étude du comportement en collision des absorbeurs axiaux." Valenciennes, 1997. https://ged.uphf.fr/nuxeo/site/esupversions/ada00313-2944-431c-9aa0-8bbd91c168be.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La conception d'un véhicule ferroviaire doit intégrer des critères de dimensionnement à la collision. Il existe de nombreux outils de calculs numériques qui permettent de réaliser des simulations du comportement au choc des structures. Mais ces modèles numériques doivent être validés par l'intermédiaire d'essais expérimentaux. La réalisation d'essais à l'échelle 1 nécessite des moyens considérables (infrastructure, cout du prototype) et ne peut être envisagée qu'en phase de validation finale. L’étude sur modèle réduit permet de contourner ce problème. Parmi toutes les techniques de similitude recensées, seule la similitude indirecte peut être employée dans un cadre industriel. Elle permet le couplage d'un modèle par éléments finis et d'essais expérimentaux a échelle réduite afin d'optimiser le design. Pour valider ce concept sur une structure complexe multi-matériaux et multi-assemblages, un crash test d'une cabine de conduite ferroviaire a l'échelle 1/4 et un modèle par éléments finis sont réalisés. Néanmoins la conception de maquettes pose des problèmes de fabrication et d'assemblage. Ces problèmes sont principalement dus aux opérations de soudage. L’influence de l'assemblage sur la réponse en similitude est illustrée sur des absorbeurs en compression axiale. Des techniques d'assemblages (soudage laser, collage structural, rivetage) et des design de substitution sont testés. Le choix d'un design de remplacement est proposé à l'aide d'un couplage entre pam-sfe (super folding element) et l'optimiseur mathématique pam-opt. Le logiciel pam-sfe permet de déterminer la caractéristique effort/écrasement en compression axiale de structures mono et multitubulaires à parois minces, il est basé sur une formulation analytique. L’intégration de la dissipation énergétique due au joint de colle sur des profilés à parois minces est développée dans la phase de post effondrement. La validation est réalisée sur des structures simple et double chapeaux.
26

Loux, Cyril. "Modélisation du fonctionnement d’un nouveau type de mélangeur : simulation des écoulements, validation sur des systèmes modèles et optimisation du procédé." Strasbourg, 2011. http://www.theses.fr/2011STRA6039.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’importance de la qualité du mélange dans le domaine de la mise en œuvre des polymères et de la formulation n’est plus à démontrer. La recherche de nouveaux procédés pour améliorer l’efficacité du mélange ou de la dispersion de charges dans un polymère est donc toujours d’actualité. Ces mélanges de polymères sont généralement obtenus par un écoulement à l’état fondu (ou liquide) et les propriétés induites sont directement dépendantes de la microstructure obtenue. Les outils classiquement utilisés, comme les mélangeurs internes ou les extrudeuses, génèrent essentiellement des écoulements de cisaillement et leur efficacité est limitée alors que les outils créant des écoulements de type élongationnel sont plus efficaces au niveau des mécanismes de dispersion. C’est dans ce contexte que nous avons développé un nouveau type de mélangeur (appelé RMX) basé sur un élément convergent/divergent privilégiant la composante élongationnelle de l’écoulement. A travers une étude à la fois expérimentale et numérique, nous nous sommes attachés à caractériser les effets spécifiques des écoulements rampants de fluides newtoniens - de basse et haute viscosité - rhéofluidifiants ou viscoélastiques. Nous avons mis en place une méthode permettant de caractériser la morphologie microscopique en déterminant la taille caractéristique, la forme et l’orientation de la microstructure et en prédisant le changement local de morphologie dû aux gradients de vitesse. Ces différentes méthodes ont permis de mettre en évidence quelques éléments fondamentaux indispensables au mélange, notamment la striation des fluides dans le cas viscoélastique
The blending of two polymers has been the subject of fairly extensive studies. This topic directly concerns the polymer processing industry which is constantly looking for new methods to obtain materials with improved properties. These material are generally obtained by liquid-liquid mixing and induced properties are dependent on the microstructure whose length scale is much smaller than the one associated with the macroscopic flow. The usual mixing equipments, such as internal mixers or extruders, mainly generate shear flows and their efficiency is limited whereas tools based on elongational flows are assumed to be more efficient for dispersive mixing. In this context, we developed a new type of mixer (later called RMX) based on a convergent/divergent flow unit which favours the elongational component of the flow. In this study, physical effects create by this new mixing device will be obtained in some experiments and numerical simulations for creeping flow of Newtonian - of low and high viscosity - shear-thinning and viscoelastic fluids. To characterize the mix, we used a method which allows to determine the characteristic size, shape and orientation of the microstructure by predicting the change in the local morphological measure due to this velocity or deformation gradient. This approach, called the micromixing analysis, which treats by the use of area tensor, some local characteristic morphological measure as a field variable and can incorporate additional physics like kinetics of break-up and coalescence of droplets. These methods have highlighted some fundamental mixing elements like fluid striation in viscoelastic cases
27

Martin, Hugo. "Optimisation multi-objectifs et élicitation de préférences fondées sur des modèles décisionnels dépendants du rang et des points de référence." Electronic Thesis or Diss., Sorbonne université, 2022. http://www.theses.fr/2022SORUS101.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse se situe dans le cadre de la théorie de la décision algorithmique, domaine de recherche à l'intersection de la théorie de la décision, de l'intelligence artificielle et de la recherche opérationnelle. Nous nous intéressons à la prise en compte de comportements sophistiqués dans des environnements complexes (décision multicritère, décision collective, décision dans le risque et l'incertain). Nous proposons d'abord des méthodes d'optimisation multi-objectifs sur domaine implicite lorsque les préférences sont représentées par des modèles dépendants du rang (intégrale de Choquet, bipolar OWA, Cumulative Prospect Theory et intégrale de Choquet bipolaire). Ces méthodes reposent sur des approches de programmation mathématique et d'algorithmique discrète. Ensuite, nous présentons des méthodes d'élicitation incrémentale des paramètres de modèles dépendants du rang permettant de prendre en compte la présence d'un point de référence dans les préférences d'un décideur (bipolar OWA, Cumulative Prospect Theory, intégrale de Choquet avec capacités et bicapacités). Finalement, nous abordons la modification structurelle de solutions sous contraintes (coût, qualité) dans des méthodes de tri à plusieurs points de référence. Les différentes approches proposées dans cette thèse ont été testées et nous présentons les résultats numériques obtenus afin d'illustrer leur efficacité pratique
This thesis work falls within the research field of algorithmic decision theory, which is defined at the junction of decision theory, artificial intelligence and operations research. This work focuses on the consideration of sophisticated behaviors in complex decision environments (multicriteria decision making, collective decision making and decision under risk and uncertainty). We first propose methods for multi-objective optimization on implicit sets when preferences are represented by rank-dependent models (Choquet integral, bipolar OWA, Cumulative Prospect Theory and bipolar Choquet integral). These methods are based on mathematical programming and discrete algorithmics approaches. Then, we present methods for the incremental parameter elicitation of rank-dependent model that take into account the presence of a reference point in the decision maker's preferences (bipolar OWA, Cumulative Prospect Theory, Choquet integral with capacities and bicapacities). Finally, we address the structural modification of solutions under constraints (cost, quality) in multiple reference point sorting methods. The different approaches proposed in this thesis have been tested and we present the obtained numerical results to illustrate their practical efficiency
28

Palyart-Lamarche, Marc. "Une approche basée sur les modèles pour le développement d'applications de simulation numérique haute-performance." Toulouse 3, 2012. http://thesesups.ups-tlse.fr/1990/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le développement et la maintenance d'applications de simulation numérique haute-performance sont des activités complexes. Cette complexité découle notamment du couplage fort existant entre logiciel et matériel ainsi que du manque d'accessibilité des solutions de programmation actuelles et du mélange des préoccupations qu'elles induisent. Dans cette thèse nous proposons une approche pour le développement d'applications de simulation numérique haute-performance qui repose sur l'ingénierie des modèles. Afin à la fois de réduire les couts et les délais de portage sur de nouvelles architectures matérielles mais également de concentrer les efforts sur des interventions à plus haute valeur ajoutée, cette approche nommée MDE4HPC, définit un langage de modélisation dédié. Ce dernier permet aux numériciens de décrire la résolution de leurs modèles théoriques dans un langage qui d'une part leur est familier et d'autre part est indépendant d'une quelconque architecture matérielle. Les différentes préoccupations logicielles sont séparées grâce à l'utilisation de plusieurs modèles et de plusieurs points de vue sur ces modèles. En fonction des plateformes d'exécution disponibles, ces modèles abstraits sont alors traduits en implémentations exécutables grâce à des transformations de modèles mutualisables entre les divers projets de développement. Afin de valider notre approche nous avons développé un prototype nommé ArchiMDE. Grâce à cet outil nous avons développé plusieurs applications de simulation numérique pour valider les choix de conception réalisés pour le langage de modélisation
The development and maintenance of high-performance scientific computing software is a complex task. This complexity results from the fact that software and hardware are tightly coupled. Furthermore current parallel programming approaches lack of accessibility and lead to a mixing of concerns within the source code. In this thesis we define an approach for the development of high-performance scientific computing software which relies on model-driven engineering. In order to reduce both duration and cost of migration phases toward new hardware architectures and also to focus on tasks with higher added value this approach called MDE4HPC defines a domain-specific modeling language. This language enables applied mathematicians to describe their numerical model in a both user-friendly and hardware independent way. The different concerns are separated thanks to the use of several models as well as several modeling viewpoints on these models. Depending on the targeted execution platforms, these abstract models are translated into executable implementations with model transformations that can be shared among several software developments. To evaluate the effectiveness of this approach we developed a tool called ArchiMDE. Using this tool we developed different numerical simulation software to validate the design choices made regarding the modeling language
29

Quirion, Sébastien. "Animation basée sur la physique : extrapolation de mouvements humains plausibles et réalistes par optimisation incrémentale." Thesis, Université Laval, 2010. http://www.theses.ulaval.ca/2010/27675/27675.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
30

Turki, Sadok. "Impact du délai de livraison sur le niveau de stock : une approche basée sur la méthode IPA." Electronic Thesis or Diss., Metz, 2010. http://www.theses.fr/2010METZ029S.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le monde industriel actuel ne cesse pas d'évoluer. La concurrence accrue, la grande diversification des produits demandés, le développement du commerce électronique, l'augmentation des échanges de données entre donneurs d'ordres et le producteur, sont autant de facteurs qui poussent les entreprises à continuellement optimiser leurs systèmes de production afin de produire et de livrer dans des délais précis, à des coûts réduits, en satisfaisant des niveaux de service élevés exigés par les clients. Ceci nécessite l'utilisation de méthodes bien adaptées pouvant guider le concepteur dans les choix qu'il est amené à faire lors des phases de conception. C'est pourquoi, dans notre thèse, nous nous sommes donc intéressés à développer une méthodologie qui va permettre aux entreprises de prendre des décisions fiables soient lors de la conception et le pilotage du système de production en identifiant et modélisant les phénomènes aléatoires (comme la demande, les pannes des machines) et en intégrant explicitement le délai de livraison dans le modèle. Ainsi, dans la première partie de notre travail, nous avons étudié un système de production constitué par une machine, un stock de capacité infinie et un client qui demande à chaque instant une quantité de produit. Nous avons appliqué à ce système un modèle à flux continus avec prise en compte d'un temps de livraison constant. Afin d'évaluer les performances de notre système, nous nous sommes basés sur la méthode d'analyse des perturbations infinitésimale (IPA) et nous avons réalisé des simulations à l'aide d'un algorithme basé sur cette méthode pour déterminer le niveau du stock optimal qui minimise la fonction de coût total. Ce coût total est la somme du coût de stockage, du coût de rupture et du coût de transport. Dans la deuxième partie de notre travail, nous avons appliqué, pour le même système que celui étudié dans la première partie, un modèle à flux discrets. La méthode d'analyse des perturbations infinitésimale (IPA) est également appliquée pour ce modèle pour déterminer le niveau de stock optimal. L'application de cette méthode à un modèle à flux discrets est une innovation. En effet, D'après nos connaissances, il n'existe pas des travaux qui appliquent la méthode IPA à des modèles à flux discrets. Dans la dernière partie de notre thèse, nous avons considéré un système de production avec un délai de livraison planifié entre le client et le producteur. Nous avons ensuite étudié l'impact des coûts de livraison sur le niveau de stock optimal. La méthode d'analyse des perturbations infinitésimale est également appliquée pour les deux types de modèles (modèles à flux continus et discrets)
The first part of our work, we study a manufacturing system composed of a machine, a buffer with infinite capacity and customer. We applied this to system a continuous flow model taking into account a constant delivery time. To evaluate the performance of our system, we relied on the method of infinitesimal perturbation analysis (IPA), we performed simulations using an algorithm based on this method to determine the optimal buffer level which minimizes the cost function. This total cost is the sum of inventory cost, backlog cost and transportation cost. In the second part of our work, we applied a discrete flow model to the same system studied in the first part. The infinitesimal perturbation analysis method (IPA) is also applied to this model to determine the optimal inventory level. Applying this method to a discrete flow model is an innovation. Indeed, as we know, there is no work applying the method to IPA models to discrete flow. In the last part, we considered a manufacturing system with a random delivery time between the costumer and the producer. Then we studied the impact of transportation costs on the optimal buffer level. The method of infinitesimal perturbation analysis is also applied for both types of models (discrete flows and continuous flows model)
31

Kucerova, Anna. "Identification des paramètres des modèles mécaniques non-linéaires en utilisant des méthodes basées sur intelligence artificielle." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2007. http://tel.archives-ouvertes.fr/tel-00256025.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le problème d'identification des paramètres apparaît dans beaucoup de problèmes en génie civil sous formes différentes et il peut être résolu par beaucoup de méthodes distinctes. Cette thèse présente deux philosophies principales d'identification avec orientation vers les méthodes basées sur intelligence artificielle. Les aspects pratiques sont montrés sur plusieurs problèmes d'identification, où les paramètres des modèles mécaniques non linéaires sont à déterminer.
32

Moréac, Erwan. "Optimisation de la consommation d’énergie et de la latence dans les réseaux sur puces." Thesis, Lorient, 2017. http://www.theses.fr/2017LORIS467/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les progrès dans le domaine des semi-conducteurs ont permis la miniaturisation des puces et l’extension considérable de leurs capacités de calcul et de mémorisation. Cela s’est accompagné d’un accroissement très important du volume des données échangées à l’intérieur de ces puces, limitant les performances au débit de données dans la puce. Ainsi, les concepteurs ont proposé le réseau sur puce (ou NoC : Network-on-Chip) afin de répondre à ces besoins. Cependant, l’accroissement du trafic permis par ce réseau se traduit par une consommation énergétique plus importante engendrant une hausse de la température et une diminution de la fiabilité de la puce. L’élaboration de techniques d’optimisation de l’énergie du NoC est alors nécessaire. La première partie de cette thèse est consacrée à l’étude de la modélisation des NoCs afin d’estimer leur consommation et d’identifier les composants les plus consommateurs. Ainsi, la première contribution de cette thèse a été d’améliorer la modélisation du NoC en modifiant le modèle d’interconnexions d’un simulateur de NoC existant (Noxim), pour le rendre bit-près (Noxim-XT), et ainsi permettre au simulateur d’incorporer un modèle d’interconnexions considérant les effets du crosstalk, phénomène physique faisant varier leur consommation d’énergie. La seconde partie de la thèse traite de l’optimisation de la consommation d’énergie du NoC. Ainsi, la recherche d’optimisation s’est orientée vers la réduction d’énergie des liens étant donné leur importante contribution énergétique dans la consommation d’énergie dynamique du réseau. De plus, la part de l’énergie dynamique tend à augmenter avec l’évolution de la technologie. Nous avons proposé à l’issue de cette étude deux techniques d’optimisation pour les interconnexions du NoC. Ces deux optimisations proposent des compromis énergie / latence différents et une extension possible de ces travaux pourrait être la mise en oeuvre de la sélection de l’optimisation selon les besoins de l’application en cours
Thanks to the technology’s shrinking, a considerable amount of memory and computing capacity can be embedded into a single chip. This improvement leads to an important increase of the bandwidth requirements, that becomes the bottleneck of chip performances in terms of computational power. Thus, designers proposed the Network-on-Chip (NoC) as an answer to this bandwidth challenge. However, the on-chip traffic growth allowed by the NoC causes a significant rise of the chip energy consumption, which leads to a temperature increase and a reliability reduction of the chip. The development of energy optimization techniques for NoC becomes necessary.The first part of this thesis is devoted to the study of NoCs power models in order to estimate accurately the consumption of each component. Then, we can identify which ones are the most power consuming. Hence, the first contribution of this thesis has been to improve the NoC power model by replacing the lilnk power model in a NoC simulator (Noxim) by a bit-accurate one (Noxim-XT). In this way, the simulator is able to consider Crosstalk effects, a physical phenomenon that increases links energy consumption. The second part of the thesis deals with NoC energy optimization techniques. Thus, our research of optimization techniques is focused on inter-router links since their energy contribution regarding the NoC dynamic energy is significant and the dynamic energy tends to stay prominent with the shrinking technology. We proposed two optimization techniques from the study of NoC links optimizations. These two techniques present different energy / latency compromises and a possible extension of this work could be the development of a transmission strategy in order to select the right technique according to the application requirements
33

Benyoucef, Abderrezak. "Optimisation du raffinage algérien en présence d'incertitudes sur les exportations à l'horizon 2030." Thesis, Dijon, 2011. http://www.theses.fr/2011DIJOE016.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le raffinage a pour objet de transformer le pétrole brut en différents produits finis à des fins énergétiques on non. En Algérie, l'industrie du raffinage doit désormais s'adapter pour répondre à l'évolution de la demande, dans un contexte marqué par une forte volatilité des marchés pétroliers. Les méthodes de programmation linéaire sont fréquemment utilisées dans cette industrie afin d'optimiser le fonctionnement de cette industrie tant en terme de production que d'investissement. Dans cette recherche, nous sommes amenés à prendre en compte le caractère aléatoire de la demande locale de produits pétroliers ainsi que la volatilité des prix d’exportation sur les marchés internationaux. Ceci conduit à élaborer un modèle de programmation linéaire stochastique du raffinage à l’horizon 2030 en introduisant des aléas sur la demande et sur les prix des produits exportés. Les consommations futures en Algérie sont estimées à partir d'une approche économétrique. Les équilibres de long terme entre les prix du pétrole et des produits pétroliers sur les marchés internationaux sont estimés à partir d'une approche en terme de cointégration. La comparaison des résultats des modèles déterministes et de ceux obtenus avec les modèles stochastiques permet d'évaluer l'impact significatif de la variabilité de la consommation et des prix sur le sentier de développement du secteur du raffinage
The refining industry transforms the crude oil into various finished products (for energy purposes one not). In Algeria, the refining industry has to adapt itself to answer the evolution of the demand, in a context characterized by a high volatility of the oil markets. The linear programming methods are frequently used in this industry to optimize the production and the investment patterns of this industry. In this research, we take into account the random character of the domestic demand of petroleum products as well as the volatility of the export prices on the international markets. This leads to elaborate a stochastic linear programming model of the refining industry on the horizon 2030 by introducing changes on the demand and on the prices of the exported products. The future consumptions in Algeria are forecasted through an econometric model. The long-term equilibrium between oil prices and petroleum products on the international markets is also estimated through a cointegration approach. The comparison between the results of the deterministic model and the results of the stochastic model point out the significant impact of both the consumption variability and the price volatility on the refining industry
34

Nguyen, Phi-Hung. "Impacts des modèles de pertes sur l'optimisation sur cycle d'un ensemble convertisseur - machine synchrone : applications aux véhicules hybrides." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2011. http://tel.archives-ouvertes.fr/tel-00648727.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La quasi-totalité des études de machines synchrones à aimants permanents (MSAP) pour les applications aux véhicules hybrides concernent les performances uniquement sur quelques points particuliers d'un cycle de fonctionnement du véhicule (le point de base, le point à grande vitesse ou le point le plus sollicité). Cependant, ces machines électriques fonctionnent souvent à différents couples et à différentes vitesses. Cette thèse s'intéresse donc à l'étude des performances de MSAP sur l'ensemble d'un cycle de fonctionnement en vue de les optimiser sur cycle. Durant cette thèse, l'auteur a contribué à développer les modèles de couple, de défluxage, de pertes cuivre et de pertes magnétiques et les méthodes de calcul de ces pertes à vide et en charge pour les quatre MSAP dont trois machines à concentration de flux et une machine à aimants en surface du rotor et pour trois cycles de fonctionnement : NEDC, Artemis-Urbain et Artemis-Routier. Une validation expérimentale de ces modèles a été effectuée sur un banc d'essai moteur avec deux prototypes de MSAP. Ensuite, les MSAP ont été dimensionnées en vue d'une minimisation des pertes sur cycle et du courant efficace du point de base. Cette combinaison a pour but d'augmenter le rendement de la machine électrique et de minimiser la dimension de l'onduleur de tension associée. Ce problème d'optimisation multi-objectif a été réalisé en utilisant l'algorithme génétique, Non-Dominated Sorting Genetic Algorithm (NSGA-II). Ainsi, un Front de Pareto des solutions optimales peut être déduit. Les impacts des modèles de pertes (à vide et en charge) sur l'optimisation sur cycle des machines sont étudiés et l'intérêt de chaque modèle est présenté. Les modèles et méthodes de calcul proposés peuvent être appliqués à tous les cycles de fonctionnement, à différentes MSAP et à différentes applications.
35

Jung, Matthieu. "Évolution du VIH : méthodes, modèles et algorithmes." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2012. http://tel.archives-ouvertes.fr/tel-00842785.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La donnée de séquences nucléotidiques permet d'inférer des arbres phylogénétiques, ou phylogénies, qui décrivent leurs liens de parenté au cours de l'évolution. Associer à ces séquences leur date de prélèvement ou leur pays de collecte, permet d'inférer la localisation temporelle ou spatiale de leurs ancêtres communs. Ces données et procédures sont très utilisées pour les séquences de virus et, notamment, celles du virus de l'immunodéficience humaine (VIH), afin d'en retracer l'histoire épidémique à la surface du globe et au cours du temps. L'utilisation de séquences échantillonnées à des moments différents (ou hétérochrones) sert aussi à estimer leur taux de substitution, qui caractérise la vitesse à laquelle elles évoluent. Les méthodes les plus couramment utilisées pour ces différentes tâches sont précises, mais lourdes en temps de calcul car basées sur des modèles complexes, et ne peuvent traiter que quelques centaines de séquences. Devant le nombre croissant de séquences disponibles dans les bases de données, souvent plusieurs milliers pour une étude donnée, le développement de méthodes rapides et efficaces devient indispensable. Nous présentons une méthode de distances, Ultrametric Least Squares , basée sur le principe des moindres carrés, souvent utilisé en phylogénie, qui permet d'estimer le taux de substitution d'un ensemble de séquences hétérochrones, dont on déduit ensuite facilement les dates des spéciations ancestrales. Nous montrons que le critère à optimiser est parabolique par morceaux et proposons un algorithme efficace pour trouver l'optimum global. L'utilisation de séquences échantillonnées en des lieux différents permet aussi de retracer les chaînes de transmission d'une épidémie. Dans ce cadre, nous utilisons la totalité des séquences disponibles (~3500) du sous-type C du VIH-1, responsable de près de 50% des infections mondiales au VIH-1, pour estimer ses principaux flux migratoires à l'échelle mondiale, ainsi que son origine géographique. Des outils novateurs, basés sur le principe de parcimonie combiné avec différents critères statistiques, sont utilisés afin de synthétiser et interpréter l'information contenue dans une grande phylogénie représentant l'ensemble des séquences étudiées. Enfin, l'origine géographique et temporelle de ce variant (VIH-1 C) au Sénégal est précisément explorée lors d'une seconde étude, portant notamment sur les hommes ayant des rapports sexuels avec des hommes.
36

Turki, Sadok. "Impact du délai de livraison sur le niveau de stock : une approche basée sur la méthode IPA." Thesis, Metz, 2010. http://www.theses.fr/2010METZ029S/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le monde industriel actuel ne cesse pas d'évoluer. La concurrence accrue, la grande diversification des produits demandés, le développement du commerce électronique, l'augmentation des échanges de données entre donneurs d'ordres et le producteur, sont autant de facteurs qui poussent les entreprises à continuellement optimiser leurs systèmes de production afin de produire et de livrer dans des délais précis, à des coûts réduits, en satisfaisant des niveaux de service élevés exigés par les clients. Ceci nécessite l'utilisation de méthodes bien adaptées pouvant guider le concepteur dans les choix qu'il est amené à faire lors des phases de conception. C'est pourquoi, dans notre thèse, nous nous sommes donc intéressés à développer une méthodologie qui va permettre aux entreprises de prendre des décisions fiables soient lors de la conception et le pilotage du système de production en identifiant et modélisant les phénomènes aléatoires (comme la demande, les pannes des machines) et en intégrant explicitement le délai de livraison dans le modèle. Ainsi, dans la première partie de notre travail, nous avons étudié un système de production constitué par une machine, un stock de capacité infinie et un client qui demande à chaque instant une quantité de produit. Nous avons appliqué à ce système un modèle à flux continus avec prise en compte d'un temps de livraison constant. Afin d'évaluer les performances de notre système, nous nous sommes basés sur la méthode d'analyse des perturbations infinitésimale (IPA) et nous avons réalisé des simulations à l'aide d'un algorithme basé sur cette méthode pour déterminer le niveau du stock optimal qui minimise la fonction de coût total. Ce coût total est la somme du coût de stockage, du coût de rupture et du coût de transport. Dans la deuxième partie de notre travail, nous avons appliqué, pour le même système que celui étudié dans la première partie, un modèle à flux discrets. La méthode d'analyse des perturbations infinitésimale (IPA) est également appliquée pour ce modèle pour déterminer le niveau de stock optimal. L'application de cette méthode à un modèle à flux discrets est une innovation. En effet, D'après nos connaissances, il n'existe pas des travaux qui appliquent la méthode IPA à des modèles à flux discrets. Dans la dernière partie de notre thèse, nous avons considéré un système de production avec un délai de livraison planifié entre le client et le producteur. Nous avons ensuite étudié l'impact des coûts de livraison sur le niveau de stock optimal. La méthode d'analyse des perturbations infinitésimale est également appliquée pour les deux types de modèles (modèles à flux continus et discrets)
The first part of our work, we study a manufacturing system composed of a machine, a buffer with infinite capacity and customer. We applied this to system a continuous flow model taking into account a constant delivery time. To evaluate the performance of our system, we relied on the method of infinitesimal perturbation analysis (IPA), we performed simulations using an algorithm based on this method to determine the optimal buffer level which minimizes the cost function. This total cost is the sum of inventory cost, backlog cost and transportation cost. In the second part of our work, we applied a discrete flow model to the same system studied in the first part. The infinitesimal perturbation analysis method (IPA) is also applied to this model to determine the optimal inventory level. Applying this method to a discrete flow model is an innovation. Indeed, as we know, there is no work applying the method to IPA models to discrete flow. In the last part, we considered a manufacturing system with a random delivery time between the costumer and the producer. Then we studied the impact of transportation costs on the optimal buffer level. The method of infinitesimal perturbation analysis is also applied for both types of models (discrete flows and continuous flows model)
37

Boutheiller, Nicolas. "Analyse et synthèse par optimisation basée sur l'algorithme génétique de filtres en guide d'ondes rectangulaire : Application à la conception de filtres multi-modes utilisant le résonance des modes à leur fréquence de coupure." Bordeaux 1, 2002. http://www.theses.fr/2002BOR12542.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce mémoire s'attache à établir une méthode de recherche de nouvelles structures de filtrage hyperfréquence en guide d'ondes. Une technique d'analyse électromagnétique est exposée. Celle-ci permet de caractériser toute structure composée de portions rectilignes de guide d'ondes rectangulaire dont les surfaces ouvertes aux extrémités se recouvrent partiellement. Les surfaces non partagées sont supposées parfaitement conductrices. Chaque portion de guide d'ondes est considérée emplie de diélectrique homogène isotrope. La technique de synthèse s'appuie sur un algorithme d'optimisation privilégiant la souplesse, la rapidité et la fiabilité. L'algorithme génétique est employé. II permet, de par son formalisme fortement basé sur l'abstraction, de ne pas imposer de contraintes sur la topologie de la structure optimisée ni sur le type de réponse escompté. La méthode d'analyse et la technique de synthèse sont implémentées dans un logiciel: SOFRIM (Simulation et Optimisation de Filtres Rectangulaires à Iris Multi-sections). Une interface graphique y est adjointe, conduisant par la même a un outil logiciel dédié parfaitement adapté à la synthèse par optimisation de filtres hyperfréquences en guide d'ondes rectangulaire. Le logiciel est exploité et conduit tout d'abord à la découverte d'un nouveau schéma de couplage où tous les pôles sont fournis par des modes au voisinage de leur fréquence de coupure. Ce principe conduit à des dimensions faibles pour le filtre. De plus, cette structure permet d'introduire de multiples zéros de transmission. Trois exemples de ce type de filtre sont présentés. Les résultats de la réalisation de deux d'entre eux sont décrits. Le logiciel est également employé pour introduire un zéro de transmission dans un filtre à modes évanescents à inserts diélectriques. Les filtres synthétisés valident les méthodes employées et justifient la démarche.
38

Dragoni, Laurent. "Tri de potentiels d'action sur des données neurophysiologiques massives : stratégie d’ensemble actif par fenêtre glissante pour l’estimation de modèles convolutionnels en grande dimension." Thesis, Université Côte d'Azur, 2022. http://www.theses.fr/2022COAZ4016.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Au sein du système nerveux, des cellules appelées neurones sont spécialisées dans la communication de l'information. À travers l'émission et la propagation de courants électriques nommés potentiels d'action, les neurones peuvent transmettre l'information dans le corps. Étant donné le rôle prééminent des neurones, afin de mieux comprendre le fonctionnement du système nerveux, une vaste gamme de méthodes ont été proposées pour l'étude de ces cellules. Dans cette thèse, nous nous intéressons à l'analyse de signaux ayant été enregistrés par des électrodes, et plus spécifiquement, des tétrodes et des multi-electrode arrays (MEA). Ces appareils mesurant en général l'activité d'un ensemble de neurones, les signaux enregistrés forment souvent un mélange de l'activité de plusieurs neurones. Afin de gagner plus d'information sur ce type de données, un pré-traitement crucial appelé tri de potentiels d'action est requis pour séparer l'activité de chaque neurone. Actuellement, la procédure générale de tri de potentiels d'action repose sur une procédure en trois étapes : seuillage, extraction de caractéristiques et partitionnement de données. Malheureusement cette méthodologie requiert un grand nombre d'opérations manuelles. De plus, elle devient encore plus difficile à mettre en oeuvre sur de grands volumes de données, en particulier pour des enregistrements de MEA qui ont tendance à présenter davantage de synchronisations de neurones. Dans cette thèse, nous présentons une stratégie de tri de potentiels d'action permettant l'analyse de grands volumes de données et qui requiert peu d'opérations manuelles. Cette stratégie utilise un modèle convolutionnel dont le but est de représenter les signaux mesurés en convolutions temporelles entre deux facteurs : les activations de neurones et les formes de potentiels d'action. L'estimation de ces deux facteurs est généralement traitée par optimisation alternée. Étant la tâche la plus difficile, nous nous concentrons ici sur l'estimation des activations, en supposant que les formes de potentiels d'action sont connues. Le célèbre estimateur Lasso présente d'intéressantes propriétés mathématiques pour la résolution d'un tel problème. Néanmoins son calcul demeure difficile sur des problèmes de grande taille. Nous proposons un algorithme basé sur la stratégie d'ensemble actif afin de calculer efficacement le Lasso. Cet algorithme exploite la structure particulière du problème, déduite de propriétés biologiques, en utilisant des fenêtres glissantes temporelles, lui permettant d'être appliqué en grande dimension. De plus, nous adaptons des résultats théoriques sur le Lasso pour montrer que, sous des hypothèses raisonnables, notre estimateur retrouve le support du vrai vecteur d'activation avec grande probabilité. Nous proposons également des modèles pour la distribution spatiale et des temps d'activations des neurones qui nous permettent de quantifier la taille du problème et de déduire la complexité temporelle théorique de notre algorithme. En particulier, nous obtenons une complexité quasi-linéaire par rapport à la taille du signal enregistré. Finalement nous présentons des expériences numériques illustrant à la fois les résultats théoriques et les performances de notre approche
In the nervous system, cells called neurons are specialized in the communication of information. Through the generation and propagation of electrical currents named action potentials, neurons are able to transmit information in the body. Given the importance of the neurons, in order to better understand the functioning of the nervous system, a wide range of methods have been proposed for studying those cells. In this thesis, we focus on the analysis of signals which have been recorded by electrodes, and more specifically, tetrodes and multi-electrode arrays (MEA). Since those devices usually record the activity of a set of neurons, the recorded signals are often a mixture of the activity of several neurons. In order to gain more knowledge from this type of data, a crucial pre-processing step called spike sorting is required to separate the activity of each neuron. Nowadays, the general procedure for spike sorting consists in a three steps procedure: thresholding, feature extraction and clustering. Unfortunately this methodology requires a large number of manual operations. Moreover, it becomes even more difficult when treating massive volumes of data, especially MEA recordings which also tend to feature more neuronal synchronizations. In this thesis, we present a spike sorting strategy allowing the analysis of large volumes of data and which requires few manual operations. This strategy makes use of a convolutional model which aims at breaking down the recorded signals as temporal convolutions between two factors: neuron activations and action potential shapes. The estimation of these two factors is usually treated through alternative optimization. Being the most difficult task, we only focus here on the estimation of the activations, assuming that the action potential shapes are known. Estimating the activations is traditionally referred to convolutional sparse coding. The well-known Lasso estimator features interesting mathematical properties for the resolution of such problem. However its computation remains challenging on high dimensional problems. We propose an algorithm based of the working set strategy in order to compute efficiently the Lasso. This algorithm takes advantage of the particular structure of the problem, derived from biological properties, by using temporal sliding windows, allowing it to scale in high dimension. Furthermore, we adapt theoretical results about the Lasso to show that, under reasonable assumptions, our estimator recovers the support of the true activation vector with high probability. We also propose models for both the spatial distribution and activation times of the neurons which allow us to quantify the size of our problem and deduce the theoretical complexity of our algorithm. In particular, we obtain a quasi-linear complexity with respect to the size of the recorded signal. Finally we present numerical results illustrating both the theoretical results and the performances of our approach
39

Kaloun, Adham. "Conception de chaînes de traction hybrides et électriques par optimisation sur cycles routiers." Thesis, Ecole centrale de Lille, 2020. http://www.theses.fr/2020ECLI0019.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La conception des chaînes de traction hybrides est une tâche complexe, qui fait appel à des experts de différents domaines s'appuyant sur des compétences et des outils distincts. En plus de cela, la recherche d'une solution optimale nécessite un retour système. Cela peut être, selon la granularité des modèles de composants, très coûteux en temps de calcul. Ceci est d'autant plus vrai lorsque la performance du système est déterminée par sa commande, comme c'est le cas du véhicule hybride. En fait, différentes possibilités peuvent être sélectionnées pour fournir le couple requis aux roues pendant le cycle de conduite. Ainsi, le principal obstacle est d'atteindre l'optimalité tout en conservant une méthodologie rapide et robuste. Dans ces travaux de thèse, de nouvelles approches visant à exploiter le potentiel complet de l'hybridation sont proposées et comparées. La première stratégie est une approche bi-niveaux composée de deux blocs d'optimisation imbriqués: un processus d'optimisation des paramètres de design externe qui calcule la meilleure valeur de consommation de carburant à chaque itération en se basant sur une version améliorée de la programmation dynamique pour l'optimisation de la commande. Deux stratégies de conception systémique différentes basées sur le schéma itératif sont également proposées. La première approche est basée sur la réduction de modèle tandis que la seconde se repose sur des techniques précises de réduction de cycle. Cette dernière permet l'utilisation de modèles de haute précision sans pénaliser le temps de calcul. Une approche simultanée est ensuite mise en œuvre, qui optimise à la fois les variables de conception et les paramètres d'une nouvelle stratégie efficace à base de règles. Cette dernière permettra une optimisation plus rapide par rapport à l'optimisation directe de toutes les variables de décision. Enfin, une technique basée sur l'utilisation des méta-modèles est explorée
Designing hybrid powertrains is a complex task, which calls for experts from various fields. In addition to this, finding the optimal solution requires a system overview. This can be, depending on the granularity of the models at the component level, highly time-consuming. This is even more true when the system’s performance is determined by its control, as it is the case of the hybrid powertrain. In fact, various possibilities can be selected to deliver the required torque to the wheels during the driving cycle. Hence, the main obstacle is to achieve optimality while keeping the methodology fast and robust. In this work, novel approaches to exploit the full potential of hybridization are proposed and compared. The first strategy is a bi-level approach consisting of two nested optimization blocks: an external design optimization process that calculates the best fuel consumption value at each iteration, found through control optimization using an improved version of dynamic programming. Two different systemic design strategies based on the iterative scheme are proposed as well. The first approach is based on model reduction while the second approach relies on precise cycle reduction techniques. The latter enables the use of high precision models without penalizing the calculation time. A co-optimization approach is implemented afterwards which adjusts both the design variables and parameters of a new efficient rule-based strategy. This allows for faster optimization as opposed to an all-at-once approach. Finally, a meta-model based technique is explored
40

Belkaï, Emilie. "Etude comparative des effets des traitements de substitution à l'héroïne : méthadone et buprénorphine haut dosage sur les régulations transcriptomiques induites par la morphine chez le rat." Paris 5, 2010. http://www.theses.fr/2010PA05P622.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Actuellement deux traitements de substitution à l’héroïne sont utilisés en France: la méthadone et la buprénorphine haut dosage. Cependant, la compréhension des mécanismes biologiques induits par ces traitements est encore limitée, ce qui réduit le nombre de stratégies thérapeutiques. En utilisant la PCR quantitative en temps réelle nous avons étudié, chez le rat, l’impact génomique de ces deux traitements de substitution dans le cerveau en comparaison à l’opiacé de référence, la morphine. Une première analyse génomique et comportementale, suite à une injection aigue de dose équipotente, nous a révélé que la buprénorphine induisait un profil pharmacologique et génomique particulier. Une seconde étude à l’aide de la technologie Taqman® Array nous à permis d’appréhender l’impact moléculaire de la buprénorphine dans le cerveau. Par ailleurs, une étude de comparaison entre la buprénorphine et la morphine sur les cellules mononucléées du sang nous a ouvert des perspectives sur l’identification de biomarqueurs en périphérie. Ces travaux ouvrent la voie sur la compréhension de l’impact moléculaire de la buprénorphine dans le cerveau mais également dans un tissu périphérique permettant des prélèvements non invasifs, ce qui faciliterait un transfert vers la recherche clinique afin de mieux comprendre les effets moléculaires à long terme de la buprénorphine administrée aux patients
Currently two heroin maintenance treatments are used in France: methadone and buprenorphine. However, the understanding of the biological mechanisms induced by these treatments is still, limiting the available therapeutic strategies. Using real time quantitative PCR, we studied in rats, the genomic impact of these maintenance treatment in the brain as compared to the reference opioid, morphine. Analysis of genomic and behavioral responses to acute injection of equipotent doses showed that buprenorphine induces a distinctive pharmacological and genomic profile. A second study using TaqMan ® Array technology gave us insights into the molecular impact of buprenorphine in the brain. Furthermore, a comparison study between buprenorphine and morphine on blood mononuclear cells has opened pathways to the identification of biomarkers in the periphery. These studies open the way to understanding the molecular impact of buprenorphine in the brain but also in peripheral tissue samples for non-invasive analyses, thus facilitating a transfer to clinical research to better understand the molecular effects long term of buprenorphine administered to patients
41

Kaloun, Adham. "Conception de chaînes de traction hybrides et électriques par optimisation sur cycles routiers." Thesis, Centrale Lille Institut, 2020. http://www.theses.fr/2020CLIL0019.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La conception des chaînes de traction hybrides est une tâche complexe, qui fait appel à des experts de différents domaines s'appuyant sur des compétences et des outils distincts. En plus de cela, la recherche d'une solution optimale nécessite un retour système. Cela peut être, selon la granularité des modèles de composants, très coûteux en temps de calcul. Ceci est d'autant plus vrai lorsque la performance du système est déterminée par sa commande, comme c'est le cas du véhicule hybride. En fait, différentes possibilités peuvent être sélectionnées pour fournir le couple requis aux roues pendant le cycle de conduite. Ainsi, le principal obstacle est d'atteindre l'optimalité tout en conservant une méthodologie rapide et robuste. Dans ces travaux de thèse, de nouvelles approches visant à exploiter le potentiel complet de l'hybridation sont proposées et comparées. La première stratégie est une approche bi-niveaux composée de deux blocs d'optimisation imbriqués: un processus d'optimisation des paramètres de design externe qui calcule la meilleure valeur de consommation de carburant à chaque itération en se basant sur une version améliorée de la programmation dynamique pour l'optimisation de la commande. Deux stratégies de conception systémique différentes basées sur le schéma itératif sont également proposées. La première approche est basée sur la réduction de modèle tandis que la seconde se repose sur des techniques précises de réduction de cycle. Cette dernière permet l'utilisation de modèles de haute précision sans pénaliser le temps de calcul. Une approche simultanée est ensuite mise en œuvre, qui optimise à la fois les variables de conception et les paramètres d'une nouvelle stratégie efficace à base de règles. Cette dernière permettra une optimisation plus rapide par rapport à l'optimisation directe de toutes les variables de décision. Enfin, une technique basée sur l'utilisation des méta-modèles est explorée
Designing hybrid powertrains is a complex task, which calls for experts from various fields. In addition to this, finding the optimal solution requires a system overview. This can be, depending on the granularity of the models at the component level, highly time-consuming. This is even more true when the system’s performance is determined by its control, as it is the case of the hybrid powertrain. In fact, various possibilities can be selected to deliver the required torque to the wheels during the driving cycle. Hence, the main obstacle is to achieve optimality while keeping the methodology fast and robust. In this work, novel approaches to exploit the full potential of hybridization are proposed and compared. The first strategy is a bi-level approach consisting of two nested optimization blocks: an external design optimization process that calculates the best fuel consumption value at each iteration, found through control optimization using an improved version of dynamic programming. Two different systemic design strategies based on the iterative scheme are proposed as well. The first approach is based on model reduction while the second approach relies on precise cycle reduction techniques. The latter enables the use of high precision models without penalizing the calculation time. A co-optimization approach is implemented afterwards which adjusts both the design variables and parameters of a new efficient rule-based strategy. This allows for faster optimization as opposed to an all-at-once approach. Finally, a meta-model based technique is explored
42

Fortin, Jean-Sébastien. "Optimisation des investissements sur les ponts par la méthode coûts-avantages : valorisation des revenus et du modèle de détérioration." Master's thesis, Université Laval, 2017. http://hdl.handle.net/20.500.11794/28153.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette étude a pour but de contribuer à l’avancement des connaissances dans le domaine des systèmes de gestion de ponts (Bridge Management System (BMS)) par le développement d’un outil décisionnel pour optimiser les réparations sur les ponts. Cet outil décisionnel se base sur la valeur actualisée nette pour considérer le moment optimal de réparation. Il met ainsi à l’avant-plan la création de richesse permise par un réseau routier efficace. De plus, il permet d’étudier l’incertitude sur plusieurs variables, soit les valeurs financières d’inflation et d’actualisation, ainsi que l’évolution du débit routier. La flexibilité de l’outil décisionnel permet de vérifier l’impact de plusieurs variables. Ainsi, le modèle de détérioration présentement utilisée par le ministère des Transports, de la Mobilité durable et de l'Électrification des transports du Québec est comparé à deux autres modèles, soit un modèle markovien basé sur la théorie des chaînes de Markov et un modèle stochastique développé dans le cadre de cette étude. Le projet innove en considérant les revenus générés par un pont et l’incertitude sur les variables futures de détérioration d’éléments de ponts, d’inflation et d’actualisation, ainsi que celles relatives à l’évolution du débit routier. Considérant la récente implantation du système de gestion du ministère des Transports, de la Mobilité durable et de l'Électrification des transports, cette étude se base sur plusieurs hypothèses. Pour cette étude, la durée de vie maximale du pont est établie à 100 ans, la dégradation et la réparation d’un ouvrage est analysée aux 5 ans et une seule réparation majeure peut être effectuée sur la durée de vie. De plus, cette réparation permet de remettre le pont dans son état initial (neuf) et la détérioration de quelques éléments principaux (la dalle en béton armé et les poutres d’acier) du pont représente la détérioration globale de la structure. En se basant sur les données du ministère des Transports, de la Mobilité durable et de l'Électrification des transports et à l’aide d’une analyse probabiliste de 20 000 simulations, l’étude met en évidence l’importance de considérer la variabilité sur la détérioration d’un élément/pont, sur le taux d’intérêt et dans une moindre mesure, l’inflation. Ainsi, lorsque seul l’état de la dalle représente l’état global du pont et en utilisant l’approche déterministe, une réparation entre 25 et 30 ans est appropriée. Un taux d’intérêt plutôt faible peut même repousser ce choix à 35 ans. Le choix de date optimale de réparation est très étalé avec l’approche markovienne considérant les probabilités élevées de maintien du pont en bon état. Finalement, l’approche stochastique favorise une réparation entre 20 et 35 ans selon la rapidité de la détérioration. Ce choix peut encore une fois changer légèrement avec l’ajout de taux d’intérêt et d’inflation variables. Lorsque seul l’état de la dalle et des poutres est considéré représenter l’état de l’ensemble du pont, l’approche déterministe propose une réparation à 25 ans pour le dalle en béton armé et une réparation à 30 ans pour les poutres en acier. Les paramètres financiers stochastiques peuvent affecter ce choix rendant possible une réparation optimale de 25 à 35 ans pour les deux types d’éléments. Les moments optimaux de réparation sont très étalés pour l’approche markovienne considérant les probabilités élevées de maintien des éléments en bon état. Finalement, l’approche stochastique propose une réparation entre 20 et 35 ans pour le dalle en béton armé et entre 15 et 40 ans pour les poutres en acier. Ces moments de réparations sont aussi affectés légèrement par l’ajout d’un taux d’intérêt et d’inflation variables. Une analyse de sensibilité permet de considérer l’impact de plusieurs paramètres du modèle considéré, soit la matrice de transition, la pénalité d’état, la variabilité de la matrice pour une détérioration stochastique et l’ajout d’un avantage de réparation simultanée à deux éléments. Une modification de la matrice de transition a surtout un impact sur la volatilité des résultats, alors qu’une modification sur la pénalité d’état crée une translation sur la distribution du moment optimal de réparation pour une détérioration de type markovienne et stochastique. La variabilité de la matrice pour une détérioration stochastique a directement un impact sur la volatilité du moment optimal de réparation. Plus le pourcentage de variation de la matrice est faible, plus les moments optimaux de réparation seront concentrés (plage moins étendue). Finalement, s’il est considéré que la réparation simultanée de deux éléments coûte moins cher que lorsque ces deux éléments sont réparés à des dates différentes (avantage de réparation simultanée de deux éléments plutôt que deux réparations distinctes), il y alors un impact sur le moment optimal de réparation. Cet effet est principalement perceptible lorsque les dates de réparation optimales sont séparées de moins de 10 ans. Pour une détérioration déterministe, il suffit que la réparation simultanée coûte de 3,72% de moins que deux réparations distinctes pour favoriser de réparer les deux éléments simultanément à 30 ans, la dalle étant réparée à 25 ans sans avantage (réduction des coût) de réparation simultanée. Cependant, un avantage de réparation simultanée a peu d’impact sur le moment optimal de réparation lorsque la détérioration se base sur un modèle markovien en raison de la grande répartition des moments optimaux de réparation. Enfin, l’avantage de réparation simultanée a un impact considérable pour une détérioration stochastique, la majorité des réparations se produisant entre 15 et 40 ans.
This study extends the existing literature on Bridge Management Systems (BMS) by developing a decision-making program to optimize bridge rehabilitations. This decision-making tool analyses the net present value to consider the optimal moment to repair a bridge. It highlights wealth creation by the maintenance of an efficient road network. Moreover, it allows the study of uncertainty on several parameters, such as financial values of inflation and interest rates as well as the evolution of traffic flow. The ability of the decision-making tool to verify the impact of several variables and the deterioration model currently used by the ministère des Transports, de la Mobilité durable et de l'Électrification des transports is compared to two other models; a Markovian model and a stochastic model developed under this study. This project breaks new ground by considering the revenue generated by the bridge’s efficiency. It also considers uncertainty on several parameters, such as financial values of inflation and interest rate, and the evolution of traffic flow. Considering the recent establishment of the management system used by the ministère des Transports, de la Mobilité durable et de l'Électrification des transports, this study is based on several assumptions. The life span of the bridge is limited to 100 years, degradation and repairs can only be done every 5 years, a single repair can be made over the bridge lifespan and the bridge condition is represented by only a few bridge components (elements). The study highlights the importance of considering variability on the deterioration of an element/bridge, interest rates and, to a lesser extent, inflation based on the ministère des Transports, de la Mobilité durable et de l'Électrification des transports data and using a probabilistic analysis of 20,000 simulations. Thus, when the bridge is only represented by its reinforced concrete deck and using the deterministic deterioration approach, a repair between 25 and 30 years is appropriate. A rather low interest rate can even push this choice to 35 years. This choice is very broad with the Markovian approach considering the high probabilities of keeping the bridge in good condition. Finally, the stochastic approach favors repair between 20 and 35 years depending on the speed of deterioration. This choice may again change slightly with the addition of both a variable interest rate and a variable inflation rate. When a reinforced concrete deck and steel beams are considered to represent the entire bridge, the deterministic approach suggests a 25-year repair for the reinforced concrete deck and a 30-year repair for the steel beams. Stochastic financial parameters can affect this choice, making an optimal repair of 25 to 35 years possible for both elements. The optimal moments of repair are very spread out for the Markovian approach considering the high probabilities of maintaining the elements in good condition. Finally, the stochastic approach proposes a repair between 20 and 35 years for the reinforced concrete deck and between 15 and 40 years for the steel beams. These repairs are slightly affected by the addition of a variable interest rate and inflation rate as well. An in-depth analysis shows the impact that several parameters have on the model considered. These parameters include: the transition matrix, the state penalty, the variability of the matrix for stochastic deterioration, and the addition of a simultaneous repair advantage. A change in the transition matrix mainly has an impact on the volatility of the results, whereas a modification on the state penalty shifts the optimal repair time distribution for Markovian and stochastic deteriorations. The variability of the matrix for stochastic deterioration directly affects the volatility of the optimal repair time. For example, the lower the percentage of variation of the matrix, the more the optimal repair moments will be concentrated (or fixed). Finally, the implementation of a simultaneous repair benefit mainly has an impact when the optimal repair time is within 10 years of a simultaneous repair. For a deterministic deterioration, a reduction in costs of 3.72% is sufficient to reconcile repair dates to 30 years, the bridge being repair at 25 years without this benefit. However, this advantage has little impact on Markovian deterioration due to the wide distribution of optimal repair times but a considerable impact on stochastic deterioration, with the majority of repairs occurring within a range of 15 to 40 years.
Cette étude a pour but de contribuer à l’avancement des connaissances dans le domaine des systèmes de gestion de ponts (Bridge Management System (BMS)) par le développement d’un outil décisionnel pour optimiser les réparations sur les ponts. Cet outil décisionnel se base sur la valeur actualisée nette pour considérer le moment optimal de réparation. Il met ainsi à l’avant-plan la création de richesse permise par un réseau routier efficace. De plus, il permet d’étudier l’incertitude sur plusieurs variables, soit les valeurs financières d’inflation et d’actualisation, ainsi que l’évolution du débit routier. La flexibilité de l’outil décisionnel permet de vérifier l’impact de plusieurs variables. Ainsi, le modèle de détérioration présentement utilisée par le ministère des Transports, de la Mobilité durable et de l'Électrification des transports du Québec est comparé à deux autres modèles, soit un modèle markovien basé sur la théorie des chaînes de Markov et un modèle stochastique développé dans le cadre de cette étude. Le projet innove en considérant les revenus générés par un pont et l’incertitude sur les variables futures de détérioration d’éléments de ponts, d’inflation et d’actualisation, ainsi que celles relatives à l’évolution du débit routier. Considérant la récente implantation du système de gestion du ministère des Transports, de la Mobilité durable et de l'Électrification des transports, cette étude se base sur plusieurs hypothèses. Pour cette étude, la durée de vie maximale du pont est établie à 100 ans, la dégradation et la réparation d’un ouvrage est analysée aux 5 ans et une seule réparation majeure peut être effectuée sur la durée de vie. De plus, cette réparation permet de remettre le pont dans son état initial (neuf) et la détérioration de quelques éléments principaux (la dalle en béton armé et les poutres d’acier) du pont représente la détérioration globale de la structure. En se basant sur les données du ministère des Transports, de la Mobilité durable et de l'Électrification des transports et à l’aide d’une analyse probabiliste de 20 000 simulations, l’étude met en évidence l’importance de considérer la variabilité sur la détérioration d’un élément/pont, sur le taux d’intérêt et dans une moindre mesure, l’inflation. Ainsi, lorsque seul l’état de la dalle représente l’état global du pont et en utilisant l’approche déterministe, une réparation entre 25 et 30 ans est appropriée. Un taux d’intérêt plutôt faible peut même repousser ce choix à 35 ans. Le choix de date optimale de réparation est très étalé avec l’approche markovienne considérant les probabilités élevées de maintien du pont en bon état. Finalement, l’approche stochastique favorise une réparation entre 20 et 35 ans selon la rapidité de la détérioration. Ce choix peut encore une fois changer légèrement avec l’ajout de taux d’intérêt et d’inflation variables. Lorsque seul l’état de la dalle et des poutres est considéré représenter l’état de l’ensemble du pont, l’approche déterministe propose une réparation à 25 ans pour le dalle en béton armé et une réparation à 30 ans pour les poutres en acier. Les paramètres financiers stochastiques peuvent affecter ce choix rendant possible une réparation optimale de 25 à 35 ans pour les deux types d’éléments. Les moments optimaux de réparation sont très étalés pour l’approche markovienne considérant les probabilités élevées de maintien des éléments en bon état. Finalement, l’approche stochastique propose une réparation entre 20 et 35 ans pour le dalle en béton armé et entre 15 et 40 ans pour les poutres en acier. Ces moments de réparations sont aussi affectés légèrement par l’ajout d’un taux d’intérêt et d’inflation variables. Une analyse de sensibilité permet de considérer l’impact de plusieurs paramètres du modèle considéré, soit la matrice de transition, la pénalité d’état, la variabilité de la matrice pour une détérioration stochastique et l’ajout d’un avantage de réparation simultanée à deux éléments. Une modification de la matrice de transition a surtout un impact sur la volatilité des résultats, alors qu’une modification sur la pénalité d’état crée une translation sur la distribution du moment optimal de réparation pour une détérioration de type markovienne et stochastique. La variabilité de la matrice pour une détérioration stochastique a directement un impact sur la volatilité du moment optimal de réparation. Plus le pourcentage de variation de la matrice est faible, plus les moments optimaux de réparation seront concentrés (plage moins étendue). Finalement, s’il est considéré que la réparation simultanée de deux éléments coûte moins cher que lorsque ces deux éléments sont réparés à des dates différentes (avantage de réparation simultanée de deux éléments plutôt que deux réparations distinctes), il y alors un impact sur le moment optimal de réparation. Cet effet est principalement perceptible lorsque les dates de réparation optimales sont séparées de moins de 10 ans. Pour une détérioration déterministe, il suffit que la réparation simultanée coûte de 3,72% de moins que deux réparations distinctes pour favoriser de réparer les deux éléments simultanément à 30 ans, la dalle étant réparée à 25 ans sans avantage (réduction des coût) de réparation simultanée. Cependant, un avantage de réparation simultanée a peu d’impact sur le moment optimal de réparation lorsque la détérioration se base sur un modèle markovien en raison de la grande répartition des moments optimaux de réparation. Enfin, l’avantage de réparation simultanée a un impact considérable pour une détérioration stochastique, la majorité des réparations se produisant entre 15 et 40 ans.
Cette étude a pour but de contribuer à l’avancement des connaissances dans le domaine des systèmes de gestion de ponts (Bridge Management System (BMS)) par le développement d’un outil décisionnel pour optimiser les réparations sur les ponts. Cet outil décisionnel se base sur la valeur actualisée nette pour considérer le moment optimal de réparation. Il met ainsi à l’avant-plan la création de richesse permise par un réseau routier efficace. De plus, il permet d’étudier l’incertitude sur plusieurs variables, soit les valeurs financières d’inflation et d’actualisation, ainsi que l’évolution du débit routier. La flexibilité de l’outil décisionnel permet de vérifier l’impact de plusieurs variables. Ainsi, le modèle de détérioration présentement utilisée par le ministère des Transports, de la Mobilité durable et de l'Électrification des transports du Québec est comparé à deux autres modèles, soit un modèle markovien basé sur la théorie des chaînes de Markov et un modèle stochastique développé dans le cadre de cette étude. Le projet innove en considérant les revenus générés par un pont et l’incertitude sur les variables futures de détérioration d’éléments de ponts, d’inflation et d’actualisation, ainsi que celles relatives à l’évolution du débit routier. Considérant la récente implantation du système de gestion du ministère des Transports, de la Mobilité durable et de l'Électrification des transports, cette étude se base sur plusieurs hypothèses. Pour cette étude, la durée de vie maximale du pont est établie à 100 ans, la dégradation et la réparation d’un ouvrage est analysée aux 5 ans et une seule réparation majeure peut être effectuée sur la durée de vie. De plus, cette réparation permet de remettre le pont dans son état initial (neuf) et la détérioration de quelques éléments principaux (la dalle en béton armé et les poutres d’acier) du pont représente la détérioration globale de la structure. En se basant sur les données du ministère des Transports, de la Mobilité durable et de l'Électrification des transports et à l’aide d’une analyse probabiliste de 20 000 simulations, l’étude met en évidence l’importance de considérer la variabilité sur la détérioration d’un élément/pont, sur le taux d’intérêt et dans une moindre mesure, l’inflation. Ainsi, lorsque seul l’état de la dalle représente l’état global du pont et en utilisant l’approche déterministe, une réparation entre 25 et 30 ans est appropriée. Un taux d’intérêt plutôt faible peut même repousser ce choix à 35 ans. Le choix de date optimale de réparation est très étalé avec l’approche markovienne considérant les probabilités élevées de maintien du pont en bon état. Finalement, l’approche stochastique favorise une réparation entre 20 et 35 ans selon la rapidité de la détérioration. Ce choix peut encore une fois changer légèrement avec l’ajout de taux d’intérêt et d’inflation variables. Lorsque seul l’état de la dalle et des poutres est considéré représenter l’état de l’ensemble du pont, l’approche déterministe propose une réparation à 25 ans pour le dalle en béton armé et une réparation à 30 ans pour les poutres en acier. Les paramètres financiers stochastiques peuvent affecter ce choix rendant possible une réparation optimale de 25 à 35 ans pour les deux types d’éléments. Les moments optimaux de réparation sont très étalés pour l’approche markovienne considérant les probabilités élevées de maintien des éléments en bon état. Finalement, l’approche stochastique propose une réparation entre 20 et 35 ans pour le dalle en béton armé et entre 15 et 40 ans pour les poutres en acier. Ces moments de réparations sont aussi affectés légèrement par l’ajout d’un taux d’intérêt et d’inflation variables. Une analyse de sensibilité permet de considérer l’impact de plusieurs paramètres du modèle considéré, soit la matrice de transition, la pénalité d’état, la variabilité de la matrice pour une détérioration stochastique et l’ajout d’un avantage de réparation simultanée à deux éléments. Une modification de la matrice de transition a surtout un impact sur la volatilité des résultats, alors qu’une modification sur la pénalité d’état crée une translation sur la distribution du moment optimal de réparation pour une détérioration de type markovienne et stochastique. La variabilité de la matrice pour une détérioration stochastique a directement un impact sur la volatilité du moment optimal de réparation. Plus le pourcentage de variation de la matrice est faible, plus les moments optimaux de réparation seront concentrés (plage moins étendue). Finalement, s’il est considéré que la réparation simultanée de deux éléments coûte moins cher que lorsque ces deux éléments sont réparés à des dates différentes (avantage de réparation simultanée de deux éléments plutôt que deux réparations distinctes), il y alors un impact sur le moment optimal de réparation. Cet effet est principalement perceptible lorsque les dates de réparation optimales sont séparées de moins de 10 ans. Pour une détérioration déterministe, il suffit que la réparation simultanée coûte de 3,72% de moins que deux réparations distinctes pour favoriser de réparer les deux éléments simultanément à 30 ans, la dalle étant réparée à 25 ans sans avantage (réduction des coût) de réparation simultanée. Cependant, un avantage de réparation simultanée a peu d’impact sur le moment optimal de réparation lorsque la détérioration se base sur un modèle markovien en raison de la grande répartition des moments optimaux de réparation. Enfin, l’avantage de réparation simultanée a un impact considérable pour une détérioration stochastique, la majorité des réparations se produisant entre 15 et 40 ans.
43

Sadet, Jérémy. "Surrogate models for the analysis of friction induced vibrations under uncertainty." Electronic Thesis or Diss., Valenciennes, Université Polytechnique Hauts-de-France, 2022. http://www.theses.fr/2022UPHF0014.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le crissement automobile est une nuisance sonore qui intéresse à la fois les chercheurs et les industriels. Ce phénomène fugace, perçu par les acquéreurs de véhicule comme gage de piètre qualité, induit un coût de plus en plus important pour les équipementiers automobiles dû aux réclamations-client. Par conséquent, il est primordial de proposer et développer des méthodes permettant de prédire avec efficacité l’occurrence de cette nuisance sonore grâce à des modèles de simulation numérique. Ainsi, cette thèse se propose de poursuivre les récents travaux montrant l’apport certain d’une intégration des incertitudes au sein des simulations numériques de crissement. L’objectif est de proposer une stratégie de propagation d’incertitudes pour des simulations de crissement en maintenant des coûts numériques acceptables (en phase d’avant-projet). Plusieurs méthodes numériques sont évaluées et améliorées pour permettre des calculs à la fois précis et dans des temps de calcul compatibles avec les contraintes de l’industrie. Après avoir positionné ce travail de thèse par rapport aux avancées des chercheurs travaillant sur la thématique du crissement, une nouvelle méthode d’amélioration des solutions propres d’un problème aux valeurs propres complexes est proposée. Pour réduire les coûts numériques de telles études, trois modèles de substitution (processus gaussien, processus gaussien profond et réseau de neurones profonds) sont étudiés et comparés pour proposer les stratégies optimales que ce soit en termes de méthode ou de paramétrage. La construction de l’ensemble d’apprentissage est un élément clé pour assurer les futures prédictions des modèles de substitution. Une nouvelle stratégie/méthode d’optimisation exploitant l’optimisation bayésienne est présentée pour cibler idéalement le choix des données de l’ensemble d’apprentissage, données potentiellement coûteuses d’un point de vue numérique. Ces méthodes sont ensuite exploitées pour proposer une technique de propagation des incertitudes selon une modélisation par sous-ensembles flous
The automotive squeal is a noise disturbance, which has won the interest of the research and industrialists over the year. This elusive phenomenon, perceived by the vehicle purchasers as a poor-quality indicator, causes a cost which becomes more and more important for the car manufacturers, due to client’s claims. Thus, it is all the more important to propose and develop methods allowing predicting the occurring of this noise disturbance with efficiency, thanks to numerical simulations. Hence, this thesis proposes to pursue the recent works that showed the certain contributions of an integration of uncertainties into the squeal numerical simulations. The objective is to suggest a strategy of uncertainty propagation, for squeal simulations, maintaining numerical cost acceptable (especially, for pre-design phases). Several numerical methods are evaluated and improved to allow precise computations and with computational time compatible with the constraints of the industry. After positioning this thesis work with respect to the progress of the researchers working on the squeal subject, a new numerical method is proposed to improve the computation of the eigensolutions of a large quadratic eigenvalue problem. To reduce the numerical cost of such studies, three surrogate models (gaussian process, deep gaussian process and deep neural network) are studied and compared to suggest the optimal strategy in terms of methodology or model setting. The construction of the training set is a key aspect to insure the predictions of these surrogate models. A new optimisation strategy, hinging on bayesian optimisation, is proposed to efficiently target the samples of the training set, samples which are probably expensive to compute from a numerical point of view. These optimisation methods are then used to present a new uncertainty propagation method, relying on a fuzzy set modelisation
44

Fontchastagner, Julien. "Résolution du problème inverse de conception d'actionneurs électromagnétiques par association de méthodes déterministes d'optimisation globale avec des modèles analytiques et numériques." Phd thesis, Toulouse, INPT, 2007. https://hal.science/tel-02945546v1.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les travaux présentés dans cette thèse apportent une nouvelle méthodologie de résolution du problème inverse de conception des actionneurs électromagnétiques. Après avoir abordé les aspects généraux du problème, nous choisirons de le résoudre avec des méthodes déterministes d'optimisation globale, ne nécessitant aucun point de départ, utilisant tout type de variables et assurant le caractère exact de l'optimum trouvé. Étant jusqu'alors utilisé seulement avec des modèles simples, nous les appliquerons en utilisant des modèles analytiques de type champ, reposant sur des hypothèses moins restrictives, donc plus complexes, nécessitant d'étendre notre algorithme d'optimisation. Un logiciel complet de calcul par éléments finis a ensuite été créé, puis doté d'une procédure d'évaluation du couple moyen dans le cas d'un moteur à aimant. Le problème initial a été reformulé et résolu en intégrant la contrainte numérique de couple, le modèle analytique servant de guide au nouvel algorithme
The work presented in this thesis brings a new methodology to solve the inverse problem of electromagnetic actuators design. After treating the general aspects of the problem, we will choose to solve it with deterministic methods of global optimization, which do not require any starting point, use each kind of variables and ensure to obtain the global optimum. Being hitherto used only with simple models, we apply them with analytical models based on an analytical resolution of the magnetic field, using less restrictive hypotheses. They are so more complex, and require we extend our optimization algorithm. A full finite elements software was then created, and equipped with a procedure which permit the evaluation of the average torque in the particular case of a magnet machine. The initial problem was reformulated and solve by integrating the numerical constraint of couple, the analytical model being used as guide with the new algorithm
45

Fontchastagner, Julien. "Résolution du problème inverse de conception d'actionneurs électromagnétiques par association de méthodes déterministes d'optimisation globale avec des modèles analytiques et numériques." Phd thesis, Toulouse, INPT, 2007. http://oatao.univ-toulouse.fr/7621/1/fontchastagner.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les travaux présentés dans cette thèse apportent une nouvelle méthodologie de résolution du problème inverse de conception des actionneurs électromagnétiques. Après avoir abordé les aspects généraux du problème, nous choisirons de le résoudre avec des méthodes déterministes d'optimisation globale, ne nécessitant aucun point de départ, utilisant tout type de variables et assurant le caractère exact de l'optimum trouvé. Étant jusqu'alors utilisées seulement avec des modèles simples, nous les appliquerons en les associant avec des modèles analytiques de type champ, reposant sur des hypothèses moins restrictives, donc plus complexes, nécessitant d'étendre notre algorithme d'optimisation. Un logiciel complet de calcul par éléments finis a ensuite été créé, puis doté d'une procédure d'évaluation du couple moyen dans le cas d'un moteur à aimant. Le problème initial a été reformulé et résolu en intégrant la contrainte numérique de couple, le modèle analytique servant de guide au nouvel algorithme.
46

Kpoton, Agapit. "De la stéréochimie de la substitution nucléophile sur le silicium à la synthèse de silanes pentacoordonnés modèles : mise en évidence de la pseudorotation au niveau de l'atome de silicium." Montpellier 2, 1991. http://www.theses.fr/1991MON20120.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La premiere partie de ce memoire decrit la synthese de dialcoxysilanes acycliques ou cycliques, et d'oxasilacycloalcanes, et developpe leur reactivite vis-a-vis de reactifs organometalliques. Les resultats obtenus montrent que la stereochimie de la substitution nucleophile s#n-si d'un groupe alcoxyle sur le silicium depend: (i) de la taille du groupe alcoxyle, (ii) de l'environnement sterique du silicium, (iii) et de la durete ou de la mollesse du reactif organometallique en fonction du solvant. La 2eme partie traite de la pentacoordination du silicium par coordination intramoleculaire nsi dans des chelates de type me#2nsixyz pouvant etre consideres comme des intermediaires reactionnels de la substitution nucleophile sur le silicium. Les etudes par rayons x et par rmn de #2#9si, #1#9f et #1h montrent que ces chelates sont pentacoordonnes au silicium, en solution comme a l'etat solide, dans une geometrie de bipyramide trigonale comportant l'atome d'azote toujours axial oppose a un groupe electronegatif lui aussi axial. Les resultats obtenus montrent que: (i) les substituants polaires favorisent la coordination nsi; (ii) les silanes a liaison si-h sont plus fortement pentacoordonnes que les silanes a liaison si-or; (iii) la stabilite de ces entites pentacoordonnees du silicium peut etre affectee par un processus d'ouverture-fermeture de la liaison nsi, ou par un processus de pseudorotation du silicium pentacoordonne maintenant le cycle du chelate toujours axial-equatorial
47

Labroche, Nicolas. "Modélisation du système de reconnaissance chimique des fourmis pour le problème de la classification non-supervisée : application à la mesure d'audience sur internet." Tours, 2003. http://www.theses.fr/2003TOUR4033.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans ce travail de thèse, nous proposons de modéliser le système de reconnaissance chimique des fourmis pour concevoir une méthode de classification non-supervisée, appliquée au problème de la mesure d'audience sur Internet. Les principes biologiques issus du modèle ont permis d'une part de réaliser un simulateur de vie artificielle capable de reproduire des expériences conduites sur les fourmis réelles et d'autre part, de poser les bases de nos algorithmes de classification AntClust et Visual AntClust. Ceux-ci associent un objet à classer au génome d'une fourmi artificielle et simulent des rencontres entre ces dernières. Le regroupement des fourmis ayant une odeut comparable dans les même nids réalise la partition recherchée des objets. Une représentation multi-modale des sessions de navigations sur internet ainsi qu'une mesure de similarité adaptée ont été développées et associées à AntClust de façon à aider à la compréhension de l'activité des internautes sur les sites web
In this thesis, we model the chemical recognition system of ants to develop a new unsupervised clustering method, applied to the web usage mining problem. The biological principles of the model allowed us on the one hand to develop an artificial life simulator able to reproduce real ants experiments and on the other hand to set the basis of our clustering algorithm AntClust and Visual AntClust. These algorithms associate one object to the genome of an artificial ant and simulate meetings between them. The gathering of artificial ants with similar odours in the same nest builds the expected partition of the objects. We associate Antclust to a multi-modal representation of the web sessions and an adapted similarity measure to help understanding the web users behaviours
48

Lefillastre, Paul. "Contribution au développement d'une nouvelle technologie d'optique ophtalmique pixellisée : étude et optimisation du report de films fonctionnalisés sur une surface courbe." Phd thesis, Université Paul Sabatier - Toulouse III, 2010. http://tel.archives-ouvertes.fr/tel-00807651.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le report sur des lentilles optiques à surface courbe de films plans, souples et fragiles est un verrou à lever pour permettre un saut technologique dans le domaine de l'optique ophtalmique active. En effet, pour bénéficier des avantages d'une fabrication collective il est impératif de rester en mode de fabrication sur substrat plan et de reporter ensuite les films préfonctionnalisés sur les verres. Il convient donc de préserver cet hétéro-assemblage au cours du report, l'intégrité de la fonction implémentée en minimisant à la fois la déformation, le stockage de contraintes mécaniques et la température pendant le thermoformage. Dans ce travail de thèse nous proposons un principe de report qui permet de satisfaire au mieux ces exigences en séparant la phase de mise en forme réalisée par gonflement de l'étape du report proprement dit. Un premier outillage spécifique qui a été conçu et développé pour mettre au point le procédé décrit. L'optimisation des conditions opératoires est déclinée pour deux modes différenciés et imposés qui considèrent d'abord le report sur lentille brute et ensuite le report sur un verre déjà détouré au gabarit de la monture de lunettes. Pour prédire et/ou interpréter les comportements expérimentaux obtenus pour chacun des deux modes, nous avons mené des simulations numériques par la méthode des éléments finis en nous appuyant sur une caractérisation préalable des propriétés thermomécaniques du film PET qui constitue l'armature du film optique fonctionnalisé. Au prix d'une complexification du procédé de transfert, le second mode a donné lieu à des résultats intéressants qui aujourd'hui semblent répondre aux exigences les plus sévères du projet.
49

Combes, François. "Optimisation de protocoles dans les modèles non linéaires à effets mixtes : prise en compte de la précision d'estimation des paramètres individuels et impact sur la détection de covariables en pharmacocinétique." Paris 7, 2014. http://www.theses.fr/2014PA077016.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les modèles non-linéaires à effets mixtes sont très utilisés en pharmacométrie. Ils permettent entre autres d'estimer les paramètres individuels par la méthode Bayésienne du maximum a posteriori. Le protocole, c'est-à-dire le nombre de prélèvements par patient et l'heure des prélèvements, influe sur la précision d'estimation des paramètres individuels et sur leur shrinkage, c'est-à-dire leur régression vers la moyenne. Nous avons implémenté une approximation de la matrice de Fisher Bayésienne (M5F) utilisant une linéarisation du premier ordre du modèle. A partir de 31E7, nous avons proposé une méthode pour prédire le shrinkage associé à un protocole. Nous avons mené des études de simulation basées sur deux modèles pharmacocinétiques afin de valider cette prédiction. Par la suite, nous avons exploré l'impact du protocole sur la puissance des tests permettant de détecter les variables influant le modèle. Le test de rapport de vraisemblance (LRT) et le test de corrélation de Pearson (CT) sont les deux tests traditionnellement utilisés. Le LRT nécessite d'estimer les paramètres du modèle sous l'ensemble des hypothèses considérées. Le CT est plus rapide car basé seulement sur les paramètres individuels, mais était considéré comme trop influencé par le shrinkage. Nous avons exploré le lien entre le shrinkage et la puissance des tests considérés par une étude de simulation. Les résultats montrent que les deux tests ont la même puissance de détection pour différents protocoles et différentes tailles d'effet de la covariable. Nous conseillons donc de privilégier le CT lors de la sélection initiale de l'influence des covariables, puis de construire le modèle final à l'aide du LRT
Non-Linear Mixed-effect models (NLMEM) are widely used in pharmacometrics. Using MNLEM, individual parameters can be estimated using a Bayesian approach such as the maximum a posteriori. The design, that is to say the number of samples per subject and their timing, influence the precision of the individual estimates and their shrinkage, ie their regression to the mean. We implemented an approximation of the Bayesian Fisher information matrix (Mzi) using a first-order linearization of the model. From M5,,, we proposed a method to predict the shrinkage associated with a given design. We performed simulation studies based on two pharmacokinetics models to validate this prediction. Then, we explored the impact of the design on the power of tests to detect covariate effect on the model. The Likelihood Ratio Test (LRT) and the Correlation Test (CT) are the most usual tests in NLMEM. LRT requires estimating models parameters under all the assumptions considered. CT is faster because only based on individual estimates, but was considered influenced by the shrinkage. Through a simulation study, we explored the relationship between the shrinkage and the power of these tests. Results showed that for different designs and different covariate effect sizes, the two tests have exactly the same power. As a conclusion, because of its faster execution, we therefore advise to use the CT in the initial screening of relevant covariates and then build the final covariate model using the LRT
50

Buhry, Laure. "Estimation de paramètres de modèles de neurones biologiques sur une plate-forme de SNN (Spiking Neural Network) implantés "in silico"." Phd thesis, Université Sciences et Technologies - Bordeaux I, 2010. http://tel.archives-ouvertes.fr/tel-00561396.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ces travaux de thèse, réalisés dans une équipe concevant des circuits analogiques neuromimétiques suivant le modèle d'Hodgkin-Huxley, concernent la modélisation de neurones biologiques, plus précisément, l'estimation des paramètres de modèles de neurones. Une première partie de ce manuscrit s'attache à faire le lien entre la modélisation neuronale et l'optimisation. L'accent est mis sur le modèle d'Hodgkin- Huxley pour lequel il existait déjà une méthode d'extraction des paramètres associée à une technique de mesures électrophysiologiques (le voltage-clamp) mais dont les approximations successives rendaient impossible la détermination précise de certains paramètres. Nous proposons dans une seconde partie une méthode alternative d'estimation des paramètres du modèle d'Hodgkin-Huxley s'appuyant sur l'algorithme d'évolution différentielle et qui pallie les limitations de la méthode classique. Cette alternative permet d'estimer conjointement tous les paramètres d'un même canal ionique. Le troisième chapitre est divisé en trois sections. Dans les deux premières, nous appliquons notre nouvelle technique à l'estimation des paramètres du même modèle à partir de données biologiques, puis développons un protocole automatisé de réglage de circuits neuromimétiques, canal ionique par canal ionique. La troisième section présente une méthode d'estimation des paramètres à partir d'enregistrements de la tension de membrane d'un neurone, données dont l'acquisition est plus aisée que celle des courants ioniques. Le quatrième et dernier chapitre, quant à lui, est une ouverture vers l'utilisation de petits réseaux d'une centaine de neurones électroniques : nous réalisons une étude logicielle de l'influence des propriétés intrinsèques de la cellule sur le comportement global du réseau dans le cadre des oscillations gamma.

До бібліографії