Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Problèmes de performance.

Dissertationen zum Thema „Problèmes de performance“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "Problèmes de performance" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Lacot, Émilie. „L'évaluation psychotechnique des performances mnésiques : problèmes épistémologiques et méthodologiques“. Thesis, Toulouse 2, 2014. http://www.theses.fr/2014TOU20099.

Der volle Inhalt der Quelle
Annotation:
Si les scores psychotechniques ne sont pas des mesures, leur utilisation par les chercheurs an neuropsychologie pour tester des hypothèses de recherche et par les neuropsychologues pour effectuer des bilans mémoire manque de légitimité scientifique. Le chercheur en neuropsychologie qui, à l'aide d'une étude de cas, veut départager deux approches théoriques concurrentes, doit plutôt se demander si les théories prédisent des probabilités de réussite aux items des tests appartenant à des intervalles de valeurs disjoints. Cela suppose que la notion de probabilité de réussite d'un item par le patient soit empiriquement fondée (absence d'apprentissage). Si l'apprentissage a lieu, en particulier chez un patient cérébrolésé, le problème scientifique est différent : il s'agit de découvrir ce qui permet cet apprentissage. Le clinicien, praticien des tests neuropsychologiques, participe quant à lui à une institution diagnostique, contrainte à opérer une sélection des patients qui pourront bénéficier d'examens plus approfondis de leur cerveau. Dans cette perspective, les scores psychotechniques nourrissent un dispositif sociotechnique dont la légitimation ne devrait pas être seulement scientifique mais aussi politique. Le scientisme qui détermine les conditions actuelles de validation des tests non seulement masque la dimension politique de ce dispositif, mais encore empêche les chercheurs de réfléchir à ce que mesurer signifie (le scorage d'une performance n'est pas équivalent au mesurage d'une quantité théorique). La méthodologie de cette réflexion s'appuie (I) sur une série de travaux standards (validation de test, étude de cas) et (II) sur une analyse approfondie de la notion de testabilité des hypothèses de recherche utilisées par les chercheurs en neuropsychologie, ainsi que des hypothèses qui sous-tendent la mesurabilité d'une grandeur théorique
The use of psycho-technical scores by neuropsychology researchers to test research hypotheses and neuropsychologists to perform memory assessments lacks scientific legitimacy if these scores are not measurements. A neuropsychology researcher who wants to decide between two competing theoretical approaches, by means of a case study, rather should consider whether the theories predict the probability of success in test items belonging to disjoint ranges. This implies that the notion of probability of success of an item by the patient is empirically based (absence of any learning). If learning takes place, especially in a patient with brain-injury, the scientific problem is different since it is to discover what make learning possible. The clinician, the practitioner of neuropsychological tests, participates in his turn to a diagnostic institution obliges to make a selection of patients who will benefit from further examination of their brains. In this perspective, the psycho-technical scores feed a socio-technical system whose legitimacy not expected to be merely scientific but also political. Scientism determining the current conditions of test validation not only masks the political aspect of this system, but also prevents researchers to think about what measuring means (the scoring of a performance is not equivalent to measuring a theoretical quantity). The methodology for this reflection is based on (i) a series of standard studies (validation testing, case study) and (ii) a thorough analysis of the notion of testability of research hypotheses used by neuropsychology researchers, and assumptions underlying measurability of a theoretical quantity
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Fortin, Pierre. „Algorithmique hiérarchique parallèle haute performance pour les problèmes à N-corps“. Phd thesis, Université Sciences et Technologies - Bordeaux I, 2006. http://tel.archives-ouvertes.fr/tel-00135843.

Der volle Inhalt der Quelle
Annotation:
Cette thèse porte sur la méthode dite « méthode multipôle rapide » qui résout hiérarchiquement le problème à N-corps avec une complexité linéaire pour n'importe quelle précision. Dans le cadre de l'équation de Laplace, nous souhaitons pouvoir traiter efficacement toutes les distributions de particules rencontrées en astrophysique et en dynamique moléculaire.
Nous étudions tout d'abord deux expressions distinctes du principal opérateur (« multipôle-to-local ») ainsi que les bornes d'erreur associées. Pour ces deux expressions, nous présentons une formulation matricielle dont l'implémentation avec des routines BLAS (Basic Linear Algebra Subprograms) permet d'améliorer fortement l'efficacité de calcul. Dans la gamme de précisions qui nous intéresse, cette approche se révèle plus performante que les améliorations existantes (FFT, rotations et ondes planes), pour des distributions uniformes ou non.
Outre une nouvelle structure de données pour l'octree sous-jacent et des contributions algorithmiques à la version adaptative, nous avons aussi efficacement parallélisé notre méthode en mémoire partagée et en mémoire distribuée. Enfin, des comparaisons avec des codes dédiés justifient l'intérêt de notre code pour des simulations en astrophysique.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Jurkowiak, Bernard. „Programmation haute performance pour la résolution des problèmes SAT et CSP“. Amiens, 2004. http://www.theses.fr/2004AMIE0410.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Pageau, Normand. „Évaluation et prédiction de performance de problèmes irréguliers sur une architecture parallèle“. Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1999. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape7/PQDD_0009/MQ41976.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Luu, Keurfon. „Optimisation numérique stochastique évolutionniste : application aux problèmes inverses de tomographie sismique“. Thesis, Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLEM077/document.

Der volle Inhalt der Quelle
Annotation:
La tomographie sismique des temps de trajet est un problème d'optimisation mal-posé du fait de la non-linéarité entre les temps et le modèle de vitesse. Par ailleurs, l'unicité de la solution n'est pas garantie car les données peuvent être expliquées par de nombreux modèles. Les méthodes de Monte-Carlo par Chaînes de Markov qui échantillonnent l'espace des paramètres sont généralement appréciées pour répondre à cette problématique. Cependant, ces approches ne peuvent pleinement tirer partie des ressources computationnelles fournies par les super-calculateurs modernes. Dans cette thèse, je me propose de résoudre le problème de tomographie sismique à l'aide d'algorithmes évolutionnistes. Ce sont des méthodes d'optimisation stochastiques inspirées de l'évolution naturelle des espèces. Elles opèrent sur une population de modèles représentés par un ensemble d'individus qui évoluent suivant des processus stochastiques caractéristiques de l'évolution naturelle. Dès lors, la population de modèles peut être intrinsèquement évaluée en parallèle ce qui rend ces algorithmes particulièrement adaptés aux architectures des super-calculateurs. Je m'intéresse plus précisément aux trois algorithmes évolutionnistes les plus populaires, à savoir l'évolution différentielle, l'optimisation par essaim particulaire, et la stratégie d'évolution par adaptation de la matrice de covariance. Leur faisabilité est étudiée sur deux jeux de données différents: un jeu réel acquis dans le contexte de la fracturation hydraulique et un jeu synthétique de réfraction généré à partir du modèle de vitesse Marmousi réputé pour sa géologie structurale complexe
Seismic traveltime tomography is an ill-posed optimization problem due to the non-linear relationship between traveltime and velocity model. Besides, the solution is not unique as many models are able to explain the observed data. The non-linearity and non-uniqueness issues are typically addressed by using methods relying on Monte Carlo Markov Chain that thoroughly sample the model parameter space. However, these approaches cannot fully handle the computer resources provided by modern supercomputers. In this thesis, I propose to solve seismic traveltime tomography problems using evolutionary algorithms which are population-based stochastic optimization methods inspired by the natural evolution of species. They operate on concurrent individuals within a population that represent independent models, and evolve through stochastic processes characterizing the different mechanisms involved in natural evolution. Therefore, the models within a population can be intrinsically evaluated in parallel which makes evolutionary algorithms particularly adapted to the parallel architecture of supercomputers. More specifically, the works presented in this manuscript emphasize on the three most popular evolutionary algorithms, namely Differential Evolution, Particle Swarm Optimization and Covariance Matrix Adaptation - Evolution Strategy. The feasibility of evolutionary algorithms to solve seismic tomography problems is assessed using two different data sets: a real data set acquired in the context of hydraulic fracturing and a synthetic refraction data set generated using the Marmousi velocity model that presents a complex geology structure
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Kudawoo, Ayaovi Dzifa. „Problèmes industriels de grande dimension en mécanique numérique du contact : performance, fiabilité et robustesse“. Phd thesis, Université de Provence - Aix-Marseille I, 2012. http://tel.archives-ouvertes.fr/tel-00773642.

Der volle Inhalt der Quelle
Annotation:
Ce travail de thèse concerne la mécanique numérique du contact entre solides déformables. Il s'agit de contribuer à l'amélioration de la performance, de la fiabilité et de la robustesse des algorithmes et des modèles numériques utilisés dans les codes éléments finis en particulier Code_Aster qui est un code libre développé par Électricité De France (EDF) pour ses besoins en ingénierie. L'objectif final est de traiter les problèmes industriels de grande dimension avec un temps de calcul optimisé. Pour parvenir à ces objectifs, les algorithmes et formulations doivent prendre en compte les difficultés liées à la mécanique non régulière à cause des lois de Signorini-Coulomb ainsi que la gestion des non linéarités dûes aux grandes déformations et aux comportements des matériaux étudiés. Le premier axe de ce travail est dédié à une meilleure compréhension de la formulation dite de " Lagrangien stabilisé " initialement implémentée dans le code. Il a été démontré l'équivalence entre cette formulation et la formulation bien connue de " Lagrangien augmenté ". Les caractéristiques mathématiques liées aux opérateurs discrets ont été précisées et une écriture énergétique globale a été trouvée. Une réflexion a été mise en oeuvre en vue de renforcer de manière faible la condition cinématique sur la normale dans la zone de contact via les techniques d'optimisation sans contraintes. La nouvelle formulation est dite de " Lagrangien augmenté non standard ". Trois nouvelles stratégies basées sur le Lagrangien augmenté ont été implémentées. Il s'agit de la méthode de Newton généralisée : c'est une méthode d'optimisation qui permet de résoudre toutes les non linéarités du problème en une seule boucle d'itérations. La méthode de Newton partielle est une méthode hybride entre la méthode historique du code appelée méthode de point fixe et la méthode de Newton généralisée. Enfin, on a mis en place une façon originale de traiter le cyclage : ce phénomène apparaît souvent au cours de la résolution du problème et il entraîne la perte de convergence des algorithmes. La stratégie nouvelle permet d'améliorer la robustesse des algorithmes.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Rigal, Laure. „Étude sur la performance des algorithmes génétiques appliqués à une classe de problèmes d'optimisation“. Nantes, 2005. http://www.theses.fr/2005NANT2109.

Der volle Inhalt der Quelle
Annotation:
L'algorithme génétique (AG) est un algorithme qui imite le processus de la sélection naturelle de Darwin. Il est souvent utilisé comme outil d'optimisation. L'AG génère successivement des populations d'individus. Les individus représentent des solutions potentielles du problème d'optimisation. Pour générer des populations successives l'AG utilise trois opérateurs stochastiques : mutation, croisement, sélection. L'AG est un outil d'optimisation complexe. En effet il faut régler différents paramètres (la probabilité de mutation, la probabilité de croisement, la pression sélective, la taille de la population. . . ) qui interagissent entre eux. Très peu de résultats théoriques mesurent l'impact du contrôle de différents paramètres sur la performance d'un AG. La théorie des perturbations (développée par Freidlin et Wentzell dans Random perturbations of dynamical systems) permet de déterminer des contrôles ``adéquats'' de différents paramètres de l'AG. Dans cette thèse, nous utilisons et mettons au point des techniques de contrôle de paramètres d'AGs via la théorie des perturbations
Genetic algorithms (GAs) are computation methods inspired by evolution. They have drawn much attention as optimization methods in the last two decades. These optimization methods are population-based algorithms which simulate natural evolution. A population is a set of individuals. Each of them represents a candidate solution to the optimization problem. Populations were evolved by applying genetic operators (mutation process, crossing-over process, selection process). When defining a GA we need to choose some parameters probability of mutation, probability of crossover, the selection pressure, the population size and the penalty coefficients. The complexity of the interaction between the parameters make the selection of a perfect tuning/controlling of them very difficult. In order to compare the asymptotical behavior of GAs which have different parameters controlling, we used the theory of the perturbed Markov Chain made by Freidlin and Wentzell in Random perturbations of dynamical systems. In this thesis, we propose different ways to control the GAs parameters
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Kudawoo, Ayaovi Dzifa. „Problèmes industriels de grande dimension en mécanique numérique du contact : performance, fiabilité et robustesse“. Thesis, Aix-Marseille, 2012. http://www.theses.fr/2012AIXM4771/document.

Der volle Inhalt der Quelle
Annotation:
Ce travail de thèse concerne la mécanique numérique du contact entre solides déformables. Il s'agit de contribuer à l'amélioration de la performance, de la fiabilité et de la robustesse des algorithmes et des modèles numériques utilisés dans les codes éléments finis en particulier Code_Aster qui est un code libre développé par Électricité De France (EDF) pour ses besoins en ingénierie. L'objectif final est de traiter les problèmes industriels de grande dimension avec un temps de calcul optimisé. Pour parvenir à ces objectifs, les algorithmes et formulations doivent prendre en compte les difficultés liées à la mécanique non régulière à cause des lois de Signorini-Coulomb ainsi que la gestion des non linéarités dûes aux grandes déformations et aux comportements des matériaux étudiés.Le premier axe de ce travail est dédié à une meilleure compréhension de la formulation dite de « Lagrangien stabilisé » initialement implémentée dans le code. Il a été démontré l'équivalence entre cette formulation et la formulation bien connue de « Lagrangien augmenté ». Les caractéristiques mathématiques liées aux opérateurs discrets ont été précisées et une écriture énergétique globale a été trouvée
This work deals with computational contact mechanics between deformable solids. The aim of this work is to improve the performance, the reliability and the robustness of the algorithms and numerical models set in Code_Aster which is finite element code developped by Électricité De France (EDF) for its engineering needs. The proposed algorithms are used to solve high dimensional industrial problems in order to optimize the computational running times. Several solutions techniques are available in the field of computational contact mechanics but they must take into account the difficulties coming from non-smooth aspects due to Signorini-Coulomb laws coupled to large deformations of bodies and material non linearities. Firstly the augmented Lagrangian formulation so-called « stabilized Lagrangian » is introduced. Successively, the mathematical properties of the discrete operators are highlighted and furthermore a novel energetic function is presented. Secondly the kinematical condition with regard to the normal unknowns are reinforced through unconstrained optimization techniques which result to a novel formulation which is so-called « non standard augmented Lagrangian formulation ». Three types of strategies are implemented in the code. The generalized Newton method is developped : it is a method in which all the non linearities are solved in one loop of iterations. The partial Newton method is an hybrid technique between the generalized Newton one and a fixed point method
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Oulamara, Ammar. „Contribution à l'étude des problèmes d'ordonnancement flowshop avec contraintes supplémentaires : Complexité et méthodes de résolution“. Habilitation à diriger des recherches, Institut National Polytechnique de Lorraine - INPL, 2009. http://tel.archives-ouvertes.fr/tel-00607288.

Der volle Inhalt der Quelle
Annotation:
Dans ce mémoire, je présente une synthèse de mes travaux de recherche ainsi que le choix des thèmes étudiés. J'ai choisi de présenter trois thèmes. Les résultats obtenus pour chaque thème dépendent à la fois de la difficulté des problématiques étudiées, du temps qui leur est imparti et des circonstances et des opportunités d'encadrement des étudiants. Ces thèmes sont essentiellement sur les problèmes d'ordonnancement et principalement sont axées sur les ateliers de type flowshop avec prise en compte de contraintes supplémentaires, proche de la réalité industrielle, à savoir, (i) prise en compte de contraintes de groupement des tâches, connues sous le terme anglais, batch scheduling, (ii) prise en compte de contraintes temporelles sur la succession d'exécution des tâches, connues sous le nom de time-lags, (iii) prise en compte de la détérioration des tâches. Notre contribution à ces trois thèmes concerne d'une part l'étude de la complexité de la structure combinatoire de ces problèmes, et d'autre part la mise en œuvre de méthodes d'optimisation efficaces pour la résolution. Ce mémoire se termine par une conclusion générale, ainsi que les perspectives et les orientations de recherche que nous souhaitons engagé dans un avenir proche ainsi que quelques réflexions sur de nouvelles voies de recherche.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Takahashi, Nozomi. „Aspects et problèmes de l'enseignement du japonais langue étrangère à des non-spécialistes“. Paris 8, 2009. http://octaviana.fr/document/152212493#?c=0&m=0&s=0&cv=0.

Der volle Inhalt der Quelle
Annotation:
Notre recherche vise à montrer quelle place, quel rôle et quels moyens sont ceux d’un enseignement du japonais langue étrangère (JLE) au sein de différentes institutions. Nous partons du système linguistique japonais, dans sa relation au système premier français, avec le questionnement qu’amène, pour l’enseignement, l’évolution des moyens, méthodologies et curricula de formation, notamment le CECRL. Le public étudié est celui d’étudiants ayant des objectifs professionnels et / ou personnels, particulièrement dans les filières LANSAD (« Langues pour spécialistes d’autres disciplines ») des universités et grandes écoles. Nos hypothèses sont les suivantes : cet enseignement s’inscrit dans les conditions historiques et géopolitiques de la diffusion du japonais dans le monde ; une meilleure connaissance de l’étudiant non-spécialiste est nécessaire, étant donné la diversité des profils ; à cette diversité doit correspondre un éclectisme méthodologique réfléchi. L’enquête recourt à l’analyse des textes, curricula et manuels, avec des questionnaires et entretiens, ainsi que l’observation des étudiants (corpus écrit et interactions). Nos travaux devraient permettre de donner une synthèse des recherches sur la question et d’ouvrir des perspectives didactiques
Our study aims at showing which place, which role and which means are those of the teaching of Japanese as a Foreign Language (JFL) within various institutions. We start from the Japanese linguistic system, in its connection with the French system, with the questioning, as regards to the teaching, brought by the evolution of resources, methodologies and curricula of formation, notably the CEFR. The population that is being studied is composed of students with professional and / or personal objectives, in particular in the LANSAD courses (Foreign Language Teaching for Non-specialists) of universities and “grandes écoles”. Our hypothesis are the following: that teaching fit within the historical and geopolitical conditions of the spread of Japanese language in the world; a better knowledge of the non-specialist student is necessary, given the diversity of the profiles; and a well-considered pedagogical eclecticism must match that diversity. The survey resorts to the analysis of texts, curricula and textbooks, with questionnaires and interviews, as well as the watching of students (written corpus and interactions). Our work should allow to provide a synthesis of the research on the topic and to open didactic prospects
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Lacroix, Katherine. „L’influence du quartier de résidence et des problèmes de comportement extériorisés sur le rendement scolaire des adolescents“. Mémoire, Université de Sherbrooke, 2017. http://hdl.handle.net/11143/11553.

Der volle Inhalt der Quelle
Annotation:
Cette étude examine si la composition et l’organisation sociale du quartier résidentiel sont associées au rendement scolaire d’élèves québécois âgés de 12 à 15 ans (N = 630). L’effet modérateur des problèmes de comportement extériorisés sur ces associations est aussi analysé. Les résultats montrent que le désordre physique et social du quartier ainsi que son niveau de désavantage socioéconomique sont associés à des aspects du rendement scolaire des élèves au-delà de leurs caractéristiques familiales et individuelles. La présence de problèmes de comportement chez les jeunes modère cependant certaines de ces associations. Ces résultats sont discutés en fonction des retombées pour la pratique.
Abstract : This study investigates if the socioeconomic composition, as well as the physical and social disorder of neighborhoods were associated with academic performance among Quebec school children, with and without conduct problems, aged 12 to 15 (N = 630). In particular, the moderating role of conduct problems was explored. Findings indicated that physical and social disorder, along with the percentage of low income individuals in the neighborhood were associated with some aspects of academic performance. Conduct problems did, however, moderate between neighborhood variables and school performance. The implications of these findings will also be discussed.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Brogna, Gianluigi. „Probabilistic Bayesian approaches to model the global vibro-acoustic performance of vehicles“. Thesis, Lyon, 2018. http://www.theses.fr/2018LYSEI082.

Der volle Inhalt der Quelle
Annotation:
Dans le domaine automobile, bien qu’assez élaborées, les approches actuellement mises en œuvre pour analyser et prédire l’état vibro-acoustique d’un véhicule ne sont pas encore représentatives de la complexité réelle des systèmes mis en jeu. Entre autres limitations, les spécifications pour la conception restent essentiellement basées sur des cas de chargement extrêmes, utiles pour la tenue des structures mais non représentatifs de l’usage client pour les prestations vibro-acoustiques. Un objectif principal est ainsi de construire des modèles probabilistes aptes à prendre en compte les usages client et les conditions de fonctionnement réelles, en même temps que les incertitudes structurelles du véhicule comme les dispersions en fabrication. Ces modèles sont destinés à maîtriser un domaine s’étendant jusqu’aux moyennes fréquences. Pour ce faire, quatre étapes sont proposées : (1) une modélisation générique du système mécanique constitué par un véhicule, cohérente avec les réponses dynamiques dont la prédiction est souhaitée par les ingénieurs automobile ; (2) l’estimation de l’ensemble des efforts qui s’appliquent sur ce système, pour une large plage de conditions de fonctionnement véhicule ; (3) l’analyse et la modélisation de ces efforts considérés comme fonctions des conditions de fonctionnement; (4) l’étude de l’application des efforts modélisés à une structure dont les fonctions de transfert ont été calculées par une méthode d’élément finis stochastique non-paramétrique. La réponse ainsi obtenue est une image bien plus fidèle des conditions de fonctionnement du véhicule et de ses incertitudes structurelles. Pour ces étapes, des algorithmes bayésiens ad hoc sont développés et mis en œuvre sur une importante base de données issue de projets automobiles. Le cadre bayésien est particulièrement utile dans ce travail pour prendre en compte toute connaissance a priori, notamment celle des experts véhicule, et pour facilement propager l’incertitude entre les différents niveaux du modèle probabilisé. Enfin, les méthodes d’analyse choisies ici se révèlent intéressantes non seulement pour la réduction effective des données, mais aussi pour aider la compréhension physique et l’identification des phénomènes dynamiquement dominants
In the automotive domain, although already quite elaborate, the current approaches to predict and analyse the vibro-acoustic behaviour of a vehicle are still far from the complexity of the real system. Among other limitations, design specifications are still essentially based on extreme loading conditions, useful when verifying the mechanical strength, but not representative of the actual vehicle usage, which is instead important when addressing the vibro-acoustic performance. As a consequence, one main aim here is to build a prediction model able to take into account the loading scenarios representative of the actual vehicle usage, as well as the car structural uncertainty (due, for instance, to production dispersion). The proposed model shall cover the low and mid-frequency domain. To this aim, four main steps are proposed in this work: (1) the definition of a model for a general vehicle system, pertinent to the vibro-acoustic responses of interest; (2) the estimation of the whole set of loads applied to this system in a large range of operating conditions; (3) the statistical analysis and modelling of these loads as a function of the vehicle operating conditions; (4) the analysis of the application of the modelled loads to non-parametric stochastic transfer functions, representative of the vehicle structural uncertainty. To achieve the previous steps, ad hoc Bayesian algorithms have been developed and applied to a large industrial database. The Bayesian framework is considered here particularly valuable since it allows taking into account prior knowledge, namely from automotive experts, and since it easily enables uncertainty propagation between the layers of the probabilistic model. Finally, this work shows that the proposed algorithms, more than simply yielding a model of the vibro-acoustic response of a vehicle, are also useful to gain deep insights on the dominant physical mechanisms at the origin of the response of interest
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Genet, Damien. „Conception et réalisation d'un solveur pour les problèmes de dynamique des fluides pour les architectures many-core“. Thesis, Bordeaux, 2014. http://www.theses.fr/2014BORD0379/document.

Der volle Inhalt der Quelle
Annotation:
La simulation numérique fait partie intégrante du processus d'analyse. Que l'on veuille concevoir le profil d'un véhicule, ou chercher à prévoir le résultat d'un forage pétrolier, la simulation numérique est devenue un outil complémentaire à la théorie et aux expérimentations. Cet outildoit produire des résultats précis en un minimum de temps. Pour cela, nous avons à disposition des méthodes numériques précises, et des machines de calcul aux performances importantes. Cet outil doit être générique sur les maillages, l'ordre de la solution, les méthodes numériques, et doitmaintenir ses performances sur les machines de calculs modernes avec une hiérarchie complexes d'unité de calculs. Nous présentons dans cette thèse le background mathématiques de deux classes de schémas numériques, les méthodes aux éléments finis continus et discontinus. Puis nous présentons les enjeux de la conception d'une plateforme en prenant en compte l'ensemble de ces contraintes. Ensuite nous nous intéressons au sous-problème de l'assemblage au dessus d'un support d'exécution. L'opération d'assemblage se retrouve en algèbre linéaire dans les méthodes multi-frontales ou dans les applications de simulations assemblant un système linéaire. Puis, nous concluons en dressant un bilan sur la plateforme AeroSol et donnons des pistes d'évolution possibles
Numerical simulation is nowadays an essential part of engineering analysis, be it to design anew plane, or to detect underground oil reservoirs. Numerical simulations have indeed become an important complement to theoretical and experimental investigation, allowing one to reduce the cost of engineering design processes. In order to achieve a high level of precision, one need to increase the resolution of his computational domain. So to keep getting results in reasonable time, one shall nd a way to speed-up computations. To do this, we use high performance computing, HPC, to exploit the complex architecture of modern supercomputers. Under these two constraints, and some other like the genericity of finite elements, or the mesh dimension, we developed a new platform AeroSol. In this thesis, we present the mathematical background, and the two types of schemes that are implemented in the platform, the continuous finite elements method, and the discontinuous one. Then, we present the design choices made in the platform,then, we study a sub-problem, the assembly operation, which can be found in linear algebra multi-frontal methods
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Alsayasneh, Maha. „On the identification of performance bottlenecks in multi-tier distributed systems“. Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALM009.

Der volle Inhalt der Quelle
Annotation:
De nos jours, les systèmes distribués sont constitués de nombreuxcomposants logiciels ayant des interactions complexes et de nombreusespossibilités de configurations. Dès lors, localiser les problèmes deperformance est une tâche difficile, nécessitant une expertisehumaine et de nombreux essais. En effet, la même pile logicielle peutse comporter différemment en fonction dumatériel utilisé, de la logique applicative, des paramètres deconfiguration et des conditions de fonctionnement. Ce travail a pourobjectif (i) d’identifier un ensemble demétriques de référence, générales etfiables, pour localiser les problèmes de performance, (ii) d’identifierles caractéristiques de ces indicateurs, et (iii) deconstruire un outil qui puisse déterminer de manière automatiquesi le système a atteint sa capacité maximale en terme dedébit.Dans cette thèse, nous présentons trois contributionsprincipales. Premièrement, nous présentons une étude analytique d’ungrand nombre de configurations réalistes d’applications distribuéesmulti-tiers, se concentrant sur les chaînes de traitements desdonnées. En analysant un grand nombre de métriques au niveau logicielet matériel, nous identifions celles dont le comportement change aumoment où le système atteint sa capacité maximale. Deuxièmement, nousexploitons les techniques d’apprentissage machine pour développer unoutil capable d’identifier automatiquement les problèmes deperformance dans la chaîne de traitement de données. Pour ce faire,nous évaluons plusieurs techniques d’apprentissage machine, plusieurssélections de métriques, et différentscas de généralisation pour de nouvelles configurations. Troisièmement,pour valider les résultats obtenues sur la chaîne de traitement dedonnées, nous appliquons notre approche analytique et notre approchefondée sur l'apprentissage machine au cas d’une architecture Web.Nous tirons plusieurs conclusions de nos travaux. Premièrement, il estpossible d’identifier des métriques clés qui sont des indicateursfiables de problèmes de performance dans les systèmes distribuésmulti-tiers. Plus précisément, identifier le moment où le serveur aatteint sa capacité maximale peut être identifier grâce à cesmétriques fiables. Contrairement à l’approche adoptée par de nombreuxtravaux existants, nos travaux démontrent qu'une combinaison demétriques de différents types est nécessaire pour assurer uneidentification fiable des problèmes de performance dans un grandnombre de configurations. Nos travaux montrent aussi que les approchesfondées sur des méthodes d’apprentissage machine pour analyser lesmétriques permettent d’identifier les problèmes de performance dansles systèmes distribués multi-tiers. La comparaison de différentsmodèles met en évidence que ceux utilisant les métriques fiablesidentifiées par notre étude analytique sont ceux qui obtiennent lameilleure précision. De plus, notre analyse approfondie montre larobustesse des modèles obtenues. En effet, ils permettent unegénéralisation à de nouvelles configurations, à de nouveaux nombres declients, et à de nouvelles configurations exécutées avec de nouveauxnombres de clients. L'extension de notre étude au cas d'unearchitecture Web confirme les résultats principaux obtenus à traversl’étude sur la chaîne de traitement de données. Ces résultats ouvrentla voie à la construction d'un outil générique pour identifier demanière fiable les problèmes de performance dans les systèmesdistribués
Today's distributed systems are made of various software componentswith complex interactions and a large number of configurationsettings. Pinpointing the performance bottlenecks is generally a non-trivial task, which requires human expertise as well as trial anderror. Moreover, the same software stack may exhibit very differentbottlenecks depending on factors such as the underlying hardware, theapplication logic, the configuration settings, and the operatingconditions. This work aims to (i) investigate whether it is possibleto identify a set of key metrics that can be used as reliable andgeneral indicators of performance bottlenecks, (ii) identify thecharacteristics of these indicators, and (iii) build a tool that canautomatically and accurately determine if the system reaches itsmaximum capacity in terms of throughput.In this thesis, we present three contributions. First, we present ananalytical study of a large number of realistic configuration setupsof multi-tier distributed applications, more specifically focusing ondata processing pipelines. By analyzing a large number of metrics atthe hardware and at the software level, we identify the ones thatexhibit changes in their behavior at the point where the systemreaches its maximum capacity. We consider these metrics as reliableindicators of performance bottlenecks. Second, we leverage machinelearning techniques to build a tool that can automatically identifyperformance bottlenecks in the data processing pipeline. We considerdifferent machine learning methods, different selections of metrics,and different cases of generalization to new setups. Third, to assessthe validity of the results obtained considering the data processingpipeline for both the analytical and the learning-based approaches,the two approaches are applied to the case of a Web stack.From our research, we draw several conclusions. First, it is possibleto identify key metrics that act as reliable indicators of performancebottlenecks for a multi-tier distributed system. More precisely,identifying when the server has reached its maximum capacity can beidentified based on these reliable metrics. Contrary to the approachadopted by many existing works, our results show that a combination ofmetrics of different types is required to ensure reliableidentification of performance bottlenecks in a large number ofsetups. We also show that approaches based on machine learningtechniques to analyze metrics can identify performance bottlenecks ina multi-tier distributed system. The comparison of different modelsshows that the ones based on the reliable metrics identified by ouranalytical study are the ones that achieve the bestaccuracy. Furthermore, our extensive analysis shows the robustness ofthe obtained models that can generalize to new setups, to new numbersof clients, and to both new setups and new numbers ofclients. Extending the analysis to a Web stack confirmsthe main findings obtained through the study of the data processingpipeline. These results pave the way towards a general and accuratetool to identify performance bottlenecks in distributed systems
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Rouet, François-Henry. „Problèmes de mémoire et de performance de la factorisation multifrontale parallèle et de la résolution triangulaire à seconds membres creux“. Phd thesis, Institut National Polytechnique de Toulouse - INPT, 2012. http://tel.archives-ouvertes.fr/tel-00785748.

Der volle Inhalt der Quelle
Annotation:
Nous nous intéressons à la résolution de systèmes linéaires creux de très grande taille sur des machines parallèles. Dans ce contexte, la mémoire est un facteur qui limite voire empêche souvent l'utilisation de solveurs directs, notamment ceux basés sur la méthode multifrontale. Cette étude se concentre sur les problèmes de mémoire et de performance des deux phases des méthodes directes les plus coûteuses en mémoire et en temps : la factorisation numérique et la résolution triangulaire. Dans une première partie nous nous intéressons à la phase de résolution à seconds membres creux, puis, dans une seconde partie, nous nous intéressons à la scalabilité mémoire de la factorisation multifrontale. La première partie de cette étude se concentre sur la résolution triangulaire à seconds membres creux, qui apparaissent dans de nombreuses applications. En particulier, nous nous intéressons au calcul d'entrées de l'inverse d'une matrice creuse, où les seconds membres et les vecteurs solutions sont tous deux creux. Nous présentons d'abord plusieurs schémas de stockage qui permettent de réduire significativement l'espace mémoire utilisé lors de la résolution, dans le cadre d'exécutions séquentielles et parallèles. Nous montrons ensuite que la façon dont les seconds membres sont regroupés peut fortement influencer la performance et nous considérons deux cadres différents : le cas "hors-mémoire" (out-of-core) où le but est de réduire le nombre d'accès aux facteurs stockés sur disque, et le cas "en mémoire" (in-core) où le but est de réduire le nombre d'opérations. Finalement, nous montrons comment améliorer le parallélisme. Dans la seconde partie, nous nous intéressons à la factorisation multifrontale parallèle. Nous montrons tout d'abord que contrôler la mémoire active spécifique à la méthode multifrontale est crucial, et que les techniques de "répartition" (mapping) classiques ne peuvent fournir une bonne scalabilité mémoire : le coût mémoire de la factorisation augmente fortement avec le nombre de processeurs. Nous proposons une classe d'algorithmes de répartition et d'ordonnancement "conscients de la mémoire" (memory-aware) qui cherchent à maximiser la performance tout en respectant une contrainte mémoire fournie par l'utilisateur. Ces techniques ont révélé des problèmes de performances dans certains des noyaux parallèles denses utilisés à chaque étape de la factorisation, et nous avons proposé plusieurs améliorations algorithmiques. Les idées présentées tout au long de cette étude ont été implantées dans le solveur MUMPS (Solveur MUltifrontal Massivement Parallèle) et expérimentées sur des matrices de grande taille (plusieurs dizaines de millions d'inconnues) et sur des machines massivement parallèles (jusqu'à quelques milliers de coeurs). Elles ont permis d'améliorer les performances et la robustesse du code et seront disponibles dans une prochaine version. Certaines des idées présentées dans la première partie ont également été implantées dans le solveur PDSLin (solveur linéaire hybride basé sur une méthode de complément de Schur).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Auvray, Alexis. „Contributions à l'amélioration de la performance des conditions aux limites approchées pour des problèmes de couche mince en domaines non réguliers“. Thesis, Lyon, 2018. http://www.theses.fr/2018LYSEC018/document.

Der volle Inhalt der Quelle
Annotation:
Les problèmes de transmission avec couche mince sont délicats à approcher numériquement, en raison de la nécessité de construire des maillages à l’échelle de la couche mince. Il est courant d’éviter ces difficultés en usant de problèmes avec conditions aux limites approchées — dites d’impédance. Si l’approximation des problèmes de transmission par des problèmes d’impédance s’avère performante dans le cas de domaines réguliers, elle l’est beaucoup moins lorsque ceux-ci comportent des coins ou arêtes. L’objet de cette thèse est de proposer de nouvelles conditions d’impédance, plus performantes, afin de corriger cette perte de performance. Pour cela, les développements asymptotiques des différents problèmes-modèles sont construits et étudiés afin de localiser avec précision l’origine de la perte, en lien avec les profils singuliers associés aux coins et arêtes. De nouvelles conditions d’impédance sont construites, de type Robin multi-échelle ou Venctel. D’abord étudiées en dimension 2, elles sont ensuite généralisées à certaines situations en dimension 3. Des simulations viennent confirmer l’efficience des méthodes théoriques
Transmission problems with thin layer are delicate to approximate numerically, because of the necessity to build meshes on the scale of the thin layer. It is common to avoid these difficulties by using problems with approximate boundary conditions — also called impedance conditions. Whereas the approximation of transmission problems by impedance problems turns out to be successful in the case of smooth domains, the situation is less satisfactory in the presence of corners and edges. The goal of this thesis is to propose new impedance conditions, more efficient, to correct this lack of performance. For that purpose, the asymptotic expansions of the various models -problems are built and studied to locate exactly the origin of the loss, in connection with the singular profiles associated to corners and edges. New impedance conditions are built, of multi-scale Robin or Venctel types. At first studied in dimension 2, they are then generalized in certain situations in dimension 3. Simulations have been carried out to confirm the efficiency of the theoretical methods to some
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Claudel, Fabrice. „Étude de faisabilité d'un appareil échographique de faibles dimensions destiné au contrôle du volume urinaire dans les problèmes de dysuries“. Nancy 1, 1993. http://www.theses.fr/1993NAN10299.

Der volle Inhalt der Quelle
Annotation:
Lorsque la proprioceptivité de la vessie a disparu suite à des perturbations d'origine neurologique, il est nécessaire d'avoir un moyen de contrôle du remplissage de la vessie afin d'éviter des complications diverses. Parmi toutes les recherches qui ont été menées sur le sujet, il apparait que le meilleur moyen pour effectuer ce contrôle de façon répétée et assez précise reste l'échographie B, mais ceci recourt à des appareils chers et peu transportables. Notre travail a donc consisté à réaliser un échosondeur miniature dont les performances ont été testées sur un sujet volontaire sain au moyen d'un système d'acquisition rapide développé sur macintosh. Les résultats des expériences incitent à caractériser le volume urinaire par la description automatique de la coupe longitudinale médiane de la vessie. Enfin, si des erreurs irréductibles liées à la technique échographique même subsistent dans la mise au point de l'appareil, l'expérience montre qu'il nous faudra d'abord résoudre deux problèmes majeurs: éviter les variations extrêmes de l'image dans sa définition et diminuer les risques d'erreurs algorithmiques tant au point de vue reconnaissance de la coupe vésicale qu'au point de vue décision automatisée du sondage
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Gobé, Alexis. „Méthodes Galerkin discontinues pour la simulation de problèmes multiéchelles en nanophotonique et applications au piégeage de la lumière dans des cellules solaires“. Thesis, Université Côte d'Azur, 2020. http://www.theses.fr/2020COAZ4011.

Der volle Inhalt der Quelle
Annotation:
L’objectif de cette thèse est l’étude numérique du piégeage de la lumière dans des cellules solaires nanostructurées. Le changement climatique est devenu une problématique majeure nécessitant une transition énergétique à court terme. Dans ce contexte, l'énergie solaire semble être une source énergétique idéale. Cette ressource est à la fois scalable à l’échelle planétaire et écologique. Afin de maximiser sa pénétration, des travaux visant à augmenter la quantité de lumière absorbée et à réduire les coûts liés à la conception des cellules sont nécessaires. Le piégeage de la lumière est une stratégie qui permet d’atteindre ces deux objectifs. Son principe consiste à utiliser des texturations nanométriques afin de focaliser la lumière dans les couches de semi-conducteur absorbantes. Dans ce travail, la méthode de Galerkine Discontinue en Domaine Temporel (DGTD) est introduite. Deux développements méthodologiques majeurs, permettant de mieux prendre en compte les caractéristiques des cellules solaires, sont présentés. Tout d'abord, l’utilisation d’un ordre d’approximation local est proposé , basé sur une stratégie de répartition particulière de l’ordre. Le deuxième développement est l’utilisation de maillage hybride mixant ses élements hexahédriques structurés et tétrahédriques non structurés. Des cas réalistes de cellules solaires issus de la littérature et de collaborations avec des physiciens du domaine du photovoltaïque permettent d'illustrer l' apport de ces développements. Un cas d’optimisation inverse de réseau de diffraction dans une cellule solaire est également présenté en couplant le solveur numérique avec un algorithme d’optimisation bayésienne. De plus, une étude approfondie des performances du solveur a également été réalisée avec des modifications méthodologiques pour contrer les problèmes de répartition de charge. Enfin, une méthode plus prospective, la méthode Multiéchelle Hybride-Mixte (MHM) spécialisée dans la résolution de problème très fortement multiéchelle est introduite. Un schéma en temps multiéchelle est présenté et sa stabilité prouvée
The objective of this thesis is the numerical study of light trapping in nanostructured solar cells. Climate change has become a major issue requiring a short-term energy transition. In this context, solar energy seems to be an ideal energy source. This resource is both globally scalable and environmentally friendly. In order to maximize its penetration, it is needed to increase the amount of light absorbed and reduce the costs associated with cell design. Light trapping is a strategy that achieves both of these objectives. The principle is to use nanometric textures to focus the light in the absorbing semiconductor layers. In this work, the Discontinuous Galerkin Time-Domain (DGTD) method is introduced. Two major methodological developments are presented, allowing to better take into account the characteristics of solar cells. First, the use of a local approximation order is proposed, based on a particular order distribution strategy. The second development is the use of hybrid meshes mixing structured hexahedral and unstructured tetrahedral elements. Realistic cases of solar cells from the literature and collaborations with physicists in the field of photovoltaics illustrate the contribution of these developments. A case of inverse optimization of a diffraction grating in a solar cell is also presented by coupling the numerical solver with a Bayesian optimization algorithm. In addition, an in-depth study of the solver's performance has also been carried out with methodological modifications to counter load balancing problems. Finally, a more prospective method, the Multiscale Hybrid-Mixed method (MHM) specialized in solving very highly multiscale problems is introduced. A multiscale time scheme is presented and its stability is proven
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Mehri, Meryem. „Frais, performance et risque des fonds d'investissement islamiques et conventionnels : une approche théorique et empirique“. Thesis, Paris 9, 2014. http://www.theses.fr/2014PA090053.

Der volle Inhalt der Quelle
Annotation:
Les fonds d'investissement islamiques et conventionnels se retrouvent dans la mesure où ils ont la même finalité. En revanche, à la différence des fonds conventionnels, les fonds islamiques se doivent d'investir conformément à un ensemble de règles de sélection. Cette thèse s'intéresse à élaborer un cadre d'analyse théorique et empirique permettant d'expliquer les frais de gestion, ainsi que la performance et le risque des fonds d'investissement. Ainsi, ce travail commence par élaborer une analyse théorique autour des contrats de partage des pertes et des profits (venture contracts) confrontés aux problèmes d'asymétrie d'information. Un modèle théorique, en présence de problème de sélection adverse entre le gérant et l'apporteur de fonds, montre que les degrés d'aversion au risque respectifs du gérant et de l'investisseur ont un impact sur la négociation des frais de gestion indexés sur la performance périodique du fonds (carried interest). Les conclusions de ce modèle nous incitent à expliquer empiriquement le choix des partenaires du fonds concernant les clauses de rémunération, la performance et le risque des fonds d'investissement. Pour ce faire, nous élaborons une base de données unique qui comporte un échantillon international de fonds islamiques et conventionnels regroupés par société de gestion. En distinguant les fonds islamiques des fonds conventionnels, le cadre légal, les conditions politiques et économiques expliquent leurs frais, leurs performances et leurs risques
Islamic and conventional investment funds have the same purpose. However, unlike conventional funds, Islamic funds offer different investment contracts and have to invest in accordance with a set of selection rules. This dissertation focuses on developing theoretical and empirical analysis framework to explain the fixed and performance fees, the performance and the risk of investment funds. Thus, we begin by developing a theoretical analysis about profit and loss-Sharing contracts (venture capital) that face agency problems. Based on this theoretical framework, a theoretical model, in the presence of adverse selection problem between the fund manager and the investor, shows that the risk aversions of the fund manager and the investor have respectively an impact on the periodic performance fees (carried interest) during the bargaining stage. The conclusions of this model lead us to empirically explain the terms of compensation and profit-Sharing, the performance and the risk of funds. To achieve our objective, we create a unique database that has an international sample of Islamic and conventional funds grouped by management company. By distinguishing between Islamic and conventional funds, the legal, political and economic conditions explain their fees, performance and risk
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Japhet, Caroline. „Méthode de décomposition de domaine et conditions aux limites artificielles en mécanique des fluides: méthode Optimisée d'Orde 2“. Phd thesis, Université Paris-Nord - Paris XIII, 1998. http://tel.archives-ouvertes.fr/tel-00558701.

Der volle Inhalt der Quelle
Annotation:
Ce travail a pour objet le développement et l'étude d'une méthode de décomposition de domaine, la méthode Optimisée d'Ordre 2 (OO2), pour la résolution de l'équation de convection-diffusion. Son atout principal est de permettre d'utiliser un découpage quelconque du domaine, sans savoir à l'avance où sont situés les phénomènes physiques tels que les couches limites ou les zones de recirculation. La méthode OO2 est une méthode de décomposition de domaine sans recouvrement, itérative, parallélisable. Le domaine de calcul est divisé en sous-domaines, et on résout le problème de départ dans chaque sous-domaine, avec des conditions de raccord spécifiques sur les interfaces des sous-domaines. Ce sont des conditions différentielles d'ordre 1 dans la direction normale et d'ordre 2 dans la direction tangente à l'interface qui approchent, par une procédure d'optimisation, les Conditions aux Limites Artificielles (CLA). L'utilisation des CLA en décomposition de domaine permet de définir des algorithmes stables. Une reformulation de la méthode de Schwarz conduit à un problème d'interface. Celui-ci est résolu par une méthode itérative de type Krylov (BICG-STAB, GMRES, GCR). La méthode est appliquée à un schéma aux différences finies décentré, puis à un schéma volumes finis. Un préconditionneur ``basses fréquences'' est ensuite introduit et étudié, dans le but d'avoir une convergence indépendante du nombre de sous-domaines. Ce préconditionneur est une extension aux problèmes non-symétriques d'un préconditionneur utilisé pour des problèmes symétriques. Enfin, l'utilisation de conditions différentielles d'ordre 2 le long de l'interface nécessite d'ajouter des conditions de raccord aux points de croisement des sous-domaines. Une étude est menée a ce sujet, qui permet de montrer que les problèmes dans chaque sous-domaine sont bien posés.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Pacaud, Damien. „Développement de techniques différences finies-volumes finis performantes en électromagnétisme“. Bordeaux 1, 2001. http://www.theses.fr/2001BOR12356.

Der volle Inhalt der Quelle
Annotation:
La méthode des Différences Finies (DF) est classiquement utilisée pour résoudre les équations de Maxwell dans le domaine temporel : la méthode est simple, efficace et peu coûteuse. Mais les stuctures complexes et les détails de géométrie sont mal pris en compte ("marches d'escalier", raffinements locaux de maillage problématiques). Au contraire, la méthode des Volumes Finis (VF) s'accommode facilement des structures complexes par une prise en compte naturelle de la géométrie et des caractéristiques des matériaux. Mais les VF sont bien plus coûteux en espace mémoire et en temps calcul que les DF. L'approche multi-domaines permet d'hybrider ces deux méthodes pour en tirer le meilleur profit : associer le faible coût des DF avec la précision des VF. Différents schémas VF sont d'abord étudiés pour déterminer les plus performants. En outre, le concept de gamma-schéma est appliqué au beta-schéma HVL pour construire un nouveau schéma: le beta-gamma-schéma HVL. Différents problèmes de Riemann sont également présentés. En particulier, de nouveaux modèles sont adaptés aux VF : une famille de CLA d'ordre quelconque, ainsi qu'un modèle généralisé de plaques conductrices minces. Pour définir une technique d'hybridation DF-VF adéquate, nous avons dû répondre ensuite à trois questions : Comment disposer les domaines DF et VF l'un par rapport à l'autre ? Comment traiter au mieux les interfaces entre domaines ? Quelles sont les différentes étapes du schéma hybride DF-VF ? Une nouvelle technique d'hybridation est alors présentée : la méthode de superposition. Pour terminer, un cas de calcul "réaliste" est examiné pour mettre en évidence la plupart des problèmes auxquels sont véritablement confrontés les industriels
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Madiouni, Riadh. „Contribution à la synthèse et l’optimisation multi-objectif par essaims particulaires de lois de commande robuste RST de systèmes dynamiques“. Thesis, Paris Est, 2016. http://www.theses.fr/2016PESC1053/document.

Der volle Inhalt der Quelle
Annotation:
Ces travaux de recherche portent sur la synthèse systématique et l’optimisation de correcteurs numériques à structure polynomiale RST par approches métaheuristiques. Les problèmes classiques de placement de pôles et de calibrage des fonctions de sensibilité de la boucle fermée RST sont formulés sous forme de problèmes d’optimisation multi-objectif sous contraintes pour lequel des algorithmes métaheuristiques de type NSGA-II, MODE, MOPSO et epsilon-MOPSO sont proposés et adaptés. Deux formulations du problème de synthèse RST ont été proposées. La première approche, formulée dans le domaine temporel, consiste à minimiser des indices de performance, de type ISE et MO, issus de la théorie de la commande optimale et liés essentiellement à la réponse indicielle du système corrigé. Ces critères sont optimisés sous des contraintes non analytiques définis par des gabarits temporels sur la dynamique de la boucle fermée. Dans la deuxième approche de synthèse RST, une formulation dans le domaine fréquentiel est retenue. La stratégie proposée consiste à définir et calculer une fonction de sensibilité de sortie désirée en satisfaisant des contraintes de robustesse de H∞. L’utilisation de parties fixes dans la fonction de sensibilité de sortie désirée assurera un placement partiel des pôles de la boucle fermée RST. L’inverse d’une telle fonction de sensibilité désirée définira le filtre de pondération H∞ associé. Un intérêt particulier est porté à l’approche d’optimisation par essaim particulière PSO pour la résolution des problèmes multi-objectif de commande reformulés. Un algorithme MOPSO à grille adaptative est proposé et puis perfectionné à base des concepts de l’epsilon-dominance. L’algorithme epsilon-MOPSO obtenu a montré, par comparaison avec les algorithmes MOPSO, NSGA-II et MODE, des performances supérieures en termes de diversité des solutions de Pareto et de rapidité en temps de convergence. Des métriques de type distance générationnelle, taux d’erreurs et espacement sont toutefois considérées pour l’analyse statistique des résultats de mise en œuvre obtenus. Une application à la commande en vitesse variable d’un moteur électrique DC est effectuée, également pour la commande en position d’un système de transmission flexible à charges variables. La mise en œuvre par simulations numériques sur les procédés considérés est également présentée dans le but de montrer la validité et l’efficacité de l’approche de commande optimale RST proposée
This research focuses on the systematic synthesis and optimization of digital RST structure based controllers thanks to global metaheuristics approaches. The classic and hard problems of closed-loop poles placement and sensitivity functions shaping of RST control are well formulated as constrained multi-objective problems to be solved with proposed metaheuristics algorithms NSGA-II, MODE, MOPSO and especially epsilon-MOPSO. Two formulations of the metaheuristics-tuned RST problem have been proposed. The first one, which is given in the time domain, deals with the minimization of several performance criteria like the Integral Square Error (ISE) and the Maximum Overshoot (MO) indices. These optimal criteria, related primarily to the step response of the controlled plant, are optimized under non-analytical constraints defined by temporal templates on the closed-loop dynamics. In the second approach, a formulation in the frequency domain is retained. The proposed strategy aims to optimize a desired output sensitivity function satisfying H∞ robustness constraints. The use of a suitable fixed part of the optimized output sensitivity function will provide partial pole placement of the closed-loop dynamics of the digital RST controller. The opposite of such desired sensitivity function will define the associated H∞ weighting filter. The Multi-Objective Particle Swarm Optimization (MOPSO) technique is particularly retained for the resolution of all formulated multi-objective RST control problems. An adaptive grid based MOPSO algorithm is firstly proposed and then improved based on the epsilon-dominance concepts. Such proposed epsilon-MOPSO algorithm, with a good diversity of the provided Pareto solutions and fast convergence time, showed a remarkable superiority compared to the standard MOPSO, NSGA-II and MODE algorithms. Performance metrics, such as generational distance, error rate and spacing, are presented for the statistical analysis of the achieved multi-optimization results. An application to the variable speed RST control of an electrical DC drive is performed, also for the RST position control of a flexible transmission plant with varying loads. Demonstrative simulations and comparisons are carried out in order to show the validity and the effectiveness of the proposed metaheuristics-based tuned RST control approach, which is formulated in the multi-objective optimization framework
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Chaumette, Eric. „Contribution à la caractérisation des performances des problèmes conjoints de détection et d'estimation“. Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2004. http://tel.archives-ouvertes.fr/tel-00132161.

Der volle Inhalt der Quelle
Annotation:
Un grand nombre d'applications concrètes (Radar, Sonar, Télécoms ...) requièrent une étape de détection dont l'effet principal est de restreindre l'ensemble des observations disponibles pour l'estimation des paramètres inconnus. Par conséquent, nous établissons l'expression des bornes inférieures de l'Erreur Quadratique Moyenne (EQM) conditionnées par un test d'hypothèse binaire au moyen d'une approche didactique générale. Pour valider l'intérêt de cette démarche, nous montrons également à l'aide d'une application fondamentale, que le problème de la précision de prédiction de l'EQM vraie par une borne inférieure à faible RSB, peut provenir d'une formulation incorrecte de la borne inférieure ne prenant pas en compte la vraie problématique, à savoir les problèmes conjoints de détection-estimation.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Chaumette, Éric. „Contribution à la caractérisation des performances des problèmes conjoints de détection et d'estimation“. Cachan, Ecole normale supérieure, 2004. http://tel.archives-ouvertes.fr/tel-00132161.

Der volle Inhalt der Quelle
Annotation:
Un grand nombre d'applications concrètes (Radar, Sonar, Télécoms. . . ) requièrent une étape de détection dont l'effet principal est de restreindre l'ensemble des observations disponibles pour l'estimation des paramètres inconnus. Par conséquent, nous établissons l'expression des bornes inférieures de l'Erreur Quadratique Moyenne (EQM) conditionnées par un test d'hypothèse binaire au moyen d'une approche didactique générale. Pour valider l'intérêt de cette démarche, nous montrons également à l'aide d'une application fondamentale, que le problème de la précision de prédiction de l'EQM vraie par une borne inférieure à faible RSB, peut provenir d'une formulation incorrecte de la borne inférieure ne prenant pas en compte la vraie problématique, à savoir les problèmes conjoints de détection-estimation
A wide variety of actual processing (Radar, Sonar, Telecoms. . . ) requires a detection step, who main effect is to restrict the set of observations available for unknown parameter estimation. Therefore, we address the derivation of Mean Square Error (MSE) lower bounds for determinii parameters conditioned by a binary hypothesis testing problem using a didactic approach of wi scope. To prove mat it is meaningful, we also show, with the help of a fundamental applicatior the problem of lower bound tightness at low SNR may arise from an incorrect lower bound formulation that does not take into account the true nature of the problem under investigation: joint detection-estimation problem
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Razafindralambo, Tahiry. „Performances des couches MAC dans les réseaux sans fil ad hoc : problèmes et solutions“. Phd thesis, INSA de Lyon, 2007. http://tel.archives-ouvertes.fr/tel-00532658.

Der volle Inhalt der Quelle
Annotation:
Un réseau ad hoc est une collection de stations communicant au travers d'un lien sans fil sans l'aide d'aucune autre infrastructure. L'un des principaux défis dans la conception de protocoles pour ce type de réseaux est l'accès au médium. Le standard IEEE 802.11 définit un mode pour les réseaux ad hoc. Cependant, le protocole MAC (Medium Access Control) décrit montre des problèmes d'équité et d'efficacité. Dans cette thèse j'ai d'abord évalué les performances d'algorithmes et de protocoles MAC existants et mis en évidence leurs problèmes de performance grâce à un modèle exploitant le formalisme des algèbres de processus stochastiques. Grâce à ces résultats j'ai proposé deux protocoles MAC (MadMac et PAS) pour les réseaux ad hoc et les réseaux locaux sans fil. Nos protocoles sont différents de ceux présentés dans la littérature car nous essayons de répondre au compromis équité-efficacité et les solutions que nous proposons sont à la fois équitables et efficaces
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Vert, Daniel. „Étude des performances des machines à recuit quantique pour la résolution de problèmes combinatoires“. Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG026.

Der volle Inhalt der Quelle
Annotation:
La principale contribution de cette thèse est d'étudier expérimentalement le comportement des ordinateurs quantiques analogiques tels que ceux commercialisés par D-Wave lorsqu'ils sont confrontés à des cas de problèmes de couplage biparti de cardinalité maximale spécifiquement conçus pour être difficiles à résoudre au moyen d'un recuit simulé. Nous comparons un "Washington" (2X) de D-Wave avec 1098 qubits utilisables sur différentes tailles d'instances et nous observons que pour tous ces cas, sauf les plus triviaux, la machine ne parvient pas à obtenir une solution optimale. Ainsi, nos résultats suggèrent que le recuit quantique, du moins tel qu'il est mis en œuvre dans un dispositif D-Wave, tombe dans les mêmes pièges que le recuit simulé et fournit donc des preuves supplémentaires suggérant qu'il existe des problèmes polynomiaux qu'une telle machine ne peut pas résoudre efficacement pour atteindre l'optimalité. En outre, nous étudions dans quelle mesure les topologies d'interconnexion des qubits expliquent ces derniers résultats expérimentaux
The main contribution of this thesis is to investigate the behavior of analog quantum computers as commercialized by D-Wave when confronted to instances of the maximum cardinality matching problem which is specifically designed to be hard to solve by means of simulated annealing. We benchmark a D-Wave “Washington” (2X) with 1098 operational qubits on various sizes of such instances and observe that for all but the most trivially small of these it fails to obtain an optimal solution. Thus, our results suggest that quantum annealing, at least as implemented in a D-Wave device, falls in the same pitfalls as simulated annealing and hence provides additional evidences suggesting that there exist polynomial-time problems that such a machine cannot solve efficiently to optimality. Additionally, we investigate the extent to which the qubits interconnection topologies explains these latter experimental results
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Norre, Sylvie. „Problèmes de placement de taches sur des architectures multiprocesseurs : méthodes stochastiques et évaluation des performances“. Clermont-Ferrand 2, 1993. http://www.theses.fr/1993CLF21511.

Der volle Inhalt der Quelle
Annotation:
Cette thèse traite du problème de placement de taches sur des architectures multiprocesseurs. Elle s'inscrit à la fois dans le cadre de la théorie de l'ordonnancement et dans le cadre de la modélisation et de l'évaluation des performances. Un ensemble de taches, non préemptives, de durées quelconques et liées par des contraintes de précédence, doit être éxecuté sur des processus identiques. Les coûts de communication inter-taches sont pris en compte ou non, le nombre de bus étant limite ou non. Dans tous les cas, le critère d'optimisation est la minimisation de la durée d'execution de l'ensemble des taches. Une première partie propose une méthodologie pour la modélisation des problèmes de placement à l'aide des réseaux de petri. Une seconde partie s'interesse a la résolution des problèmes de placement. Deux types d'ordonnancement sont étudiés: les ordonnancements déterministes (les durées d'exécution des taches et les coûts de communication inter-taches sont connus et constants) et les ordonnancements stochastiques (les durées d'exécution des taches et les coûts de communication inter-taches sont modelisés par des lois de probabilité). Pour chacun de ces problèmes, différentes méthodes de résolution sont proposées. Ces méthodes reposent sur le couplage d'algorithmes d'ordonnancement par liste et de méthodes stochastiques. Elles exploitent des modèles de simulation (déterministe ou stochastique) et des modèles markoviens. Ces modèles permettent d'évaluer à la fois la durée des ordonnancements et des modèles markoviens. Ces modèles permettent d'évaluer à la fois la durée des ordonnancements et les performances de l'architecture multiprocesseurs. L'outil retenu pour la construction et l'exploitation de ces modèles est le logiciel qnap2 (queueing network analysis package). Il faut remarquer que l'ensemble des méthodes et outils proposés peut s'appliquer à d'autres systèmes, tels que les systèmes de production
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Ravier, Béatrice. „Méthodes performantes de résolution de grands systèmes linéaires“. Paris 11, 1986. http://www.theses.fr/1986PA112215.

Der volle Inhalt der Quelle
Annotation:
Ce travail traite essentiellement des méthodes de résolution rapide de grands systèmes linéaires, pour un problème elliptique posé dans un domaine de R2 formé d'un, puis de plusieurs rectangles (domaine en L, en "fourche") Au dernier chapitre, le cas d'un domaine quelconque est abordé. Le but des méthodes mathématiques décrites pour effectuer la résolution sur les domaines composés est de mettre en évidence des sous-problèmes sur chacun des rectangles constituants afin d'utiliser les algorithmes performants de résolution conçus pour ces domaines élémentaires (Analyse de Fourier (FA), Réduction cyclique (CR) et FACR(1)) Les problèmes de recollement de domaines sont envisagés de deux manières différentes: les rectangles ont ou n'ont pas même maillage Dans le second cas, plus intéressant, la recherche d'interpolations adéquates (linéaires, de degré 2) nécessaires à la discrétisation de l'équation sur l'interface est d'abord entreprise, puis le problème est considéré sous un angle différent, en utilisant la méthode des équations intégrales qui permet d'ignorer le maillage et d'éviter les difficultés d'approche de la solution sur l'interface. Le problème elliptique sur un domaine quelconque est résolu par plongement de ce dernier dans un rectangle, où la situation est alors simple
This work deals essentially with fast solving methods of large linear systems for an elliptic problem given in a domain included in R2, and composed with one, then several rectangles (domain having L-form or "fork"-domain). In the last chapter, the case of general domain is approached. The aim of the mathematical methods described for effecting the resolution on composite domains is to display subproblems on every component rectangle, where the fast solving algorithms, specially written for those elementary domains can be used (Fourier Analysis (FA), Cyclic Reduction (CH) and FACR(1)). The problems of association of domains are considered in two different ways: the rectangles have or have not the same mesh. For this second case, more interesting, in a first time, is the research of adapted interpolations (linear, of degree 2) required for the discretization of the equation on the in­ terface entered upon; then the problem is considered in an ether point of view, using the integral equations method which allows not to take care of the mesh, and which also allows to avoid difficulties of approach of the solution on the interface. The elliptic problem in general domains is solved by imbedding of this last one in a rectangle, where the situation is easy
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Touati, Nora. „Amélioration des performances du schéma de la génération de colonnes : application aux problèmes de tournées de véhicules“. Paris 13, 2008. http://www.theses.fr/2008PA132032.

Der volle Inhalt der Quelle
Annotation:
La génération de colonnes est une méthode dédiée à la résolution de problèmes d'optimisation combinatoire de grande taille. Les méthodes utilisant cette approche de résolution ont souvent des problèmes de convergence, particulièrement quand elles sont utlisées pour résoudre des problèmes pratiques, de grandes dimensions. Nous nous intéressons dans cette thèse à l'accéleration de la méthode de génération de colonnes. Nous proposons des téchniques de diversification pour diminuer le nombre total de colonnes généreés ainsi que le temps de résolution des problèmes maîtres. Nous nous intéressons également à la résolution éfficace des sous-problèmes en utilisant des techniques de réoptimisation, mais aussi en proposant des améliorations de la méthode de programmation dynamique. Les approches sont validées expérimentalement sur le problème de tournées de véhicules avec fénêtre de temps
Columgeneration algorithms are instrumental in many areas of applied optimization where linear programs with an enormous number of variables need to be solued. Although success fully used in many applications, this method suffers from well-known "instability" issues, that somewhat limit its efficiency. This work focuses on accelerating strategies in a column generation algorithm. We propose some diversifiication methods in order to decrease the total number of generated columns and then master problems resolution time. We interest also to solving efficiently the pricing problems, by proposing an improning approch based on reoptimization principle and a new variant of the dynamic programming algorithm. The effectiveness of these approches is validated on vehicule routing problem with time windows
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Dureisseix, David. „Vers des stratégies de calcul performantes pour les problèmes multiphysiques et le passage par le multiéchelle“. Habilitation à diriger des recherches, Université Pierre et Marie Curie - Paris VI, 2001. http://tel.archives-ouvertes.fr/tel-00083731.

Der volle Inhalt der Quelle
Annotation:
En calcul de structures, la simulation de la réponse de structures complexes, et dans une encore plus grande mesure, l'optimisation vis à vis de paramètres de plus en plus nombreux dans l'optique de la conception, conduisent à des problèmes de grande taille. L'utilisation du parallélisme est donc un outil important pour pouvoir aborder la simulation de ces modèles.
Plus récemment, l'émergence des modélisations multiphysiques couplées requière des capacités de traitement d'autant plus grandes. Une particularité de ce type de modélisations est le caractère multiéchelle marqué, à la fois en temps et en espace, du problème couplé.
Dans ce mémoire, les travaux réalisés pour tirer parti du caractère multiéchelle en espace concernent principalement une stratégie de calcul micro / macro située à l'intersection des méthodes de décomposition de domaine, et des stratégies d'homogénéisation. Elle conduit à une stratégie de calcul extensible, et à une homogénéisation automatique, qui ne nécessite pas de traitement particulier des zones bords. Dans un deuxième temps, une stratégie de calcul adaptée aux problèmes multiphysiques, et développée dans le cadre de la poroélasticité, est présentée et sa faisabilité est montrée, sans tirer encore parti des propriétés du problème (multiéchelle à la fois en espace et en temps) pour augmenter ses performances.
Outre ce dernier point, pour aller vers des stratégies performantes pour le multiphysique, les perspectives intègrent entre autre, le contrôle et l'adaptivité pour la robustesse de l'approche, et le couplage de codes pour la mise en oeuvre. L'objectif est la construction d'outils permettant la simulation de composants ou de systèmes mettant en jeu des physiques différentes, et, comme c'est aussi souvent leur cas aussi, des procédés d'obtention et de conception.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Diouane, Youssef. „Globally convergent evolution strategies with application to Earth imaging problem in geophysics“. Phd thesis, Toulouse, INPT, 2014. http://oatao.univ-toulouse.fr/12202/1/Diouane.pdf.

Der volle Inhalt der Quelle
Annotation:
In recent years, there has been significant and growing interest in Derivative-Free Optimization (DFO). This field can be divided into two categories: deterministic and stochastic. Despite addressing the same problem domain, only few interactions between the two DFO categories were established in the existing literature. In this thesis, we attempt to bridge this gap by showing how ideas from deterministic DFO can improve the efficiency and the rigorousness of one of the most successful class of stochastic algorithms, known as Evolution Strategies (ES’s). We propose to equip a class of ES’s with known techniques from deterministic DFO. The modified ES’s achieve rigorously a form of global convergence under reasonable assumptions. By global convergence, we mean convergence to first-order stationary points independently of the starting point. The modified ES’s are extended to handle general constrained optimization problems. Furthermore, we show how to significantly improve the numerical performance of ES’s by incorporating a search step at the beginning of each iteration. In this step, we build a quadratic model using the points where the objective function has been previously evaluated. Motivated by the recent growth of high performance computing resources and the parallel nature of ES’s, an application of our modified ES’s to Earth imaging Geophysics problem is proposed. The obtained results provide a great improvement for the problem resolution.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Guivarch, Ronan. „Résolution parallèle de problèmes aux limites couplés par des méthodes de sous-domaines synchrones et asynchrones“. Toulouse, INPT, 1997. http://www.theses.fr/1997INPT044H.

Der volle Inhalt der Quelle
Annotation:
Nous nous interessons a la resolution de problemes aux limites lineaires ou non-lineaires de grandes tailles resolus a l'aide d'algorithmes paralleles sur machines multiprocesseurs a memoire distribuee. Dans les algorithmes que nous considerons, les processeurs communiquent de maniere asynchrone ou synchrone les resultats de leurs calculs. Dans le present travail nous avons mixe les aspects communication synchrone et asynchrone avec les methodes de sous-domaines. On considere plus particulierement le couplage entre la methode alternee de schwarz et les algorithmes synchrones et asynchrones. Independemment de la resolution d'equations aux derivees partielles classiques intervenant en physique mathematique, nous nous sommes interesses a l'implantation de ces algorithmes sur machines multiprocesseurs a memoire distribuee au moyen des outils paralleles que fournissent p. V. M. (parallel virtual machine) et m. P. I. (message passing interface). Dans un premier temps nous rappelons la formulation classique des algorithmes synchrones et asynchrones ainsi que les conditions d'etude de la convergence de ces methodes ; nous presentons l'adaptation de ces resultats au cas des methodes de sous-domaines avec recouvrement et nous appliquons ces criteres a des problemes aux limites classiques. Ensuite nous exposons les algorithmes paralleles asynchrones avec communication flexible ; nous presentons le lien avec les methodes de sous-domaines ainsi que les criteres de convergence pour l'etude de problemes aux limites non lineaires, en particulier dans le cas de maillages elements finis non structures. Dans un troisieme temps nous exposons l'implantation de ces methodes sur le multiprocesseurs i. B. M. -sp2 du c. N. U. S. C. (centre national universitaire sud de calcul de montpellier) a l'aide de p. V. M. Et m. P. I. Nous proposons des schemas d'implantation des algorithmes asynchrones et synchrones classiques et des algorithmes asynchrones avec communication flexible en utilisant les routines de communications de p. V. M. Et de m. P. I. Nous presentons par la suite l'analyse ainsi que les tests numeriques pour la resolution de deux types de problemes aux limites : un probleme de convection-diffusion, soit lineaire, soit perturbe par une application diagonale non decroissante, ce qui dans ce dernier cas conduit a un probleme non lineaire. Le second probleme traite est le probleme de navier-stokes 2d. L'utilisation de la formulation fonction courant-tourbillon conduit a la resolution d'une equation de convection-diffusion couplee a une equation de poisson. Finalement nous montrons que les resultats etudie s precedemment s'appliquent a la resolution d'un probleme d'electophorese 3d ou interviennent les equations de navier-stokes couplees a une equation de transport et a une equation de potentiel.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Arres, Billel. „Optimisation des performances dans les entrepôts distribués avec Mapreduce : traitement des problèmes de partionnement et de distribution des données“. Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE2012.

Der volle Inhalt der Quelle
Annotation:
Dans ce travail de thèse, nous abordons les problèmes liés au partitionnement et à la distribution des grands volumes d’entrepôts de données distribués avec Mapreduce. Dans un premier temps, nous abordons le problème de la distribution des données. Dans ce cas, nous proposons une stratégie d’optimisation du placement des données, basée sur le principe de la colocalisation. L’objectif est d’optimiser les traitements lors de l’exécution des requêtes d’analyse à travers la définition d’un schéma de distribution intentionnelle des données permettant de réduire la quantité des données transférées entre les noeuds lors des traitements, plus précisément lors phase de tri (shuffle). Nous proposons dans un second temps une nouvelle démarche pour améliorer les performances du framework Hadoop, qui est l’implémentation standard du paradigme Mapreduce. Celle-ci se base sur deux principales techniques d’optimisation. La première consiste en un pré-partitionnement vertical des données entreposées, réduisant ainsi le nombre de colonnes dans chaque fragment. Ce partitionnement sera complété par la suite par un autre partitionnement d’Hadoop, qui est horizontal, appliqué par défaut. L’objectif dans ce cas est d’améliorer l’accès aux données à travers la réduction de la taille des différents blocs de données. La seconde technique permet, en capturant les affinités entre les attributs d’une charge de requêtes et ceux de l’entrepôt, de définir un placement efficace de ces blocs de données à travers les noeuds qui composent le cluster. Notre troisième proposition traite le problème de l’impact du changement de la charge de requêtes sur la stratégie de distribution des données. Du moment que cette dernière dépend étroitement des affinités des attributs des requêtes et de l’entrepôt. Nous avons proposé, à cet effet, une approche dynamique qui permet de prendre en considération les nouvelles requêtes d’analyse qui parviennent au système. Pour pouvoir intégrer l’aspect de "dynamicité", nous avons utilisé un système multi-agents (SMA) pour la gestion automatique et autonome des données entreposées, et cela, à travers la redéfinition des nouveaux schémas de distribution et de la redistribution des blocs de données. Enfin, pour valider nos contributions nous avons conduit un ensemble d’expérimentations pour évaluer nos différentes approches proposées dans ce manuscrit. Nous étudions l’impact du partitionnement et la distribution intentionnelle sur le chargement des données, l’exécution des requêtes d’analyses, la construction de cubes OLAP, ainsi que l’équilibrage de la charge (Load Balacing). Nous avons également défini un modèle de coût qui nous a permis d’évaluer et de valider la stratégie de partitionnement proposée dans ce travail
In this manuscript, we addressed the problems of data partitioning and distribution for large scale data warehouses distributed with MapReduce. First, we address the problem of data distribution. In this case, we propose a strategy to optimize data placement on distributed systems, based on the collocation principle. The objective is to optimize queries performances through the definition of an intentional data distribution schema of data to reduce the amount of data transferred between nodes during treatments, specifically during MapReduce’s shuffling phase. Secondly, we propose a new approach to improve data partitioning and placement in distributed file systems, especially Hadoop-based systems, which is the standard implementation of the MapReduce paradigm. The aim is to overcome the default data partitioning and placement policies which does not take any relational data characteristics into account. Our proposal proceeds according to two steps. Based on queries workload, it defines an efficient partitioning schema. After that, the system defines a data distribution schema that meets the best user’s needs, and this, by collocating data blocks on the same or closest nodes. The objective in this case is to optimize queries execution and parallel processing performances, by improving data access. Our third proposal addresses the problem of the workload dynamicity, since users analytical needs evolve through time. In this case, we propose the use of multi-agents systems (MAS) as an extension of our data partitioning and placement approach. Through autonomy and self-control that characterize MAS, we developed a platform that defines automatically new distribution schemas, as new queries appends to the system, and apply a data rebalancing according to this new schema. This allows offloading the system administrator of the burden of managing load balance, besides improving queries performances by adopting careful data partitioning and placement policies. Finally, to validate our contributions we conduct a set of experiments to evaluate our different approaches proposed in this manuscript. We study the impact of an intentional data partitioning and distribution on data warehouse loading phase, the execution of analytical queries, OLAP cubes construction, as well as load balancing. We also defined a cost model that allowed us to evaluate and validate the partitioning strategy proposed in this work
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Abdalass, El Montasser. „Résolution performante du problème de stokes par mini-éléments, maillages auto-adaptatifs et méthodes multigrille : Applications“. Ecully, Ecole centrale de Lyon, 1987. http://www.theses.fr/1987ECDL0015.

Der volle Inhalt der Quelle
Annotation:
Etude de deux schemas d'approximation en elements finis : le mini-element de arnold-brezzi-fortin et le schema de stabilisation developpe par arnold-brezzi-pitkaeranta. On propose trois lisseurs adaptes au probleme. Etude de la convergence multigrille pour un lisseur de type richardson. Etude des techniques de raffinement adaptatif du maillage dans une methode d'elements finis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Merrad, Walid. „Interfaces tangibles et réalité duale pour la résolution collaborative de problèmes autour de tables interactives distribuées“. Thesis, Valenciennes, Université Polytechnique Hauts-de-France, 2020. http://www.theses.fr/2020UPHF0010.

Der volle Inhalt der Quelle
Annotation:
De nouvelles modalités d’interactions reposant sur les postures et les gestes complètentprogressivement les modalités couramment employées par les ordinateurs de bureau, lestablettes et les surfaces interactives. Ces modalités peuvent être enrichies par l’adjonctiond’objets tangibles, directement tirés de la vie quotidienne ou représentant de manièresymbolique des concepts abstraits de l’interface. Les tables interactives, de par leurhorizontalité et leurs cadres d’utilisation, souvent collaboratifs voire conviviaux, sont unterritoire privilégié d’exploration des usages des objets tangibles et de la manière dont ilssont capables d’enrichir les modalités classiques d’interaction avec ces tables que sont lepointage et le toucher.Le sujet de cette thèse porte sur l’étude des interactions utilisateur avec des tablesinteractives tangibles, dans un contexte d’utilisation en environnement de réalité dualeconstitué de deux mondes symétriques, interconnectés et d’influence mutuellement. Lesinterfaces utilisateur tangibles offrent aux utilisateurs la possibilité d’appréhender et desaisir la signification des informations numériques en manipulant des représentations tangiblesjudicieuses de notre monde physique. Ces métaphores d’interaction établissent unpont entre les deux environnements qui constituent la réalité duale : le monde physiqueet le monde virtuel.Dans cette perspective, ce travail présente une contribution théorique, ainsi que sesapplications. Nous proposons de combiner l’interaction tangible sur table interactiveavec la réalité duale dans un cadre conceptuel, essentiellement destiné aux concepteursd’applications, qui modélise et explique les interactions et les représentations, quifonctionnent dans des configurations de réalité duale. Nous exposons tout d’aborddifférents travaux réalisés dans le domaine de l’interaction tangible en général, puis nousnous concentrons sur des travaux menés sur les tables interactives. Nous proposonségalement de recenser et répertorier 112 tables interactives, classées et caractérisées selonplusieurs critères. Ensuite, nous présentons le concept de la réalité duale et ses domainesd’application possibles. Ensuite, nous proposons un framework de conception, illustronset expliquons ses éléments constitutifs, et comment il peut s’adapter à diverses situationsde réalité duale, notamment avec des tables interactives équipées de la technologie RFID.Enfin, quant à nos contributions applicatives, nous montrons des études de cas que nousavons conçues sur la base de notre proposition, qui illustrent les mises en oeuvre deséléments de notre framework proposé. Les perspectives de recherche sont enfin mises enévidence à la fin du manuscrit
In everyday life, new interactions are gradually replacing the standard computer keyboardand mouse, by using the human body gestures (hands, fingers, head, etc.) as alternativesof interactions on surfaces and in-air. Another type of interaction resides within the manipulationof everyday objects to interact with digital systems. Interactive tabletops haveemerged as new platforms in several domains, offering better usability and facilitatingmulti-user collaboration, thanks to their large display surface and different interactiontechniques on their surfaces, such as multi-touch and tangible. Therefore, improving interaction(s) on these devices and combining it (respectively them) with other conceptscan prove more useful and helpful in the everyday life of users and designers.The topic of this thesis focuses on studying user interactions on tangible interactivetabletops, in a context of use set in a dual reality environment. Tangible User Interfacesoffer users the possibility to apprehend and grasp the meaning of digital information bymanipulating insightful tangible representations in our physical world. These interactionmetaphors are bridging both environments that constitute the dual reality: the physicalworld and the virtual world.In this perspective, this work presents a theoretical contribution along with itsapplications. We propose to combine tangible interaction on tabletops and dual realityin a conceptual framework, basically intended for application designers, that models andexplains interactions and representations, which operate in dual reality setups. First ofall, we expose various works carried out in the field of tangible interaction in general,then we focus on existing work conducted on tabletops. We also propose to list 112interactive tabletops, classified and characterized by several criteria. Next, we presentthe dual reality concept and its possible application domains. Second, we design ourproposal of the framework, illustrate and explain its composing elements, and how itcan adapt to various situations of dual reality, particularly with interactive tabletopsequipped with RFID technology. Finally, and as application contributions, we show casestudies that we designed based on our proposal, which illustrate implementations ofelements from our proposed framework. Research perspectives are finally highlighted atthe end of the manuscript
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Kemmoe, Tchomte Sylverin. „Métaheuristiques, modèles mathématiques, modèles d'évaluation de performances pour le problème d'ordonnancement de projets sous contraintes de ressources“. Clermont-Ferrand 2, 2007. http://www.theses.fr/2007CLF21757.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s'inscrit dans le domaine scientifique appelé recherche opérationnelle, elle traite des problèmes d'ordonnancement de projets sous contraintes de ressources ainsi que les méthodes de résolution. Pour ce dernier, elle reprend les principales méthodes approchées et exactes publiées dans la littérature pour résoudre le problème classique du RCPSP (Resource-Constrained Scheduling Problem) ainsi que ses extensions. Dans cette thèse nous avons proposé deux extensions de la méthode d'opimisation à population appelée Optimisation par essaims particulaires ou OEP et une modélisation du problème de RCPSP basée sur les flots. L'OEP, issue de l'étude de l'organisation des groupes d'animaux a été introduite par un psychologue social et par un ingénieur électricien (Kennedy Eberhart, 1995). L'évolution d'une particule se souvient du meilleur point (le plus proche de l'objectif) par lequel il est passé au cours de ses évolutions et tend à y retourner ; chaque particule est informée du meilleur point connu au sein de la population et tend à s'y rendre. La première extension consiste à favoriser davantage le processus d'intensification par rapport au processus de diversification (notions présentées par Blum et Rolli, 2003). Ce qui a conduit à définir la notion d'attracteurs puissants. La deuxième extension porte sur l'adaptation du cadre général proposé par M. Clerc, 2004, aux problèmes d'optimisation combinatoire ayant des contraintes de précédence. Ce qui a amené à redéfinir différents opérateurs et concepts : position d'une particule, différence de deux positions, vitesse d'une particule, somme de deux vitesses, etc. Dans cette thèse, une modélisation du problème de RCPSP basée sur les flots a été proposée. Les concepts de graphe-support, graphe-problème et de graphe-solution ont été définis. Ce qui a conduit à mettre en oeuvre une métaheuristique avec les problèmes de voisinage suivants : le chemin critique, la permutation des activités de la séquence et la pénalisation de certains arcs du graphe. Elle s'est enfin intéressée à un problème industriel, celui des chantiers polyvalents de PSA PEUGEOT CITROEN. Problème industriel complexe dont il a fallu utiliser la méthodologie ASCI (Analyse Spécification Conception et Implantation) pour le décomposer en trois sous-systèmes (physique, logique et décisionnel) disjoints mais communicants. Des methodes approchées (heuristiques, métaheuristiques et simulation) et exactes (programmation linéaire et méthodes de décomposition) ont été utilisées pour résoudre ce problème industriel. Des tests numériques ont été réalisés et les résultats sont comparables et parfois meilleurs à ceux publiés dans la littérature
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Bachmann, Etienne. „Imagerie ultrasonore 2D et 3D sur GPU : application au temps réel et à l'inversion de forme d'onde complète“. Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30133/document.

Der volle Inhalt der Quelle
Annotation:
Si les avancées majeures en imagerie ultrasonore ont longtemps été liées à la qualité de l'instrumentation, l'avènement de l'informatique a incontestablement changé la donne en introduisant des possibilités croissantes de traitement des données pour obtenir une meilleure image. Par ailleurs, les GPUs, composants principaux des cartes graphiques, offrent de par leur architecture des vitesses de calcul bien supérieures aux processeurs, y compris à des fins de calcul scientifique. Le but de cette thèse a été de tirer parti de ce nouvel outil de calcul, en ciblant deux applications complémentaires. La première est d'autoriser une imagerie en temps réel de meilleure qualité que les autres techniques d'imagerie échographique, en parallélisant le procédé d'imagerie FTIM (Fast Topological IMaging). La seconde est d'introduire l'imagerie quantitative et en particulier la reconstruction de la carte de vitesse du milieu inconnu, en utilisant l'inversion de la forme d'onde complète
If the most important progresses in ultrasound imaging have been closely linked to the instrumentation's quality, the advent of computing science revolutionized this discipline by introducing growing possibilities in data processing to obtain a better picture. In addition, GPUs, which are the main components of the graphics cards deliver thanks to their architecture a significantly higher processing speed compared with processors, and also for scientific calculation purpose. The goal of this work is to take the best benefit of this new computing tool, by aiming two complementary applications. The first one is to enable real-time imaging with a better quality than other sonographic imaging techniques, thanks to the parallelization of the FTIM (Fast Tpological IMaging) imaging process. The second one is to introduce quantitative imaging and more particularly reconstructing the wavespeed map of an unknown medium, using Full Waveform Inversion
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Silva, Nunes Ana Luisa. „Spectral approximation with matrices issued from discretized operators“. Phd thesis, Université Jean Monnet - Saint-Etienne, 2012. http://tel.archives-ouvertes.fr/tel-00952977.

Der volle Inhalt der Quelle
Annotation:
In this thesis, we consider the numerical solution of a large eigenvalue problem in which the integral operator comes from a radiative transfer problem. It is considered the use of hierarchical matrices, an efficient data-sparse representation of matrices, especially useful for large dimensional problems. It consists on low-rank subblocks leading to low memory requirements as well as cheap computational costs. We discuss the use of the hierarchical matrix technique in the numerical solution of a large scale eigenvalue problem arising from a finite rank discretization of an integral operator. The operator is of convolution type, it is defined through the first exponential-integral function and hence it is weakly singular. We access HLIB (Hierarchical matrices LIBrary) that provides, among others, routines for the construction of hierarchical matrix structures and arithmetic algorithms to perform approximative matrix operations. Moreover, it is incorporated the matrix-vector multiply routines from HLIB, as well as LU factorization for preconditioning, into SLEPc (Scalable Library for Eigenvalue Problem Computations) in order to exploit the available algorithms to solve eigenvalue problems. It is also developed analytical expressions for the approximate degenerate kernels and deducted error upper bounds for these approximations. The numerical results obtained with other approaches to solve the problem are used to compare with the ones obtained with this technique, illustrating the efficiency of the techniques developed and implemented in this work
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Mawhin, Barbara. „Stratégies de protection de la performance pour la conception de cockpits résilients : le cas de la fatigue en situation inattendue de résolution de problème“. Thesis, Paris 5, 2013. http://www.theses.fr/2013PA05H122.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Haidar, Azzam. „Sur l'extensibilité parallèle de solveurs linéaires hybrides pour des problèmes tridimensionels de grandes tailles“. Phd thesis, Institut National Polytechnique de Toulouse - INPT, 2008. http://tel.archives-ouvertes.fr/tel-00347948.

Der volle Inhalt der Quelle
Annotation:
La résolution de très grands systèmes linéaires creux est une composante de base algorithmique fondamentale dans de nombreuses applications scientifiques en calcul intensif. La résolution per- formante de ces systèmes passe par la conception, le développement et l'utilisation d'algorithmes parallèles performants. Dans nos travaux, nous nous intéressons au développement et l'évaluation d'une méthode hybride (directe/itérative) basée sur des techniques de décomposition de domaine sans recouvrement. La stratégie de développement est axée sur l'utilisation des machines mas- sivement parallèles à plusieurs milliers de processeurs. L'étude systématique de l'extensibilité et l'efficacité parallèle de différents préconditionneurs algébriques est réalisée aussi bien d'un point de vue informatique que numérique. Nous avons comparé leurs performances sur des systèmes de plusieurs millions ou dizaines de millions d'inconnues pour des problèmes réels 3D .
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Notargiacomo, Thibault. „Approche parcimonieuse et calcul haute performance pour la tomographie itérative régularisée“. Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAT013/document.

Der volle Inhalt der Quelle
Annotation:
La tomographie est une technique permettant de reconstruire une carte des propriétés physiques de l'intérieur d'un objet, à partir d'un ensemble de mesures extérieures. Bien que la tomographie soit une technologie mature, la plupart des algorithmes utilisés dans les produits commerciaux sont basés sur des méthodes analytiques telles que la rétroprojection filtrée. L'idée principale de cette thèse est d'exploiter les dernières avancées dans le domaine de l'informatique et des mathématiques appliqués en vue d'étudier, concevoir et implémenter de nouveaux algorithmes dédiés à la reconstruction 3D en géométrie conique. Nos travaux ciblent des scenarii d'intérêt clinique tels que les acquisitions faible dose ou faible nombre de vues provenant de détecteurs plats. Nous avons étudié différents modèles d'opérateurs tomographiques, leurs implémentations sur serveur multi-GPU, et avons proposé l'utilisation d'une transformée en ondelettes complexes 3D pour régulariser le problème inverse
X-Ray computed tomography (CT) is a technique that aims at providing a measure of a given property of the interior of a physical object, given a set of exterior projection measurement. Although CT is a mature technology, most of the algorithm used for image reconstruction in commercial applications are based on analytical methods such as the filtered back-projection. The main idea of this thesis is to exploit the latest advances in the field of applied mathematics and computer sciences in order to study, design and implement algorithms dedicated to 3D cone beam reconstruction from X-Ray flat panel detectors targeting clinically relevant usecases, including low doses and few view acquisitions.In this work, we studied various strategies to model the tomographic operators, and how they can be implemented on a multi-GPU platform. Then we proposed to use the 3D complex wavelet transform in order to regularize the reconstruction problem
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Bruned, Vianney. „Analyse statistique et interprétation automatique de données diagraphiques pétrolières différées à l’aide du calcul haute performance“. Thesis, Montpellier, 2018. http://www.theses.fr/2018MONTS064.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, on s'intéresse à l’automatisation de l’identification et de la caractérisation de strates géologiques à l’aide des diagraphies de puits. Au sein d’un puits, on détermine les strates géologiques grâce à la segmentation des diagraphies assimilables à des séries temporelles multivariées. L’identification des strates de différents puits d’un même champ pétrolier nécessite des méthodes de corrélation de séries temporelles. On propose une nouvelle méthode globale de corrélation de puits utilisant les méthodes d’alignement multiple de séquences issues de la bio-informatique. La détermination de la composition minéralogique et de la proportion des fluides au sein d’une formation géologique se traduit en un problème inverse mal posé. Les méthodes classiques actuelles sont basées sur des choix d’experts consistant à sélectionner une combinaison de minéraux pour une strate donnée. En raison d’un modèle à la vraisemblance non calculable, une approche bayésienne approximée (ABC) aidée d’un algorithme de classification basé sur la densité permet de caractériser la composition minéralogique de la couche géologique. La classification est une étape nécessaire afin de s’affranchir du problème d’identifiabilité des minéraux. Enfin, le déroulement de ces méthodes est testé sur une étude de cas
In this thesis, we investigate the automation of the identification and the characterization of geological strata using well logs. For a single well, geological strata are determined thanks to the segmentation of the logs comparable to multivariate time series. The identification of strata on different wells from the same field requires correlation methods for time series. We propose a new global method of wells correlation using multiple sequence alignment algorithms from bioinformatics. The determination of the mineralogical composition and the percentage of fluids inside a geological stratum results in an ill-posed inverse problem. Current methods are based on experts’ choices: the selection of a subset of mineral for a given stratum. Because of a model with a non-computable likelihood, an approximate Bayesian method (ABC) assisted with a density-based clustering algorithm can characterize the mineral composition of the geological layer. The classification step is necessary to deal with the identifiability issue of the minerals. At last, the workflow is tested on a study case
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Simon-Fiacre, Caroline. „Médiations sémiotiques en situation de co-résolution de problèmes : effets sur les stratégies et performances d'enfants de CP et de CE2 dans les tâches d'exploration ou d'encodage d'un parcours“. Aix-Marseille 1, 2005. http://www.theses.fr/2005AIX10019.

Der volle Inhalt der Quelle
Annotation:
Ce travail s'inscrit à l'interface des travaux de psychologie fondés par l'approche socio-constructiviste du fonctionnement et du développement des activités cognitives chez des enfants et de ceux de la pragmatique. Les expérimentations réalisées ont pour but de comprendre comment et à quelles conditions les transactions cognitivo-langagières peuvent s'avérer bénéfiques (ou non) lors de la résolution de tâches spatiales. Ces dernières consistent soit à explorer un parcours de type labyrinthe (2D ou 3D) soit à encoder un tracé. La résolution de ces tâches a été proposée à des sujets de CP et CE2 en individuel ou dyade. Les résultats obtenus ont permis par une analyse fine des corpus interactifs de dégager les incidences de la situation de communication sur la cognition. Il a ainsi été dégagé que les compétences et les performances cognitives varient en fonction des situations de communication, les processus cognitifs eux-mêmes, en particulier les mécanismes d'inférence, étant gouvernés par des processus communicationnels, l'ensemble attestant que les conditons de déroulement des échanges sont au centre de la relation entre cognition et communication.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Belaïdouni, Mériéma. „Métaheuristiques et paysages de recherche“. Angers, 2001. http://www.theses.fr/2001ANGE0022.

Der volle Inhalt der Quelle
Annotation:
Les métaheuristiques sont une classe de méthodes qui fournissent des solutions de bonne qualité en temps raisonnable à des problèmes combinatoires réputés difficiles. Il existe de nombreux travaux d'application de ces méthodes mais très peu d'études s'intéressent à leur aspect fondamental. Ainsi la dynamique et le comportement des métaheuristiques restent méconnus. Cette thèse est dédiée à l'étude de quelques questions fondamentales sur les métaheuristiques. Nous avons adopté une méthodologie en trois axes : 1) l'étude des propriétés et mesures des problèmes combinatoires, 2) l'étude des comportements des métaheuristiques, 3) la mise en relation des mesures des problèmes et des comportements de métaheuristiques. Pour valider cette approche nous l'avons appliquée à deux problèmes NP-complets : MAX-CSP et SAT. Nous avons développé pour le premier axe un état de l'art qui réunit un grand nombre de mesures existantes, puis nous avons classé ces mesures. Nous avons ensuite appliqué et analysé les mesures densité d'état (DOS), distance dans un niveau (DDN), distance entre niveaux (DEN), autocorrélation et densité des coûts du processus (DCP). Concernant le deuxième axe nous avons développé la notion de performance qui fait partie des comportements d'une métaheuristique et nous avons proposé un nouveau critère d'évaluation de la performance basé sur la mesure DCP. Enfin, nous avons dans le troisième axe mis en évidence des relations entre comportements et mesures en analysant les conséquences sur les métaheuristiques, des mesures que nous avons étudiées. Ces mises en relation nous permettent de prévoir ou d'expliquer le comportement et la dynamique des métaheuristiques
Metaheuristics are a class of methods which are able to provide solutions of good quality in a reasonnable amount of time for difficult combinatorial problems. There exist a large number of applications of these methods but only few studies concern their fondamental aspects. This thesis is devoted to study some fondamental issues of metaheuristics. Three tightly related axis are explored : 1)the study of problems properties and measures, 2)the study of dynamics of metaheuristics, 3)the establishment of the relations between measures of problems and dynamics of metaheuristics. To validate this approach we have apllied it to two NP-complete problems : MAX-CSP and SAT
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Bréhard, Thomas. „Estimation séquentielle et analyse de performances pour un problème de filtrage non linéaire partiellement observé : application à la trajectographie par mesure d'angles“. Rennes 1, 2005. http://www.theses.fr/2005REN1S118.

Der volle Inhalt der Quelle
Annotation:
De grandes avancées ont été faites dans la résolution des problèmes de filtrage grâce aux méthodes de Monte Carlo séquentielles. Nous évoquons ici un problème de filtrage particulier: la trajectographie par mesure d'angles (TMA). Il a ceci de particulier que le capteur fournit seulement une information partielle sur l'état de la cible. Nous montrons qu'il n'est pas raisonnable de résoudre ce problème à l'aide des méthodes particulaires classiques. La première contribution est un filtre particulaire hiérarchique permettant d'intégrer cet aspect. La deuxième contribution concerne la borne de Cramér-Rao a posteriori. Un important travail théorique est réalisé pour appliquer cet outil à la TMA. Cette borne peut être calculée exactement ce qui permet d'envisager son utilisation pour la gestion de capteurs. La dernière contribution concerne l'estimation distribuée à l'aide d'un réseau de capteurs. Des formules de fusion non linéaires basées sur le filtre particulaire sont proposées.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Berquin, Yann. „Assessing the performances and optimizing the radar sounder design parameters for the EJSM mission (Ganymede and Europa)“. Thesis, Grenoble, 2014. http://www.theses.fr/2014GRENU001/document.

Der volle Inhalt der Quelle
Annotation:
On se propose dans un premier temps d'étudier des jeux de données topographiques sur la lune glacée de Jupiter Ganymède et d'estimer l'impact de la topographie sur les performances du futur radar sondeur. Les principaux résultats sont présentés dans [1]. Une seconde partie est dédiée à l'expression mathématique du problème direct du sondage radar planétaire (physique et instrumentation). On rappelle ainsi comment dériver à partir des formulations de Stratton-Chu les formulations volumiques classiques et surfaciques (i.e. Huygens-Fresnel). On s'attache ensuite à détailler un algorithme performant basé sur la formulation surfacique pour simuler des échos radar à partir d'une surface planétaire maillée. Cette approche est largement inspirée par le travail de J.-F. Nouvel [2]. Une troisième partie s'intéresse à l'inversion des paramètres géophysiques de surface à partir des mesures radar. On écrit ainsi le problème dans un cadre probabiliste (c.f. [3]) et on présente trois grandes familles d'algorithmes : (i) une approche avec une linéarisation du problème, (ii) une approche itérative basée sur une méthode de gradient et (iii) une approche statistique pour estimer les densités de probabilités a posteriori. Ces algorithmes sont appliqués à des jeux de données synthétiques pour illustrer leurs performances. [1] Y. Berquin, W. Kofman, A. Herique, G. Alberti, and P. Beck. A study on ganymede's surface topography: Perspectives for radar sounding. Planetary and Space Science, (0), 2012. [2] J.-F. Nouvel, A. Herique, W. Kofman, and A. Safaeinili. Radar signal simulation: Surface modeling with the Facet Method. Radio Science, 39:RS1013, February 2004. [3] A. Tarantola. Inverse problem theory and methods for model parameter estimation. SIAM, 2005
The manuscript details the work performed in the course of my PhD on planetary sounding radar. The main goal of the study is to help designing and assessing the sounding radar performances. This instrument will be embarked on the ac{ESA}'s large class mission ac{JUICE} to probe Jupiter's environment and Jupiter's icy moons Callisto, Ganymede and Europa. As an introduction to the problem, a study on Ganymede's surface ac{DEM} and its implications with regard to the radar performances was performed. The results of this work put forward issues due to a hostile environment with important surface clutter which eventually lead to a decrease in the radar signal bandwidth to 8--10 MHz. A first section is then dedicated to the formulation of the direct problem of sounding radar with a focus on surface formulations. This section eventually leads to a novel algorithm for radar surface echo computation from meshed surfaces which proves to be both efficient and accurate. A second section studies the possibility to use surface formulation to recover geophysical surface parameters from sounding radar data. For that purpose, three main approaches are discussed namely (i) a linear approach, (ii) a gradient-based approach and (iii) a statistical approach. These techniques rely on a probabilistic view of the inverse problem at hand and yield good result with different setups. Although we mainly focus on surface reflectivity, we also discuss surface topography inversion. Finally, a last section discusses the work presented in the manuscript and provides perspectives for future work
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Berquin, Yann. „Etude des performances et dimensionnement du radar pénétrateur pour la mission JUICE“. Phd thesis, Université de Grenoble, 2014. http://tel.archives-ouvertes.fr/tel-01069886.

Der volle Inhalt der Quelle
Annotation:
On se propose dans un premier temps d'étudier des jeux de données topographiques sur la lune glacée de Jupiter Ganymède et d'estimer l'impact de la topographie sur les performances du futur radar sondeur. Les principaux résultats sont présentés dans [1]. Une seconde partie est dédiée à l'expression mathématique du problème direct du sondage radar planétaire (physique et instrumentation). On rappelle ainsi comment dériver à partir des formulations de Stratton-Chu les formulations volumiques classiques et surfaciques (i.e. Huygens-Fresnel). On s'attache ensuite à détailler un algorithme performant basé sur la formulation surfacique pour simuler des échos radar à partir d'une surface planétaire maillée. Cette approche est largement inspirée par le travail de J.-F. Nouvel [2]. Une troisième partie s'intéresse à l'inversion des paramètres géophysiques de surface à partir des mesures radar. On écrit ainsi le problème dans un cadre probabiliste (c.f. [3]) et on présente trois grandes familles d'algorithmes : (i) une approche avec une linéarisation du problème, (ii) une approche itérative basée sur une méthode de gradient et (iii) une approche statistique pour estimer les densités de probabilités a posteriori. Ces algorithmes sont appliqués à des jeux de données synthétiques pour illustrer leurs performances. [1] Y. Berquin, W. Kofman, A. Herique, G. Alberti, and P. Beck. A study on ganymede's surface topography: Perspectives for radar sounding. Planetary and Space Science, (0), 2012. [2] J.-F. Nouvel, A. Herique, W. Kofman, and A. Safaeinili. Radar signal simulation: Surface modeling with the Facet Method. Radio Science, 39:RS1013, February 2004. [3] A. Tarantola. Inverse problem theory and methods for model parameter estimation. SIAM, 2005.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Juricic, Sarah. „Identifiability of the thermal performance of a building envelope from poorly informative data“. Thesis, Chambéry, 2020. http://www.theses.fr/2020CHAMA014.

Der volle Inhalt der Quelle
Annotation:
Dans un cadre de rénovation de bâtiment existant, on propose de baser le diagnostic énergétique et aéraulique sur des mesures in-situ non intrusives. Les données issues des mesures alimentent une méthode inverse qui permettra de déterminer les caractéristiques du bâtiment. La spécificité de la thèse consiste à utiliser l'inférence bayésienne comme approche pour la résolution du problème inverse, ce qui permet de travailler en approche probabiliste et d'obtenir intrinsèquement une estimation des incertitudes
The purpose of the thesis is to develop a building energy performance assessment based on in situ non intrusive measurements. An inverse method using the acquired data allows us to determine the building's characteristics, with more or less accuracy. What is particular in this work is the use of a Bayesian approach, which allows on one hand handling data even if scarce and on the other hand obtaining inherently uncertainty assessment
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

Sener, Tournus Pinar. „Family involvement in firm and its implications for firm performance : dividend behavior and foreign holdings“. Thesis, Paris 1, 2015. http://www.theses.fr/2015PA010069.

Der volle Inhalt der Quelle
Annotation:
Cette thèse, en portant une attention particulière sur les entreprises familiales turques et par l'utilisation d'une approche fondée sur la théorie de l'agence, a pour objectif de mettre en lumière les implications du capital familial sur la performance, la distribution de dividendes et les avoirs étrangers. Elle étudie premièrement en s'appuyant sur une méta-analyse, la relation entre l'impact net du capital familial sur la performance de l'entreprise et l'effet de modérateurs sur cette relation. Ensuite, elle examine si, en Turquie, le capital familial comble ou profite des lacunes institutionnelles et étudie comment les entreprises familiales diminuent les préoccupations relatives à l'expropriation des actionnaires minoritaires. Enfin, elle explore comment dans le cas turc, les investisseurs étrangers perçoivent le capital familial et les pratiques de gouvernance appliquées par les entreprises familiales pour éliminer les préoccupations de ces investisseurs concernant l'expropriation de leurs droits. Les principaux résultats de cette thèse démontrent que l'impact du capital familial sur la performance des entreprises est positif mais faible. Le niveau de développement des institutions formelles du pays dans lequel les entreprises familiales opèrent, modère la relation entre le capital familial et la performance des entreprises. En Turquie, un niveau modéré de détention du capital par la famille est bénéfique car la performance comptable atteint un pic à ce niveau de détention et les investisseurs valorisent un tel niveau de détention du capital par la famille. En outre, lorsque les familles détiennent un niveau substantiel de droits de vote et participent activement au management de l'entreprise, le versement de dividendes se réduit et la gouvernance familiale profite des lacunes institutionnelles pour exproprier les autres actionnaires de leurs droits. Enfin, en Turquie, le recours effectif par les entreprises familiales à des pratiques de gouvernance diminue les inquiétudes des investisseurs étrangers concernant l'opportunisme de la famille
Using insights mainly from agency theory, this dissertation intends to shed light on performance, dividend payout and foreign holdings' implications of family involvement in firm with an emphasis on Turkish family firms. The dissertation first investigates the net effect of family involvement on firm performance and the effect of moderators on that relationship by conducting a meta-analysis. It then shifts the focus on Turkey to examine whether family governance fills or abuses institutional gaps and look into how family firms alleviate concerns of expropriation of minority shareholders. Finally, it investigates how foreign investors perceive family involvement in firm and firm-level governance practices of family firms to mitigate investors' expropriation concerns in Turkey. The main findings of this dissertation show that the impact of family participation on firm performance is positive but modest. The development level of formal institutions in countries in which family firms operate moderates the relationship between family involvement and firm performance. In Turkey, moderate levels of family involvement in ownership are beneficial since accounting profitability reaches a peak at these levels and foreign investors value these levels of family participation in firm. On the other hand, when families have substantial voting rights and actively participate in management, dividend payouts reduce and family governance abuses institutional voids by expropriating other shareholders. Additionally, the effective use of firm-level governance practices by family firms mitigates foreign investors' concerns about family opportunism in Turkey
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Brossier, Romain. „Imagerie sismique à deux dimensions des milieux visco-élastiques par inversion des formes d'ondes : développements méthodologiques et applications“. Phd thesis, Université de Nice Sophia-Antipolis, 2009. http://tel.archives-ouvertes.fr/tel-00451138.

Der volle Inhalt der Quelle
Annotation:
La connaissance des structures internes de la Terre, à différentes échelles, présente des enjeux majeurs d'ordres économiques, humains, environnementaux et scientifiques. Diverses méthodes d'imagerie ont été développées en utilisant les informations contenues dans les ondes sismiques. La méthode d'inversion des formes d'ondes construit des images quantitative haute résolution des paramètres physiques du sous-sol, en exploitant le champ d'onde complet, sous la forme d'un problème d'optimisation. Dans ce travail de thèse, je présente l'application de l'inversion des formes d'ondes en domaine fréquentiel, pour imager les paramètres visco-élastiques dans des géometries à deux dimensions à grands offsets. Dans un premier temps les développements méthodologiques et algorithmiques sont présentés. La modélisation de la propagation des ondes P-SV en domaine fréquentiel, le problème direct du processus d'imagerie, est assurée par une méthode d'éléments finis Galerkin discontinus, assurant une grande flexibilité dans le choix des ordres d'interpolation et dans l'utilisation de maillages triangulaires non-structurés. Le problème inverse est résolu sous une forme linéarisée, afin de limiter le nombre de simulations directes, et utilise l'algorithme quasi-Newton L-BFGS permettant de tirer bénéfice de l'estimation "économique" du Hessien. Le processus global d'imagerie est implémenté sous la forme d'un algorithme massivement parallèle destiné aux calculateurs modernes à mémoire distribuée. Dans un deuxième temps, les algorithmes développés sont appliqués à des cas d'étude. Des applications sont menées dans des modèles synthétiques réalistes représentatifs d'environnements terrestres et marins. Ces études montrent les difficultés associées à la reconstruction des paramètres élastiques à partir de données mettant en jeu des phénomènes de propagations complexes (ondes converties, multiples, ondes de surfaces...). Des solutions sont proposées sous forme de processus hiérarchiques multi-échelles, afin de limiter les effets des non-linéarités du problème inverse et ainsi d'améliorer la convergence du processus vers le minimum global. Enfin, la sensibilité de différentes normes et critères de minimisation est analysée, à partir de données bruités issues de modèles synthétiques réalistes, ainsi que sous l'approximation acoustique pour un jeu de données réelles pétrolière. Ces tests montrent certaines limites du formalisme classique basé sur la norme L2 dans l'espace des données, tandis que la norme L1 apparaît comme alternative robuste pour l'inversion de données décimées en domaine fréquentiel.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie