Siga este enlace para ver otros tipos de publicaciones sobre el tema: Problèmes d’estimation de performances.

Tesis sobre el tema "Problèmes d’estimation de performances"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 20 mejores tesis para su investigación sobre el tema "Problèmes d’estimation de performances".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Barré, Mathieu. "Worst-case analysis of efficient first-order methods". Electronic Thesis or Diss., Université Paris sciences et lettres, 2021. http://www.theses.fr/2021UPSLE064.

Texto completo
Resumen
De nombreuses applications modernes reposent sur la résolution de problèmes d’optimisations (par exemple, en biologie numérique, en mécanique, en finance), faisant des méthodes d’optimisation des outils essentiels dans de nombreux domaines scientifiques. Apporter des garanties sur le comportement de ces méthodes constitue donc un axe de recherche important. Une façon classique d’analyser un algorithme d’optimisation consiste à étudier son comportement dans le pire cas. C'est-à-dire, donner des garanties sur son comportement (par exemple sa vitesse de convergence) qui soient indépendantes de la fonction en entrée de l’algorithme et vraies pour toutes les fonctions dans une classe donnée. Cette thèse se concentre sur l’analyse en pire cas de quelques méthodes du premier ordre réputées pour leur efficacité. Nous commençons par étudier les méthodes d’accélération d’Anderson, pour lesquelles nous donnons de nouvelles bornes de pire cas qui permettent de garantir précisément et explicitement quand l’accélération a lieu. Pour obtenir ces garanties, nous fournissons des majorations sur une variation du problème d’optimisation polynomiale de Tchebychev, dont nous pensons qu’elles constituent un résultat indépendant. Ensuite, nous prolongeons l’étude des Problèmes d’Estimation de Performances (PEP), développés à l’origine pour analyser les algorithmes d’optimisation à pas fixes, à l’analyse des méthodes adaptatives. En particulier, nous illustrons ces développements à travers l’étude des comportements en pire cas de la descente de gradient avec pas de Polyak, qui utilise la norme des gradients et les valeurs prises par la fonction objectif, ainsi que d’une nouvelle version accélérée. Nous détaillons aussi cette approche sur d’autres algorithmes adaptatifs standards. Enfin, la dernière contribution de cette thèse est de développer plus avant la méthodologie PEP pour l’analyse des méthodes du premier ordre se basant sur des opérations proximales inexactes. En utilisant cette approche, nous définissons des algorithmes dont les garanties en pire cas ont été optimisées et nous fournissons des analyses de pire cas pour quelques méthodes présentes dans la littérature
Many modern applications rely on solving optimization problems (e.g., computational biology, mechanics, finance), establishing optimization methods as crucial tools in many scientific fields. Providing guarantees on the (hopefully good) behaviors of these methods is therefore of significant interest. A standard way of analyzing optimization algorithms consists in worst-case reasoning. That is, providing guarantees on the behavior of an algorithm (e.g. its convergence speed), that are independent of the function on which the algorithm is applied and true for every function in a particular class. This thesis aims at providing worst-case analyses of a few efficient first-order optimization methods. We start by the study of Anderson acceleration methods, for which we provide new explicit worst-case bounds guaranteeing precisely when acceleration occurs. We obtained these guarantees by providing upper bounds on a variation of the classical Chebyshev optimization problem on polynomials, that we believe of independent interest. Then, we extend the Performance Estimation Problem (PEP) framework, that was originally designed for principled analyses of fixed-step algorithms, to study first-order methods with adaptive parameters. This is illustrated in particular through the worst-case analyses of the canonical gradient method with Polyak step sizes that use gradient norms and function values information, and of an accelerated version of it. The approach is also presented on other standard adaptive algorithms. Finally, the last contribution of this thesis is to further develop the PEP methodology for analyzing first-order methods relying on inexact proximal computations. Using this framework, we produce algorithms with optimized worst-case guarantees and provide (numerical and analytical) worst-case bounds for some standard algorithms in the literature
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Gasparyan, Samvel. "Deux problèmes d’estimation statistique pour les processus stochastiques". Thesis, Le Mans, 2016. http://www.theses.fr/2016LEMA1031/document.

Texto completo
Resumen
Le travail est consacré aux questions de la statistique des processus stochastiques. Particulièrement, on considère deux problèmes d'estimation. Le premier chapitre se concentre sur le problème d'estimation non-paramétrique pour le processus de Poisson non-homogène. On estime la fonction moyenne de ce processus, donc le problème est dans le domaine d'estimation non-paramétrique. On commence par la définition de l'efficacité asymptotique dans les problèmes non-paramétriques et on procède à exploration de l'existence des estimateurs asymptotiquement efficaces. On prend en considération la classe des estimateurs à noyau. Dans la thèse il est démontré que sous les conditions sur les coefficients du noyau par rapport à une base trigonométrique, on a l'efficacité asymptotique dans le sens minimax sur les ensembles divers. Les résultats obtenus soulignent le phénomène qu'en imposant des conditions de régularité sur la fonction inconnue, on peut élargir la classe des estimateurs asymptotiquement efficaces. Pour comparer les estimateurs asymptotiquement efficaces (du premier ordre), on démontre une inégalité qui nous permet de trouver un estimateur qui est asymptotiquement efficace du second ordre. On calcule aussi la vitesse de convergence pour cet estimateur, qui dépend de la régularité de la fonction inconnue et finalement on calcule la valeur minimale de la variance asymptotique pour cet estimateur. Cette valeur joue le même rôle dans l'estimation du second ordre que la constantede Pinsker dans le problème d'estimation de la densité ou encore l'information de Fisher dans les problèmes d'estimation paramétrique.Le deuxième chapitre est dédié au problème de l’estimation de la solution d’une équation différentielle stochastique rétrograde (EDSR). On observe un processus de diffusion qui est donnée par son équation différentielle stochastique dont le coefficient de la diffusion dépend d’un paramètre inconnu. Les observations sont discrètes. Pour estimer la solution de l’EDSR on a besoin d’un estimateur-processus pour leparamètre, qui, chaque instant n’utilise que la partie des observations disponible. Dans la littérature il existe une méthode de construction, qui minimise une fonctionnelle. On ne pouvait pas utiliser cet estimateur, car le calcul serait irréalisable. Dans le travail nous avons proposé un estimateur-processus qui a la forme simple et peut être facilement calculé. Cet estimateur-processus est un estimateur asymptotiquementefficace et en utilisant cet estimateur on estime la solution de l’EDSR de manière efficace aussi
This work is devoted to the questions of the statistics of stochastic processes. Particularly, the first chapter is devoted to a non-parametric estimation problem for an inhomogeneous Poisson process. The estimation problem is non-parametric due to the fact that we estimate the mean function. We start with the definition of the asymptotic efficiency in non-parametric estimation problems and continue with examination of the existence of asymptotically efficient estimators. We consider a class of kernel-type estimators. In the thesis we prove that under some conditions on the coefficients of the kernel with respect to a trigonometric basis we have asymptotic efficiency in minimax sense over various sets. The obtained results highlight the phenomenon that imposing regularity conditions on the unknown function, we can widen the class ofasymptotically efficient estimators. To compare these (first order) efficient estimators, we prove an inequality which allows us to find an estimator which is asymptotically efficient of second order. We calculate also the rate of convergence of this estimator, which depends on the regularity of the unknown function, and finally the minimal value of the asymptotic variance for this estimator is calculated. This value plays the same role in the second order estimation as the Pinsker constant in the density estimation problem or the Fisher information in parametric estimation problems. The second chapter is dedicated to a problem of estimation of the solution of a Backward Stochastic Differential Equation (BSDE). We observe a diffusion process which is given by its stochastic differential equation with the diffusion coefficientdepending on an unknown parameter. The observations are discrete. To estimate the solution of a BSDE, we need an estimator-process for a parameter, which, for each given time, uses only the available part of observations. In the literature there exists a method of construction, which minimizes a functional. We could not use this estimator, because the calculations would not be feasible. We propose an estimator-process which has a simple form and can be easily computed. Using this estimator we estimate the solution of a BSDE in an asymptotically efficient way
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Lacot, Émilie. "L'évaluation psychotechnique des performances mnésiques : problèmes épistémologiques et méthodologiques". Thesis, Toulouse 2, 2014. http://www.theses.fr/2014TOU20099.

Texto completo
Resumen
Si les scores psychotechniques ne sont pas des mesures, leur utilisation par les chercheurs an neuropsychologie pour tester des hypothèses de recherche et par les neuropsychologues pour effectuer des bilans mémoire manque de légitimité scientifique. Le chercheur en neuropsychologie qui, à l'aide d'une étude de cas, veut départager deux approches théoriques concurrentes, doit plutôt se demander si les théories prédisent des probabilités de réussite aux items des tests appartenant à des intervalles de valeurs disjoints. Cela suppose que la notion de probabilité de réussite d'un item par le patient soit empiriquement fondée (absence d'apprentissage). Si l'apprentissage a lieu, en particulier chez un patient cérébrolésé, le problème scientifique est différent : il s'agit de découvrir ce qui permet cet apprentissage. Le clinicien, praticien des tests neuropsychologiques, participe quant à lui à une institution diagnostique, contrainte à opérer une sélection des patients qui pourront bénéficier d'examens plus approfondis de leur cerveau. Dans cette perspective, les scores psychotechniques nourrissent un dispositif sociotechnique dont la légitimation ne devrait pas être seulement scientifique mais aussi politique. Le scientisme qui détermine les conditions actuelles de validation des tests non seulement masque la dimension politique de ce dispositif, mais encore empêche les chercheurs de réfléchir à ce que mesurer signifie (le scorage d'une performance n'est pas équivalent au mesurage d'une quantité théorique). La méthodologie de cette réflexion s'appuie (I) sur une série de travaux standards (validation de test, étude de cas) et (II) sur une analyse approfondie de la notion de testabilité des hypothèses de recherche utilisées par les chercheurs en neuropsychologie, ainsi que des hypothèses qui sous-tendent la mesurabilité d'une grandeur théorique
The use of psycho-technical scores by neuropsychology researchers to test research hypotheses and neuropsychologists to perform memory assessments lacks scientific legitimacy if these scores are not measurements. A neuropsychology researcher who wants to decide between two competing theoretical approaches, by means of a case study, rather should consider whether the theories predict the probability of success in test items belonging to disjoint ranges. This implies that the notion of probability of success of an item by the patient is empirically based (absence of any learning). If learning takes place, especially in a patient with brain-injury, the scientific problem is different since it is to discover what make learning possible. The clinician, the practitioner of neuropsychological tests, participates in his turn to a diagnostic institution obliges to make a selection of patients who will benefit from further examination of their brains. In this perspective, the psycho-technical scores feed a socio-technical system whose legitimacy not expected to be merely scientific but also political. Scientism determining the current conditions of test validation not only masks the political aspect of this system, but also prevents researchers to think about what measuring means (the scoring of a performance is not equivalent to measuring a theoretical quantity). The methodology for this reflection is based on (i) a series of standard studies (validation testing, case study) and (ii) a thorough analysis of the notion of testability of research hypotheses used by neuropsychology researchers, and assumptions underlying measurability of a theoretical quantity
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Chaumette, Eric. "Contribution à la caractérisation des performances des problèmes conjoints de détection et d'estimation". Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2004. http://tel.archives-ouvertes.fr/tel-00132161.

Texto completo
Resumen
Un grand nombre d'applications concrètes (Radar, Sonar, Télécoms ...) requièrent une étape de détection dont l'effet principal est de restreindre l'ensemble des observations disponibles pour l'estimation des paramètres inconnus. Par conséquent, nous établissons l'expression des bornes inférieures de l'Erreur Quadratique Moyenne (EQM) conditionnées par un test d'hypothèse binaire au moyen d'une approche didactique générale. Pour valider l'intérêt de cette démarche, nous montrons également à l'aide d'une application fondamentale, que le problème de la précision de prédiction de l'EQM vraie par une borne inférieure à faible RSB, peut provenir d'une formulation incorrecte de la borne inférieure ne prenant pas en compte la vraie problématique, à savoir les problèmes conjoints de détection-estimation.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Chaumette, Éric. "Contribution à la caractérisation des performances des problèmes conjoints de détection et d'estimation". Cachan, Ecole normale supérieure, 2004. http://tel.archives-ouvertes.fr/tel-00132161.

Texto completo
Resumen
Un grand nombre d'applications concrètes (Radar, Sonar, Télécoms. . . ) requièrent une étape de détection dont l'effet principal est de restreindre l'ensemble des observations disponibles pour l'estimation des paramètres inconnus. Par conséquent, nous établissons l'expression des bornes inférieures de l'Erreur Quadratique Moyenne (EQM) conditionnées par un test d'hypothèse binaire au moyen d'une approche didactique générale. Pour valider l'intérêt de cette démarche, nous montrons également à l'aide d'une application fondamentale, que le problème de la précision de prédiction de l'EQM vraie par une borne inférieure à faible RSB, peut provenir d'une formulation incorrecte de la borne inférieure ne prenant pas en compte la vraie problématique, à savoir les problèmes conjoints de détection-estimation
A wide variety of actual processing (Radar, Sonar, Telecoms. . . ) requires a detection step, who main effect is to restrict the set of observations available for unknown parameter estimation. Therefore, we address the derivation of Mean Square Error (MSE) lower bounds for determinii parameters conditioned by a binary hypothesis testing problem using a didactic approach of wi scope. To prove mat it is meaningful, we also show, with the help of a fundamental applicatior the problem of lower bound tightness at low SNR may arise from an incorrect lower bound formulation that does not take into account the true nature of the problem under investigation: joint detection-estimation problem
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Betencurte, da Silva Wellington. "Aplicação de filtros de partículas para a assimilação de dados em problemas de fronteira móvel". Phd thesis, Toulouse, INPT, 2012. http://oatao.univ-toulouse.fr/11752/1/betencurte.pdf.

Texto completo
Resumen
Bon nombre de problèmes d’ingénierie requièrent l’estimation de l’état de systèmes dynamiques. La modélisation de l’espace des états du système est faite à travers un vecteur d’état qui contient toutes informations utiles pour la description du système. Les problèmes d’estimation d’état sont aussi connus comme problèmes inverses non stationnaires. Ils sont d'un grand intérêt dans de nombreuses applications pratiques, afin de produire une estimation séquentielle des variables souhaitées, à partir de modèles stochastiques et de mesures expérimentales. Ceci dans le but d’optimiser statistiquement l’erreur. Ce travail a pour objectif d’appliquer des méthodes de Filtres à Particules à des thermiques et de combustion. Ces algorithmes sont appliqués successivement à un problème de conduction de chaleur, à un problème de solidification et finalement à un problème de propagation d’incendies.
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Razafindralambo, Tahiry. "Performances des couches MAC dans les réseaux sans fil ad hoc : problèmes et solutions". Phd thesis, INSA de Lyon, 2007. http://tel.archives-ouvertes.fr/tel-00532658.

Texto completo
Resumen
Un réseau ad hoc est une collection de stations communicant au travers d'un lien sans fil sans l'aide d'aucune autre infrastructure. L'un des principaux défis dans la conception de protocoles pour ce type de réseaux est l'accès au médium. Le standard IEEE 802.11 définit un mode pour les réseaux ad hoc. Cependant, le protocole MAC (Medium Access Control) décrit montre des problèmes d'équité et d'efficacité. Dans cette thèse j'ai d'abord évalué les performances d'algorithmes et de protocoles MAC existants et mis en évidence leurs problèmes de performance grâce à un modèle exploitant le formalisme des algèbres de processus stochastiques. Grâce à ces résultats j'ai proposé deux protocoles MAC (MadMac et PAS) pour les réseaux ad hoc et les réseaux locaux sans fil. Nos protocoles sont différents de ceux présentés dans la littérature car nous essayons de répondre au compromis équité-efficacité et les solutions que nous proposons sont à la fois équitables et efficaces
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Vert, Daniel. "Étude des performances des machines à recuit quantique pour la résolution de problèmes combinatoires". Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG026.

Texto completo
Resumen
La principale contribution de cette thèse est d'étudier expérimentalement le comportement des ordinateurs quantiques analogiques tels que ceux commercialisés par D-Wave lorsqu'ils sont confrontés à des cas de problèmes de couplage biparti de cardinalité maximale spécifiquement conçus pour être difficiles à résoudre au moyen d'un recuit simulé. Nous comparons un "Washington" (2X) de D-Wave avec 1098 qubits utilisables sur différentes tailles d'instances et nous observons que pour tous ces cas, sauf les plus triviaux, la machine ne parvient pas à obtenir une solution optimale. Ainsi, nos résultats suggèrent que le recuit quantique, du moins tel qu'il est mis en œuvre dans un dispositif D-Wave, tombe dans les mêmes pièges que le recuit simulé et fournit donc des preuves supplémentaires suggérant qu'il existe des problèmes polynomiaux qu'une telle machine ne peut pas résoudre efficacement pour atteindre l'optimalité. En outre, nous étudions dans quelle mesure les topologies d'interconnexion des qubits expliquent ces derniers résultats expérimentaux
The main contribution of this thesis is to investigate the behavior of analog quantum computers as commercialized by D-Wave when confronted to instances of the maximum cardinality matching problem which is specifically designed to be hard to solve by means of simulated annealing. We benchmark a D-Wave “Washington” (2X) with 1098 operational qubits on various sizes of such instances and observe that for all but the most trivially small of these it fails to obtain an optimal solution. Thus, our results suggest that quantum annealing, at least as implemented in a D-Wave device, falls in the same pitfalls as simulated annealing and hence provides additional evidences suggesting that there exist polynomial-time problems that such a machine cannot solve efficiently to optimality. Additionally, we investigate the extent to which the qubits interconnection topologies explains these latter experimental results
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Norre, Sylvie. "Problèmes de placement de taches sur des architectures multiprocesseurs : méthodes stochastiques et évaluation des performances". Clermont-Ferrand 2, 1993. http://www.theses.fr/1993CLF21511.

Texto completo
Resumen
Cette thèse traite du problème de placement de taches sur des architectures multiprocesseurs. Elle s'inscrit à la fois dans le cadre de la théorie de l'ordonnancement et dans le cadre de la modélisation et de l'évaluation des performances. Un ensemble de taches, non préemptives, de durées quelconques et liées par des contraintes de précédence, doit être éxecuté sur des processus identiques. Les coûts de communication inter-taches sont pris en compte ou non, le nombre de bus étant limite ou non. Dans tous les cas, le critère d'optimisation est la minimisation de la durée d'execution de l'ensemble des taches. Une première partie propose une méthodologie pour la modélisation des problèmes de placement à l'aide des réseaux de petri. Une seconde partie s'interesse a la résolution des problèmes de placement. Deux types d'ordonnancement sont étudiés: les ordonnancements déterministes (les durées d'exécution des taches et les coûts de communication inter-taches sont connus et constants) et les ordonnancements stochastiques (les durées d'exécution des taches et les coûts de communication inter-taches sont modelisés par des lois de probabilité). Pour chacun de ces problèmes, différentes méthodes de résolution sont proposées. Ces méthodes reposent sur le couplage d'algorithmes d'ordonnancement par liste et de méthodes stochastiques. Elles exploitent des modèles de simulation (déterministe ou stochastique) et des modèles markoviens. Ces modèles permettent d'évaluer à la fois la durée des ordonnancements et des modèles markoviens. Ces modèles permettent d'évaluer à la fois la durée des ordonnancements et les performances de l'architecture multiprocesseurs. L'outil retenu pour la construction et l'exploitation de ces modèles est le logiciel qnap2 (queueing network analysis package). Il faut remarquer que l'ensemble des méthodes et outils proposés peut s'appliquer à d'autres systèmes, tels que les systèmes de production
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Touati, Nora. "Amélioration des performances du schéma de la génération de colonnes : application aux problèmes de tournées de véhicules". Paris 13, 2008. http://www.theses.fr/2008PA132032.

Texto completo
Resumen
La génération de colonnes est une méthode dédiée à la résolution de problèmes d'optimisation combinatoire de grande taille. Les méthodes utilisant cette approche de résolution ont souvent des problèmes de convergence, particulièrement quand elles sont utlisées pour résoudre des problèmes pratiques, de grandes dimensions. Nous nous intéressons dans cette thèse à l'accéleration de la méthode de génération de colonnes. Nous proposons des téchniques de diversification pour diminuer le nombre total de colonnes généreés ainsi que le temps de résolution des problèmes maîtres. Nous nous intéressons également à la résolution éfficace des sous-problèmes en utilisant des techniques de réoptimisation, mais aussi en proposant des améliorations de la méthode de programmation dynamique. Les approches sont validées expérimentalement sur le problème de tournées de véhicules avec fénêtre de temps
Columgeneration algorithms are instrumental in many areas of applied optimization where linear programs with an enormous number of variables need to be solued. Although success fully used in many applications, this method suffers from well-known "instability" issues, that somewhat limit its efficiency. This work focuses on accelerating strategies in a column generation algorithm. We propose some diversifiication methods in order to decrease the total number of generated columns and then master problems resolution time. We interest also to solving efficiently the pricing problems, by proposing an improning approch based on reoptimization principle and a new variant of the dynamic programming algorithm. The effectiveness of these approches is validated on vehicule routing problem with time windows
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Arres, Billel. "Optimisation des performances dans les entrepôts distribués avec Mapreduce : traitement des problèmes de partionnement et de distribution des données". Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE2012.

Texto completo
Resumen
Dans ce travail de thèse, nous abordons les problèmes liés au partitionnement et à la distribution des grands volumes d’entrepôts de données distribués avec Mapreduce. Dans un premier temps, nous abordons le problème de la distribution des données. Dans ce cas, nous proposons une stratégie d’optimisation du placement des données, basée sur le principe de la colocalisation. L’objectif est d’optimiser les traitements lors de l’exécution des requêtes d’analyse à travers la définition d’un schéma de distribution intentionnelle des données permettant de réduire la quantité des données transférées entre les noeuds lors des traitements, plus précisément lors phase de tri (shuffle). Nous proposons dans un second temps une nouvelle démarche pour améliorer les performances du framework Hadoop, qui est l’implémentation standard du paradigme Mapreduce. Celle-ci se base sur deux principales techniques d’optimisation. La première consiste en un pré-partitionnement vertical des données entreposées, réduisant ainsi le nombre de colonnes dans chaque fragment. Ce partitionnement sera complété par la suite par un autre partitionnement d’Hadoop, qui est horizontal, appliqué par défaut. L’objectif dans ce cas est d’améliorer l’accès aux données à travers la réduction de la taille des différents blocs de données. La seconde technique permet, en capturant les affinités entre les attributs d’une charge de requêtes et ceux de l’entrepôt, de définir un placement efficace de ces blocs de données à travers les noeuds qui composent le cluster. Notre troisième proposition traite le problème de l’impact du changement de la charge de requêtes sur la stratégie de distribution des données. Du moment que cette dernière dépend étroitement des affinités des attributs des requêtes et de l’entrepôt. Nous avons proposé, à cet effet, une approche dynamique qui permet de prendre en considération les nouvelles requêtes d’analyse qui parviennent au système. Pour pouvoir intégrer l’aspect de "dynamicité", nous avons utilisé un système multi-agents (SMA) pour la gestion automatique et autonome des données entreposées, et cela, à travers la redéfinition des nouveaux schémas de distribution et de la redistribution des blocs de données. Enfin, pour valider nos contributions nous avons conduit un ensemble d’expérimentations pour évaluer nos différentes approches proposées dans ce manuscrit. Nous étudions l’impact du partitionnement et la distribution intentionnelle sur le chargement des données, l’exécution des requêtes d’analyses, la construction de cubes OLAP, ainsi que l’équilibrage de la charge (Load Balacing). Nous avons également défini un modèle de coût qui nous a permis d’évaluer et de valider la stratégie de partitionnement proposée dans ce travail
In this manuscript, we addressed the problems of data partitioning and distribution for large scale data warehouses distributed with MapReduce. First, we address the problem of data distribution. In this case, we propose a strategy to optimize data placement on distributed systems, based on the collocation principle. The objective is to optimize queries performances through the definition of an intentional data distribution schema of data to reduce the amount of data transferred between nodes during treatments, specifically during MapReduce’s shuffling phase. Secondly, we propose a new approach to improve data partitioning and placement in distributed file systems, especially Hadoop-based systems, which is the standard implementation of the MapReduce paradigm. The aim is to overcome the default data partitioning and placement policies which does not take any relational data characteristics into account. Our proposal proceeds according to two steps. Based on queries workload, it defines an efficient partitioning schema. After that, the system defines a data distribution schema that meets the best user’s needs, and this, by collocating data blocks on the same or closest nodes. The objective in this case is to optimize queries execution and parallel processing performances, by improving data access. Our third proposal addresses the problem of the workload dynamicity, since users analytical needs evolve through time. In this case, we propose the use of multi-agents systems (MAS) as an extension of our data partitioning and placement approach. Through autonomy and self-control that characterize MAS, we developed a platform that defines automatically new distribution schemas, as new queries appends to the system, and apply a data rebalancing according to this new schema. This allows offloading the system administrator of the burden of managing load balance, besides improving queries performances by adopting careful data partitioning and placement policies. Finally, to validate our contributions we conduct a set of experiments to evaluate our different approaches proposed in this manuscript. We study the impact of an intentional data partitioning and distribution on data warehouse loading phase, the execution of analytical queries, OLAP cubes construction, as well as load balancing. We also defined a cost model that allowed us to evaluate and validate the partitioning strategy proposed in this work
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Guivarch, Ronan. "Résolution parallèle de problèmes aux limites couplés par des méthodes de sous-domaines synchrones et asynchrones". Toulouse, INPT, 1997. http://www.theses.fr/1997INPT044H.

Texto completo
Resumen
Nous nous interessons a la resolution de problemes aux limites lineaires ou non-lineaires de grandes tailles resolus a l'aide d'algorithmes paralleles sur machines multiprocesseurs a memoire distribuee. Dans les algorithmes que nous considerons, les processeurs communiquent de maniere asynchrone ou synchrone les resultats de leurs calculs. Dans le present travail nous avons mixe les aspects communication synchrone et asynchrone avec les methodes de sous-domaines. On considere plus particulierement le couplage entre la methode alternee de schwarz et les algorithmes synchrones et asynchrones. Independemment de la resolution d'equations aux derivees partielles classiques intervenant en physique mathematique, nous nous sommes interesses a l'implantation de ces algorithmes sur machines multiprocesseurs a memoire distribuee au moyen des outils paralleles que fournissent p. V. M. (parallel virtual machine) et m. P. I. (message passing interface). Dans un premier temps nous rappelons la formulation classique des algorithmes synchrones et asynchrones ainsi que les conditions d'etude de la convergence de ces methodes ; nous presentons l'adaptation de ces resultats au cas des methodes de sous-domaines avec recouvrement et nous appliquons ces criteres a des problemes aux limites classiques. Ensuite nous exposons les algorithmes paralleles asynchrones avec communication flexible ; nous presentons le lien avec les methodes de sous-domaines ainsi que les criteres de convergence pour l'etude de problemes aux limites non lineaires, en particulier dans le cas de maillages elements finis non structures. Dans un troisieme temps nous exposons l'implantation de ces methodes sur le multiprocesseurs i. B. M. -sp2 du c. N. U. S. C. (centre national universitaire sud de calcul de montpellier) a l'aide de p. V. M. Et m. P. I. Nous proposons des schemas d'implantation des algorithmes asynchrones et synchrones classiques et des algorithmes asynchrones avec communication flexible en utilisant les routines de communications de p. V. M. Et de m. P. I. Nous presentons par la suite l'analyse ainsi que les tests numeriques pour la resolution de deux types de problemes aux limites : un probleme de convection-diffusion, soit lineaire, soit perturbe par une application diagonale non decroissante, ce qui dans ce dernier cas conduit a un probleme non lineaire. Le second probleme traite est le probleme de navier-stokes 2d. L'utilisation de la formulation fonction courant-tourbillon conduit a la resolution d'une equation de convection-diffusion couplee a une equation de poisson. Finalement nous montrons que les resultats etudie s precedemment s'appliquent a la resolution d'un probleme d'electophorese 3d ou interviennent les equations de navier-stokes couplees a une equation de transport et a une equation de potentiel.
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Merrad, Walid. "Interfaces tangibles et réalité duale pour la résolution collaborative de problèmes autour de tables interactives distribuées". Thesis, Valenciennes, Université Polytechnique Hauts-de-France, 2020. http://www.theses.fr/2020UPHF0010.

Texto completo
Resumen
De nouvelles modalités d’interactions reposant sur les postures et les gestes complètentprogressivement les modalités couramment employées par les ordinateurs de bureau, lestablettes et les surfaces interactives. Ces modalités peuvent être enrichies par l’adjonctiond’objets tangibles, directement tirés de la vie quotidienne ou représentant de manièresymbolique des concepts abstraits de l’interface. Les tables interactives, de par leurhorizontalité et leurs cadres d’utilisation, souvent collaboratifs voire conviviaux, sont unterritoire privilégié d’exploration des usages des objets tangibles et de la manière dont ilssont capables d’enrichir les modalités classiques d’interaction avec ces tables que sont lepointage et le toucher.Le sujet de cette thèse porte sur l’étude des interactions utilisateur avec des tablesinteractives tangibles, dans un contexte d’utilisation en environnement de réalité dualeconstitué de deux mondes symétriques, interconnectés et d’influence mutuellement. Lesinterfaces utilisateur tangibles offrent aux utilisateurs la possibilité d’appréhender et desaisir la signification des informations numériques en manipulant des représentations tangiblesjudicieuses de notre monde physique. Ces métaphores d’interaction établissent unpont entre les deux environnements qui constituent la réalité duale : le monde physiqueet le monde virtuel.Dans cette perspective, ce travail présente une contribution théorique, ainsi que sesapplications. Nous proposons de combiner l’interaction tangible sur table interactiveavec la réalité duale dans un cadre conceptuel, essentiellement destiné aux concepteursd’applications, qui modélise et explique les interactions et les représentations, quifonctionnent dans des configurations de réalité duale. Nous exposons tout d’aborddifférents travaux réalisés dans le domaine de l’interaction tangible en général, puis nousnous concentrons sur des travaux menés sur les tables interactives. Nous proposonségalement de recenser et répertorier 112 tables interactives, classées et caractérisées selonplusieurs critères. Ensuite, nous présentons le concept de la réalité duale et ses domainesd’application possibles. Ensuite, nous proposons un framework de conception, illustronset expliquons ses éléments constitutifs, et comment il peut s’adapter à diverses situationsde réalité duale, notamment avec des tables interactives équipées de la technologie RFID.Enfin, quant à nos contributions applicatives, nous montrons des études de cas que nousavons conçues sur la base de notre proposition, qui illustrent les mises en oeuvre deséléments de notre framework proposé. Les perspectives de recherche sont enfin mises enévidence à la fin du manuscrit
In everyday life, new interactions are gradually replacing the standard computer keyboardand mouse, by using the human body gestures (hands, fingers, head, etc.) as alternativesof interactions on surfaces and in-air. Another type of interaction resides within the manipulationof everyday objects to interact with digital systems. Interactive tabletops haveemerged as new platforms in several domains, offering better usability and facilitatingmulti-user collaboration, thanks to their large display surface and different interactiontechniques on their surfaces, such as multi-touch and tangible. Therefore, improving interaction(s) on these devices and combining it (respectively them) with other conceptscan prove more useful and helpful in the everyday life of users and designers.The topic of this thesis focuses on studying user interactions on tangible interactivetabletops, in a context of use set in a dual reality environment. Tangible User Interfacesoffer users the possibility to apprehend and grasp the meaning of digital information bymanipulating insightful tangible representations in our physical world. These interactionmetaphors are bridging both environments that constitute the dual reality: the physicalworld and the virtual world.In this perspective, this work presents a theoretical contribution along with itsapplications. We propose to combine tangible interaction on tabletops and dual realityin a conceptual framework, basically intended for application designers, that models andexplains interactions and representations, which operate in dual reality setups. First ofall, we expose various works carried out in the field of tangible interaction in general,then we focus on existing work conducted on tabletops. We also propose to list 112interactive tabletops, classified and characterized by several criteria. Next, we presentthe dual reality concept and its possible application domains. Second, we design ourproposal of the framework, illustrate and explain its composing elements, and how itcan adapt to various situations of dual reality, particularly with interactive tabletopsequipped with RFID technology. Finally, and as application contributions, we show casestudies that we designed based on our proposal, which illustrate implementations ofelements from our proposed framework. Research perspectives are finally highlighted atthe end of the manuscript
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Simon-Fiacre, Caroline. "Médiations sémiotiques en situation de co-résolution de problèmes : effets sur les stratégies et performances d'enfants de CP et de CE2 dans les tâches d'exploration ou d'encodage d'un parcours". Aix-Marseille 1, 2005. http://www.theses.fr/2005AIX10019.

Texto completo
Resumen
Ce travail s'inscrit à l'interface des travaux de psychologie fondés par l'approche socio-constructiviste du fonctionnement et du développement des activités cognitives chez des enfants et de ceux de la pragmatique. Les expérimentations réalisées ont pour but de comprendre comment et à quelles conditions les transactions cognitivo-langagières peuvent s'avérer bénéfiques (ou non) lors de la résolution de tâches spatiales. Ces dernières consistent soit à explorer un parcours de type labyrinthe (2D ou 3D) soit à encoder un tracé. La résolution de ces tâches a été proposée à des sujets de CP et CE2 en individuel ou dyade. Les résultats obtenus ont permis par une analyse fine des corpus interactifs de dégager les incidences de la situation de communication sur la cognition. Il a ainsi été dégagé que les compétences et les performances cognitives varient en fonction des situations de communication, les processus cognitifs eux-mêmes, en particulier les mécanismes d'inférence, étant gouvernés par des processus communicationnels, l'ensemble attestant que les conditons de déroulement des échanges sont au centre de la relation entre cognition et communication.
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Brogna, Gianluigi. "Probabilistic Bayesian approaches to model the global vibro-acoustic performance of vehicles". Thesis, Lyon, 2018. http://www.theses.fr/2018LYSEI082.

Texto completo
Resumen
Dans le domaine automobile, bien qu’assez élaborées, les approches actuellement mises en œuvre pour analyser et prédire l’état vibro-acoustique d’un véhicule ne sont pas encore représentatives de la complexité réelle des systèmes mis en jeu. Entre autres limitations, les spécifications pour la conception restent essentiellement basées sur des cas de chargement extrêmes, utiles pour la tenue des structures mais non représentatifs de l’usage client pour les prestations vibro-acoustiques. Un objectif principal est ainsi de construire des modèles probabilistes aptes à prendre en compte les usages client et les conditions de fonctionnement réelles, en même temps que les incertitudes structurelles du véhicule comme les dispersions en fabrication. Ces modèles sont destinés à maîtriser un domaine s’étendant jusqu’aux moyennes fréquences. Pour ce faire, quatre étapes sont proposées : (1) une modélisation générique du système mécanique constitué par un véhicule, cohérente avec les réponses dynamiques dont la prédiction est souhaitée par les ingénieurs automobile ; (2) l’estimation de l’ensemble des efforts qui s’appliquent sur ce système, pour une large plage de conditions de fonctionnement véhicule ; (3) l’analyse et la modélisation de ces efforts considérés comme fonctions des conditions de fonctionnement; (4) l’étude de l’application des efforts modélisés à une structure dont les fonctions de transfert ont été calculées par une méthode d’élément finis stochastique non-paramétrique. La réponse ainsi obtenue est une image bien plus fidèle des conditions de fonctionnement du véhicule et de ses incertitudes structurelles. Pour ces étapes, des algorithmes bayésiens ad hoc sont développés et mis en œuvre sur une importante base de données issue de projets automobiles. Le cadre bayésien est particulièrement utile dans ce travail pour prendre en compte toute connaissance a priori, notamment celle des experts véhicule, et pour facilement propager l’incertitude entre les différents niveaux du modèle probabilisé. Enfin, les méthodes d’analyse choisies ici se révèlent intéressantes non seulement pour la réduction effective des données, mais aussi pour aider la compréhension physique et l’identification des phénomènes dynamiquement dominants
In the automotive domain, although already quite elaborate, the current approaches to predict and analyse the vibro-acoustic behaviour of a vehicle are still far from the complexity of the real system. Among other limitations, design specifications are still essentially based on extreme loading conditions, useful when verifying the mechanical strength, but not representative of the actual vehicle usage, which is instead important when addressing the vibro-acoustic performance. As a consequence, one main aim here is to build a prediction model able to take into account the loading scenarios representative of the actual vehicle usage, as well as the car structural uncertainty (due, for instance, to production dispersion). The proposed model shall cover the low and mid-frequency domain. To this aim, four main steps are proposed in this work: (1) the definition of a model for a general vehicle system, pertinent to the vibro-acoustic responses of interest; (2) the estimation of the whole set of loads applied to this system in a large range of operating conditions; (3) the statistical analysis and modelling of these loads as a function of the vehicle operating conditions; (4) the analysis of the application of the modelled loads to non-parametric stochastic transfer functions, representative of the vehicle structural uncertainty. To achieve the previous steps, ad hoc Bayesian algorithms have been developed and applied to a large industrial database. The Bayesian framework is considered here particularly valuable since it allows taking into account prior knowledge, namely from automotive experts, and since it easily enables uncertainty propagation between the layers of the probabilistic model. Finally, this work shows that the proposed algorithms, more than simply yielding a model of the vibro-acoustic response of a vehicle, are also useful to gain deep insights on the dominant physical mechanisms at the origin of the response of interest
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Alsayasneh, Maha. "On the identification of performance bottlenecks in multi-tier distributed systems". Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALM009.

Texto completo
Resumen
De nos jours, les systèmes distribués sont constitués de nombreuxcomposants logiciels ayant des interactions complexes et de nombreusespossibilités de configurations. Dès lors, localiser les problèmes deperformance est une tâche difficile, nécessitant une expertisehumaine et de nombreux essais. En effet, la même pile logicielle peutse comporter différemment en fonction dumatériel utilisé, de la logique applicative, des paramètres deconfiguration et des conditions de fonctionnement. Ce travail a pourobjectif (i) d’identifier un ensemble demétriques de référence, générales etfiables, pour localiser les problèmes de performance, (ii) d’identifierles caractéristiques de ces indicateurs, et (iii) deconstruire un outil qui puisse déterminer de manière automatiquesi le système a atteint sa capacité maximale en terme dedébit.Dans cette thèse, nous présentons trois contributionsprincipales. Premièrement, nous présentons une étude analytique d’ungrand nombre de configurations réalistes d’applications distribuéesmulti-tiers, se concentrant sur les chaînes de traitements desdonnées. En analysant un grand nombre de métriques au niveau logicielet matériel, nous identifions celles dont le comportement change aumoment où le système atteint sa capacité maximale. Deuxièmement, nousexploitons les techniques d’apprentissage machine pour développer unoutil capable d’identifier automatiquement les problèmes deperformance dans la chaîne de traitement de données. Pour ce faire,nous évaluons plusieurs techniques d’apprentissage machine, plusieurssélections de métriques, et différentscas de généralisation pour de nouvelles configurations. Troisièmement,pour valider les résultats obtenues sur la chaîne de traitement dedonnées, nous appliquons notre approche analytique et notre approchefondée sur l'apprentissage machine au cas d’une architecture Web.Nous tirons plusieurs conclusions de nos travaux. Premièrement, il estpossible d’identifier des métriques clés qui sont des indicateursfiables de problèmes de performance dans les systèmes distribuésmulti-tiers. Plus précisément, identifier le moment où le serveur aatteint sa capacité maximale peut être identifier grâce à cesmétriques fiables. Contrairement à l’approche adoptée par de nombreuxtravaux existants, nos travaux démontrent qu'une combinaison demétriques de différents types est nécessaire pour assurer uneidentification fiable des problèmes de performance dans un grandnombre de configurations. Nos travaux montrent aussi que les approchesfondées sur des méthodes d’apprentissage machine pour analyser lesmétriques permettent d’identifier les problèmes de performance dansles systèmes distribués multi-tiers. La comparaison de différentsmodèles met en évidence que ceux utilisant les métriques fiablesidentifiées par notre étude analytique sont ceux qui obtiennent lameilleure précision. De plus, notre analyse approfondie montre larobustesse des modèles obtenues. En effet, ils permettent unegénéralisation à de nouvelles configurations, à de nouveaux nombres declients, et à de nouvelles configurations exécutées avec de nouveauxnombres de clients. L'extension de notre étude au cas d'unearchitecture Web confirme les résultats principaux obtenus à traversl’étude sur la chaîne de traitement de données. Ces résultats ouvrentla voie à la construction d'un outil générique pour identifier demanière fiable les problèmes de performance dans les systèmesdistribués
Today's distributed systems are made of various software componentswith complex interactions and a large number of configurationsettings. Pinpointing the performance bottlenecks is generally a non-trivial task, which requires human expertise as well as trial anderror. Moreover, the same software stack may exhibit very differentbottlenecks depending on factors such as the underlying hardware, theapplication logic, the configuration settings, and the operatingconditions. This work aims to (i) investigate whether it is possibleto identify a set of key metrics that can be used as reliable andgeneral indicators of performance bottlenecks, (ii) identify thecharacteristics of these indicators, and (iii) build a tool that canautomatically and accurately determine if the system reaches itsmaximum capacity in terms of throughput.In this thesis, we present three contributions. First, we present ananalytical study of a large number of realistic configuration setupsof multi-tier distributed applications, more specifically focusing ondata processing pipelines. By analyzing a large number of metrics atthe hardware and at the software level, we identify the ones thatexhibit changes in their behavior at the point where the systemreaches its maximum capacity. We consider these metrics as reliableindicators of performance bottlenecks. Second, we leverage machinelearning techniques to build a tool that can automatically identifyperformance bottlenecks in the data processing pipeline. We considerdifferent machine learning methods, different selections of metrics,and different cases of generalization to new setups. Third, to assessthe validity of the results obtained considering the data processingpipeline for both the analytical and the learning-based approaches,the two approaches are applied to the case of a Web stack.From our research, we draw several conclusions. First, it is possibleto identify key metrics that act as reliable indicators of performancebottlenecks for a multi-tier distributed system. More precisely,identifying when the server has reached its maximum capacity can beidentified based on these reliable metrics. Contrary to the approachadopted by many existing works, our results show that a combination ofmetrics of different types is required to ensure reliableidentification of performance bottlenecks in a large number ofsetups. We also show that approaches based on machine learningtechniques to analyze metrics can identify performance bottlenecks ina multi-tier distributed system. The comparison of different modelsshows that the ones based on the reliable metrics identified by ouranalytical study are the ones that achieve the bestaccuracy. Furthermore, our extensive analysis shows the robustness ofthe obtained models that can generalize to new setups, to new numbersof clients, and to both new setups and new numbers ofclients. Extending the analysis to a Web stack confirmsthe main findings obtained through the study of the data processingpipeline. These results pave the way towards a general and accuratetool to identify performance bottlenecks in distributed systems
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Bacharach, Lucien. "Caractérisation des limites fondamentales de l'erreur quadratique moyenne pour l'estimation de signaux comportant des points de rupture". Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLS322/document.

Texto completo
Resumen
Cette thèse porte sur l'étude des performances d'estimateurs en traitement du signal, et s'attache en particulier à étudier les bornes inférieures de l'erreur quadratique moyenne (EQM) pour l'estimation de points de rupture, afin de caractériser le comportement d'estimateurs, tels que celui du maximum de vraisemblance (dans le contexte fréquentiste), mais surtout du maximum a posteriori ou de la moyenne conditionnelle (dans le contexte bayésien). La difficulté majeure provient du fait que, pour un signal échantillonné, les paramètres d'intérêt (à savoir les points de rupture) appartiennent à un espace discret. En conséquence, les résultats asymptotiques classiques (comme la normalité asymptotique du maximum de vraisemblance) ou la borne de Cramér-Rao ne s'appliquent plus. Quelques résultats sur la distribution asymptotique du maximum de vraisemblance provenant de la communauté mathématique sont actuellement disponibles, mais leur applicabilité à des problèmes pratiques de traitement du signal n'est pas immédiate. Si l'on décide de concentrer nos efforts sur l'EQM des estimateurs comme indicateur de performance, un travail important autour des bornes inférieures de l'EQM a été réalisé ces dernières années. Plusieurs études ont ainsi permis de proposer des inégalités plus précises que la borne de Cramér-Rao. Ces dernières jouissent en outre de conditions de régularité plus faibles, et ce, même en régime non asymptotique, permettant ainsi de délimiter la plage de fonctionnement optimal des estimateurs. Le but de cette thèse est, d'une part, de compléter la caractérisation de la zone asymptotique (en particulier lorsque le rapport signal sur bruit est élevé et/ou pour un nombre d'observations infini) dans un contexte d'estimation de points de rupture. D'autre part, le but est de donner les limites fondamentales de l'EQM d'un estimateur dans la plage non asymptotique. Les outils utilisés ici sont les bornes inférieures de l’EQM de la famille Weiss-Weinstein qui est déjà connue pour être plus précise que la borne de Cramér-Rao dans les contextes, entre autres, de l’analyse spectrale et du traitement d’antenne. Nous fournissons une forme compacte de cette famille dans le cas d’un seul et de plusieurs points de ruptures puis, nous étendons notre analyse aux cas où les paramètres des distributions sont inconnus. Nous fournissons également une analyse de la robustesse de cette famille vis-à-vis des lois a priori utilisées dans nos modèles. Enfin, nous appliquons ces bornes à plusieurs problèmes pratiques : données gaussiennes, poissonniennes et processus exponentiels
This thesis deals with the study of estimators' performance in signal processing. The focus is the analysis of the lower bounds on the Mean Square Error (MSE) for abrupt change-point estimation. Such tools will help to characterize performance of maximum likelihood estimator in the frequentist context but also maximum a posteriori and conditional mean estimators in the Bayesian context. The main difficulty comes from the fact that, when dealing with sampled signals, the parameters of interest (i.e., the change points) lie on a discrete space. Consequently, the classical large sample theory results (e.g., asymptotic normality of the maximum likelihood estimator) or the Cramér-Rao bound do not apply. Some results concerning the asymptotic distribution of the maximum likelihood only are available in the mathematics literature but are currently of limited interest for practical signal processing problems. When the MSE of estimators is chosen as performance criterion, an important amount of work has been provided concerning lower bounds on the MSE in the last years. Then, several studies have proposed new inequalities leading to tighter lower bounds in comparison with the Cramér-Rao bound. These new lower bounds have less regularity conditions and are able to handle estimators’ MSE behavior in both asymptotic and non-asymptotic areas. The goal of this thesis is to complete previous results on lower bounds in the asymptotic area (i.e. when the number of samples and/or the signal-to-noise ratio is high) for change-point estimation but, also, to provide an analysis in the non-asymptotic region. The tools used here will be the lower bounds of the Weiss-Weinstein family which are already known in signal processing to outperform the Cramér-Rao bound for applications such as spectral analysis or array processing. A closed-form expression of this family is provided for a single and multiple change points and some extensions are given when the parameters of the distributions on each segment are unknown. An analysis in terms of robustness with respect to the prior influence on our models is also provided. Finally, we apply our results to specific problems such as: Gaussian data, Poisson data and exponentially distributed data
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Brossier, Romain. "Imagerie sismique à deux dimensions des milieux visco-élastiques par inversion des formes d'ondes : développements méthodologiques et applications". Phd thesis, Université de Nice Sophia-Antipolis, 2009. http://tel.archives-ouvertes.fr/tel-00451138.

Texto completo
Resumen
La connaissance des structures internes de la Terre, à différentes échelles, présente des enjeux majeurs d'ordres économiques, humains, environnementaux et scientifiques. Diverses méthodes d'imagerie ont été développées en utilisant les informations contenues dans les ondes sismiques. La méthode d'inversion des formes d'ondes construit des images quantitative haute résolution des paramètres physiques du sous-sol, en exploitant le champ d'onde complet, sous la forme d'un problème d'optimisation. Dans ce travail de thèse, je présente l'application de l'inversion des formes d'ondes en domaine fréquentiel, pour imager les paramètres visco-élastiques dans des géometries à deux dimensions à grands offsets. Dans un premier temps les développements méthodologiques et algorithmiques sont présentés. La modélisation de la propagation des ondes P-SV en domaine fréquentiel, le problème direct du processus d'imagerie, est assurée par une méthode d'éléments finis Galerkin discontinus, assurant une grande flexibilité dans le choix des ordres d'interpolation et dans l'utilisation de maillages triangulaires non-structurés. Le problème inverse est résolu sous une forme linéarisée, afin de limiter le nombre de simulations directes, et utilise l'algorithme quasi-Newton L-BFGS permettant de tirer bénéfice de l'estimation "économique" du Hessien. Le processus global d'imagerie est implémenté sous la forme d'un algorithme massivement parallèle destiné aux calculateurs modernes à mémoire distribuée. Dans un deuxième temps, les algorithmes développés sont appliqués à des cas d'étude. Des applications sont menées dans des modèles synthétiques réalistes représentatifs d'environnements terrestres et marins. Ces études montrent les difficultés associées à la reconstruction des paramètres élastiques à partir de données mettant en jeu des phénomènes de propagations complexes (ondes converties, multiples, ondes de surfaces...). Des solutions sont proposées sous forme de processus hiérarchiques multi-échelles, afin de limiter les effets des non-linéarités du problème inverse et ainsi d'améliorer la convergence du processus vers le minimum global. Enfin, la sensibilité de différentes normes et critères de minimisation est analysée, à partir de données bruités issues de modèles synthétiques réalistes, ainsi que sous l'approximation acoustique pour un jeu de données réelles pétrolière. Ces tests montrent certaines limites du formalisme classique basé sur la norme L2 dans l'espace des données, tandis que la norme L1 apparaît comme alternative robuste pour l'inversion de données décimées en domaine fréquentiel.
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Simard, Marie-Noelle. "Identification précoce des nouveau-nés qui auront des problèmes de développement à deux ans: utilité de l'Évaluation neurologique d'Amiel-Tison". Thèse, 2009. http://hdl.handle.net/1866/3837.

Texto completo
Resumen
Malgré les avancées médicales, la prédiction précoce du devenir développemental des enfants nés prématurément demeure un défi. Ces enfants sont à risque de séquelles plus ou moins sévères telles l'infirmité motrice d'origine cérébrale, les déficiences intellectuelles et sensorielles ainsi que les difficultés d'apprentissage. Afin de diminuer l’impact fonctionnel de ces séquelles, l’identification de marqueurs précoces devient un enjeu important. Dans le contexte actuel de ressources financières et humaines limitées, seuls les enfants nés avant 29 semaines de gestation ou avec un poids de naissance (PN) <1250g sont systématiquement suivis, laissant pour compte 95% des enfants prématurés. L’identification de marqueurs précoces permettrait de cibler les enfants nés après 28 semaines de gestation porteurs de séquelles. Le principal objectif des présents travaux visait à évaluer l’utilité de l’Évaluation neurologique d’Amiel-Tison (ENAT) dans l’identification et le suivi des enfants nés entre 29 et 37 semaines de gestation et qui présenteront des problèmes neurodéveloppementaux à l’âge corrigé (AC) de 24 mois. Plus précisément, la fidélité inter-examinateurs, la stabilité ainsi que la validité prédictive de l’ENAT ont été évaluées. La cohorte était composée initialement de 173 enfants nés entre 290/7 et 370/7 semaines de gestation, avec un PN<2500g et ayant passé au moins 24 heures à l’unité de soins néonatals du CHU Sainte-Justine. Les enfants étaient évalués avec l’ENAT à terme et aux AC de 4, 8, 12 et 24 mois. À l’AC de 24 mois, leur développement était évalué à l’aide du Bayley Scales of Infant Development–II. Les principaux résultats révèlent une excellente fidélité inter-examinateurs ainsi qu’une bonne stabilité au cours des deux premières années de vie du statut et des signes neurologiques. Des différences significatives à l’AC de deux ans ont été relevées aux performances développementales en fonction du statut neurologique à terme, qui constitue l’un des meilleurs facteurs prédictifs de ces performances. Les résultats encouragent l’intégration du statut neurologique tel que mesuré par l’ENAT comme marqueur précoce dans le cours d’une surveillance neurodéveloppementale des enfants les plus à risque.
Despite the progress in medicine, early prediction of neurodevelopmental outcome for infants born preterm still remains a challenge. Infants born preterm are at risk of mild to severe disabilities such as cerebral palsy, mental retardation, sensory impairments or learning disabilities. To reduce the functional impact of those disabilities, identification of valid early markers of neurodevelopmental disabilities becomes important. As financial and human resources are limited, only those infants with a gestational age (GA) <29 weeks and a birth weight (BW) <1250 are systematically followed, leaving 95% of the preterm population without surveillance. The identification of early markers would allow targeting infants born after 28 weeks of GA the more at risk. The main objective of the present work was to assess the use of the Amiel-Tison Neurological Assessments (ATNA) in the identification and the follow-up of infants with a GA between 29 and 37 weeks who will present neurodevelopmental problems at two years of corrected age (CA). Specifically, the inter-examiner reliability, the stability during the first two years of life and the predictive validity of the ATNA were assessed. The cohort was composed of 173 children born between 290/7 and 370/7 weeks of GA, with a BW<1250g and who stayed at least 24 hours in the neonatal intensive care unit at the CHU Sainte-Justine. The children were assessed with the ATNA at term age and at 4, 8, 12 and 24 months CA. At 24 months CA, their development was assessed with the Bayley Scales of Infant Development–II. The results revealed excellent inter-examiners reliability and good stability during the first two years of age of the neurological status and signs. Significant differences according to the neurological status at term age were observed at 24 months CA for developmental performance. Moreover, this status was one of the main predictive variables of developmental performance at two years CA. Results incite the integration of the neurological status as assessed by the ATNA as an early marker for the surveillance of infants the more at risk.
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Bonneville-Hébert, Ariane. "Analyse de la fertilité des vaches laitières Holstein «Repeat Breeder»". Thèse, 2009. http://hdl.handle.net/1866/3956.

Texto completo
Resumen
L’importance de la problématique des vaches laitières non gestantes avec multiples inséminations (› 3) communément appelées « Repeat Breeder » (RB), au Québec, repose sur deux facteurs: son incidence et son impact économique. Actuellement, l’incidence du syndrome RB au Québec est de ± 25% (Rapport annuel, juin 2008, www.dsahr.ca). Les pertes monétaires associées à ce problème proviennent des frais vétérinaires et d’insémination, de la diminution de productivité ainsi que des pertes en lien avec la réforme involontaire. Afin d’avoir de meilleures connaissances sur ce syndrome, nous devons connaître les facteurs de risques généraux impliqués et ensuite explorer la condition individuelle de ces vaches problèmes. Dans la première partie de ce mémoire, une banque de données informatisées répertoriant 418 383 lactations fut analysée. L’objectif de ce projet de recherche était d’évaluer l’impact des problèmes reproducteurs post-partum et l’effet du nombre de lactations comme facteurs de risques de la vache Repeat Breeder. L’analyse a permis d’établir la dystocie comme étant la condition ayant le plus de conséquences sur la fertilité future. D’autres facteurs de risques à savoir le nombre de lactations influencent le pronostic reproducteur. La deuxième partie de ce mémoire consistait à explorer, à l’aide d’outils cliniques, la condition individuelle des vaches RB. Une étude cohorte fut menée sur des vaches Holstein en fin de période d’attente volontaire au jour 7 du cycle oestral. Les tests cliniques étudiés furent la vaginoscopie, l’examen transrectal, l’ultrasonographie du système reproducteur, la présence d’estérases leucocytaires, la bactériologie et la biochimie du liquide utérin, la cytologie endométriale et le profil de progestérone sérique. Les résultats de ces tests cliniques dévoilent que l’examen bactériologique du liquide utérin est révélateur du statut reproducteur futur.
Two factors underlie the Repeat Breeder (RB) concerns in Quebec: its incidence and economic impact. Currently RB incidence in Quebec is of ± 25% (yearly Report, June 2008, www.dsahr.ca). Monetary losses related to the RB are the result of veterinary expenses and insemination, loss of productivity and the involuntary culling. In order to have a better knowledge of this syndrome, one must understand the general risk factors involved and then explore the individual condition of these problem cows. The goal of the first part of the project was to assess the impact of the postpartum reproductive problems and the effect of the lactation number as risk factors of the Repeat Breeder cow. A computerized data bank listing 418 383 lactations was analyzed. The analysis established dystocia as being the condition with the most consequences on future fertility. Other risk factors namely the number of lactations influence the reproductive prognosis as well. The second part of the research was to explore the individual condition of the RB using clinical tools. A cohort study was conducted on Holstein cows at the end of the voluntary waiting period on day 7 of the oestrous cycle. The clinical tests studied were vaginoscopy, trans-rectal examination, ultrasonography of the reproductive system, presence of leukocyte esterase, bacteriology and biochemistry of uterine fluid, endometrial cytology and serum progesterone profile. The results of these clinical tests reveal that the bacteriological analysis of uterine fluid is indicative of future reproductive status.
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía