Dissertations / Theses on the topic 'Plans d'expérience optimaux (Statistique)'

To see the other types of publications on this topic, follow the link: Plans d'expérience optimaux (Statistique).

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 23 dissertations / theses for your research on the topic 'Plans d'expérience optimaux (Statistique).'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Koné, Mamadou. "Optimalité des plans d'expériences équilibrés pour les périodes." Paris 6, 2011. http://www.theses.fr/2011PA066509.

Full text
Abstract:
Dans cette thèse, nous considérons des plans d'expériences, où traitements sont administrés à patients au cours de périodes distinctes ordonnées dans le temps. La structure de corrélation pour un plan est dite du voisin le plus proche du ordre désignée par si d'une part la corrélation entre des observations effectuées sur des patients distincts est nulle et d'autre part deux observations réalisées sur le même patient ont une corrélation non nulle lorsque les périodes d'administration sont distantes au plus de m et une corrélation nulle au-delà. D'abord, nous généralisons les résultats d'optimalité existants pour les modèles et à tout modèle. Ensuite nous donnons une liste de plans en blocs équilibrés appropriés de ce type pour les phases I et II des essais cliniques
APA, Harvard, Vancouver, ISO, and other styles
2

Joutard, Cyrille. "Grandes déviations en statistique asymptotique." Toulouse 3, 2004. http://www.theses.fr/2004TOU30071.

Full text
Abstract:
Dans cette thèse, nous étudions quelques problèmes de grandes déviations en statistique asymptotique. Dans une première partie, nous nous intéressons à des estimateurs non paramétriques. Des résultats de grandes déviations avaient été obtenus pour l'estimateur de Parzen-Rosenblatt de la densité et pour l'estimateur de Nadaraya-Watson de la régression. Nous complétons ces travaux en prouvant des principes de grandes déviations pour ces deux estimateurs sous des hypothèses plus générales. Puis nous donnons des résultats de grandes déviations précises. Dans une seconde partie, nous établissons un principe de grandes déviations général pour des M-estimateurs. Le cadre est celui d'un modèle paramétrique multidimensionnel où les observations ne sont pas nécessairement indépendantes et identiquement distribuées. Nous appliquons ensuite nos résultats à quelques modèles statistiques: modèles elliptiques, modèles exponentiels, modèles non linéaires, modèles linéaires généralisés. Enfin, dans une dernière partie, nous prouvons un principe de grandes déviations pour l'estimateur des moindres carrés, dans un modèle linéaire multidimensionnel. Nous utilisons ensuite ce résultat pour trouver des plans d'expériences optimaux. Le critère utilisé est l'efficacité asymptotique de Bahadur. Nous considérons d'abord un modèle linéaire gaussien. Puis, nous étudions le cas d'un modèle linéaire quelconque dont les erreurs satisfont certaines hypothèses.
APA, Harvard, Vancouver, ISO, and other styles
3

Mahfouz, Mariam. "Plans d'expériences optimaux et compétition entre traitements." Pau, 1988. http://www.theses.fr/1988PAUU3030.

Full text
Abstract:
Dans un plan d'expériences constitue de parcelles de culture voisines, tout traitement applique a une parcelle peut avoir non seulement un effet direct sur cette parcelle mais également des effets - dits résiduels - sur les parcelles voisines. De ce fait les traitements peuvent entrer en compétition. Ce travail est consacre a l'étude de ce type de plans d'expériences en se limitant au cas des séquences, c'est-à-dire des plans constitues de parcelles alignées. Plus précisément, nous recherchons ici des plans optimaux pour l'estimation des effets directs, des effets résiduels ou d'autres effets comme les effets dits plein-champs. Nous considérons tout d'abord des plans constitues d'une seule séquence. Nous distinguons deux cas selon que la compétition s'exerce dans un sens ou dans les deux sens. Nous nous intéressons ensuite aux plans dans lesquels les parcelles sont elles-mêmes subdivisées en deux lignes qui reçoivent toutes deux le même traitement. Nous distinguons deux types de plans selon qu'ils sont constitues d'une seule séquence en blocs ou de plusieurs séquences formant chacune un bloc. En annexe, nous présentons plusieurs programmes d'analyse des plans expérimentaux étudies, et nous traitons quelques exemples
APA, Harvard, Vancouver, ISO, and other styles
4

Belouni, Mohamad. "Plans d'expérience optimaux en régression appliquée à la pharmacocinétique." Thesis, Grenoble, 2013. http://www.theses.fr/2013GRENM056/document.

Full text
Abstract:
Le problème d'intérêt est d'estimer la fonction de concentration et l'aire sous la courbe (AUC) à travers l'estimation des paramètres d'un modèle de régression linéaire avec un processus d'erreur autocorrélé. On construit un estimateur linéaire sans biais simple de la courbe de concentration et de l'AUC. On montre que cet estimateur construit à partir d'un plan d'échantillonnage régulier approprié est asymptotiquement optimal dans le sens où il a exactement la même performance asymptotique que le meilleur estimateur linéaire sans biais (BLUE). De plus, on montre que le plan d'échantillonnage optimal est robuste par rapport à la misspecification de la fonction d'autocovariance suivant le critère du minimax. Lorsque des observations répétées sont disponibles, cet estimateur est consistant et a une distribution asymptotique normale. Les résultats obtenus sont généralisés au processus d'erreur de Hölder d'indice compris entre 0 et 2. Enfin, pour des tailles d'échantillonnage petites, un algorithme de recuit simulé est appliqué à un modèle pharmacocinétique avec des erreurs corrélées
The problem of interest is to estimate the concentration curve and the area under the curve (AUC) by estimating the parameters of a linear regression model with autocorrelated error process. We construct a simple linear unbiased estimator of the concentration curve and the AUC. We show that this estimator constructed from a sampling design generated by an appropriate density is asymptotically optimal in the sense that it has exactly the same asymptotic performance as the best linear unbiased estimator (BLUE). Moreover, we prove that the optimal design is robust with respect to a misspecification of the autocovariance function according to a minimax criterion. When repeated observations are available, this estimator is consistent and has an asymptotic normal distribution. All those results are extended to the error process of Hölder with index including between 0 and 2. Finally, for small sample sizes, a simulated annealing algorithm is applied to a pharmacokinetic model with correlated errors
APA, Harvard, Vancouver, ISO, and other styles
5

Bousbia-Salah, Ryad. "Optimisation dynamique en temps-réel d’un procédé de polymérisation par greffage." Electronic Thesis or Diss., Université de Lorraine, 2018. http://www.theses.fr/2018LORR0242.

Full text
Abstract:
D'une manière schématique, l'optimisation dynamique de procédés consiste en trois étapes de base : (i) la modélisation, dans laquelle un modèle (phénoménologique) du procédé est construit, (ii) la formulation du problème, dans laquelle le critère de performance, les contraintes et les variables de décision sont définis, (iii) et la résolution, dans laquelle les profils optimaux des variables de décision sont déterminés. Il est important de souligner que ces profils optimaux garantissent l'optimalité pour le modèle mathématique utilisé. Lorsqu'ils sont appliqués au procédé, ces profils ne sont optimaux que lorsque le modèle décrit parfaitement le comportement du procédé, ce qui est très rarement le cas dans la pratique. En effet, les incertitudes sur les paramètres du modèle, les perturbations du procédé, et les erreurs structurelles du modèle font que les profils optimaux des variables de décision basés sur le modèle ne seront probablement pas optimaux pour le procédé. L'application de ces profils au procédé conduit généralement à la violation de certaines contraintes et/ou à des performances sous-optimales. Pour faire face à ces problèmes, l'optimisation dynamique en temps-réel constitue une approche tout à fait intéressante. L'idée générale de cette approche est d'utiliser les mesures expérimentales associées au modèle du procédé pour améliorer les profils des variables de décision de sorte que les conditions d'optimalité soient vérifiées sur le procédé (maximisation des performances et satisfaction des contraintes). En effet, pour un problème d'optimisation sous contraintes, les conditions d'optimalité possèdent deux parties : la faisabilité et la sensibilité. Ces deux parties nécessitent différents types de mesures expérimentales, à savoir les valeurs du critère et des contraintes, et les gradients du critère et des contraintes par rapport aux variables de décision. L'objectif de cette thèse est de développer une stratégie conceptuelle d'utilisation de ces mesures expérimentales en ligne de sorte que le procédé vérifie non seulement les conditions nécessaires, mais également les conditions suffisantes d'optimalité. Ce développement conceptuel va notamment s'appuyer sur les récents progrès en optimisation déterministe (les méthodes stochastiques ne seront pas abordées dans ce travail) de procédés basés principalement sur l'estimation des variables d'état non mesurées à l'aide d'un observateur à horizon glissant. Une méthodologie d'optimisation dynamique en temps réel (D-RTO) a été développée et appliquée à un réacteur batch dans lequel une réaction de polymérisation par greffage a lieu. L'objectif est de déterminer le profil temporel de température du réacteur qui minimise le temps opératoire tout en respectant des contraintes terminales sur le taux de conversion et l'efficacité de greffage
In a schematic way, process optimization consists of three basic steps: (i) modeling, in which a (phenomenological) model of the process is developed, (ii) problem formulation, in which the criterion of Performance, constraints and decision variables are defined, (iii) the resolution of the optimal problem, in which the optimal profiles of the decision variables are determined. It is important to emphasize that these optimal profiles guarantee the optimality for the model used. When applied to the process, these profiles are optimal only when the model perfectly describes the behavior of the process, which is very rarely the case in practice. Indeed, uncertainties about model parameters, process disturbances, and structural model errors mean that the optimal profiles of the model-based decision variables will probably not be optimal for the process. The objective of this thesis is to develop a conceptual strategy for using experimental measurements online so that the process not only satisfies the necessary conditions, but also the optimal conditions. This conceptual development will in particular be based on recent advances in deterministic optimization (the stochastic methods will not be dealt with in this work) of processes based on the estimation of the state variables that are not measured by a moving horizon observer. A dynamic real-time optimization (D-RTO) methodology has been developed and applied to a batch reactor where polymer grafting reactions take place. The objective is to determine the on-line reactor temperature profile that minimizes the batch time while meeting terminal constraints on the overall conversion rate and grafting efficiency
APA, Harvard, Vancouver, ISO, and other styles
6

Yousfi, Elqasyr Khadija. "MODÉLISATION ET ANALYSE STATISTIQUE DES PLANS D'EXPÉRIENCE SÉQUENTIELS." Phd thesis, Université de Rouen, 2008. http://tel.archives-ouvertes.fr/tel-00377114.

Full text
Abstract:
Cette thèse est composée de deux parties. La première partie porte sur l'étude de plans d'expérience séquentiels appliqués aux essais cliniques. Nous étudions la modélisation de ces plans. Nous développons une généralisation de la règle \Play-The-Winner”. Des résultats théoriques et numériques montrent que cette généralisation conduit à des plans plus performants que les plans qui ont été récemment développés, dans le cadre des modèles d'urne de Freedman, et qui sont une généralisation de la règle \Play-The-Winner randomisée” ou d'une version modifiée de cette règle. Dans la deuxième partie, nous développons des méthodes d'inférence pour analyser les données des différents plans séquentiels considérés. Dans le cas de deux traitements, et pour la règle \play-the-winner”, nous explicitons les distributions d'échantillonnage et leurs moments factoriels. Nous en dérivons des procédures d'inférence fréquentistes (tests et intervalles de confiance conditionnels notamment) et bayésiennes non informatives. Dans le cadre bayésien, pour une classe de lois a priori convenablement choisie, sont dérivées explicitement les distributions a posteriori et les intervalles de crédibilité des paramètres d'intérêt, ainsi que les distributions prédictives. Le lien entre les tests conditionnels et les procédures bayésiennes est explicité. Les méthodes bayésiennes sont généralisées pour traiter des plans plus complexes (plusieurs traitements et/ou prise en compte de réponses différées). Des simulations montrent que les propriétés fréqentistes des procédures bayésiennes non informatives sont remarquables.
APA, Harvard, Vancouver, ISO, and other styles
7

Tinsson, Walter. "Plans d'expérience à facteurs quantitatifs et à effets de blocs aléatoires." Pau, 1998. http://www.theses.fr/1998PAUU3021.

Full text
Abstract:
Les plans d'expérience en blocs pour l'ajustement de surfaces de réponse sont d'usage courant. Les blocs n'ont alors généralement que des effets fixes, c'est a dire qu'ils n'agissent que sur l'espérance du vecteur des aléas observes. Nous envisageons ici une autre approche en supposant les effets de blocs aléatoires, c'est à dire avec aussi une influence sur la dispersion du vecteur des observations. Le modèle intégrant cet effet de blocs aléatoire, appelé modèle linéaire mixte, permet alors une analyse plus fine du phénomène étudié mais sa mise en oeuvre est, a priori, plus complexe que celle des modèles courants. Nous avons prouvé qu'il n'en est rien des lors que l'on utilise des configurations adéquates que nous qualifions de plans d'expérience en blocs usuels, et qui regroupent la plupart des plans utilises actuellement. Nous nous intéressons dans une première partie aux estimations des composantes du modèle sur de telles configurations. On dispose alors de fortes propriétés d'optimalité uniforme pour la plupart des estimateurs, c'est a dire qu'ils peuvent être facilement déduits de l'analyse des modèles classiques. La deuxième partie aborde ensuite les problèmes de prédiction, aussi bien de la réponse moyenne que de ses variations. Nous vérifions que des propriétés du type isovariance par transformations orthogonales sont conservées lors du passage au modèle mixte. Dans le cas de plans a prédicteurs non isovariants nous démontrons qu'il est possible de construire explicitement leurs graphes des variances extrêmes. Une dernière partie est consacrée a la construction systématique des plans particuliers que sont les plans bloques orthogonalement ou a prédicteurs isovariants. Nous proposons alors une interprétation algébrique de ces configurations et nous appliquons les résultats obtenus a des constructions de plan sous forme d'orbites par rapport a des sous-groupes, bien choisis, du groupe orthogonal.
APA, Harvard, Vancouver, ISO, and other styles
8

Druilhet, Pierre. "Optimalités des plans d'expériences équilibrés pour les voisinages." Toulouse 3, 1995. http://www.theses.fr/1995TOU30283.

Full text
Abstract:
Nous etudions les proprietes d'optimalite de certains types de plans equilibres pour les voisinages. Nous considerons differentes situations: 1) nous supposons que des effets de competitions entre traitements sont presents mais ne sont pas pris en compte dans l'analyse statistique. Ces effets de competitions biaisent les estimateurs des effets traitements. Nous introduisons la notion de plan universellement optimal pour le biais et nous montrons que les plans equilibres pour les voisinages ont cette propriete. Nous comparons ensuite, toujours pour le meme estimateur des traitements, deux types de randomisation: une randomisation classique intrabloc et une randomisation conservant les equilibres des voisinages. Dans les deux cas, le biais des estimateurs des traitements introduit par les effets de competitions est identique. Par contre, la matrice de variance de l'estimateur des effets traitements est plus petite, au sens de loewner, dans le deuxieme cas. 2) nous supposons que les effets de competition sont pris en compte dans l'analyse, et nous etablissons l'optimalite universelle au sens de kiefer des plans equilibres pour les voisinages a la fois pour les estimateurs des effets traitements et des effets de competitions. Pour cela, nous proposons une approche geometrique du probleme, en mettant en evidence les liens qui existent entre la repartition des traitements dans le plan et les termes diagonaux de la matrice d'information associee aux effets consideres. 3) nous supposons qu'il existe des variations de fertilite au niveau des parcelles. Nous etablissons certains resultats d'optimalite des plans equilibres pour les voisinages lorsque l'on utilise la methode aux premieres differences pour estimer les traitements. Nous mettons aussi en evidence le role important des plans systematiques lorsque la variation due aux erreurs techniques est bien plus importante que les variations de fertilite
APA, Harvard, Vancouver, ISO, and other styles
9

Tlalolini, Romero David. "Génération de mouvements optimaux de marche pour des robots bipèdes 3D." Nantes, 2008. http://www.theses.fr/2008NANT2112.

Full text
Abstract:
Ce travail est dédié à la génération de mouvements optimaux de marche cycliques pour des robots bipèdes anthropomorphes évoluant dans l'espace. La structure cinématique des robots considérés ne retient que les mobilités de base du système locomoteur humain au niveau de la chaîne cinématique hanche-genou-cheville-pied. La décomposition du cycle de marche humaine, la modélisation du robot et les contraintes liées au contact piedsol sont présentés. Pour définir le modèle dynamique et le modèle d'impact, le formalisme de Newton-Euler est privilégié. La génération des mouvements de marche est posée sous la forme d'un problème d'optimisation paramétrique sous contraintes. La résolution de ce problème est obtenue grâce à une technique de type Programmation Séquentielle Quadratique. Le critère optimisé vise à augmenter l'autonomie énergétique du robot. Le gradient du critère est calculé formellement pour améliorer la convergence de l'optimisation. Dans une étude préalable limitée au plan sagittal, différentes allures de marche sont comparées. Elles intègrent des phases de double support instantané ou de durée nie, et des phases de simple support comprenant ou non une sous-phase sous-actionnée au cours de laquelle le pied d'appui tourne autour de son arête frontale. Ces résultats sont généralisés au cas d'une marche tridimensionnelle. La comparaison de deux allures qui incluent des impacts et des phases de simple appui avec et sans déroulement du pied est effectuée. On montre dans ces différentes études que l'introduction de la phase de déroulement du pied en simple appui permet d'obtenir des vitesses de marche plus élevées pour des consommations énergétiques moindres
This work is devoted to the optimal motions generation of cycle walk for the anthropomorphic bipedal robots walking in the space. These robots are assumed to consist of a kinematics structure which retains only basic human locomotion mobility's on the level of the hip-knee-ankle-foot kinematics chain. The decomposition of the human gaits cycle, robot modelling and the constraints linked to the contact between the foot and the ground are presented. To dene dynamic model and impact model, the method of Newton-Euler is used. The motions generation of walking is posed under the form of a constrained parameter optimization problem. The resolution of this problem is obtained by Sequential Quadratic Programming (SQP) methods. The criterion is optimized in order to increase the autonomy of energy of the biped robot. To achieve and improve the convergence of the optimization algorithm, the gradient analytic calculation of the criteria was performed. In a preliminary study limited of the sagittal plane, dierent gaits are compared. These are dened by instantaneous double support phases or nite time double support phases and the single support phases including or not an under-actuated sub-phase in which stance foot rotates about the stance toe. These results are then generalized to the case of three-dimensional walk. The comparison of two gaits which includes the impacts and the single support phases with or without rolling of the foot is achieved. One can saw from these dierent studies that the introduction of phase of foot rolling in a single support phase allows much higher walking velocity with less energy consumption
APA, Harvard, Vancouver, ISO, and other styles
10

Bousbia-Salah, Ryad. "Optimisation dynamique en temps-réel d’un procédé de polymérisation par greffage." Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0242/document.

Full text
Abstract:
D'une manière schématique, l'optimisation dynamique de procédés consiste en trois étapes de base : (i) la modélisation, dans laquelle un modèle (phénoménologique) du procédé est construit, (ii) la formulation du problème, dans laquelle le critère de performance, les contraintes et les variables de décision sont définis, (iii) et la résolution, dans laquelle les profils optimaux des variables de décision sont déterminés. Il est important de souligner que ces profils optimaux garantissent l'optimalité pour le modèle mathématique utilisé. Lorsqu'ils sont appliqués au procédé, ces profils ne sont optimaux que lorsque le modèle décrit parfaitement le comportement du procédé, ce qui est très rarement le cas dans la pratique. En effet, les incertitudes sur les paramètres du modèle, les perturbations du procédé, et les erreurs structurelles du modèle font que les profils optimaux des variables de décision basés sur le modèle ne seront probablement pas optimaux pour le procédé. L'application de ces profils au procédé conduit généralement à la violation de certaines contraintes et/ou à des performances sous-optimales. Pour faire face à ces problèmes, l'optimisation dynamique en temps-réel constitue une approche tout à fait intéressante. L'idée générale de cette approche est d'utiliser les mesures expérimentales associées au modèle du procédé pour améliorer les profils des variables de décision de sorte que les conditions d'optimalité soient vérifiées sur le procédé (maximisation des performances et satisfaction des contraintes). En effet, pour un problème d'optimisation sous contraintes, les conditions d'optimalité possèdent deux parties : la faisabilité et la sensibilité. Ces deux parties nécessitent différents types de mesures expérimentales, à savoir les valeurs du critère et des contraintes, et les gradients du critère et des contraintes par rapport aux variables de décision. L'objectif de cette thèse est de développer une stratégie conceptuelle d'utilisation de ces mesures expérimentales en ligne de sorte que le procédé vérifie non seulement les conditions nécessaires, mais également les conditions suffisantes d'optimalité. Ce développement conceptuel va notamment s'appuyer sur les récents progrès en optimisation déterministe (les méthodes stochastiques ne seront pas abordées dans ce travail) de procédés basés principalement sur l'estimation des variables d'état non mesurées à l'aide d'un observateur à horizon glissant. Une méthodologie d'optimisation dynamique en temps réel (D-RTO) a été développée et appliquée à un réacteur batch dans lequel une réaction de polymérisation par greffage a lieu. L'objectif est de déterminer le profil temporel de température du réacteur qui minimise le temps opératoire tout en respectant des contraintes terminales sur le taux de conversion et l'efficacité de greffage
In a schematic way, process optimization consists of three basic steps: (i) modeling, in which a (phenomenological) model of the process is developed, (ii) problem formulation, in which the criterion of Performance, constraints and decision variables are defined, (iii) the resolution of the optimal problem, in which the optimal profiles of the decision variables are determined. It is important to emphasize that these optimal profiles guarantee the optimality for the model used. When applied to the process, these profiles are optimal only when the model perfectly describes the behavior of the process, which is very rarely the case in practice. Indeed, uncertainties about model parameters, process disturbances, and structural model errors mean that the optimal profiles of the model-based decision variables will probably not be optimal for the process. The objective of this thesis is to develop a conceptual strategy for using experimental measurements online so that the process not only satisfies the necessary conditions, but also the optimal conditions. This conceptual development will in particular be based on recent advances in deterministic optimization (the stochastic methods will not be dealt with in this work) of processes based on the estimation of the state variables that are not measured by a moving horizon observer. A dynamic real-time optimization (D-RTO) methodology has been developed and applied to a batch reactor where polymer grafting reactions take place. The objective is to determine the on-line reactor temperature profile that minimizes the batch time while meeting terminal constraints on the overall conversion rate and grafting efficiency
APA, Harvard, Vancouver, ISO, and other styles
11

Lasserre, Virginie. "Determination de plans optimaux pour des essais en crossover dans le cadre du modele lineaire." Paris 5, 1992. http://www.theses.fr/1992PA05S012.

Full text
Abstract:
Un essai en crossover consiste a appliquer successivement differents traitements a un meme patient, chaque sujet devenant alors son propre temoin. Cependant, a l'effet direct du traitement peut se superposer l'effet residuel du traitement precedent. Deux des objectifs que l'on poursuit sont l'estimation optimale de l'effet traitement en l'absence ou en presence d'effet residuel et la determination de plans d'experience optimaux pour un nombre de periodes successives fixe (2, 3 ou 4 periodes). Deux approches sont envisagees au niveau du traitement des observations. La premiere correspond a une analyse sequentielle : elle analyse les mesures faites lors d'une periode j en ne supposant connues que les observations recueillies avant j. La deuxieme envisage une analyse globale de toutes les observations : elle donne naturellement des resultats plus precis mais elle ne peut etre faite que si l'essai est mene a son terme. Differentes modelisations des composantes de la variance sont proposees : outre un alea modelisant les erreurs de mesure, est introduit un effet bloc associe a chaque sujet. Ce deuxieme alea est successivement suppose constant d'une periode a l'autre, puis modelise par un ar(1) ou un ma(1). Dans chaque hypothese, nous etablissons systematiquement le plan optimal pour differents criteres d'optimalite en fonction du rapport entre les variances des deux aleas et, eventuellement, du parametre du processus ar(1) ou ma(1). La robustesse est etudiee dans le cas ou un certain nombre de sujets disparaissent en cours d'etude (perdus de vue).
APA, Harvard, Vancouver, ISO, and other styles
12

Varet, Suzanne. "Développement de méthodes statistiques pour la prédiction d'un gabarit de signature infrarouge." Phd thesis, Université Paul Sabatier - Toulouse III, 2010. http://tel.archives-ouvertes.fr/tel-00511385.

Full text
Abstract:
Dans le but de fournir un outil pour le dimensionnement de capteurs optroniques, nous souhaitons estimer la probabilité que, pour un scénario fixé, la signature infrarouge (SIR) d'un aéronef dans son environnement soit inférieure à un certain seuil. Cette estimation se ramène à l'estimation de l'intégrale d'une fonction h en grande dimension, dont la forme n'est pas précisément connue. La solution envisagée consiste à utiliser la méthode quasi-Monte Carlo (QMC). Toutefois, la précision de cet estimateur se dégrade lorsque la dimension augmente. L'objectif de la thèse est de développer une méthode pour réduire la dimension qui soit adaptée aux caractéristiques des variables d'entrée du code de calcul de SIR, puis d'utiliser l'information obtenue lors de la réduction de dimension pour améliorer la qualité de l'estimateur QMC. Les approches usuelles de réduction de dimension nécessitent des hypothèses qui sont irréalistes dans le cas de la SIR. Nous avons donc proposé une nouvelle méthode, dont les hypothèses de validité sont moins contraignantes. Après avoir réduit la dimension, il est possible d'appliquer la méthode QMC en fixant les variables non influentes à une valeur quelconque. Cependant, les suites de points utilisées dans le cadre de la méthode QMC, quoique bien réparties dans l'espace, présentent des irrégularités de répartition sur les projections. Nous avons donc adapté la discrépance L2*-pondérée de manière à pouvoir juger l'adéquation d'une suite à la fonction d'intérêt h. Par la suite nous avons mis au point un algorithme visant à construire une suite de points optimisant au mieux ce critère, dans le but de minimiser l'erreur d'intégration.
APA, Harvard, Vancouver, ISO, and other styles
13

Wahdame, Bouchra. "Analyse et optimisation du fonctionnement de piles à combustible par la méthode des plans d’expériences." Besançon, 2006. http://www.theses.fr/2006BESA2034.

Full text
Abstract:
La Méthode des Plans d’Expériences (MPE) est un moyen efficace pour caractériser, analyser et améliorer un système Pile à Combustible (PàC). Après un bref aperçu de son fonctionnement et de ses contraintes, l’auteur communique des éléments essentiels de la MPE. Celle-ci est ensuite appliquée à différents cas. Une première étude destinée à étudier l’influence des débits et des pressions de gaz sur la puissance maximale d’une pile PEM est d’abord réalisée. L’impact majeur du débit d’air est mis en évidence à la fois par des plans complet et fractionnaire. Les plans et outils logiciels développés sont alors utilisés pour analyser des essais collectés sur une pile 5kW. Ils permettent d’exprimer clairement et quantitativement les incidences sur les performances de la PàC des paramètres courant, température, pression et surstoechiométries des réactifs. Des interactions entre facteurs sont aussi décelées. Une modélisation statistique de la tension en fonction des paramètres étudiés est mise en oeuvre ultérieurement pour optimiser les conditions opératoires. La Méthode des Surfaces de Réponse est ensuite utilisée pour analyser un essai d’endurance réalisé sur 1000 heures. L’intérêt d’adopter des surstoechiométries variables au cours du temps pour aboutir à des tensions de cellules élevées et présentant une faible dispersion est démontré. L’auteur indique finalement comment la MPE peut contribuer à une meilleure compréhension de la physique des PàC. Trois domaines sont considérés : les pertes de charge dans les plaques bipolaires, l’impact de l’humidification sur la résistance interne du stack et le vieillissement à une température de fonctionnement haute
The Design of Experiment (DoE) methodology can be a suitable medium to characterise, analyse and also improve a complex system like a Fuel Cell (FC). After a brief overview of the PEMFC technology with its operating constraints, the author provides some essential elements of the DoE methodology. This one is then applied to various cases. Some experimental designs are first proposed to evaluate the influences of the gas pressures and flow rates over the maximal power reached by a PEMFC. The analyses made for the full factorial and fractional designs lead to similar results: a major influence of the air flow. Next, the tools proposed in this work are developed to analyse some data collected from a 5kW PEMFC. The current, temperature, gas pressure and stoichiometry rate impacts over the FC voltage are estimated; some possible interactions between the factors are highlighted as well. The optimisations of the FC operation parameters leading to high performances are performed afterwards thanks to statistical models. Then, the analysis of a durability test performed on a PEMFC stack operated during 1000 hours is made using the Response Surface Methodology. This study shows notably the interest of using some variable stoichiometry rates through ageing time in order to obtain both high voltages and lower cell voltage variability. At last, the author shows how the DoE methodology can contribute to a deeper understanding of the FC physical phenomena. Three different domains are concerned: the pressure losses in the bipolar plates, the impact of humidification on the stack internal resistance, and the ageing of a stack operated at high temperature level
APA, Harvard, Vancouver, ISO, and other styles
14

Gimeno, Anthony. "Contribution à l'étude d'alternateurs automobiles : caractérisation des pertes en vue d'un dimensionnement optimal." Compiègne, 2011. http://www.theses.fr/2011COMP1923.

Full text
Abstract:
L’arrivée de normes anti-pollution de plus en plus strictes ainsi que l’augmentation du prix du pétrole poussent les équipementiers et les constructeurs automobiles à la recherche de solutions de plus en plus propres pour l’avenir. Cette thèse s’inscrit dans ce contexte et se veut être une contribution à l’amélioration du rendement de la fonction génératrice automobile au sein d’un véhicule à propulsion thermique. Pour se faire, deux approches sont envisagées. Au cours de la première approche, une étude est réalisée sur la machine actuelle ainsi que sur les candidates à son remplacement. Afin de cibler et de comprendre l’évolution des différentes pertes, une modélisation analytique et énergétique de celle-ci est faite et une étude sur cycle VDA est réalisée. Nous soulignons l’importance des pertes fer dans une structure à griffes et étudions de ce fait l’influence de différents facteurs sur cette évolution. L’intérêt d’un couplage triangle au stator en termes de perte fer est souligné et l’apport d’un courant circulant à vide en termes de perte Joule est quantifié. Une étude est de plus réalisée sur la complémentarité d’une approche expérimentale et éléments finis sur une répartition des pertes fer stator / rotor à vide. Enfin, l’impact du redresseur sur la propagation des pertes fer est étudié. La deuxième approche nous conduit au dimensionnement d’une structure hybride à rotor bobiné et aimants inter polaires. Dans cette étude, nous proposons un couplage entre un dimensionnement analytique et éléments finis à travers la mise en place de plans d’expériences. Cette étude aboutie sur une cartographie de rendement de la structure hybride et souligne ainsi son intérêt en termes de rendement par rapport à une structure à griffes
The advent of more stringent anti-pollution standards and the rising of oil price, lead car manufacturers and automotive suppliers to find efficient solutions for our future. This thesis is a contribution to improving the performance of the electrical generating function in a thermal powertrain. Two approaches are considered in this work. In the first approach, a study is done on the current machine (called Lundell structure or claw pole machine). In a second approach, we design a structure abble to replace the claw pole alternator. To identify and understand the evolution of the different losses, a characterization of losses is made and a study on VDA cycle is completed. We stress the importance of iron losses in claw pole structure and thereby study the influence of various factors on its evolution. The interest of a delta conexion in terms of stator iron losses is emphasized and the impact of this current in terms of copper losses is quantified. A study is conducted over the complementarity of experimental and finite element approach on the repartition of iron losses between the stator and the rotor of this structure. Finally, the impact of the rectifier on the evolution of iron losses is studied. During this first approach, we also propose an analytical modeling of the machine and his efficiency. The second approach leads to design an hybrid structure based on a wound rotor synchronous machine with interpolar magnets. In this study, we propose a coupling between an analytical design and a finite element one through the establishment of experimental designs. This study leads to an efficiency map of the hybrid structure, highlighting its value in terms of performance relative to a claw pole machine
APA, Harvard, Vancouver, ISO, and other styles
15

Scheidt, Céline. "Analyse statistique d'expériences simulées : Modélisation adaptative de réponses non régulières par krigeage et plans d'expériences, Application à la quantification des incertitudes en ingénierie des réservoirs pétroliers." Phd thesis, Université Louis Pasteur (Strasbourg) (1971-2008), 2006. https://publication-theses.unistra.fr/public/theses_doctorat/2006/SCHEIDT_Celine_2006.pdf.

Full text
Abstract:
La quantification des incertitudes est essentielle à la bonne maîtrise de la production des réservoirs pétroliers. Ce problème est complexe car l’impact des paramètres incertains sur la production est souvent non-régulier. Du fait du coût important d’une simulation numérique d’écoulement, les méthodes traditionnelles d’analyse de risque sont basées sur un modèle approché du modèle d’écoulement. Ce modèle, construit à partir de plans d’expériences supposant un comportement polynomial de la réponse, ignore les non-régularités. L’objectif de cette thèse est la mise en place d’un formalisme de modélisation de réponses non-régulières. Nous proposons de construire des plans évolutifs afin d’intégrer graduellement les non-régularités. Cette approche est inspirée conjointement de méthodes géostatistiques et de plans d’expériences. En partant d’une surface de réponse initiale, la méthodologie consiste à déterminer itérativement de nouvelles simulations afin d’enrichir le dispositif expérimental et ainsi améliorer l’approximation de la réponse. Différents critères d’ajout de simulations sont proposés. Nous préconisons l’intégration de l’information apportée par les extrema et les points de dérivée partielle nulle de l’approximation. De plus, l’ajout d’information fictive par points pilotes permet une optimisation de la prédictivité de l’approximation ainsi que la détermination de nouveaux points candidats à la simulation. Cette méthodologie originale d’ajustement de surfaces complexes a montré son efficacité, en terme de modélisation comme en terme de réduction du nombre de simulations, notamment pour une quantification d’incertitudes pour deux cas de réservoir pétrolier
Quantification of uncertainty in reservoir performance is an essential phase of oil field evaluation and production. Due to the large number of parameters and the physical complexity of the reservoir, fluid flow models can be computationally time consuming. Traditional uncertainty management is thus routinely performed using proxy models of the fluid flow simulator, following experimental design methodology. However, this approach often ignores the irregularity of the response. The objective of the thesis is to construct non-linear proxy models of the fluid flow simulator. Contrary to classical experimental designs which assume a polynomial behavior of the response, we build evolutive experimental designs to fit gradually the potentially non-linear shape of uncertainty. This methodology combines the advantages of experimental design with geostatistical methods. Starting from an initial trend of the uncertainty, the method determines iteratively new simulations that might bring crucial information to update the estimation of the uncertainty. Four criteria of adding new simulations are proposed. We suggest performing simulation at the extremes and the null derivative points of the approximation in order to better characterize irregularity. In addition, we propose an original way to increase the prior predictivity of the approximation using pilot points. The pilot points are also good candidates for simulation. This methodology allows for an efficient modeling of highly non-linear responses, while reducing the number of simulations compared to latin hypercubes. This work can potentially improve the efficiency in decision making under uncertainty
APA, Harvard, Vancouver, ISO, and other styles
16

Barbillon, Pierre. "Méthodes d'interpolation à noyaux pour l'approximation de fonctions type boîte noire coûteuses." Phd thesis, Université Paris Sud - Paris XI, 2010. http://tel.archives-ouvertes.fr/tel-00559502.

Full text
Abstract:
Cette thèse se place dans le cadre des expériences simulées auxquelles on a recours lorsque des expériences physiques ne sont pas réalisables. Une expérience simulée consiste à évaluer une fonction déterministe type boîte-noire coûteuse qui décrit un modèle physique. Les entrées de ce modèle, entachées d'incertitude, forment un vecteur aléatoire. Cela implique que les sorties que nous souhaitons étudier sont aléatoires. Une technique standard pour rendre possibles de nombreux traitements statistiques, est de remplacer la fonction type boîte-noire par un métamodèle d'évaluation quasi-instantanée l'approchant. Nous nous concentrons plus particulièrement sur les métamodèles d'interpolateurs à noyaux dont nous étudions la construction et l'utilisation. Dans ce cadre, une première contribution est la proposition d'une définition plus générale de noyau conditionnellement positif qui permet une vraie généralisation du concept de noyau défini positif et des théorèmes associés. Nous donnons ensuite, dans une deuxième contribution, un algorithme de construction de plans d'expérience dans des domaines éventuellement non hypercubiques suivant un critère maximin pertinent pour ces métamodèles. Dans une troisième contribution, nous traitons un problème statistique inverse en utilisant un métamodèle d'interpolateurs à noyaux dans un algorithme stochastique EM puisque le modèle liant les entrées aux sorties est de type boîte-noire coûteux. Enfin, nous proposons aussi, dans la dernière contribution, l'utilisation d'un tel métamodèle pour développer deux stratégies d'estimation et de majoration de probabilités d'événements rares dépen\-dant d'une fonction type boîte-noire coûteuse.
APA, Harvard, Vancouver, ISO, and other styles
17

Santiago, Jenny. "Développement de nouveaux plans d'expériences uniformes adaptés à la simulation numérique en grande dimension." Electronic Thesis or Diss., Aix-Marseille, 2013. http://www.theses.fr/2013AIXM4302.

Full text
Abstract:
Cette thèse propose une méthodologie pour des études en simulation numérique en grande dimension. Elle se décline en différentes étapes : construction de plan d'expériences approprié, analyse de sensibilité et modélisation par surface de réponse. Les plans d'expériences adaptés à la simulation numérique sont les "Space Filling Designs", qui visent à répartir uniformément les points dans l'espace des variables d'entrée. Nous proposons l'algorithme WSP pour construire ces plans, rapidement, avec de bons critères d'uniformité, même en grande dimension. Ces travaux proposent la construction d'un plan polyvalent, qui sera utilisé pour les différentes étapes de l'étude : de l'analyse de sensibilité aux surfaces de réponse. L'analyse de sensibilité sera réalisée avec une approche innovante sur les points de ce plan, pour détecter le sous-ensemble de variables d'entrée réellement influentes. Basée sur le principe de la méthode de Morris, cette approche permet de hiérarchiser les variables d'entrée selon leurs effets. Le plan initial est ensuite "replié" dans le sous-espace des variables d'entrée les plus influentes, ce qui nécessite au préalable une étude pour vérifier l'uniformité de la répartition des points dans l'espace réduit et ainsi détecter d'éventuels amas et/ou lacunes. Ainsi, après réparation, ce plan est utilisé pour l'étape ultime : étude de surfaces de réponse. Nous avons alors choisi d'utiliser l'approche des Support Vector Regression, indépendante de la dimension et rapide dans sa mise en place. Obtenant des résultats comparables à l'approche classique (Krigeage), cette technique semble prometteuse pour étudier des phénomènes complexes en grande dimension
This thesis proposes a methodology of study in numeric simulation for high dimensions. There are several steps in this methodology : setting up an experimental design, performing sensitivity analysis, then using response surface for modelling. In numeric simulation, we use a Space Filling Design that scatters the points in the entire domain. The construction of an experimental design in high dimensions must be efficient, with good uniformity properties. Moreover, this construction must be fast. We propose using the WSP algorithm to construct such an experimental design. This design is then used in all steps of the methodology, making it a versatile design, from sensitivity analysis to modelling. A sensitivity analysis allows identifying the influent factors. Adapting the Morris method principle, this approach classifies the inputs into three groups according to their effects. Then, the experimental design is folded over in the subspace of the influent inputs. This action can modify the uniformity properties of the experimental design by creating possible gaps and clusters. So, it is necessary to repair it by removing clusters and filling gaps. We propose a step-by-step approach to offer suitable repairing for each experimental design. Then, the repaired design is used for the final step: modelling from the response surface. We consider a Support Vector Machines method because dimension does not affect the construction. Easy to construct and with good results, similar to the results obtained by Kriging, the Support Vector Regression method is an alternative method for the study of complex phenomena in high dimensions
APA, Harvard, Vancouver, ISO, and other styles
18

Santiago, Jenny. "Développement de nouveaux plans d'expériences uniformes adaptés à la simulation numérique en grande dimension." Thesis, Aix-Marseille, 2013. http://www.theses.fr/2013AIXM4302.

Full text
Abstract:
Cette thèse propose une méthodologie pour des études en simulation numérique en grande dimension. Elle se décline en différentes étapes : construction de plan d'expériences approprié, analyse de sensibilité et modélisation par surface de réponse. Les plans d'expériences adaptés à la simulation numérique sont les "Space Filling Designs", qui visent à répartir uniformément les points dans l'espace des variables d'entrée. Nous proposons l'algorithme WSP pour construire ces plans, rapidement, avec de bons critères d'uniformité, même en grande dimension. Ces travaux proposent la construction d'un plan polyvalent, qui sera utilisé pour les différentes étapes de l'étude : de l'analyse de sensibilité aux surfaces de réponse. L'analyse de sensibilité sera réalisée avec une approche innovante sur les points de ce plan, pour détecter le sous-ensemble de variables d'entrée réellement influentes. Basée sur le principe de la méthode de Morris, cette approche permet de hiérarchiser les variables d'entrée selon leurs effets. Le plan initial est ensuite "replié" dans le sous-espace des variables d'entrée les plus influentes, ce qui nécessite au préalable une étude pour vérifier l'uniformité de la répartition des points dans l'espace réduit et ainsi détecter d'éventuels amas et/ou lacunes. Ainsi, après réparation, ce plan est utilisé pour l'étape ultime : étude de surfaces de réponse. Nous avons alors choisi d'utiliser l'approche des Support Vector Regression, indépendante de la dimension et rapide dans sa mise en place. Obtenant des résultats comparables à l'approche classique (Krigeage), cette technique semble prometteuse pour étudier des phénomènes complexes en grande dimension
This thesis proposes a methodology of study in numeric simulation for high dimensions. There are several steps in this methodology : setting up an experimental design, performing sensitivity analysis, then using response surface for modelling. In numeric simulation, we use a Space Filling Design that scatters the points in the entire domain. The construction of an experimental design in high dimensions must be efficient, with good uniformity properties. Moreover, this construction must be fast. We propose using the WSP algorithm to construct such an experimental design. This design is then used in all steps of the methodology, making it a versatile design, from sensitivity analysis to modelling. A sensitivity analysis allows identifying the influent factors. Adapting the Morris method principle, this approach classifies the inputs into three groups according to their effects. Then, the experimental design is folded over in the subspace of the influent inputs. This action can modify the uniformity properties of the experimental design by creating possible gaps and clusters. So, it is necessary to repair it by removing clusters and filling gaps. We propose a step-by-step approach to offer suitable repairing for each experimental design. Then, the repaired design is used for the final step: modelling from the response surface. We consider a Support Vector Machines method because dimension does not affect the construction. Easy to construct and with good results, similar to the results obtained by Kriging, the Support Vector Regression method is an alternative method for the study of complex phenomena in high dimensions
APA, Harvard, Vancouver, ISO, and other styles
19

Coutu, Arnaud. "Conception de réacteurs de laboratoire et développement d’approches numériques pour l’optimisation du procédé de méthanisation en voie solide et discontinu : plans d’expériences mixtes et bootstrapping, modélisation couplée hydrodynamique et biochimique." Thesis, Compiègne, 2021. http://www.theses.fr/2021COMP2616.

Full text
Abstract:
Ce travail de thèse a pour ambition d’apporter des solutions et des perspectives innovantes aux travaux de recherche actuels sur la méthanisation en voie solide, en s’appuyant sur les outils numériques. Les livrables de cette thèse s’organisent en « boîte à outils numériques » pour l’ingénieur, le chercheur et l’exploitant d’installation. Tout comme la boîte à outils de l’ouvrier, ils se structurent en plusieurs parties représentant les trois principales applications du numérique pour la méthanisation : l’optimisation, la caractérisation hydrodynamique et la modélisation. Le lien entre ces parties s’articule naturellement autour d’une approche systémique identifiant les échanges entre chacune de ces parties afin d’en former une solution complète dépassant leur somme. Ce travail a été réalisé autour de deux substrats : le fumier bovin pailleux et la tonte d’herbe, mais a été réalisé dans un esprit de transposition à tout autre substrat. La première étape de ce travail a été la conception des réacteurs et compteurs de gaz permettant de réaliser chacune des parties ultérieures à moindre coût. Ce matériel a été conçu par ordinateur après avoir déterminé les caractéristiques nécessaires par le calcul. La seconde étape a été d’utiliser une approche différente des plans d’expériences afin d’accroître l’efficacité des optimisations réalisées à l’aide de cet outil. Cette approche permet d’optimiser à la fois la composition de chaque substrat et la valeur de différents paramètres opératoires en un seul plan d’expériences combinant plans factoriels et plans de mélanges. L’outil du Bootstrapping a été également utilisé afin de minimiser les expériences réalisées en conservant la même significativité des résultats obtenus. Dans cette étude, la composition de deux substrats et deux paramètres opératoires ont été étudiés pour maximiser la production de méthane : la composition en fumier bovin et en tonte d’herbe, l’immersion du massif solide et la fréquence de recirculation de la phase liquide. La problématique de percolation est également un sujet d’étude : à quoi cela sert-il d’optimiser les paramètres opératoires si la phase liquide ne peut percoler au sein du massif solide ? La troisième étape de ce travail réside dans l’étude de l’écoulement de la phase liquide au sein d’un massif en conditions de codigestion en fonction de sa composition et de sa stratification. Cette étape permet de fournir des paramètres caractéristiques de l’écoulement, de proposer une nouvelle approche de la stratification et de mettre en évidence l’effet de la codigestion sur l’évolution des microporosités et macroporosités. Enfin, l’impact de l’évolution des microporosités et macroporosités sur la biologie a été injecté dans un modèle à un seul substrat afin de fournir un outil de compréhension du phénomène et un premier pas vers la prédiction du phénomène. L’ensemble de cette démarche permet donc d’optimiser les paramètres opératoires, de s’assurer de l’aspect fonctionnel d’une expérience et de proposer un modèle de compréhension globalisant les connaissances. Ce n’est pas une solution définitive mais une solution à étayer, tout comme la boîte à outils se renouvelle en outils toujours plus performants
This work aims to provide innovative solutions and perspectives to the current research work on solid state anaerobic digestion, using digital tools. The deliverables of this study are organized into a “digital toolbox” for engineers and researchers. Like the worker’s toolbox, this solution consists of several sections representing the three main digital applications for anaerobic digestion: optimization, hydrodynamics and modeling. Each part is linked with others to build a systemic approach identifying exchanges between them in order to form a complete solution exceeding the sum of its parts. This work was carried out around two substrates: straw cattle manure and damp grass. It was however designed to be transposed to any substrates. The first step in this work was the reactors and gas counters conception to perform each of these steps at lower cost. This equipment was computer-aided designed after the characteristics were determined by calculation. The second step was to determine a different approach from experimental designs to increase the optimization efficiency using this tool. This method allows tooptimize both the composition of each substrate and the different operating parameters values in a single experimental design combining factor design and mix design. The bootstrapping tool is also used to minimize the number of experiments while maintaining the results significance. In this study, the two substrates composition and two operating parameters were studied to maximize methane yield. The two substrates were cattle manure and damp grass, and the two studied parameters were immersion of the substrates and recirculation frequency of the liquid phase. The percolation is also a study subject: what is the purpose of optimizing the operating parameters if the liquid phase cannot percolate within the solid part? Therefore, the third step of this work is to study the liquid phase flow within the solid part under codigestion conditions according to its composition and stratification. This step allows to provide the flow characteristic parameter to propose a new stratification approach and to highlight the codigestion effect on the microporosity and macroporosity evolution. Finally, the microporosity and macroporosity evolution impact on biology was modeled in a single substrate model to provide an understanding tool and a first work step on a prediction tool integrating these phenomena. The whole study allows to optimize the operating parameters, to ensure the functional aspect of an experiment and bring forward an understanding model of porosities evolution. It is not a definitive solution but a solution to substantiate, just as the toolbox is continuously renewed in innovative and more efficient tools
APA, Harvard, Vancouver, ISO, and other styles
20

Salameh, Farah. "Méthodes de modélisation statistique de la durée de vie des composants en génie électrique." Phd thesis, Toulouse, INPT, 2016. http://oatao.univ-toulouse.fr/16622/1/Salameh_Farah.pdf.

Full text
Abstract:
La fiabilité constitue aujourd’hui un enjeu important dans le contexte du passage aux systèmes plus électriques dans des secteurs critiques tels que l’aéronautique, l’espace ou le nucléaire. Il s’agit de comprendre, de modéliser et de prédire les mécanismes de vieillissement susceptibles de conduire les composants à la défaillance et le système à la panne. L’étude des effets des contraintes opérationnelles sur la dégradation des composants est indispensable pour la prédiction de leur durée de vie. De nombreux modèles de durée de vie ont été développés dans la littérature dans le contexte du génie électrique. Cependant, ces modèles présentent des limitations car ils dépendent du matériau étudié et de ses propriétés physiques et se restreignent souvent à un ou deux facteurs de stress, sans intégrer les interactions pouvant exister entre ces facteurs. Cette thèse présente une nouvelle méthodologie pour la modélisation de la durée de vie des composants du génie électrique. Cette méthodologie est générale ; elle s’applique à différents composants sans a priori sur leurs propriétés physiques. Les modèles développés sont des modèles statistiques estimés sur la base de données expérimentales issues de tests de vieillissement accéléré où plusieurs types de stress sont considérés. Les modèles visent alors à étudier les effets des différents facteurs de stress ainsi que de leurs différentes interactions. Le nombre et la configuration des tests de vieillissement nécessaires à construire les modèles (bases d’apprentissage) sont optimisés de façon à minimiser le coût expérimental tout en maximisant la précision des modèles. Des points expérimentaux supplémentaires aléatoirement configurés sont réalisés pour valider les modèles (bases de test). Deux catégories de composants sont testées : deux types d’isolants couramment utilisés dans les machines électriques et des sources de lumière OLED. Différentes formes des modèles de durée de vie sont présentées : les modèles paramétriques, non paramétriques et les modèles hybrides. Tous les modèles développés sont évalués à l’aide de différents outils statistiques permettant, d’une part, d’étudier la pertinence des modèles et d’autre part, d’évaluer leur prédictibilité sur les points des bases de test. Les modèles paramétriques permettent de quantifier les effets des facteurs et de leurs interactions sur la durée de vie à partir d’une expression analytique prédéfinie. Un test statistique permet ensuite d’évaluer la significativité de chacun des paramètres inclus dans le modèle. Ces modèles sont caractérisés par une bonne qualité de prédiction sur leurs bases de test. La relation entre la durée de vie et les contraintes est également modélisée par les arbres de régression comme méthode alternative aux modèles paramétriques. Les arbres de régression sont des modèles non paramétriques qui permettent de classifier graphiquement les points expérimentaux en différentes zones dans lesquelles les contraintes sont hiérarchisées selon leurs effets sur la durée de vie. Ainsi, une relation simple, graphique, et directe entre la durée de vie et les contraintes est obtenue. Cependant, à la différence des modèles paramétriques continus sur le domaine expérimental étudié, les arbres de régression sont constants par morceaux, ce qui dégrade leur qualité de prédiction sur la base de test. Pour remédier à cet inconvénient, une troisième approche consiste à attribuer un modèle linéaire à chacune des zones identifiées avec les arbres de régression. Le modèle résultant, dit modèle hybride, est donc linéaire par morceaux et permet alors de raffiner les modèles paramétriques en évaluant les effets des facteurs dans chacune des zones tout en améliorant la qualité de prédiction des arbres de régression.
APA, Harvard, Vancouver, ISO, and other styles
21

Fu, Shuai. "Inverse problems occurring in uncertainty analysis." Thesis, Paris 11, 2012. http://www.theses.fr/2012PA112208/document.

Full text
Abstract:
Ce travail de recherche propose une solution aux problèmes inverses probabilistes avec des outils de la statistique bayésienne. Le problème inverse considéré est d'estimer la distribution d'une variable aléatoire non observée X à partir d'observations bruitées Y suivant un modèle physique coûteux H. En général, de tels problèmes inverses sont rencontrés dans le traitement des incertitudes. Le cadre bayésien nous permet de prendre en compte les connaissances préalables d'experts en particulier lorsque peu de données sont disponibles. Un algorithme de Metropolis-Hastings-within-Gibbs est proposé pour approcher la distribution a posteriori des paramètres de X avec un processus d'augmentation des données. A cause d'un nombre élevé d'appels, la fonction coûteuse H est remplacée par un émulateur de krigeage (métamodèle). Cette approche implique plusieurs erreurs de natures différentes et, dans ce travail,nous nous attachons à estimer et réduire l'impact de ces erreurs. Le critère DAC a été proposé pour évaluer la pertinence du plan d'expérience (design) et le choix de la loi apriori, en tenant compte des observations. Une autre contribution est la construction du design adaptatif adapté à notre objectif particulier dans le cadre bayésien. La méthodologie principale présentée dans ce travail a été appliquée à un cas d'étude en ingénierie hydraulique
This thesis provides a probabilistic solution to inverse problems through Bayesian techniques.The inverse problem considered here is to estimate the distribution of a non-observed random variable X from some noisy observed data Y explained by a time-consuming physical model H. In general, such inverse problems are encountered when treating uncertainty in industrial applications. Bayesian inference is favored as it accounts for prior expert knowledge on Xin a small sample size setting. A Metropolis-Hastings-within-Gibbs algorithm is proposed to compute the posterior distribution of the parameters of X through a data augmentation process. Since it requires a high number of calls to the expensive function H, the modelis replaced by a kriging meta-model. This approach involves several errors of different natures and we focus on measuring and reducing the possible impact of those errors. A DAC criterion has been proposed to assess the relevance of the numerical design of experiments and the prior assumption, taking into account the observed data. Another contribution is the construction of adaptive designs of experiments adapted to our particular purpose in the Bayesian framework. The main methodology presented in this thesis has been applied to areal hydraulic engineering case-study
APA, Harvard, Vancouver, ISO, and other styles
22

Blondet, Gaëtan. "Système à base de connaissances pour le processus de plan d'expériences numériques." Thesis, Compiègne, 2017. http://www.theses.fr/2017COMP2363/document.

Full text
Abstract:
Le besoin de compétitivité des entreprises, dans un contexte économique mondialisé, repose sur l'amélioration de la qualité des produits et la réduction des coûts et du temps de mise sur le marché. Pour atteindre ces objectifs, la simulation numérique est couramment utilisée pour la conception de produits complexes et mobilise des expertises diverses. Les Plans d'Expériences Numériques (PEN) sont de plus en plus utilisés pour simuler les variabilités des propriétés et de l’environnement du produit. Un processus de PEN apporte des méthodes de planification et d'analyse d'un ensemble de simulations, pour mieux maîtriser les performances du produit. La problématique traitée repose sur deux points. D'une part, la définition d'un processus de PEN repose sur de nombreux choix et l'utilisation de méthodes complexes, nécessitant une expertise avancée. Cette définition est d'autant plus complexe que le modèle de simulation est complexe et coûteux à exécuter. D'autre part, l'utilisation de PEN conduit à une production de grands volumes de données en multipliant les simulations. Ces travaux portent sur l'obtention rapide de la configuration optimale du processus de PEN pour raccourcir la préparation et l’exécution d’un PEN. Ces travaux se sont orientés vers la réutilisation des connaissances en entreprise pour un système à base de connaissances, composé d'une ontologie spécifique, pour capitaliser et partager les connaissances, et d'un moteur d'inférences, basé sur les réseaux bayésiens, pour proposer aux concepteurs des configurations efficaces et innovantes. Cette proposition est illustrée par une application sur un produit industriel issue du secteur automobile
In order to improve industrial competitiveness, product design relies more and more on numerical tools, such as numerical simulation, to develop better and cheaper products faster. Numerical Design of Experiments (NDOE) are more and more used to include variabilities during simulation processes, to design more robust, reliable and optimized product earlier in the product development process. Nevertheless, a NDOE process may be too expensive to be applied to a complex product, because of the high computational cost of the model and the high number of required experiments. Several methods exist to decrease this computational cost, but they required expert knowledge to be efficiently applied. In addition to that, NDoE process produces a large amount of data which must be managed. The aim of this research is to propose a solution to define, as fast as possible, an efficient NDoE process, which produce as much useful information as possible with a minimal number of simulations, for complex products. The objective is to shorten both process definition and execution steps. A knowledge-based system is proposed, based on a specific ontology and a bayesian network, to capitalise, share and reuse knowledge and data to predict the best NDoE process definition regarding to a new product. This system is validated on a product from automotive industry
APA, Harvard, Vancouver, ISO, and other styles
23

El-Habti, Ahmed. "Estimation bayésienne empirique pour les plans d'expérience non équilibrés." Mémoire, 2007. http://www.archipel.uqam.ca/5029/1/M9893.pdf.

Full text
Abstract:
Dans notre travail de mémoire, nous présentons l'approche bayésienne empirique dans l'inférence statistique. Les premiers articles dans ce domaine ont été publiés par Rabbins (1951, 1955, 1980). Robbins a utilisé une méthode non paramétrique (Maritz et Lwin (1989)) pour estimer la densité marginale. Plus tard, Morris (1983) a introduit l'approche paramétrique bayésienne empirique (voir aussi Efron et Morris (1973) (a), Casella (1985)). Nous décrivons les deux approches pour l'estimation de la moyenne de la loi gaussienne, de la loi de Poisson et de la loi exponentielle. Pour le cas gaussien, nous adaptons une méthodologie proposée par Angers (1992) pour l'estimation bayésienne hiérarchique à l'estimation bayésienne empirique dans le but d'obtenir des estimations plus robustes. Nous nous intéressons à l'estimation de la moyenne gaussienne et de la moyenne de la loi de Poisson quand les tailles des groupes sont inégales. Pour le cas gaussien, nous utilisons un estimateur du type James-Stein d'après Berger et Bock (1976) pour incorporer les tailles inégales. Dans le cas de la loi de Poisson, nous utilisons une méthode proposée par Maritz et Lwin (1989). Nous étudions également les estimateurs bayésiens empiriques pour estimer une moyenne exponentielle. Pour ce cas, nous avons introduit un nouvel estimateur bayésien empirique qui semble prometteur. Dans le cas gaussien, nous illustrons les approches en utilisant des banques de données pertinentes. Dans les autres cas, nous effectuons les études de simulation. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Analyse bayésienne, bayésien empirique, estimateur de stein, estimateur minimax, plans d'expérience non équilibrés.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography