Dissertations / Theses on the topic 'Méthodes Agnostiques aux Modèles'

To see the other types of publications on this topic, follow the link: Méthodes Agnostiques aux Modèles.

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Méthodes Agnostiques aux Modèles.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Danesh, Alaghehband Tina Sadat. "Vers une conception robuste en ingénierie des procédés. Utilisation de modèles agnostiques de l'interprétabilité en apprentissage automatique." Electronic Thesis or Diss., Toulouse, INPT, 2023. http://www.theses.fr/2023INPT0138.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La conception de processus robustes revêt une importance capitale dans divers secteurs, tels que le génie chimique et le génie des procédés. La nature de la robustesse consiste à s'assurer qu'un processus peut constamment produire les résultats souhaités pour les décideurs, même lorsqu'ils sont confrontés à une variabilité et à une incertitude intrinsèques. Un processus conçu de manière robuste améliore non seulement la qualité et la fiabilité des produits, mais réduit également de manière significative le risque de défaillances coûteuses, de temps d'arrêt et de rappels de produits. Il améliore l'efficacité et la durabilité en minimisant les déviations et les défaillances du processus. Il existe différentes méthodes pour améliorer la robustesse du système, telles que la conception d'expériences, l'optimisation robuste et la méthodologie de la surface de réponse. Parmi les méthodes de conception robuste, l'analyse de sensibilité pourrait être appliquée comme technique de soutien pour mieux comprendre comment les modifications des paramètres d'entrée affectent les performances et la robustesse. En raison du développement rapide en science de l’ingénieure, les modèles mécanistiques ne captant pas certaines parties des systèmes complexe, peuvent ne pas être l'option la plus appropriée pour d'analyse de sensibilité. Ceci nous amène à envisager l'application de modèles d'apprentissage automatique et la combiner avec l’analyse de sensibilité. Par ailleurs, la question de l'interprétabilité des modèles d'apprentissage automatique a gagné en importance, il est de plus en plus nécessaire de comprendre comment ces modèles parviennent à leurs prédictions ou à leurs décisions et comment les différents paramètres sont liés. Étant donné que leurs performances dépassent constamment celles des modèles mécanistiques, fournir des explications, des justifications et des informations sur les prédictions des modèles de ML permettent non seulement de renforcer leur fiabilité et leur équité, mais aussi de donner aux ingénieurs les moyens de prendre des décisions en connaissance de cause, d'identifier les biais, de détecter les erreurs et d'améliorer les performances globales et la fiabilité des systèmes. Diverses méthodes sont disponibles pour traiter les différents aspects de l'interprétabilité, ces dernières reposent sur des approches spécifiques à un modèle et sur des méthodes agnostiques aux modèles.Dans cette thèse, notre objectif est d'améliorer l'interprétabilité de diverses méthodes de ML tout en maintenant un équilibre entre la précision dans la prédiction et l'interprétabilité afin de garantir aux décideurs que les modèles peuvent être considérés comme robustes. Simultanément, nous voulons démontrer que les décideurs peuvent faire confiance aux prédictions fournies par les modèles ML. Les outils d’interprétabilité ont été testés pour différents scénarios d'application, y compris les modèles basés sur des équations, les modèles hybrides et les modèles basés sur des données. Pour atteindre cet objectif, nous avons appliqué à diverses applications plusieurs méthodes agnostiques aux modèles, telles que partial dependence plots, individual conditional expectations, accumulated local effects, etc
Robust process design holds paramount importance in various industries, such as process and chemical engineering. The nature of robustness lies in ensuring that a process can consistently deliver desired outcomes for decision-makers and/or stakeholders, even when faced with intrinsic variability and uncertainty. A robustly designed process not only enhances product quality and reliability but also significantly reduces the risk of costly failures, downtime, and product recalls. It enhances efficiency and sustainability by minimizing process deviations and failures. There are different methods to approach the robustness of a complex system, such as the design of experiments, robust optimization, and response surface methodology. Among the robust design methods, sensitivity analysis could be applied as a supportive technique to gain insights into how changes in input parameters affect performance and robustness. Due to the rapid development and advancement of engineering science, the use of physical models for sensitivity analysis presents several challenges, such as unsatisfied assumptions and computation time. These problems lead us to consider applying machine learning (ML) models to complex processes. Although, the issue of interpretability in ML has gained increasing importance, there is a growing need to understand how these models arrive at their predictions or decisions and how different parameters are related. As their performance consistently surpasses that of other models, such as knowledge-based models, the provision of explanations, justifications, and insights into the workings of ML models not only enhances their trustworthiness and fairness but also empowers stakeholders to make informed decisions, identify biases, detect errors, and improve the overall performance and reliability of the process. Various methods are available to address interpretability, including model-specific and model-agnostic methods. In this thesis, our objective is to enhance the interpretability of various ML methods while maintaining a balance between accuracy and interpretability to ensure decision-makers or stakeholders that our model or process could be considered robust. Simultaneously, we aim to demonstrate that users can trust ML model predictions guaranteed by model-agnostic techniques, which work across various scenarios, including equation-based, hybrid, and data-driven models. To achieve this goal, we applied several model-agnostic methods, such as partial dependence plots, individual conditional expectations, accumulated local effects, etc., to diverse applications
2

Grazian, Clara. "Contributions aux méthodes bayésiennes approchées pour modèles complexes." Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLED001.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Récemment, la grande complexité des applications modernes, par exemple dans la génétique, l’informatique, la finance, les sciences du climat, etc. a conduit à la proposition des nouveaux modèles qui peuvent décrire la réalité. Dans ces cas,méthodes MCMC classiques ne parviennent pas à rapprocher la distribution a posteriori, parce qu’ils sont trop lents pour étudier le space complet du paramètre. Nouveaux algorithmes ont été proposés pour gérer ces situations, où la fonction de vraisemblance est indisponible. Nous allons étudier nombreuses caractéristiques des modèles complexes: comment éliminer les paramètres de nuisance de l’analyse et faire inférence sur les quantités d’intérêt,dans un cadre bayésienne et non bayésienne et comment construire une distribution a priori de référence
Recently, the great complexity of modern applications, for instance in genetics,computer science, finance, climatic science etc., has led to the proposal of newmodels which may realistically describe the reality. In these cases, classical MCMCmethods fail to approximate the posterior distribution, because they are too slow toinvestigate the full parameter space. New algorithms have been proposed to handlethese situations, where the likelihood function is unavailable. We will investigatemany features of complex models: how to eliminate the nuisance parameters fromthe analysis and make inference on key quantities of interest, both in a Bayesianand not Bayesian setting, and how to build a reference prior
3

Tarhini, Ali. "Analyse numérique des méthodes quasi-Monte Carlo appliquées aux modèles d'agglomération." Chambéry, 2008. http://www.theses.fr/2008CHAMS015.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les méthodes de Monte Carlo (MC) sont des méthodes statistiques basées sur l'utilisation répétée de nombres aléatoires. Les méthodes quasi-Monte Carlo (QMC) sont des versions déterministes des méthodes de Monte Carlo. Les suites aléatoires sont remplacées par des suites à discrépance faible, qui ont une meilleure répartition uniforme dans le cube unite s- dimensionnel. Nous utilisons une classe particulière de suites à discrépance faible : les suites-(t,s). Dans ce travail, nous developpons et analysons des méthodes particulaires Monte Carlo et quasi-Monte Carlo pour les phénomènes d'agglomeration. Nous nous intéressons en particulier à la simulation numérique de l'équation de coagulation discrète (équation de Smoluchowski), de l'équation de coagulation continue, de l'équation de coagulation- fragmentation continue et de l'équation générale de la dynamique (EGD) des aérosols. Pour toutes ces méthodes particulaires, on écrit l'équation vérifiée par la distribution de masse et on approche celle-ci par une somme de n mesures de Dirac ; les mesures sont pondérées dans le cas de la simulation de l'EGD. Le schema en temps est un schema d'Euler explicite. Pour la simulation de la coagulation et de la fragmentation, l'évolution des masses des particules est déterminée par des tirages de nombres aléatoires (méthode MC) ou par des quadratures quasi-Monte Carlo (méthode QMC). Pour assurer la convergence de la méthode QMC, on ordonne les particules par taille croissante à chaque pas de temps. Dans le cas de la résolution de l'EGD, on utilise une méthode à pas fractionnaire : la simulation de la coagulation se fait comme précédemment, les autres phénomènes (condensation. évaporation, déposition) sont pris en compte par une méthode particulaire déterministe de résolution d'une équation aux dérivées partielles hyperbolique. Nous démontrons la convergence du schema particulaire QMC de résolution numérique de l'équation de coagulation et de coagulation-fragmentation, quand le nombre n des particules tend vers l'infini. Tous les essais numériques montrent que les solutions calculées par les nouveaux algorithmes QMC convergent vers les solutions exactes et fournissent de meilleurs résultats que ceux obtenus par les méthodes de Monte Carlo correspondantes
Monte Carlo (MC) methods are probabilistic methods based on the use of random numbers in repeated experiments. Quasi-Monte Carlo (QMC) methods are deterministic versions of Monte Carlo methods. Random sequences are replaced by low discrepancy sequences. These sequences ha ve a better uniform repartition in the s-dimensional unit cube. We use a special class of low discrepany sequences called (t,s)-sequences. In this work, we develop and analyze Monte Carlo and quasi-Monte Carlo particle methods for agglomeration phenomena. We are interested, in particular, in the numerical simulation of the discrete coagulation equations (the Smoluchowski equation), the continuous coagulation equation, the continuous coagulation-fragmentation equation and the general dynamics equation (GDE) for aerosols. In all these particle methods, we write the equation verified by the mass distribution density and we approach this density by a sum of n Dirac measures ; these measures are weighted when simulating the GDE equation. We use an explicit Euler disretiza tion scheme in time. For the simulation of coagulation and coagulation-fragmentation, the numerical particles evolves by using random numbers (for MC simulations) or by quasi-Monte Carlo quadratures. To insure the convergence of the numerical scheme, we reorder the numerical particles by their increasing mass at each time step. In the case of the GDE equation, we use a fractional step iteration scheme : coagulation is simulated as previously, other phenomena (like condensation, evaporation and deposition) are integrated by using a deterministic particle method for solving hyperbolic partial differential equation. We prove the convergence of the QMC numerical scheme in the case of the coagulation equation and the coagulation-fragmentation equation, when the number n of numerical particles goes to infinity. All our numerical tests show that the numerical solutions calculated by QMC algorithms converges to the exact solutions and gives better results than those obtained by the corresponding Monte Carlo strategies
4

Rakotomarolahy, Patrick. "Méthodes non paramétriques : estimation, analyse et applications aux cycles économiques." Paris 1, 2011. http://www.theses.fr/2011PA010045.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse se concentre sur l'étude des propriétés de la fonction régression par des méthodes non paramétriques pour des processus dépendants et l'application de ces méthodes dans l'analyse des cycles économiques. On résume ci-dessous les résultats théoriques et les résultats empiriques obtenus dans ce cadre. Le premier résultat théorique concerne la biais, la variance, l'erreur quatratique et la normalité asymptotique de deux estimateurs non-paramétriques: plus proche voisin et fonction radiale de base. L'autre résultat théorique était l'extension des tests d'enveloppements dans le cas de processus dépendant permettant de comparer différentes méthodes paramétriques et non paramétriques. On a établi la normalité asymptotique des statistiques associées à ces tests. Les travaux empiriques ont été de proposer ces méthodes non paramétriques dans la prévision des activités économiques réelles à partir des indicateurs économiques et des variables financières, pour palier quelques hypothèses jugeant très fortes dans l'approche paramétrique. On a trouvé l'intérêt des méthodes non paramétriques dans la prévision de produit intérieur brut (PIB) de la zone euro. On a revu le rôle ds variables financières dans le choix de modèles et dans la sélection des variables.
5

Castric, Sébastien. "Méthodes de recalage de modèles et application aux émissions des moteurs diesel." Compiègne, 2007. http://www.theses.fr/2007COMP1696.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Depuis plusieurs décennies, les véhicules européens sont soumis à des normes concernant leurs émissions polluantes. Pour faire face à ces contraintes de plus en plus importantes, les constructeurs automobiles ont fait appel à des solutions technologiques complexes notamment dans le cas des véhicules diesel. Cette situation a par ailleurs entraîné une complexification de la mise au point des moteurs puisque ces derniers possèdent un nombre croissant de paramètres de réglage. Notre travail de recherche s’est déroulé dans l’entreprise Renault SAS. Il a pour objectif de présenter des méthodes de recalage de modèles et une application de ses méthodes aux modèles d’émissions polluantes de moteur diesel. Depuis plusieurs années déjà, Renault utilise les techniques de plans d’expériences, de modélisation et d’optimisation pour résoudre le problème de la mise au point des moteurs diesel pour la dépollution. Si l’approche fonctionne bien, elle comporte néanmoins un défaut. Le processus de mise au point des moteurs diesel est itératif, et chaque itération apporte son lot de modifications matérielles. Dans ce cas, les modèles servant à prédire les émissions du moteur, qui sont des LOLIMOT, ne sont plus valables. Sachant que nous ne pouvons pas relancer le processus de modélisation pour des raisons de coup et de délais, une question se pose alors : « Comment recaler les modèles d’émissions après un changement de définition technique du moteur en faisant le moins d’essais possible ? ». La contribution du travail de recherche se divise en deux approches. Une première voie utilise la théorie bayesienne. En se servant du modèle avant le changement comme d’un a priori ainsi que de nouveaux essais nous avons créé un algorithme permettant de recaler les modèles LOLIMOT. Nous proposons par ailleurs une méthode dérivée de la première intégrant en plus la connaissance que peuvent avoir les metteurs au point de leur moteur. Nous avons testé notre méthode en simulation puis sur des essais effectués sur un moteur 2 L diesel ayant subi différents changements de définition technique. Dans un deuxième temps, nous avons considéré que même si la théorie bayesienne permet d’intégrer certaines connaissances dans le recalage de modèles, elle ne permet pas d’utiliser directement les caractéristiques même de ce changement. Nous avons alors décidé de créer un modèle intégrant des paramètres physiques comme, par exemple, le nombre de trous des injecteurs. Nous avons alors, développé un modèle de combustion diesel. Ce dernier permet de simuler l’évolution des grandeurs thermodynamiques dans la chambre de combustion même dans le cas de la multi injection. Nous avons ensuite créé des modèles de polluants utilisant ces grandeurs comme entrées. Nous avons testé notre modèle sur de la prédiction de pression cylindre et de polluants sur un moteur 2L diesel
Since some decades, European vehicles are subjected to normative laws about pollutant emissions. To face these constraints, car manufacturers have used more and more complex technologies especially for diesel engine cars. This situation has led to a complexification of engine tuning since the numbers of setting parameters has increased too. The present research work was made for the car manufacturer Renault SAS. It aims at proposing methods that allow readjusting models and applications over pollutant models of diesel engine. Renault decided to use techniques of design of experiments, modelling and optimization to solve the problem of diesel engine tuning for emissions. Even if this approach gave good results, it has some drawbacks. The tuning process is composed of loops. Each loop involves hardware changes in the engine. In this case, the model representing the engine’s behaviour, which is a LOLIMOT model, is not valid anymore. Considering that it is not possible to completely rebuild a model, a question appears: “How is it possible to readjust the model after an hardware change by doing as few tests as possible?” This PhD proposes some ways to solve this problem. The first one consists in using the bayesian theory. By using the initial model as an a priori, we created an algorithm permitting to readjust LOLIMOT models. In addition, we proposed a method derived from the first one, and, which aims at using the tuner knowledge about the engine as a prior knowledge. We tested our methods by simulation and owing to tests made on a 2L diesel engine, which was subjected to different hardware changes. In a second time, we considered that even if the Bayesian theory is able to take into account some knowledge, it does not take into account the hardware change characteristics. Thus, we decided to create a new model integrating physical parameters, like, for example, the number of holes in the injectors. We developed a model of diesel combustion. It simulates the evolution of thermodynamic variables inside the combustion chamber even for the multi injection case. Next, we adapted models of pollutants using these variables as inputs. We tested the whole model on prediction of cylinder pressure and pollutants over 2L diesel engine tests
6

Darblade, Gilles. "Méthodes numériques et conditions aux limites pour les modèles Shallow-Water multicouches." Bordeaux 1, 1997. http://www.theses.fr/1997BOR10588.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les modeles shallow water multicouches sont des approximations adiabatiques des equations navier stokes. L'integration de ces modeles est generalement effectuee par des schemas aux differences finies ou des formulations elements finis. Ils comportent de serieuses difficultes mathematiques dues au couplage entre les couches et a l'ecriture non conservative des equations. Nous proposons, pour les modeles shallow water multicouches, une nouvelle methode d'integration numerique construite grace a des techniques de l'hyperbolique non lineaire. Nous abordons ensuite, pour des modeles shallow water, la resolution des conditions aux limites de frontieres ouvertes. Nous proposons une nouvelle methode: les couches parfaitement absorbantes. Nous appliquons cette methode a un modele shallow water linearise autour d'un etat quelconque et obtenons des resultats preliminaires prometteurs.
7

Debreu, Laurent. "Raffinement adaptatif de maillage et méthodes de zoom : application aux modèles d'océan." Université Joseph Fourier (Grenoble), 2000. http://www.theses.fr/2000GRE10004.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail est centre sur l'etude des differents aspects lies au raffinement local, fixe ou adaptatif, de maillage dans le contexte de la modelisation oceanique. Apres avoir rappele les principales methodes de raffinement pour les maillages structures, nous insistons sur l'algorithme de berger et oliger, que nous avons choisi pour la suite. Une analyse numerique de cet algorithme mene, sous certaines hypotheses simplificatrices, a des conditions de stabilite et des estimations d'erreur faisant intervenir les operateurs de discretisation et de transferts inter-grilles (interpolations, restrictions). Les resultats mettent notamment en relief l'influence des petites echelles contenues dans la solution haute resolution sur la stabilite de l'algorithme, ainsi que le role de l'intervalle de temps entre les etapes de remaillage. Des applications a deux modeles d'ocean simplifies (modele quasi-geostrophique multicouches et modele en eau peu profonde) montrent les potentialites de la methode dans un cadre academique. Les solutions sont en effet tres proches de celles obtenues avec un maillage haute resolution couvrant l'ensemble du domaine, et ce pour un cout nettement moindre. Les difficultes de l'extension de ces resultats a un modele realiste sont ensuite exposees. L'attention est notamment portee sur la gestion de la topographie du fond de l'ocean, sur la non divergence du transport barotrope (hypothese du toit rigide) et sur la gestion des iles. De premieres experiences numeriques sont effectuees dans un modele aux equations primitives de l'ocean atlantique nord et equatorial. Enfin du point de vue informatique, l'insertion du raffinement adaptatif de maillage dans un code numerique existant est une tache difficile qui a pu etre grandement simplifiee grace au developpement de librairies specifiques. Le probleme de la parallelisation de l'algorithme de berger oliger est egalement evoque.
8

Montier, Laurent. "Application de méthodes de réduction de modèles aux problèmes d'électromagnétisme basse fréquence." Thesis, Paris, ENSAM, 2018. http://www.theses.fr/2018ENAM0029/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le domaine de l'électrotechnique, la simulation numérique permet de s'affranchir d'essais qui peuvent être coûteux ou difficiles à réaliser. La Méthode des Éléments Finis est ainsi devenue une approche de référence dans ce contexte car elle permet d'obtenir des résultats précis sur des systèmes aux géométries complexes. Or, la simulation numérique d’un dispositif électrotechnique peut s’avérer coûteuse en temps de calcul du fait d’un nombre d’inconnues et de pas de temps important, ainsi que de fortes non-linéarités des matériaux ferromagnétiques. Il est alors nécessaire de mettre en œuvre des techniques permettant de réduire les temps de calcul nécessaires à la résolution de tels modèles numériques. Les méthodes de réduction de modèles semblent bien adaptées à ce type de problèmes car elles ont déjà été appliquées avec succès dans de nombreux domaines de l’ingénierie, notamment en mécanique des fluides et du solide. Une première catégorie de méthodes permet de rechercher la solution dans une base réduite afin de diminuer le nombre d’inconnues du modèle numérique. Pour ce type d’approche, les méthodes les plus connues sont la Proper Orthogonal Decomposition, la Proper Generalized Decomposition et la Projection d’Arnoldi. Une seconde catégorie regroupe les approches permettant de réduire le coût de calcul dû aux phénomènes non linéaires, grâce à des méthodes d’interpolation telles que l‘Empirical Interpolation Method et la Gappy POD. Cette thèse CIFRE a ainsi été effectuée dans le cadre du LAMEL (laboratoire commun entre le L2EP et EDF R&D) avec pour but d’identifier et d’implémenter les méthodes de réduction les mieux adaptées à l’électrotechnique. Celles-ci devront être capables de réduire le coût de calcul tout en prenant en compte le mouvement du rotor, les non-linéarités des matériaux ferromagnétiques mais aussi l’environnement électrique et mécanique du dispositif. Enfin, un indicateur évaluant l’erreur commise par le modèle réduit a été développé, offrant ainsi la garantie d’une précision suffisante sur les résultats
In the electrical engineering field, numerical simulation allows to avoid experiments which can be expensive, difficult to carry out or harmful for the device. In this context, the Finite Element Method has become to be one of the most used approach since it allows to obtain precise results on devices with complex geometries. However, these simulations can be computationally expensive because of a large number of unknowns and time-steps, and of strong nonlinearities of ferromagnetic materials to take into account. Numerical techniques to reduce the computational effort are thus needed. In this context, model order reduction approaches seem well adapted to this kind of problem since they have already been successfully applied to many engineering fields, among others, fluid and solid mechanics. A first class of methods allows to seek the solution in a reduced basis, allowing to dramatically reduce the number of unknowns of the numerical model. The most famous technics are probably the Proper Orthogonal Decomposition, the Proper Generalized Decomposition and the Arnoldi Projection. The second class of approaches consists of methods allowing to reduce the computational cost associated to nonlinearities, using interpolation methods like the Empirical Interpolation Method and the Gappy POD. This Ph.D. has been done within the LAMEL, the joint laboratory between the L2EP and EDF R&D, in order to identify and implement the model order reduction methods which are the most adapted to electrical engineering models. These methods are expected to reduce the computational cost while taking into account the motion of an electrical machine rotor, the nonlinearities of the ferromagnetic materials and also the mechanical and electrical environment of the device. Finally, an error indicator which evaluates the error introduced by the reduction technic has been developed, in order to guarantee the accuracy of the results obtained with the reduced model
9

Infante, Acevedo José Arturo. "Méthodes et modèles numériques appliqués aux risques du marché et à l'évaluation financière." Phd thesis, Université Paris-Est, 2013. http://tel.archives-ouvertes.fr/tel-00937131.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Méthodes et modèles numériques appliqués aux risques du marché et à l'évaluation financière Ce travail de thèse aborde deux sujets : (i) L'utilisation d'une nouvelle méthode numérique pour l'évaluation des options sur un panier d'actifs, (ii) Le risque de liquidité, la modélisation du carnet d'ordres et la microstructure de marché. Premier thème : Un algorithme glouton et ses applications pour résoudre des équa- tions aux dérivées partielles Beaucoup de problèmes d'intérêt dans différents domaines (sciences des matériaux, finance, etc) font intervenir des équations aux dérivées partielles (EDP) en grande dimension. L'exemple typique en finance est l'évaluation d'une option sur un panier d'actifs, laquelle peut être obtenue en résolvant l'EDP de Black-Scholes ayant comme dimension le nombre d'actifs considérés. Nous proposons d'é- tudier un algorithme qui a été proposé et étudié récemment dans [ACKM06, BLM09] pour résoudre des problèmes en grande dimension et essayer de contourner la malédiction de la dimension. L'idée est de représenter la solution comme une somme de produits tensoriels et de calculer itérativement les termes de cette somme en utilisant un algorithme glouton. La résolution des EDP en grande di- mension est fortement liée à la représentation des fonctions en grande dimension. Dans le Chapitre 1, nous décrivons différentes approches pour représenter des fonctions en grande dimension et nous introduisons les problèmes en grande dimension en finance qui sont traités dans ce travail de thèse. La méthode sélectionnée dans ce manuscrit est une méthode d'approximation non-linéaire ap- pelée Proper Generalized Decomposition (PGD). Le Chapitre 2 montre l'application de cette méthode pour l'approximation de la solution d'une EDP linéaire (le problème de Poisson) et pour l'approxima- tion d'une fonction de carré intégrable par une somme des produits tensoriels. Un étude numérique de ce dernier problème est présenté dans le Chapitre 3. Le problème de Poisson et celui de l'approxima- tion d'une fonction de carré intégrable serviront de base dans le Chapitre 4 pour résoudre l'équation de Black-Scholes en utilisant l'approche PGD. Dans des exemples numériques, nous avons obtenu des résultats jusqu'en dimension 10. Outre l'approximation de la solution de l'équation de Black-Scholes, nous proposons une méthode de réduction de variance des méthodes Monte Carlo classiques pour évaluer des options financières. Second thème : Risque de liquidité, modélisation du carnet d'ordres, microstructure de marché Le risque de liquidité et la microstructure de marché sont devenus des sujets très importants dans les mathématiques financières. La dérégulation des marchés financiers et la compétition entre eux pour attirer plus d'investisseurs constituent une des raisons possibles. Les règles de cotation sont en train de changer et, en général, plus d'information est disponible. En particulier, il est possible de savoir à chaque instant le nombre d'ordres en attente pour certains actifs et d'avoir un historique de toutes les transactions passées. Dans ce travail, nous étudions comment utiliser cette information pour exécuter de facon optimale la vente ou l'achat des ordres. Ceci est lié au comportement des traders qui veulent minimiser leurs coûts de transaction. La structure du carnet d'ordres (Limit Order Book) est très complexe. Les ordres peuvent seulement être placés dans une grille des prix. A chaque instant, le nombre d'ordres en attente d'achat (ou vente) pour chaque prix est enregistré. Pour un prix donné, quand deux ordres se correspondent, ils sont exécutés selon une règle First In First Out. Ainsi, à cause de cette complexité, un modèle exhaustif du carnet d'ordres peut ne pas nous amener à un modèle où, par exemple, il pourrait être difficile de tirer des conclusions sur la stratégie optimale du trader. Nous devons donc proposer des modèles qui puissent capturer les caractéristiques les plus importantes de la structure du carnet d'ordres tout en restant possible d'obtenir des résultats analytiques. Dans [AFS10], Alfonsi, Fruth et Schied ont proposé un modèle simple du carnet d'ordres. Dans ce modèle, il est possible de trouver explicitement la stratégie optimale pour acheter (ou vendre) une quantité donnée d'actions avant une maturité. L'idée est de diviser l'ordre d'achat (ou de vente) dans d'autres ordres plus petits afin de trouver l'équilibre entre l'acquisition des nouveaux ordres et leur prix. Ce travail de thèse se concentre sur une extension du modèle du carnet d'ordres introduit par Alfonsi, Fruth et Schied. Ici, l'originalité est de permettre à la profondeur du carnet d'ordres de dépendre du temps, ce qui représente une nouvelle caractéristique du carnet d'ordres qui a été illustré par [JJ88, GM92, HH95, KW96]. Dans ce cadre, nous résolvons le problème de l'exécution optimale pour des stratégies discrétes et continues. Ceci nous donne, en particulier, des conditions suffisantes pour exclure les manipulations des prix au sens de Huberman et Stanzl [HS04] ou de Transaction- Triggered Price Manipulation (voir Alfonsi, Schied et Slynko). Ces conditions nous donnent des intu- itions qualitatives sur la manière dont les teneurs de marché (market makers) peuvent créer ou pas des manipulations des prix.
10

Baskind, Alexis. "Modèles et méthodes de description spatiale de scènes sonores : application aux enregistrements binauraux." Paris 6, 2003. http://www.theses.fr/2003PA066407.

Full text
APA, Harvard, Vancouver, ISO, and other styles
11

Infante, Acevedo José Arturo. "Méthodes et modèles numériques appliqués aux risques du marché et à l’évaluation financière." Thesis, Paris Est, 2013. http://www.theses.fr/2013PEST1086/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce travail de thèse aborde deux sujets : (i) L'utilisation d'une nouvelle méthode numérique pour l'évaluation des options sur un panier d'actifs, (ii) Le risque de liquidité, la modélisation du carnet d'ordres et la microstructure de marché. Premier thème : Un algorithme glouton et ses applications pour résoudre des équations aux dérivées partielles. L'exemple typique en finance est l'évaluation d'une option sur un panier d'actifs, laquelle peut être obtenue en résolvant l'EDP de Black-Scholes ayant comme dimension le nombre d'actifs considérés. Nous proposons d'étudier un algorithme qui a été proposé et étudié récemment dans [ACKM06, BLM09] pour résoudre des problèmes en grande dimension et essayer de contourner la malédiction de la dimension. L'idée est de représenter la solution comme une somme de produits tensoriels et de calculer itérativement les termes de cette somme en utilisant un algorithme glouton. La résolution des EDP en grande dimension est fortement liée à la représentation des fonctions en grande dimension. Dans le Chapitre 1, nous décrivons différentes approches pour représenter des fonctions en grande dimension et nous introduisons les problèmes en grande dimension en finance qui sont traités dans ce travail de thèse. La méthode sélectionnée dans ce manuscrit est une méthode d'approximation non-linéaire appelée Proper Generalized Decomposition (PGD). Le Chapitre 2 montre l'application de cette méthode pour l'approximation de la solution d'une EDP linéaire (le problème de Poisson) et pour l'approximation d'une fonction de carré intégrable par une somme des produits tensoriels. Un étude numérique de ce dernier problème est présenté dans le Chapitre 3. Le problème de Poisson et celui de l'approximation d'une fonction de carré intégrable serviront de base dans le Chapitre 4 pour résoudre l'équation de Black-Scholes en utilisant l'approche PGD. Dans des exemples numériques, nous avons obtenu des résultats jusqu'en dimension 10. Outre l'approximation de la solution de l'équation de Black-Scholes, nous proposons une méthode de réduction de variance des méthodes Monte Carlo classiques pour évaluer des options financières. Second thème : Risque de liquidité, modélisation du carnet d'ordres, microstructure de marché. Le risque de liquidité et la microstructure de marché sont devenus des sujets très importants dans les mathématiques financières. La dérégulation des marchés financiers et la compétition entre eux pour attirer plus d'investisseurs constituent une des raisons possibles. Dans ce travail, nous étudions comment utiliser cette information pour exécuter de façon optimale la vente ou l'achat des ordres. Les ordres peuvent seulement être placés dans une grille des prix. A chaque instant, le nombre d'ordres en attente d'achat (ou vente) pour chaque prix est enregistré. Dans [AFS10], Alfonsi, Fruth et Schied ont proposé un modèle simple du carnet d'ordres. Dans ce modèle, il est possible de trouver explicitement la stratégie optimale pour acheter (ou vendre) une quantité donnée d'actions avant une maturité. L'idée est de diviser l'ordre d'achat (ou de vente) dans d'autres ordres plus petits afin de trouver l'équilibre entre l'acquisition des nouveaux ordres et leur prix. Ce travail de thèse se concentre sur une extension du modèle du carnet d'ordres introduit par Alfonsi, Fruth et Schied. Ici, l'originalité est de permettre à la profondeur du carnet d'ordres de dépendre du temps, ce qui représente une nouvelle caractéristique du carnet d'ordres qui a été illustré par [JJ88, GM92, HH95, KW96]. Dans ce cadre, nous résolvons le problème de l'exécution optimale pour des stratégies discrètes et continues. Ceci nous donne, en particulier, des conditions suffisantes pour exclure les manipulations des prix au sens de Huberman et Stanzl [HS04] ou de Transaction-Triggered Price Manipulation (voir Alfonsi, Schied et Slynko)
This work is organized in two themes : (i) A novel numerical method to price options on manyassets, (ii) The liquidity risk, the limit order book modeling and the market microstructure.First theme : Greedy algorithms and applications for solving partial differential equations in high dimension Many problems of interest for various applications (material sciences, finance, etc) involve high-dimensional partial differential equations (PDEs). The typical example in finance is the pricing of a basket option, which can be obtained by solving the Black-Scholes PDE with dimension the number of underlying assets. We propose to investigate an algorithm which has been recently proposed and analyzed in [ACKM06, BLM09] to solve such problems and try to circumvent the curse of dimensionality. The idea is to represent the solution as a sum of tensor products and to compute iteratively the terms of this sum using a greedy algorithm. The resolution of high dimensional partial differential equations is highly related to the representation of high dimensional functions. In Chapter 1, we describe various linear approaches existing in literature to represent high dimensional functions and we introduce the high dimensional problems in finance that we will address in this work. The method studied in this manuscript is a non-linear approximation method called the Proper Generalized Decomposition. Chapter 2 shows the application of this method to approximate the so-lution of a linear PDE (the Poisson problem) and also to approximate a square integrable function by a sum of tensor products. A numerical study of this last problem is presented in Chapter 3. The Poisson problem and the approximation of a square integrable function will serve as basis in Chapter 4for solving the Black-Scholes equation using the PGD approach. In numerical experiments, we obtain results for up to 10 underlyings. Second theme : Liquidity risk, limit order book modeling and market microstructure. Liquidity risk and market microstructure have become in the past years an important topic in mathematical finance. One possible reason is the deregulation of markets and the competition between them to try to attract as many investors as possible. Thus, quotation rules are changing and, in general, more information is available. In particular, it is possible to know at each time the awaiting orders on some stocks and to have a record of all the past transactions. In this work we study how to use this information to optimally execute buy or sell orders, which is linked to the traders' behaviour that want to minimize their trading cost. In [AFS10], Alfonsi, Fruth and Schied have proposed a simple LOB model. In this model, it is possible to explicitly derive the optimal strategy for buying (or selling) a given amount of shares before a given deadline. Basically, one has to split the large buy (or sell) order into smaller ones in order to find the best trade-off between attracting new orders and the price of the orders. Here, we focus on an extension of the Limit Order Book (LOB) model with general shape introduced by Alfonsi, Fruth and Schied. The additional feature is a time-varying LOB depth that represents a new feature of the LOB highlighted in [JJ88, GM92, HH95, KW96]. We solve the optimal execution problem in this framework for both discrete and continuous time strategies. This gives in particular sufficient conditions to exclude Price Manipulations in the sense of Huberman and Stanzl [HS04] or Transaction-Triggered Price Manipulations (see Alfonsi, Schied and Slynko). The seconditions give interesting qualitative insights on how market makers may create price manipulations
12

Vivares, Florence. "Contribution à la modélisation de méthodes : application aux méthodes de Jackson." Toulouse, ENSAE, 1991. http://www.theses.fr/1991ESAE0019.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'objet de ce travail a été de modéliser différents aspects de deux méthodes semi-formelles: la méthode de développement de Jackson (JSD) et la méthode de programmation de Jackson (JSP). Nous présentons d'abord les caractéristiques des méthodes formelles pour en déduire un schéma de modélisation de méthodes. Ce schéma est appliqué, dans son intégralité, à la méthode de programmation, c'est-à-dire que nous proposons une expression formelle des objets manipules, un principe de validation des programmes ainsi qu'un principe pour leur synthèse. Nous étudions ensuite la mise en œuvre de la méthode ainsi modélisée, son automatisation, ainsi que les stratégies de décomposition qui sont proposées dans la méthode originale. Puis nous en proposons une formalisation dans le langage DEVA. La dernière partie concerne l'extension des notions précédentes au parallélisme. Nous proposons une sémantique opérationnelle pour les réseaux de processus manipules par la méthode de développement, grâce à laquelle les opérations de décomposition parallèle de la méthode de programmation ont également pu être formalisées. Enfin, nous en déduisons un schéma de validation et de transformation pour l'implémentation de ces réseaux.
13

Kreit, Zakwan. "Contribution à l'étude des méthodes quantitatives d'aide à la décision appliquées aux indices du marché d'actions." Bordeaux 4, 2007. https://tel.archives-ouvertes.fr/tel-00413979.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse se compose de deux parties : la première expose et compare les différentes méthodes quantitatives d’aide à la décision utilisées dans diverses situations. La deuxième étudie et analyse l'indice du marché boursier d’Egypte - marché considéré comme inefficient parmi les marchés boursiers internationaux. En conséquence, nous précisons qu’il est très difficile d'utiliser les méthodes traditionnelles pour prévoir la tendance de l'indice de ce marché boursier (Bourse du Caire et d’Alexandrie : CASE). Pour cela nous avons appliqué la méthode ARIMA de Box-Jenkins (moyenne mobile intégrée auto-régressive) et la méthode ANN (Réseaux de Neurones Artificiels) à un échantillon d’indices du marché boursier (CASE) collecté entre 1992 et 2005, soit 3311 observations d’une série chronologique. Les résultats obtenus ont montré que la méthode traditionnelle de prédiction ARIMA ne permet pas de prévoir l'indice du marché boursier de CASE, alors que la méthode ANN est capable de suivre la tendance réelle de l'indice. Ces conclusions ont été confirmées par les deux critères de calcul du pourcentage d'erreur sur la moyenne absolue (MAPE) et de l'erreur sur la moyenne quadratique (MSE). Donc, les réseaux neuronaux pour la prédiction hebdomadaire des marchés biduel pourrait tirer profit de l'utilisation de cette méthode de prédiction pour ses propres décisions financières
This thesis is divided into two parts : first, it concerns the study of different quantitative methods used for decision making support in all situations. Second, study and analysis of the stock market index in Egypt. Indeed, The Egyptian stock market is considered to be inefficient with respect to the international stock market. According to this, we expect that it is very difficult to use the traditional forecasting methods to predict the trend of the stock market index. In order to predict the Cairo & Alexandria Stock Exchanges (CASE), the Box-Jenkins Auto Regressive Integrated Moving Average (ARIMA) and Artificial Neural Network (ANN) methods were applied to predict the stock market index of (CASE) in Egypt. For this purpose, we have used the stock market index samples for the CASE collected from 1992-2005 (3311 daily time series observation). The traditional forecasting method ARIMA was found to be not able to predict the CASE stock market index. However, the ANN prediction method was found to be able to follow the real trend of the index. This was confirmed by the Mean Absolute Percentage Error (MAPE) and Mean Square Error (MSE). Hence, neural networks for weekly prediction of financial stock markets are efficient. Consequently, the individual investor could make the most of the use of this forecasting method for his decision especially in the stock market
14

Poignard, Clair. "Méthodes asymptotiques pour le calcul des champs électromagnétiques dans des milieux à couches minces : application aux cellules biologiques." Lyon 1, 2006. http://tel.archives-ouvertes.fr/docs/00/13/71/88/PDF/these.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, nous présentons des méthodes asymptotiques mathématiquement justifiées permettant de connaître les champs électromagnétiques dans des milieux à couches minces hétérogènes. La motivation de ce travail est le calcul du champ électrique dans des cellules biologiques composées d'un cytoplasme conducteur entouré d'une fine membrane très isolante. Nous remplaçons la membrane, lorsque son épaisseur est infiniment petite, par des conditions de transmission ou des conditions aux limites appropriées et nous estimons l'erreur commise par ces approximations. Pour les basses fréquences, nous considérons l'équation quasistatique donnant le potentiel dont dérive le champ. A l'aide d'un calcul en géométrie circulaire nous obtenons les expressions explicites du potentiel et nous en déduisons les asymptotiques du champ électrique, en fonction de l'épaisseur de la couche mince, avec des estimations de l'erreur. Nous estimons ensuite la différence entre le champ réel et le champ statique. Puis nous généralisons notre développement asymptotique à une géométrie quelconque. La deuxième partie de cette thèse traite des moyennes fréquences : nous donnons le développement asymptotique de la solution de l'équation de Helmholtz lorsque l'épaisseur de la membrane tend vers 0. Tous ces précédents résultats sont illustrés par des calculs par éléments finis. Enfin, pour les hautes fréquences, nous construisons une condition d'impédance pseudodifférentielle permettant de concentrer l'effet de la couche sur son bord intérieur. Nous concluons cette thèse par un problème de diffraction à haute fréquence d'une onde incidente par un disque de petite taille. A l'aide d'une analyse pseudodifférentielle, nous bornons la norme de la trace du champ diffracté à distance fixe de l'inhomogénéité en fonction de la taille de l'objet et de l'onde incidente
This thesis deals with asymptotic methods for electromagnetism in heterogeneous domains with thin layer. The motivation is the computation of electromagnetic fields in biological cells, which are highly heterogeneous media. We replace the thin cytoplasmic membrane with an appropriate condition on the boundary of the cytoplasm and we estimate the error. Two equations are considered : the steady state voltage equation and Helmholtz equation. For the low frequency case, we suppose that Neumann condition is imposed on the exterior boundary of the cell. We build approximated boundary condition, which is valid for an insulating (even perfectly insulating) thin membrane. For Helmholtz equation, we suppose that the cell is embedded in an ambiant medium and we build transmission conditions equivalent to the thin membrane. All these results are proved and numerically computed. For the high-frequency assumption (the frequency tends to infinity), we build generalized impedance condition using pseudo-differential approach equivalent to the membrane. We conclude this thesis with a work with Michael Vogelius on the high frequency scattering by a small circular inhomogeneity
15

Achouch, Ayman. "Analyse économétrique des prix des métaux : une application multivariée des méthodes statistiques aux séries temporelles." Montpellier 1, 1998. http://www.theses.fr/1998MON10025.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans ce travail, nous analysons les relations d'interdépendance qui existent entre les prix des métaux non ferreux (aluminium, cuivre, zinc, plomb, étain) d'une part et entre ces prix et l'ensemble des variables macro-économiques d'autre part. Pour cela, nous recourons dans un premier temps à des méthodes économétriques univariées afin de répondre aux différentes questions concernant l'hypothèse d'efficience informationnelle, les tests de mémoire longue et la structure sous-jacente aux variations des prix (stochastique, déterministe). Nous proposons ensuite une modélisation de type ARMA avec erreurs GARCH. Les qualités prédictives de cette modélisation sont comparées au modèle simple de marche aléatoire. Dans un deuxième temps, nous utilisons plusieurs approches multivariées pour vérifier l'existence d'un facteur commun dans les séries de prix. L'utilisation de l'analyse dynamique à facteur nous permet d'isoler ce facteur et de mesurer son importance quantitative par rapport aux variables de prix. Pour identifier ce facteur, nous recourons à un grand nombre de variables macro-économiques telles que l'indice de la production industrielle, l'indice de prix de consommation et de stock et les taux de change. L'étude de corrélation, l'approche de Pindck et Rotemberg et l'analyse de causalité ont montré que les fluctuations du facteur commun peuvent être dues à la production industrielle des principaux pays de l'OCDE et aux indices de prix de stock du Japon, des Etats-Unis et de la France.
16

Ionescu, Adrian M. "Modèles et méthodes associes a la caractérisation électrique du tmos : application aux technologies SOI." Grenoble INPG, 1997. http://www.theses.fr/1997INPG0009.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les modeles et les methodes associees a la caracterisation electrique du tmos et particulierement, leur application aux technologies soi constituent l'objet de ce travail. Le premier chapitre est consacre a l'analyse du fonctionnement electrique du tmos/silicium massif ; nous proposons une expression unifiee en inversion faible, moderee et forte, pour le courant de drain, en regime lineaire, et son application a l'extraction de la tension de seuil. On analyse aussi l'influence des polarisations sur la sensibilite du tmos utilise comme capteur de champ magnetique. Le developpement theorique et experimental de la technique du pseudo-transistor mos, pour l'evaluation des materiaux soi sur plaquette, est donne dans le deuxieme chapitre. On y presente : la validation d'une nouvelle methode pour la determination de la duree de vie de generation dans les materiaux soi, l'etude de l'influence des resistances serie et des contacts schottky, la methode 3-pointes et l'evaluation du materiau unibond. Le troisieme chapitre est dedie a l'etude du tmos en technologie soi : on analyse le regime transitoire du courant de drain en inversion faible associe a la technique de zerbst et on effectue une etude systematique de la degradation des tmos/simox par irradiation gamma a de fortes doses (>1mrad).
17

Le, Hoang Bao. "Contribution aux méthodes de synthèse de correcteurs d’ordres réduits sous contraintes de robustesse et aux méthodes de réduction de modèles pour la synthèse robuste en boucle fermée." Grenoble INPG, 2010. http://www.theses.fr/2010INPG0135.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les systèmes LTI à contrôler sont soumis à des contraintes physiques et technologiques. Nous avons montré que celles-ci limitent la bande passante atteignable en boucle fermée. Il s’en suit qu’il suffit de modéliser et d’analyser ces systèmes dans une bande de fréquences limitée, et non pas sur toutes les fréquences, et que l’utilisation de correcteurs d’ordres réduits est tout à fait efficace. Dans cette thèse, nous nous intéressons à la synthèse de correcteurs d’ordres réduits fixés sous contraintes de robustesse, et à la réduction de modèles pour de tels systèmes. La méthode proposée consiste à déterminer un correcteur de structure donnée qui optimise le rejet de la perturbation de commande de type échelon au sens de la norme H2, en respectant des contraintes de robustesse, i. E. Marge de module minimum, marge de phase minimum et amplification maximum du bruit de mesure sur la commande. En s’appuyant sur une base de modèles génériques d’ordres réduits, la méthode aboutit à une formulation d’optimisation mixte H2/H-infini semi-analytique de la fonction objectif et de contraintes d'inégalités en termes des gains inconnus du correcteur. Lorsque le système à contrôler est d'ordre élevé, nous proposons une méthode de réduction de modèle avec garantie de marges de robustesse en boucle fermée afin d’obtenir les paramètres des modèles génériques d’ordres réduits. Si le modèle du système à contrôler n’est pas disponible, nous présentons une méthode d’identification expérimentale par la méthode du relais sur la base de modèles génériques. Dans le but de rendre l’approche proposée plus accessible à un usage industriel, nos développements in fine ont été intégrés à des outils logiciels d’aide à la conception d’un système de commande
LTI systems are subject to physical and technological constraints. We have shown that these constraints limit the achievable bandwidth in closed loop. Consequently, it is sufficient to model and analyze these systems on a limited frequency band, and not on all frequencies, and that low order controllers may give full satisfaction. In this thesis, we are interested to the design of reduced fixed-order controller with robustness constraints, and to the model reduction for such systems. The proposed method consists in determining a fixed structure controller that optimizes the rejection of a step load disturbance, with respect to robustness constraints, i. E. Minimum module margin, minimum phase margin and maximum amplification of measurement noise. Based on a base of reduced-order generic models, the method yields a semi-analytical mixed H2/H-infinity optimization formulation with objective function and inequality constraints in terms of controller gains. When the system to be controlled is of high order, to obtain the parameters of generic models, we propose a model reduction method with the guarantee of closed-loop robustness margins. If the system model is not available, we present an experimental identification method by the relay feedback relied on the base of generic models. In order to make the proposed approach more accessible to industrial use, our developments have been incorporated into software tools to help the control system design
18

Raffard, Delphine. "Modélisation de structures maçonnées par homogénéisation numérique non-linéaire : application aux ouvrages d'intérêt archéologique." Vandoeuvre-les-Nancy, INPL, 2000. http://www.theses.fr/2000INPL134N.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Une méthodologie de modélisation pour prédire ou expliquer, le comportement de grands ouvrages maçonnés de type ponts, et plus particulièrement les ouvrages anciens est proposée. La maçonnerie considérée ici, est' un assemblage régulier de pierres liées par du mortier d'épaisseur égale, et modélisée en deux dimensions. Cette démarche, pragmatique, consiste à transposer des outils de modélisation développés en mécanique des roches au cas des structures maçonnées. Dans ce but et pour obtenir des temps de calculs réduits, le comportement d'une structure maçonnée a été modélisé par un modèle continu anisotrope, construit numériquement à partir du comportement des constituants, et comparé avec, d'une part, une modélisation de type discrète, et d'autre part, avec un test sur structure. La méthodologie proposée se déroule en 3 phases : 1. Le modèle discret, permettant de construire le volume représentatif (VR) de maçonnerie nécessaire à l'identification du modèle continu, a été défini. Un mortier romain reconstitué et des pierres calcaires ont été caractérisés et modélisés par des modèles élastoplastiques. L'interface pierre/mortier a été ensuite caractérisée au travers deux études expérimentales: au niveau local, par un test de compression simple sur un composite pierre-mortier-pierre contenant un joint d'assise incliné instrumenté par une méthode optique; au niveau global par des essais de cisaillement direct. Une première évaluation des termes de la matrice de rigidité des interfaces a été proposée. Une loi d'endommagement continu a ainsi été identifiée, et a permis de reproduire assez fidèlement le comportement local du composite. 2. Un volume de maçonnerie a alors été construit à partir des constituants retenus. Des essais numériques sur le V. R, dans les axes de structures et hors axes, ont permis de caractériser son comportement global Le VR a été modélisé par un modèle anisotrope qui a été identifié et validé en champs uniformes. Ce modèle, à un mécanisme, permet de reproduire le comportement du VR mais ne simule pas correctement le comportement transverse qui est caractérisé par une forte contractance. 3. La démarche proposée a d'abord été validée en comparant les réponses d'un test sur arche, instrumenté par la méthode optique, et celles de sa micro modélisation. Le modèle discret, et plus particulièrement l'interface, a été validé dans le domaine des compressions. La confrontation du modèle anisotrope au modèle discret par la simulation d'un test sur une arche a montré l'apport de la loi anisotrope hors du domaine de traction qui n'a pas été exploré. L'approche de type macro-modélisation proposée, permet, de gagner des temps de calcul considérables tout en obtenant une précision du même ordre que la modélisation par éléments distincts.
19

Galicher, Hervé. "Analyse mathématique de modèles en nanophysique." Paris 6, 2009. http://www.theses.fr/2009PA066641.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse se compose de trois parties. Dans une première partie on étudie un problème spectral associé à l'équation de Schrödinger indépendante du temps en trois dimensions et à plusieurs particules : la caractérisation des états excités d'une molécule en termes de recherche de points critiques sur une variété. L'approximation utilisée est l'approximation MCSCF. Le problème spectral est transformé en un problème de géodésiques et d'étude d'indice de Morse de points critiques. On met en œuvre un algorithme pour le traitement numérique de ce problème et on met en évidence l'amélioration des résultats obtenus par rapport aux algorithmes existants. Dans une deuxième partie, on étudie l'équation de Schrödinger dépendante du temps à une particule en une dimension. Des potentiels non triviaux en espace et ou en temps sont appliqués. On résout alors exactement le problème des conditions aux limites transparentes dans le cadre continu ou discret. On donne des formules fermées originales sous forme d'algorithme possédant un nombre d'itérations fini ou bien via des représentations intégrales sur des fonctions spéciales. Le cas des potentiels harmonique, électrostatique dépendant du temps, semi-périodique sont ainsi résolus. On étudie de manière formelle sans donner de formule fermée la forme prise par l'opérateur de Dirichlet-to-Neuman dans le cas d'un potentiel encore plus compliqué. Cette partie est complétée par des apports divers d'analyse sur les fonctions spéciales et certaines équations intégrales. Dans une troisième partie on étudie des propriétés et des algorithmes de résolutions numériques d'une équation des film fin à frontière libre posée sur une variété avec bords.
20

Genty, Joël. "Modélisation et simulation dynamique du couplage bioréaction-filtration : application aux fermentations alcoolique et lactique." Châtenay-Malabry, Ecole centrale de Paris, 1992. http://www.theses.fr/1992ECAP0262.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le couplage d'un bioréacteur et d'un système de filtration tangentielle est étudié. Une modélisation approfondie du procédé a été effectuée en tenant compte des paramètres biologiques et des variables de procédé. Il a ainsi été établi un système différentiel de 28 équations à 44 variables pour un ensemble représentatif des différents types d'installations couplant bioréacteur et système membranaire. Un logiciel a été programmé en langage C et en Visual Basic sous l'environnement Windows d'un PC 386, et permet de calculer ou de visualiser l'évolution dynamique de tous les débits et concentrations intervenant dans le procédé. Grace à cet outil, nous avons comparé des données bibliographiques expérimentales et des simulations dynamiques. Des essais de fermentation continue de bière ont aussi été effectués en bioréacteur à membrane et ont été confrontés aux résultats de simulation. Cette validation de la modélisation a ainsi été conduite sur 8 cas expérimentaux (3 en fermentation alcoolique et 5 en fermentation lactique). Il en ressort que l'écart par rapport aux calculs est du même ordre de grandeur que l'erreur expérimentale. Le simulateur dynamique possède un bon pouvoir prédictif et demeure cohérent avec les résultats expérimentaux.
21

Gallo, Yves. "Contribution aux méthodes de modifications structurales en dynamique : réanalyse modale de modèles enrichis, procédure modale combinée." Valenciennes, 1992. https://ged.uphf.fr/nuxeo/site/esupversions/90d61773-5e5d-4e1d-b6a6-dc9a65a6d41f.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les méthodes de modifications structurales en dynamique ont aujourd'hui un champ d'application encore trop réduit pour envisager avec succès un passage dans le domaine industriel. On se propose ici d'apporter des améliorations de deux ordres. Elles concernent particulièrement l'utilisation de la méthode de réanalyse modale par partition des matrices de modification. Dans un premier temps, il est défini le concept nouveau de réanalyse modale des structures enrichies. De telles structures sont des modèles comportant après modification plus de degrés de liberté qu'initialement. Il est montre qu'un tel problème nécessite la définition d'un système pseudo-initial dont la taille est compatible avec un traitement standard aux modifications structurales. La construction de ce système n'est pas unique, et une méthode exacte est ici proposée. La seconde amélioration proposée concerne la réduction des temps de calcul, par une interprétation judicieuse du concept de taille de base critique. Il est ainsi montre que les techniques de synthèse modale peuvent être associées a la réanalyse modale dans le but d'obtenir rapidement des résultats précis. Des résultats numériques illustrent la justesse des deux améliorations proposées.
22

Antonios, Joe. "Développement de modèles et de méthodes de calculs électriques et thermiques appliqués aux onduleurs à IGBT." Nantes, 2011. https://archive.bu.univ-nantes.fr/pollux/show/show?id=0535288e-f5c2-4601-8af7-68529afe93c2.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les travaux de cette thèse portent sur la modélisation électrique et thermique des onduleurs à base d’IGBT (Insulated Gate Bipolar Transistor). Afin de concevoir les meilleurs systèmes de refroidissement, et sans surdimensionnement, un calcul précis des pertes doit être réalisé et un modèle thermique doit être développé menant à une bonne prédiction de la température. Les travaux réalisés et présentés dans ce rapport sont orientés vers les applications où les fréquences électriques sont très faibles. Dans de telles situations la variation instantanée de la température de jonction est importante, et le calcul doit tenir compte de l’évolution temporelle. Une approche de calcul des pertes a été proposée qui combine à la fois la simplification des profils du courant et tension mais qui produit en même temps un signal de pertes suffisamment détaillé. Du point de vue thermique, un réseau tri-directionnel RC-3D a été développé. Ce modèle est basé sur des paramètres physiques constituant le module, et tient compte de la diffusion verticale de la chaleur dans le module ainsi que la diffusion latérale. En outre, ce réseau thermique permet de représenter les variations de température sur deux domaines temporels différents (nanosecondes et secondes), qui ont lieu dans la jonction ainsi que dans l’assemblage. Les résultats obtenus par simulation sur Matlab/Simulink ont été validés par des mesures expérimentales. Enfin, un exemple succinct d’exploitation du modèle électrothermique correspondant à un cycle de démarrage d’un véhicule électrique a été simulé. L’échauffement du module IGBT est évalué dans le cadre de cette application
This work focuses on the electrical and thermal modeling of IGBT-based power inverters (Insulated Gate Bipolar Transistor). In order to design the best cooling systems without overestimating the size of the heat sink, a precise calculation of electrical losses must be achieved and a thermal model must be developed leading to a good prediction of the junction temperature. The work presented in this report is oriented toward applications at very low frequencies. In such situations the junction temperature variation is important, and the calculation must be as a function of time. Regarding the losses determination, an approach was proposed using simple current and voltage profiles and at the same time producing a sufficiently detailed signal losses. For the thermal part, a three-dimensional network RC-3D was developed. This model is based on physical parameters of the module and takes into account the vertical and the lateral heat diffusion in the module. In addition, this network allows representing the temperature changes on two different time domains (nanoseconds and seconds), taking place in the junction and in the assembly. Results obtained by simulation using Matlab/Simulink were validated by experimental measurements. Finally, a brief example of how the electro-thermal model can be used is presented. It corresponds to a cycle of an electric vehicle from the startup till a predefined steady state. This application allows determining how the IGBT module is heating up
23

Gasc, Thibault. "Modèles de performance pour l'adaptation des méthodes numériques aux architectures multi-coeurs vectorielles. Application aux schémas Lagrange-Projection en hydrodynamique compressible." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLN063/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ces travaux se concentrent sur la résolution de problèmes de mécanique des fluides compressibles. De nombreuses méthodes numériques ont depuis plusieurs décennies été développées pour traiter ce type de problèmes. Cependant, l'évolution et la complexité des architectures informatiques nous poussent à actualiser et repenser ces méthodes numériques afin d'utiliser efficacement les calculateurs massivement parallèles. Au moyen de modèles de performance, nous analysons une méthode numérique de référence de type Lagrange-Projection afin de comprendre son comportement sur les supercalculateurs récents et d'en optimiser l'implémentation pour ces architectures. Grâce au bilan de cet analyse, nous proposons une formulation alternative de la phase de projection ainsi qu'une nouvelle méthode numérique plus performante baptisée Lagrange-Flux. Les développements de cette méthode ont permis d'obtenir des résultats d'une précision comparable à la méthode de référence
This works are dedicated to hydrodynamics. For decades, numerous numerical methods has been developed to deal with this type of problems. However, both the evolution and the complexity of computing make us rethink or redesign our numerical solver in order to use efficiently massively parallel computers. Using performance modeling, we perform an analysis of a reference Lagrange-Remap solver in order to deeply understand its behavior on current supercomputer and to optimize its implementation. Thanks to the conclusions of this analysis, we derive a new numerical solver which by design has a better performance. We call it the Lagrange-Flux solver. The accuracy obtained with this solver is similar to the reference one. The derivation of this method also leads to rethink the Remap step
24

Wane, Bocar Amadou. "Adaptation de maillages et méthodes itératives avec applications aux écoulements à surfaces libres turbulents." Thesis, Université Laval, 2012. http://www.theses.ulaval.ca/2012/29353/29353.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
25

Franck, Emmanuel. "Construction et analyse numérique de schémas asymptotic preserving sur maillages non structurés : Application au transport linéaire et aux systèmes de Friedrichs." Paris 6, 2012. http://www.theses.fr/2012PA066393.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L'équation de transport, dans le régime fortement collisionnel admet une limite asymptotique de diffusion. Les discrétisations angulaires comme la méthode des ordonnées discrètes Sn où le développement tronqué en harmonique sphérique Pn préservent aussicette limite de diffusion. Par conséquent, il est intéressant de construire pour de tels systèmes des méthodes de volumes finis sur maillages non structurésqui préservent cette limite de diffusion pour des grilles grossières. En effet, ces modèles peuvent être couplés avec des codes hydrodynamiques Lagrangiens qui génèrent des maillages très tordus. Pour commencer, on considère la discrétisation angulaire la plus simple de l'équation de transport appelée le modèle P1. Après une rapide introduction sur les méthodes 1D, on commence par modifier le schéma acoustique en dimension deux avec la méthode de Jin-Levermore. Le schéma ainsi obtenu n'est pas convergent dans le régime de diffusion car le schéma de diffusion valide n'est pas consistant sur maillages non structurés. Pour résoudre ce problème, on a propos\é de nouvelles méthodes valides sur maillages non structurés. Ces méthodes sont basées sur un autre formalisme des méthodes de volumes finis ou les flux sont localisés aux interfaces, couplé avec la méthode de Jin-Levermore. On obtient deux schémas convergents qui dérivent sur les schémas asymptotic preserving 1D. Le schéma limite de diffusion obtenu est un nouveau schéma pour lequel on a donné une preuve de convergence. Dans un second temps, on a proposé une extension du travail réalisé pour le modèle P1 dans le cadre des discrétisations angulaires d'ordres élevés. Pour obtenir une discrétisation asymptotic preserving pour ces modèles on a utilisé une décomposition entre la discrétisation angulaire de premier ordre et les discrétisations angulaires d'ordres supérieurs. Enfin on a étudié la discrétisation du problème d'absorption/émission présent en transfert radiatif ainsi que la discrétisation du modèle non linéaire M1. L'approximation du modèle M1 est basé sur un couplage entre un schéma Lagrange+projection pour une reformulation du modèle M1 et la méthode de Jin-Levermore. La méthode numérique obtenue préserve la limite asymptotique, l'inégalité d'entropie et le principe du maximum associé au système sur maillages non structurés
The transport equation in highly scattering regimes has a limit in which the dominant behavior is given by the solution of a diffusion equation. The angular discretizations like the discrete ordinate method Sn or the truncated spherical harmonic expansion Pn have the same property. For such systems it would be interesting to construct finite volume schemes on unstructured meshes which have the same dominant behavior even if the mesh is coarse (these schemes are called asymptotic preserving schemes). Indeed these models can be coupled with Lagrangian hydrodynamics codes which generate very distorted meshes. To begin we consider the lowest order angular discretization of the transport equation that is the P1 model also called the hyperbolic heat equation. After an introduction of 1D methods, we start by modify the classical edge scheme with the Jin-Levermore procedure, this scheme is not valid in the diffusion regime because the limit diffusion scheme (Two Points Flux Approximation) is not consistent on unstructured meshes. To solve this problem we propose news schemes valid on unstructured meshes. These methods are based on the nodal scheme (GLACE scheme) designed for the acoustic and dynamic gas problems, coupled with the Jin-Levermore procedure. We obtain two schemes valid on unstructured meshes which give in 1D on the Jin-Levermore scheme an Gosse-Toscani scheme. The limit diffusion scheme obtained is a new nodal scheme. Convergence and stability proofs have been exhibited for these schemes. In a second time, these methods have been extended to higher order angular discretisation like the Pn and Sn models using a splitting strategy between the lowest order angular discretization and the higher order angular discretization. To finish we will propose to study the discretization of the absorption/emision problem in radiative transfer and a non-linear moment model called M1 model. To treat the M1 model we propose to use a formulation like a dynamic gas system coupled with a Lagrange+remap nodal scheme and the Jin-Levermore method. The numerical method obtained preserve the asymptotic limit, the maximum principle, and the entropy inequality on unstructured meshes
26

Ould, Isselmou Yahya. "Interpolation de niveaux d’exposition aux émissions radioélectriques in situ à l’aide de méthodes géostatistiques." Paris, ENMP, 2007. http://www.theses.fr/2007ENMP1484.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les réglementations et normes radioélectriques précisent différentes valeurs limites d’exposition radioélectrique à ne pas dépasser. Les niveaux d'expositions constatés autour des antennes de radio et de télécommunications sont très en dessous des limites d'exposition recommandées par la commission de protection contre les rayonnements non-ionisants. Aujourd'hui, les personnes se trouvant à proximité des émetteurs radio ne cherchent plus simplement à vérifier la conformité aux normes. La demande porte sur l'évaluation du niveau d'exposition auquel ils sont soumis et la probabilité de dépassement d'un seuil donné. Le cadre probabiliste sur lequel sont fondées les méthodes géostatistiques offre la possibilité de répondre à cette question. Dans cette thèse nous présentons une application des méthodes géostatistiques linéaires ; en particulier le krigeage, pour l'estimation des niveaux d'exposition radioélectriques à partir d'un jeu de données simulées. Une application du krigeage avec dérive externe sur des mesures réelles est ensuite présentée. Dans ces applications, le modèle de variogramme de Cauchy montre une bonne adéquation avec la variabilité de la densité de la puissance. Un troisième exemple d'application a pour objectif d'évaluer la probabilité avec laquelle les niveaux d'exposition peuvent dépasser un seuil déterminé. Nous utilisons deux méthodes de la géostatistique non-linéaire basées sur un modèle «multigaussien» et comparons les résultats des calculs de probabilité de dépassement de seuil par ces deux méthodes sur un ensemble de mesures d'exposition prises dans le centre de la ville de Paris
Radioelectric norms give different limit values of the radioelectric exposure. Exposure levels measured near radio and telecommunication antennas are very small compared to values recommended by the “International Commission on Non-Ionizing Radiation Protection”. Today, persons near radio transmitters are seeking for the evaluation of exposure levels and the probability to exceed some threshold and not only the conformity to norms. Probabilistic framework with geostatistical methods is proposed that permits this evaluation. In this thesis we present an application of linear geostatistical methods, in particular the kriging method, for the estimation of the radioelectric levels of exposure starting from the output of a numerical model. The application of kriging with external drift to measurements obtained by a dosimeter is presented in this thesis. In these case studies, the Cauchy variogram model shows a good adequacy with the variability of the power density. A final application aims to evaluate the probability with which the exposure can exceed a determined threshold. We use two methods of non linear geostatistics, which require a Gaussian random function framework. . The practical implementation of these methods involves a transformation of the exposure to Gaussian values. A comparison between the probability of threshold exceedance obtained by application of the two methods on measurements is presented
27

Charlette, Fabrice. "Simulation numérique de la combustion turbulente prémélangée par méthodes aux grandes échelles." Châtenay-Malabry, Ecole centrale de Paris, 2002. http://www.theses.fr/2002ECAP0861.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La simulation numérique de la combustion, qui constitue un outil puissant pour le développement de nombreuses applications industrielles, est rendue difficile par la grande diversité des échelles caractéristiques de la turbulence et par la finesse des zones de réaction. Les méthodes aux grandes échelles ou LES, qui sont étudiées dans ce travail, permettent de s’affranchir des limitations des simulations directes, tout en permettant, notamment au niveau des phénomènes instationnaires, une meilleure description de l’écoulement que la résolution des équations moyennées. Le principal problème de l’application des méthodes aux grandes échelles pour la simulation de la combustion turbulente prémélangée réside dans le fait que l’épaisseur de flamme est généralement très inférieure au pas du maillage du calcul. Afin de se défaire de ce problème de résolution numérique, deux méthodes ont été ici étudiées : l’épaississement artificiel du front de flamme (TP-LES), et l’approche filtrée, pour laquelle une taille de filtre supérieure au pas du maillage a été utilisée. Des expressions analytiques ou basés sur une bibliothèque de flammelettes permettent la fermeture de la partie laminaire de l’approche filtrée. Des tests simples de propagation de flamme attestent du bon contrôle de l’épaisseur de la flamme par l’approche TF-LES et par l’approche filtrée. Pour la propagation turbulente, trois modèles ont été étudiés au cours de ce travail : un modèle algébrique de type Bray-Moss-Libby, un modèle à une équation proposé pour le plissement, et un modèle à fonction d’efficacité avec une loi en puissance. Des résultats de simulations tridimensionnelles d’interaction entre une flamme prémélangée et une turbulence homogène isotrope temporellement décroissante montrent que les trois modèles sont relativement peu dépendants des paramètres numériques des calculs (résolution, facteur d’épaississement, taille du filtre). Par comparaison avec des données expérimentales et de simulation directe, le modèle de plissement de flamme qui suit une loi en puissance à la meilleure estimation de la vitesse de flamme turbulente globale. Pour ce modèle une procédure de détermination dynamique de l’exposant est également proposée et testée avec succès dans la même configuration d’interaction flamme/turbulence.
28

Ribière-Tharaud, Nicolas. "Amélioration des méthodes de qualification des véhicules automobiles en CEM : applications aux faisceaux de câbles." Paris 11, 2001. http://www.theses.fr/2001PA112213.

Full text
APA, Harvard, Vancouver, ISO, and other styles
29

Lesage, David. "Modèles, primitives et méthodes de suivi pour la segmentation vasculaire : application aux coronaires en imagerie tomodensitométrique 3D." Phd thesis, Télécom ParisTech, 2009. http://pastel.archives-ouvertes.fr/pastel-00005908.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La segmentation des structures vasculaires dans les images médicales est une étape complexe mais fondamentale pour l'aide au diagnostic et au traitement. Dans ce contexte, les techniques de traitement d'images facilitent la tâche des experts médicaux en minimisant les interactions manuelles tout en réduisant la variabilité inter-opérateurs. Nous présentons tout d'abord un état de l'art des méthodes de segmentation vasculaire 3D organisé suivant trois axes: modèles géométriques et d'apparence, primitives extraites des images et schémas d'extraction. Nos travaux se focalisent sur une problématique particulièrement complexe, la segmentation des artères coronaires en imagerie tomodensitométrique 3D. Nous proposons un modèle géométrique axial, évalué dans l'image grâce à une primitive fondée sur le flux de gradient à fort pouvoir discriminant et faible coût calculatoire. Nous dérivons ensuite un modèle bayésien récursif appris de façon non paramétrique sur une base de segmentations manuelles. Nous proposons enfin deux schémas d'extraction. Le premier met en œuvre une procédure d'optimisation discrète sur graphe fondée sur la propagation de chemins minimaux 4D (position spatiale 3D de l'axe vasculaire plus rayon associé). Il exploite une nouvelle métrique cumulative dérivée de notre modèle bayésien. Notre deuxième schéma repose sur une approche de suivi stochastique par méthode de Monte-Carlo séquentielle estimant la distribution a posteriori de notre modèle bayésien. Une attention particulière est donnée à la robustesse et l'efficacité calculatoire de nos algorithmes. Ceux-ci sont évalués qualitativement et quantitativement sur une base de données cliniques de grande taille.
30

Emonot, Philippe. "Méthodes de volumes éléments finis : applications aux équations de Navier Stokes et résultats de convergence." Lyon 1, 1992. http://www.theses.fr/1992LYO10280.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans le premier chapitre, on etablit les equations modelisant les ecoulements de fluides incompressibles sous forme d'equations de bilan et on presente brievement les principes des methodes de volumes finis. Le second chapitre se veut une introduction aux methodes de volumes elements finis. On y decrit la box method et on propose une methode de volumes elements finis adaptes aux problemes de stokes et de navier stokes. Cette derniere methode est decrite en detail et on donne des resultats numeriques obtenus sur deux cas test classiques. Le troisieme chapitre presente une analyse d'erreur de la methode des volumes elements finis pour le probleme du laplacien, et des applications en dimension un, deux ou trois. Le quatrieme chapitre prolonge les techniques du chapitre trois pour faire une analyse d'erreur de la methode des volumes elements finis pour le probleme de stokes
31

Rouger, Frédéric. "Application des méthodes numériques aux problèmes d'identification des lois de comportement du matériau bois." Compiègne, 1988. http://www.theses.fr/1988COMPD121.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette étude a pour objet de proposer une nouvelle approche des problèmes d'identification du comportement élastique et visco-élastique du matériau bois. L'identification des neuf paramètres élastiques du matériau est possible grâce à six essais statiquement déterminés. Nous avons pu vérifier les hypothèses de ces essais en les modélisant par la méthode des éléments finis. Nous proposons également une nouvelle méthode d'identification qui, par la résolution numérique d'un problème inverse, permet d'interpréter des essais non statiquement ou cinématiquement déterminés. On peut ainsi diviser par deux le nombre d'essais nécessaires à la détermination de l'ensemble des constantes élastiques du bois. Dans le cadre de la visco-élasticité, nous avons développé une méthode générale d'identification qui permet d'analyser des résultats expérimentaux de fluage. Cette méthode a d'abord été utilisée pour un modèle à fluage parabolique obéissant à une loi d'équivalence temps-température du type loi d'Arrhénius. Nous avons ensuite étudié un modèle multi-parabolique multi-transitions capable d'expliquer le comportement visco-élastique du bois à partir de chacun de ses polymères constitutifs.
32

Ndanou, Serge. "Etude mathématique et numérique des modèles hyperélastiques et visco-plastiques : applications aux impacts hypervéloces." Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM4347/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Un modèle mathématique d'interfaces diffuses pour l'interaction de N solides élasto-plastiques a été construit. C'est une extension du modèle développé par Favrie & Gavrilyuk (2012) pour l'interaction d'un fluide et d'un solide. En dépit du grand nombre d'équations présentes dans ce modèle, deux propriétés remarquables ont été démontrées : ce modèle est hyperbolique (quelles que soient les déformations admissibles) et il vérifie le second principe de la thermodynamique. En dépit du grand nombre d'équations présentes dans ce modèle, deux propriétés remarquables ont été démontrées: ce modèle est hyperbolique (quelles que soient les déformations admissibles) et il vérifie le second principe de la thermodynamique. L'énergie interne de chaque solide est prise sous forme séparable: c'est la somme d'une énergie hydrodynamique qui ne dépend que de la densité et de l'entropie, et d'une énergie de cisaillement. L'équation d'état de chaque solide est telle que si nous prenons le module de cisaillement du solide égale à zéro, on retrouve les équations de la mécanique des fluides. Ce modèle permet, en particulier, de:- prédire les déformations de solides élasto-plastiques en petites déformations et en très grandes déformations.- prédire l'interaction d'un nombre arbitraire de solides élasto-plastiqueset de fluides. L'aptitude de ce modèle à résoudre des problèmes complexes a été démontrée. Sans être exhaustif, on peut citer:-le phénomène d'écaillage dans les solides.- La fracturation et la fragmentation dynamique dans les solides
A mathematical model of diffuse interface for the interaction of N elasto-plastic solidS was built. It is an extension of the model developed by Favrie & Gavrilyuk (2012) for a fluid-solid interaction. Despite the large number of equations present in this model, two remarkable properties have been demonstrated: it is hyperbolic for any admissible deformations and satisfies the second principle of thermodynamics. In this model, the internal energy of each solid is taken in separable form: it is the sum of a hydrodynamic energy (which depends only on the density and entropy) and shear energy. The equation of state of each solid is such that if we take the shear modulus of the solid vanishes, we find the equations of fluid mechanics. This model allows, in particular:- predict the deformation of elastic-plastic solids in small and very large deformations.- predict the interaction of an arbitrary number of elasto-plastic solids and fluids.The ability of this model to solve complex problems has been demonstrated. Without being exhaustive, one can mention:- the spall phenomenon in solids.- fracturing and fragmentation in solids
33

Persoons, Renaud. "Etude des méthodes et modèles de caractérisation de l'exposition atmosphérique aux polluants chimiques pour l'évaluation des risques sanitaires." Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00747456.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
La démarche d'évaluation des risques sanitaires inclue dans ses étapes l'évaluation de l'exposition professionnelle. S'agissant de l'exposition par inhalation, différents modèles sont disponibles pour caractériser ou estimer les niveaux d'exposition. Les objectifs de cette thèse sont d'étudier et comparer les principales démarches existantes, voire d'en développer de nouvelles, afin de participer à leur validation et de définir leur places respectives en complément de la métrologie quantitative. Un premier chapitre présente les modèles existants et décrit leurs principes et applications. Une méthode qualitative est développée puis comparée à d'autres démarches similaires ainsi qu'à des modèles empiriques afin d'étudier leurs performances dans la caractérisation ou la prédiction des expositions aux solvants de laboratoire (chapitre 2). Nous suggérons l'utilisation en première intention des méthodes qualitatives afin de définir les situations d'exposition prioritaires vis-à-vis desquelles les modèles empiriques peuvent secondairement servir à estimer un niveau d'exposition. Les modèles statistiques de régression linéaire sont étudiés à travers une application dans le secteur du compostage des déchets, confirmant leur capacité à caractériser des déterminants spécifiques de l'exposition (chapitre 3). Les modèles physiques mécanistiques sont testés afin de reproduire des profils temporels de concentration, puis utilisés de façon probabiliste pour estimer la distribution des expositions et des risques sanitaires (chapitre 4). Ces modèles permettent d'approcher la variabilité spatio-temporelle des expositions et d'identifier les mécanismes à l'origine des expositions. Les forces et limites de ces différentes approches sont comparées et des préconisations d'utilisation sont définies, assorties de perspectives de travail (chapitre 5). Mots clefs : exposition, risques, modèles, déterminants, prédictions, variabilité, incertitude.
34

Adeline, Romain. "Méthodes pour la validation de modèles formels pour la sûreté de fonctionnement et extension aux problèmes multi-physiques." Toulouse, ISAE, 2011. http://www.theses.fr/2011ESAE0003.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Pour certifier un système aéronautique, des études de Sûreté de Fonctionnement (SdF) visent à démontrer qu’il répond à des exigences de sécurité de haut niveau. La complexité des systèmes étudiés ayant évolué, les exigences à démontrer devenant toujours plus nombreuses, les analyses actuelles (e. G. Arbre de défaillance) peuvent aujourd’hui présenter des limites d’utilisation. Pour aller à l’encontre de ces limites, l’Ingénierie Dirigée par les Modèles s’est développée et s’intéresse aux études de SdF. L’objectif est alors de 1) modéliser dans un langage adapté (le langage AltaRica a ici été utilisé) les comportements fonctionnels et dysfonctionnels d’un système et de ses composants en présence de défaillances, 2) s’assurer que le modèle est une abstraction valide du système réel et 3) vérifier la tenue des exigences du système par le modèle. Les travaux effectués dans cette thèse se sont intéressés aux deux premiers points. Une méthodologie a été proposée pour spécifier l’abstraction du comportement de composants de systèmes multi physiques. Des bibliothèques AltaRica ont été réalisées pour modéliser des soussystèmes d’un turbomoteur d’hélicoptère. Les résultats obtenus via le modèle ont été comparés avec ceux des analyses existantes de SdF. Pour les projets futurs où celles-ci ne seraient plus disponibles, un processus de validation a été proposé pour caractériser le degré de revue atteint lors de la simulation d’un jeu de tests sur le modèle. Inspiré du « génie logiciel », ce processus s’étend sur trois niveaux de validation (unitaire ; intégration des composants ; modèle complet) et propose des critères de couvertures applicables et mesurables sur un modèle AltaRica.
35

Vérant, Jean-Luc. "Etude de méthodes numériques et de modèles physico-chimiques pour des écoulements hypersoniques réactifs : application aux véhicules spatiaux." Aix-Marseille 1, 1990. http://www.theses.fr/1990AIX11314.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les rentrees hypersoniques, planantes ou balistiques, sont le siege de phenomenes thermodynamiques importants mettant en jeu des energies considerables. Il est necessaire d'evaluer des methodes numeriques qui puissent tenir compte des specificites des echanges internes du gaz en relaxation chimique dont les temps caracteristiques, tres faibles, sont tres contraignants pour la stabilite des schemas etudies. L'introduction des effets de desequilibre chimique dans un melange d'especes neutres est effectuee dans la modelisation des equations de couche limite et celles de navier-stockes parabolisees. Dans un premier temps, la simulation de la couche limite est developpee a partir des equations prenant en compte le caractere dissociatif du melange gazeux. Une methode numerique aux volumes finis implicite est appliquee au systeme conservatif. L'exemple d'application est celui d'une couche limite a symetrie axiale sur le medecin intrados d'une maquette d'hermes94 dans des proches conditions d'ecoulement de la soufflerie hypersonique f4. Le deuxieme niveau de modelisation et d'approximation des equations de navier-stockes est obtenu en developpant un systeme d'equations pns applique a des ecoulements supersoniques, tandis que les equations sont modifiees dans la zone subsonique. Ceci permet le calcul du champ entre le corps et le choc par la technique de marche en espace dans la direction de l'ecoulement. La methode numerique utilise un schema aux volumes finis, implicite par linearisation des flux. Une approche de type tvd est operee sur les flux de fluide parfait dans la direction transversale de l'ecoulement. Les cas etudies valident le schema numerique ainsi que les hypotheses physiques introduites: comparaisons avec des calculs navier-stokes instationnaires modelises en desequilibre chimique. La simulation du champ complet en desequilibre chimique dans le plan du meridien intrados de la maquett
36

Réau, Manon. "Importance des données inactives dans les modèles : application aux méthodes de criblage virtuel en santé humaine et environnementale." Thesis, Paris, CNAM, 2019. http://www.theses.fr/2019CNAM1251/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le criblage virtuel est utilisé dans la recherche de médicaments et la construction de modèle de prédiction de toxicité. L’application d’un protocole de criblage est précédée par une étape d’évaluation sur une banque de données de référence. La composition des banques d’évaluation est un point critique ; celles-ci opposent généralement des molécules actives à des molécules supposées inactives, faute de publication des données d’inactivité. Les molécules inactives sont néanmoins porteuses d’information. Nous avons donc créé la banque NR-DBIND composée uniquement de molécules actives et inactives expérimentalement validées et dédiées aux récepteurs nucléaires. L’exploitation de la NR-DBIND nous a permis d’étudier l’importance des molécules inactives dans l’évaluation de modèles de docking et dans la construction de modèles de pharmacophores. L’application de protocoles de criblage a permis d’élucider des modes de liaison potentiels de petites molécules sur FXR, NRP-1 et TNF⍺
Virtual screening is widely used in early stages of drug discovery and to build toxicity prediction models. Commonly used protocols include an evaluation of the performances of different tools on benchmarking databases before applying them for prospective studies. The content of benchmarking tools is a critical point; most benchmarking databases oppose active data to putative inactive due to the scarcity of published inactive data in the literature. Nonetheless, experimentally validated inactive data also bring information. Therefore, we constructed the NR-DBIND, a database dedicated to nuclear receptors that contains solely experimentally validated active and inactive data. The importance of the integration of inactive data in docking and pharmacophore models construction was evaluated using the NR-DBIND data. Virtual screening protocols were used to resolve the potential binding mode of small molecules on FXR, NRP-1 et TNF⍺
37

Hamza, Ghazoi. "Contribution aux développements des modèles analytiques compacts pour l’analyse vibratoire des systèmes mécatroniques." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLC018/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse a pour objectif le développement d’une méthode de pré-dimensionnement des systèmes mécatroniques prenant en compte l’aspect vibratoire sans passer par des techniques de conception coûteuses en temps de calculs et de mise en œuvre, telles que la CAO 3D et la méthode des éléments finis.Dans la phase amont de choix d’architecture du processus de conception des systèmes mécatroniques, des modèles analytiques simples sont nécessaires à l’architecte du système mécatronique afin de lui permettre de faire des choix d‘architecture prenant en compte les contraintes multi-physiques, notamment les vibrations. Dans ce but, une bibliothèque de modèles analytiques d’éléments mécaniques flexibles simples a été développée dans cette thèse en utilisant le langage de modélisation Modelica.Pour démontrer les possibilités de cette approche, une étude des réponses vibratoires de certains systèmes mécatroniques a été réalisée. Cette approche de pré-dimensionnement a ainsi été appliquée dans un premier temps à un système mécatronique simple formé d’une plaque rectangulaire supportant des composants tels que des moteurs et des cartes électroniques, puis dans un second temps à une éolienne représentant un système mécatronique complet.Les résultats obtenus lors des simulations ont été comparés avec ceux obtenus par la méthode des éléments finis ainsi qu’avec les résultats d’études présentes dans la littérature scientifique. Ces simulations nous ont permis de prouver que les modèles compacts développés fournissent à l’architecte du système mécatronique des résultats très précis avec un besoin en ressources informatiques faibles
This thesis focuses on the development of a method for the preliminary design of mechatronic systems, taking into account the vibratory aspect, without going through costly design techniques, such as 3D CAD and finite element method.In an early stage of the design process of mechatronic systems, simple analytical models are necessary to the architect engineer in Mechatronics, for important conceptual decisions related to multi-physics coupling and vibration. For this purpose, a library of flexible elements, based on analytical models, was developed in this thesis, using the Modelica modeling language.To demonstrate the possibilities of this approach, we conducted a study of the vibration response of some mechatronic systems. Therefore, the pre-sizing approach was applied in a first phase to a simple mechatronic system, formed with a rectangular plate supporting electrical components such as electric motors and electronic cards, and in a second phase the approach was applied to a wind turbine, considered as a complete mechatronic system. Simulation results were compared with the finite elements method and other studies found in the scientific literature. Simulation results have enabled us to prove that the developed compact models assist the mechatronic architect to find results of simulation with an important accuracy and a low computational cost
38

Galié, Thomas. "Couplage interfacial de modèles en dynamique des fluides : application aux écoulements diphasiques." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2009. http://tel.archives-ouvertes.fr/tel-00395593.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse est dédiée à l'étude de problèmes de couplage en espace entre différents modèles d'écoulements compressibles. Nous considérons des formulations monodimensionnelles où l'interface de couplage est mince, fixe et séparant deux régions de l'espace correspondant aux deux modèles à coupler. L'objectif de notre travail consiste à définir une condition de couplage à l'interface et à résoudre numériquement le problème de couplage muni de cette condition. Après un état de l'art non exhaustif sur le couplage de systèmes hyperboliques de lois de conservation, nous proposons une nouvelle formulation de condition de couplage basée sur l'ajout d'un terme source mesure agissant exactement sur l'interface de couplage. Nous supposons, dans un premier temps, que le poids associé à ce terme source est connu et constant. Deux solveurs de Riemann sont développés dont une approche par relaxation préservant les solutions équilibres du problème de couplage. Cette méthode par relaxation est reprise par la suite dans le cadre d'un problème d'optimisation sous contraintes pour déterminer un poids dynamique en temps selon différentes motivations de transmission à l'interface. Dans une seconde partie, nous développons un solveur de Riemann approché pour un modèle bifluide à deux pressions dans le cas d'un écoulement diphasique isentropique par phase. Le modèle en question a pour particularité de comprendre des termes non conservatifs que l'on réécrit alors sous la forme de termes sources mesures. L'approche par relaxation établie dans la partie précédente est alors étendue au cas du modèle bifluide, moyennant une estimation a priori des contributions non conservatives. Cette méthode nous permet, dans un dernier chapitre, de résoudre numériquement le problème de couplage interfacial entre un modèle bifluide à deux pressions et un modèle de drift-flux grâce à l'approche dite du modèle père.
39

Perot, Thomas. "Quel est le niveau de détail pertinent pour modéliser la croissance d'une forêt mélangée ? Comparaison d'une famille de modèles et application aux peuplements mélangés chêne sessile - pin sylvestre." Paris, AgroParisTech, 2009. http://tel.archives-ouvertes.fr/docs/00/43/25/73/PDF/ManuscritTheseTPerotVF.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Face à l'intérêt grandissant pour les forêts mélangées, des d'outils et des modèles adaptés à leur gestion sont nécessaires. L'objectif de cette thèse est de montrer comment la construction et la comparaison de modèles ayant différents niveaux de détail peuvent nous aider à choisir le niveau le plus approprié pour modéliser la croissance d'un peuplement mélangé dans un contexte d'application donné. A partir de données récoltées dans des peuplements mélangés chêne sessile (Quercus petraea L. ) pin sylvestre (Pinus sylvestris L. ), nous avons construit une famille de modèles à différents niveaux de détail : un modèle arbre indépendant des distances (MAID), un modèle arbre dépendant des distances (MADD), trois modèles peuplement et un modèle intermédiaire entre le MAID et le MADD utilisant des distributions de voisinage. Pour que la comparaison de ces modèles soit pertinente, nous avons assuré une cohérence entre les modèles en utilisant plusieurs approches. Ces modèles nous ont permis d'acquérir des connaissances sur la croissance et la dynamique de ces forêts en particulier sur les interactions spatiales et temporelles entre le chêne et le pin. Ainsi le MAID a permis de montrer qu'il peut y avoir des phénomènes de compensation de croissance entre les deux espèces. Le MADD a permis de montrer que dans ces peuplements la compétition intraspécifique est supérieure à la compétition interspécifique. Un modèle peuplement obtenu à partir du MADD a permis d'étudier l'influence du taux de mélange sur la production. Pour évaluer la qualité prédictive des modèles, nous avons utilisé un jeu de données indépendant obtenu en partageant nos données avant la construction des modèles. Nous avons ainsi montré que le MAID était plus performant que le MADD pour prédire les accroissements individuels. Les modèles ont aussi été comparés sur des exemples d'applications mettant en œuvre des simulations à court ou moyen terme. La démarche proposée présente un intérêt aussi bien pour la compréhension du phénomène étudié que pour sa modélisation dans un but prédictif. En regroupant l'ensemble des résultats acquis, ce travail nous a permis d'apprécier la pertinence d'un type de modèle en fonction du contexte d'utilisation. Cette démarche très générale pourrait être appliquée à la modélisation d'autres processus comme la mortalité ou la régénération
Appropriate tools and models are needed for the management of mixed forests. The aim of this thesis is to show how the construction and the comparison of models with different levels of detail can help us to choose the most appropriate level to model the growth of a mixed stand. We developed a family of models at different levels of detail from data collected in mixed stands of sessile oak (Quercus petraea L. ) and Scots pine (Pinus sylvestris L. ) : a tree distance independent model (MAID), a tree distance dependent model (MADD), three stand models and an intermediate model bridging the MAID and the MADD. We ensured consistency between models using several approaches in order to make relevant comparisons. These models have given us some knowledge on the growth and dynamics of these forests, in particular on the spatial and temporal interactions between oaks and pines. Thus, we showed a compensatory growth phenomenon between the two species using the MAID. The MADD made it possible to show that, in these stands, the intraspecific competition was stronger than interspecific competition. A stand model developed from the MADD helped us to study the influence of mixing rate on production. To assess the quality of models predictions, we used an independent data set obtained by splitting our data. For example, we have shown that the MAID was more efficient than the MADD to predict individual increments. The models were also compared on examples of applications with short or medium term simulations. The proposed approach is of interest for both understanding the studied phenomenon and developing predictive tools. The different results of this work, allowed us to assess the relevance of a type of model for different contexts of use. This very general approach could be applied to the modeling of other processes such as mortality or regeneration
40

Sabat, Macole. "Modèles euleriens et méthodes numériques pour la description des sprays polydisperses turbulents." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLC086.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
De nos jours, la simulation des écoulements diphasiques a de plus en plus d’importance dans les chambres de combustion aéronautiques en tant qu’un des éléments requis pour analyser et maîtriser le processus complet de combustion, afin d’améliorer la performance du moteur et de mieux prédire les émissions polluantes. Dans les applications industrielles, la modélisation du combustible liquide trouvé en aval de l’injecteur sous forme de brouillard de gouttes polydisperse, appelé spray, est de préférence faite à l’aide de méthodes Eulériennes. Ce choix s’explique par les avantages qu’offrent ces méthodes par rapport aux méthodes Lagrangiennes, notamment la convergence statistique intrinsèque, le couplage aisé avec la phase gazeuse ainsi que l’efficacité pour le calcul haute performance. Dans la présente thèse, on utilise une approche Eulérienne basée sur une fermeture au niveau cinétique de type distribution Gaussienne Anisotrope (AG). L’AG résout des moments de vitesse jusqu’au deuxième ordre et permet de capter les croisements des trajectoires (PTC) à petite échelle de manière statistique. Le système d’équations obtenu est hyperbolique, le problème est bien-posé et satisfait les conditions de réalisabilité. L’AG est comparé au modèle monocinétique (MK) d’ordre 1 en vitesse. Il est approprié pour la description des particules faiblement inertielles. Il mène à un système faiblement hyperbolique qui peut générer des singularités. Plusieurs schémas numériques, utilisés pour résoudre les systèmes hyperboliques et faible- ment hyperboliques, sont évalués. Ces schémas sont classifiés selon leur capacité à traiter les singularités naturellement présentes dans les modèles Eulériens, sans perdre l’ordre global de la méthode ni rompre les conditions de réalisabilité. L’AG est testé sur un champ turbulent 3D chargé de particules dans des simulations numériques directes. Le code ASPHODELE est utilisé pour la phase gazeuse et l’AG est implémenté dans le code MUSES3D pour le spray. Les résultats sont comparés aux de simulations Lagrangiennes de référence et aux modèle MK. L’AG est validé pour des gouttes modérément inertielles à travers des résultats qualitatifs et quantitatifs. Il s’avère prometteur pour les applications complexes comprenant des PTC à petite échelle. Finalement, l’AG est étendu à la simulation aux grandes échelles nécessaire dans les cas réels turbulents dans le domaine industriel en se basant sur un filtrage au niveau cinétique. Cette stratégie aide à garantir les conditions de réalisabilités. Des résultats préliminaires sont évalués en 2D pour tester la sensibilité des résultats LES sur les paramètres des modèles de fermetures de sous mailles
In aeronautical combustion chambers, the ability to simulate two-phase flows gains increasing importance nowadays since it is one of the elements needed for the full understanding and prediction of the combustion process. This matter is motivated by the objective of improving the engine performance and better predicting the pollutant emissions. On the industrial scale, the description of the fuel spray found downstream of the injector is preferably done through Eulerian methods. This is due to the intrinsic statistical convergence of these methods, their natural coupling to the gas phase and their efficiency in terms of High Performance Computing compared to Lagrangian methods. In this thesis, the use of Kinetic-Based Moment Method with an Anisotropic Gaussian (AG) closure is investigated. By solving all velocity moments up to second order, this model reproduces statistically the main features of small scale Particles Trajectories Crossing (PTC). The resulting hyperbolic system of equations is mathematically well-posed and satisfies the realizability properties. This model is compared to the first order model in the KBMM hierarchy, the monokinetic model MK which is suitable of low inertia particles. The latter leads to a weakly hyperbolic system that can generate δ-shocks. Several schemes are compared for the resolution of the hyperbolic and weakly hyperbolic system of equations. These methods are assessed based on their ability to handle the naturally en- countered singularities due to the moment closures, especially without globally degenerating to lower order or violating the realizability constraints. The AG is evaluated for the Direct Numerical Simulation of 3D turbulent particle-laden flows by using ASPHODELE solver for the gas phase, and MUSES3D solver for the Eulerian spray in which the new model is implemented. The results are compared to the reference Lagrangian simulation as well as the MK results. Through the qualitative and quantitative results, the AG is found to be a predictive method for the description of moderately inertial particles and is a good candidate for complex simulations in realistic configurations where small scale PTC occurs. Finally, within the framework of industrial turbulence simulations a fully kinetic Large Eddy Simulation formalism is derived based on the AG model. This strategy of directly applying the filter on the kinetic level is helpful to devise realizability conditions. Preliminary results for the AG-LES model are evaluated in 2D, in order to investigate the sensitivity of the LES result on the subgrid closures
41

Chaudret, Robin. "Compréhension et modélisation multi-échelle du comportement des cations métalliques dans des milieux complexes : des méthodes interprétatives aux champs de forces polarisables." Paris 6, 2011. http://www.theses.fr/2011PA066126.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le but de cette thèse est de comprendre et de modéliser le comportement des cations métalliques dans des milieux complexes. Pour cela nous utiliserons et développerons des méthodes quantiques d’analyse topologique et d’autres, classiques, de mécanique moléculaire. Dans une première partie nous étudierons le comportement physique de cations métalliques dans des systèmes modèles. Ainsi des méthodes interprétatives seront-elles utilisées (ELF, AIM, décomposition de l’énergie d’interaction) et développées (EPLF, NCI). L’étude topologique ELF et EPLF de la subvalence des métaux sera généralisée à différents cations et croisée avec d’autres approches interprétatives. Elles seront notamment appliquées à la solvatation de l’or et du mercure. La seconde partie s’attardera sur les approches polarisables de modélisation moléculaire. Nous présenterons trois d’entre elles : AMOEBA, SIBFA et GEM. Nous tâcherons ensuite d’améliorer le traitement des cations métalliques dans le champ de forces SIBFA grâce à l’utilisation de méthodes topologiques, énergétiques ou se couplant le champ de forces GEM. La troisième partie traitera du couplage de méthodes interprétatives avec des méthodes hybrides QM/MM. Nous couplerons ainsi les analyses ELF et NCI aux méthodes QM/MM et les appliquerons à l’étude de liaisons hydrogènes fortes ou à celle de l’effet cancérigène ou inhibiteur de certains cations sur l’ADN Polymérase λ. A terme toutes les approches développées ici doivent pouvoir se coupler en une seule procédure multi-échelle et multi-méthode permettant de réaliser des études interprétatives croisées à différents niveaux de théorie - classique, quantique ou hybride - sur des systèmes complexes
42

Gaudel, Romaric. "Paramètres d'ordre et sélection de modèles en apprentissage : caractérisation des modèles et sélection d'attributs." Phd thesis, Université Paris Sud - Paris XI, 2010. http://tel.archives-ouvertes.fr/tel-00549090.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous nous intéressons à la sélection de modèle en apprentissage automatique, sous deux angles différents. La première partie de la thèse concerne les méthodes à noyau relationnel. Les méthodes à noyau permettent en principe de s'affranchir de la représentation des instances, et de combler le fossé entre apprentissage relationnel et apprentissage propositionnel. Cette thèse s'intéresse à la faisabilité de cet objectif dans un cas particulier : les problèmes à instances multiples, qui sont considérés comme un intermédiaire entre les problèmes propositionnels et les problèmes relationnels. Concrètement, nous déterminons sous quelles conditions le noyau-somme, utilisé sur des problèmes à instances multiples, est en mesure de reconstruire le concept-cible. Cette étude suit le schéma standard des études de transition de phase et s'appuie sur un critère nouveau pour caractériser l'efficacité de la propositionnalisation induite par le noyau-somme. La deuxième partie de la thèse porte sur la sélection d'attributs. Une solution pour résoudre les problèmes à instances multiples, tels que présentés en première partie, passe par une propositionnalisation associant un attribut à chaque instance présente dans le problème. Le nombre d'attributs ainsi construits étant gigantesque, il est alors nécessaire de sélectionner un sous-ensemble d'attributs ne contenant que des attributs pertinents. La deuxième partie de la thèse propose donc une nouvelle approche pour la sélection d'attributs. La sélection d'attributs est réécrite comme un problème d'apprentissage par renforcement, conduisant ainsi à une politique de sélection optimale mais non-calculable en un temps raisonnable. Cette politique est approchée en se fondant sur une approche de jeu à un joueur et en utilisant la méthode Monte-Carlo pour les arbres UCT (Upper Confidence bound applied to Trees), qui a été proposée par Kocsis et Szepesvari (2006). L'algorithme FUSE (Feature Uct SElection) étend UCT pour gérer (1) l'horizon fini mais inconnu, et (2) le facteur de branchement élevé de l'arbre de recherche reflétant la taille de l'ensemble d'attributs. Finalement, une fonction de récompense frugale est proposée en tant qu'estimation grossière mais non-biaisée de la pertinence d'un sous-ensemble d'attributs. Une preuve de concept de FUSE est fournie sur des bases de données de référence.
43

Tabourier, Lionel. "Méthode de comparaison des topologies de graphes complexes : applications aux réseaux sociaux." Paris 6, 2010. http://www.theses.fr/2010PA066335.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les graphes des réseaux d'interactions sociales révèlent des propriétés topologiques dont nous cherchons à comprendre l'origine. Dans ce but nous manquons de références qui permettraient de construire une échelle de comparaison de leurs caractéristiques géométriques. Cette thèse propose une méthode générique pour produire des graphes synthétiques dont les propriétés sont ajustables, dans l'ambition de réaliser un balisage de l'espace des graphes. La méthode proposée dérive de procédures markoviennes dont l'étape élémentaire consiste à échanger les extrêmités de liens du graphe. Selon les contraintes imposées, une telle procédure doit être adaptée; nous discutons alors des difficultés inhérentes à sa réalisation pratique et les moyens à notre disposition pour estimer sa validité. Puis nous rendons compte d'applications pratiques sur des réseaux technologiques, de collaborations, ou d'échanges commerciaux. Le principe mis en oeuvre dans ces illustrations consiste à construire une suite d'ensembles de graphes obéissant à des contraintes de plus en plus exigeantes; puis à comparer les propriétés de chacun aux données réelles afin de déterminer quels éléments topologiques ont un rôle essentiel. Au fil des exemples, nous proposons des améliorations techniques de nos algorithmes qui permettraient d'en élargir les utilisations possibles. Cette méthode serait suffisamment générale pour pouvoir décrire des réseaux d'interactions d'une autre nature, mais aussi pour intégrer des informations supplémentaires à la description graphique telles que l'activité temporelle des agents; nous proposons pour conclure quelques éléments de réflexion pour réaliser ces objectifs.
44

Poulin, Cyndie. "Etudes des matériaux, composants et systèmes dans le domaine térahertz par analogie aux méthodes optiques." Thesis, Ecole centrale de Marseille, 2018. http://www.theses.fr/2018ECDM0010/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
L’objectif de ma thèse est d’étendre les modèles électromagnétiques existants à l’Institut Fresnel pour les fréquences optiques vers le domaine des fréquences térahertz (THz), pour mieux comprendre les phénomènes physiques mis en jeu lors d’interaction onde-matière. Cette compréhension permettrait d’améliorer l’analyse des images THz acquises et de mieux définir les configurations des systèmes optiques utilisés. Ce travail est réalisé en comparant les résultats issus de la modélisation avec ceux provenant d’expériences menées par imagerie THz au sein de l’entreprise Terahertz Waves Technologies. Dans le futur, la modélisation pourrait devenir un outil prédictif pour la caractérisation de matériaux dans le domaine THz.Les ondes THz se situent entre l’infrarouge lointain et les micro-ondes dans le spectre électromagnétique allant de 0.01 mm à 3 mm (ou 100 GHz à 30 THz). Ces ondes bénéficient des avantages des ondes optiques et des micro-ondes dépendant des longueurs d’ondes utilisées. L’imagerie THz présente un fort potentiel pour la caractérisation de la matière, car ces ondes peuvent pénétrer beaucoup de matériaux qui sont opaques dans le visible et dans l’infrarouge. La détection de défauts, les délaminations, la présence d’humidité, etc…, sont un exemple des problématiques qui peuvent être investiguées grâce au rayonnement THz.Dans un premier temps, j’ai pu simuler la réponse optique d’échantillons polymères plans homogènes et isotropes avec de bons accords entre le calcul et la mesure. Ces résultats ont permis de réaliser de premières modélisations d’images en adéquation avec l’imagerie THz. L’étude est ensuite élargie aux matériaux anisotropes qui existent dans l’environnement industriel actuel ainsi qu’aux objets de forme cylindrique. Les modèles développés considèrent l’indice de réfraction complexe d’un échantillon et son épaisseur, c’est pourquoi un chapitre est dévolu à la méthode d’estimation de ces paramètres à partir de mesures issues de spectroscopie THz dans le domaine temporel mise en œuvre
The aim of my thesis is to extend the electromagnetic models already existing at the Institut Fresnel for the optical frequencies towards the terahertz (THz) range, to have a better knowledge of the physical phenomena involved in THz light-matter interactions. This understanding would allow to improve the analysis of the THz images acquired and to have a better definition of the optical systems configurations that we use. To achieve this work, we compare the results coming from the model with those from the experiments led by THz imaging by Terahertz Waves Technologies. In the future, the modelling could become a predictive tool for the characterization of materials in the THz domain.THz waves are located between far infrared and microwaves in the electromagnetic spectrum going from 0.01 mm to 3 mm (or 100 GHz to 30 THz). These waves benefit from advantages of the optical waves and from microwaves depending on used frequencies. THz imaging presents a high potential one for the characterization on the material, because these waves can penetrate a lot of materials which are opaque in the visible and the infrared lights. Detection of defects, delaminations, the presence of humidity, etc…, are examples of the problems which can be investigated with THz light.At first, I was able to model the optical response of planar, homogenous, isotropic and polymeric samples with good agreements between the calculation and the measurement. These results allowed to realize first modellings of images which are consistent with THz imaging. Therefore, the study is enlarged to anisotropic materials which exist in the current industrial environment as well as the objects of full cylindrical shape. The developed models consider the complex refractive index of a sample and its thickness, that is why a chapter is devoted to the method of estimation of these parameters from measurements coming from THz Time-Domain Spectrocopy signals which was implemented
45

Alexandre, Ludovic. "Méthode de flux normal pour le traitement des conditions aux bords dans le cadre des volumes finis : application aux écoulements monophasiques et diphasiques." Paris 11, 2006. http://www.theses.fr/2006PA112062.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Cette thèse présente une étude de la méthode de flux normal pour le traitement des conditions aux bords dans le cadre des volumes finis appliquée à des systèmes hyperboliques. Le premier chapitre est consacré à la construction de la méthode de flux normal basée sur le schéma volumes finis à flux caractéristiques. Traitant directement de la conservation du flux normal pour les ondes sortantes, elle est plus précise que la méthode des variables caractéristiques, ne nécessite pas de procédure ad hoc comme les invariants de Riemann et permet un traitement simple de conditions aux bords non réfléchissantes. Sous certaines hypothèses, nous montrons que le choix des conditions aux bords amène à un problème bien posé. Dans le chapitre suivant, des exemples numériques valident la méthode dans le cadre des équations d'Euler. La méthode de flux normal donne des résultats équivalents à ceux obtenus avec une méthode basée sur la résolution d'un problème de Riemann partiel au bord, et plus proches des solutions de référence qu'avec la méthode des mailles miroirs. Le traitement des conditions non réfléchissantes correspond aux résultats attendus, à savoir éviter la réflexion d'ondes perturbatrices. Dans un troisième chapitre, nous considérons un système diphasique bifluide pour étudier l'adaptabilité de la méthode à ce système complexe non conservatif et non hyperbolique. Nous présentons les caractéristiques du système et les solutions apportées pour le rendre hyperbolique. Des simulations numériques montrent que la méthode de flux normal permet de traiter des écoulements diphasiques et confirment les études menées, comme la comparaison du traitement des parois avec des mailles miroirs
This thesis presents a study of the normal flux method for the treatment of boundary conditions in the finite volume framework applied to hyperbolic systems. The first chapter is devoted to the construction of the normal flux method based on the finite volume with characteristic flux scheme. Treating directly the conservation of the normal flux for outgoing waves, this method is more precise than the method of characteristic variables and does not require ad hoc proceddure like the Riemann invariants. This method allows also a simple processing of nonreflective boundary conditions. Under certain assumptions, we show that the choice of the boundary conditions verifies the concept of well posed problem. In the following chapter, numerical examples validate the normal flux method for Euler equations. The normal flux method gives results equivalent to those obtained with a method based on the resolution of a partial Riemann problem to the edge, and closer to the reference solutions than with mirror treatment. The processing of the nonreflectice boundary conditions corresponds to the expected results, namely to avoid the reflexion of disturbing wavex. In the third chapter, we consider a diphasic two-fluid system to study the adaptability of the normal flux method to this nonconservative and nonhyperbolic complex system. We presetn the characteristics of the diphasic system and the solutions proposed to make it hyperbolic. Numericla simulations show that by the normal flux method, it is possible to treat diphasic flows and confirm the undertaken studies, like the comparison with mirror treatment of wall conditions
46

Deaconu, Madalina. "Processus stochastiques associés aux équations d'évolution linéaires ou non-linéaires et méthodes numériques probabilistes." Habilitation à diriger des recherches, Université Henri Poincaré - Nancy I, 2008. http://tel.archives-ouvertes.fr/tel-00590778.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Ce document de synthèse est consacré à l'interprétation probabiliste de certaines équations d'évolution liénaires ou non-linéaires ainsi qu'à l'étude de méthodes numériques probabilistes. La première partie réunit plusieurs résultats qui mettent en évidence les liens qui existent entre les équations aux dérivées partielles et les processus de diffusion pour des modèles linéaires ou non-linéaires. Un paragraphe important est consacré à l'approche probabiliste des modèles de coagulation et/ou fragmentation. Nous présentons dans la seconde partie la construction de nouveaux algorithmes de simulation de type Monte-Carlo pour une large classe d'équations différentielles stochastiques. Cette méthode permet d'estimer de façon précise le premier moment de sortie d'un domaine et la position de sortie pour un processus stochastique. Nous nous intéressons ensuite aux techniques d'échantillonnage pondéré afin de réduire la variance de nos éstimateurs. Dans la troisième partie nous présentons des travaux sur l'analyse fine de certains processus stochastiques dans les espaces de Besov. La quatrième partie est consacrée à des applications issues de collaborations industrielles.
47

Lu, Ye. "Construction d’abaques numériques dédiés aux études paramétriques du procédé de soudage par des méthodes de réduction de modèles espace-temps." Thesis, Lyon, 2017. http://www.theses.fr/2017LYSEI103/document.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Le recours à des simulations numériques pour l’étude de l’influence des paramètres d’entrée (matériaux, chargements, conditions aux limites, géométrie, etc.) sur les différentes quantités d’intérêt en soudage (contraintes résiduelles, distorsion, etc.) s’avère trop long et coûteux vu l’aspect multi-paramétrique de ces simulations. Pour explorer des espaces paramétriques de grandes dimensions, avec des calculs moins coûteux, il parait opportun d’utiliser des approches de réduction de modèle. Dans ce travail, d’une façon a posteriori, une stratégie non-intrusive est développée pour construire les abaques dédiées aux études paramétriques du soudage. Dans une phase offline, une base de données (‘snapshots’) a été pré-calculée avec un choix optimal des paramètres d'entrée donnés par une approche multi-grille (dans l’espace des paramètres). Pour explorer d’autres valeurs de paramètres, une méthode d’interpolation basée sur la variété Grassmannienne est alors proposée pour adapter les bases réduites espace-temps issues de la méthode SVD. Cette méthode a été constatée plus performante que les méthodes d’interpolation standards, notamment en non-linéaire. Afin d’explorer des espaces paramétriques de grandes dimensions, une méthode de type décomposition tensorielle (i.e. HOPGD) a été également étudiée. Pour l’aspect d’optimalité de l’abaque, nous proposons une technique d’accélération de convergence pour la HOPGD et une approche ‘sparse grids’ qui permet d’échantillonner efficacement l’espace des paramètres. Finalement, les abaques optimaux de dimension jusqu’à 10 à précision contrôlée ont été construits pour différents types de paramètres (matériaux, chargements, géométrie) du procédé de soudage
The use of standard numerical simulations for studies of the influence of input parameters (materials, loading, boundary conditions, geometry, etc.) on the quantities of interest in welding (residual stresses, distortion, etc.) proves to be too long and costly due to the multiparametric aspect of welding. In order to explore high-dimensional parametric spaces, with cheaper calculations, it seems to be appropriate to use model reduction approaches. In this work, in an a posteriori way, a non-intrusive strategy is developed to construct computational vademecum dedicated to parametric studies of welding. In an offline phase, a snapshots database is pre-computed with an optimal choice of input parameters given by a “multi-grids” approach (in parameter space). To explore other parameter values, an interpolation method based on Grassmann manifolds is proposed to adapt both the space and time reduced bases derived from the SVD. This method seems more efficient than standard interpolation methods, especially in non-linear cases. In order to explore highdimensional parametric spaces, a tensor decomposition method (i.e. HOPGD) has also been studied. For the optimality aspect of the computational vademecum, we propose a convergence acceleration technique for HOPGD and a “sparse grids” approach which allows efficient sampling of the parameter space. Finally, computational vademecums of dimension up to 10 with controlled accuracy have been constructed for different types of welding parameters (materials, loading, geometry)
48

Feuardent, Valérie. "Amélioration des modèles par recalage : application aux structures spatiales." Cachan, Ecole normale supérieure, 1997. http://www.theses.fr/1997DENS0019.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Les modèles de calcul doivent permettre de prédire le comportement de structure complexe de façon précise. Il s'agit de minimiser la distance séparant les résultats de calcul (modèles éléments-finis) des données expérimentales (vibrations libres). Pour cela, la technique itérative de localisation-correction basée sur la notion de mesure d'erreur en relation de comportement (incluant une mesure d'erreur dynamique) est utilisée. Une base réduite de projection est proposée pour le recalage concernant les modélisations à grand nombre de degrés de liberté. Cette base construite à l'aide d'une méthode de sous-structuration a la particularité d'être associée aux tests expérimentaux. La robustesse au bruit de la méthode est considérée. Au niveau des résultats, l'étape de localisation des erreurs de modélisation est particulièrement performante et le problème inverse de détermination des paramètres dans le processus de correction ne rencontre pas de difficulté de résolution. Les erreurs faites lors de la modélisation des masses et des raideurs sont corrigées en quelques itérations.
49

Echague, Eugénio. "Optimisation globale sans dérivées par minimisation de modèles simplifiés." Versailles-St Quentin en Yvelines, 2013. http://www.theses.fr/2013VERS0016.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Dans cette thèse, on étudie deux méthodes d’optimisation globale sans dérivées : la méthode des moments et les méthodes de surface de réponse. Concernant la méthode des moments, nous nous sommes intéressés à ses aspects numériques et à l'un de ses aspects théoriques : l’approximation à une constante près d'une fonction par des polynômes somme de carrés. Elle a aussi été implémentée dans les sous-routines d'une méthode sans dérivées et testée avec succès sur un problème de calibration de moteur. Concernant les surface de réponse, nous construisons un modèle basée sur la technique de Sparse Grid qui permet d’obtenir une approximation précise avec un nombre faible d'évaluations de la fonction. Cette surface est ensuite localement raffinée autour des points les plus prometteurs. La performance de cette méthode, nommée GOSgrid, a été testée sur différentes fonctions et sur un cas réel. Elle surpasse les performances d'autres méthodes existantes d’optimisation globale en termes de coût
In this thesis, we study two global derivative-free optimization methods: the method of moments and the surrogate methods. Concerning the method of moments, it is implemented as solver of the sub-problems in a derivative-free optimization method and tested for an engine calibration problem with succes. We also explore its dual approach, and we study the approximation of a function by a sum of squares of polynomials plus a constant. Concerning the surrogate methods, we construct a new approximation by using the Sparse Grid interpolation method, which builds an accurate model from a limited number of function evaluations. This model is then locally refined near the points with low function value. The numerical performance of this new method, called GOSgrid, is tested for classical optimisation test functions and finally for an inverse parameter identification problem, showing good results compared to some of the others existing methods, in terms of number of function evaluations
50

Diallo, Abdourahmane. "Théorie et estimation des modèles spatiaux à choix discret : application aux modèles d'occupation du sol en région PACA." Paris, EHESS, 2014. http://www.theses.fr/2014EHES0167.

Full text
APA, Harvard, Vancouver, ISO, and other styles
Abstract:
Nous nous intéressons à la théorie et à l'estimation des modèles spatiaux à choix discret afin de développer des techniques d'estimation pour analyser les décisions de changements d'usage du sol sur gros échantillon. Nous établissons des propriétés limites d'estimateurs des paramètres inconnus de ces modèles dans un contexte de processus non stationnaire. Le Chapitre 1 rassemble des rappels sur les résultats de la théorie de l'estimation des modèles spatiaux à choix discret, qui seront essentiels dans les chapitres suivants. Dans le Chapitre 2, nous montrons un résultat de théorème limite et l'utilisons pour démontrer la convergence presque sure et la normalité asymptotique des estimateurs proposés dans les Chapitres 3 et 4. Le Chapitre 3 traite l'extension de la méthode proposée par KLIER et MCMILLEN (2008) au cas où le modèle inclut à la fois une variable dépendante et des termes de perturbation spatialement décalés. Le Chapitre 4 étend les techniques développées au Chapitre 3 au cas multinomial et sur données de panel
In this thesis, we propose and discuss some spatial discrete choice models that rely on the theory of random utility model, as well as some limit theorems. Although several estimation methods already exist - like likelihood maximization methods (LM) which consider ail the available information in the samples - we propose an approach by the generalized method of moments (GMM) to estimate the unknown parameters of these models. We start by recalling the theoretical results and estimate approaches of spatial discrete choice models that are going to be essential in the other chapters. In Chapter 2, we provide results of a central limit theorem in order to prove the consistency and the asymptotic normality of the estimators proposed in Chapters 3 and 4. The Chapter 3 extends KLIER and MCMILLEN's method in the case of a model that includes both a dependent variable and disturbances terms spatially lagged. Chapter 4 derives the multinomial case and panels data spatially lagged. Chapter 4 derives the multinomial case and panels data

To the bibliography