Tesi sul tema "Modèle à grande échelle"

Segui questo link per vedere altri tipi di pubblicazioni sul tema: Modèle à grande échelle.

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-50 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Modèle à grande échelle".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Stref, Philippe. "Application à grande échelle d'un modèle hydrodispersif tridimensionnel". Montpellier 2, 1987. http://www.theses.fr/1987MON20068.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'utilisation des modeles hydrodispersifs permet l'etude de la propagation des polluants dans un aquifere. Apres examen des approches recentes de la theorie de la dispersion, un modele hydrodispersif multicouche a ete developpe. Ce modele est mis en oeuvre pour simuler l'evolution de la mineralisation d'un large secteur de l'aquifere alsacien. Les resultats obtenus s'averent tout a fait satisfaisants. La modelisation hydrodispersive a l'echelle regionale devrait progresser surtout si les moyens d'investigation des caracteristiques de l'aquifere s'accroissent
2

Côté, Benoit, e Benoit Côté. "Modèle d’évolution de galaxies pour simulations cosmologiques à grande échelle". Doctoral thesis, Université Laval, 2015. http://hdl.handle.net/20.500.11794/25550.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Tableau d'honneur de la Faculté des études supérieures et postdorales, 2014-2015
Tableau d'honneur de la Faculté des études supérieures et postdorales, 2014-2015
Nous présentons un modèle semi-analytique (MSA) conçu pour être utilisé dans une simulation hydrodynamique à grande échelle comme traitement de sous-grille afin de générer l’évolution des galaxies dans un contexte cosmologique. Le but ultime de ce projet est d’étudier l’histoire de l’enrichissement chimique du milieu intergalactique (MIG) ainsi que les interactions entre les galaxies et leur environnement. Le MSA inclut tous les ingrédients nécessaires pour reproduire l’évolution des galaxies de faible masse et de masse intermédiaire. Cela comprend l’accrétion du halo galactique et du MIG, le refroidissement radiatif, la formation stellaire, l’enrichissement chimique et la production de vents galactiques propulsés par l’énergie mécanique et la radiation des étoiles massives. La physique des bulles interstellaires est appliquée à chaque population d’étoiles qui se forme dans le modèle afin de relier l’activité stellaire à la production des vents galactiques propulsés par l’énergie mécanique. Nous utilisons des modèles stellaires à jour pour générer l’évolution de chacune des populations d’étoiles en fonction de leur masse, de leur métallicité et de leur âge. Cela permet d’inclure, dans le processus d’enrichissement, les vents stellaires des étoiles massives, les supernovae de Type II, Ib et Ic, les hypernovae, les vents stellaires des étoiles de faible masse et de masse intermédiaire ainsi que les supernovae de Type Ia. Avec ces ingrédients, notre modèle peut reproduire les abondances de plusieurs éléments observées dans les étoiles du voisinage solaire. De manière plus générale, notre MSA peut reproduire la relation actuelle observée entre la masse stellaire des galaxies et la masse de leur halo de matière sombre. Il peut aussi reproduire la métallicité, la quantité d’hydrogène et le taux de formation stellaire spécifique observés dans les galaxies de l’Univers local. Notre modèle est également consistant avec les observations suggérant que les galaxies de faible masse sont davantage affectées par la rétroaction stellaire que les galaxies plus massives. De plus, le modèle peut reproduire les différents comportements, soit oscillatoire ou stable, observés dans l’évolution du taux de formation stellaire des galaxies. Tous ces résultats démontrent que notre MSA est suffisamment qualifié pour traiter l’évolution des galaxies à l’intérieur d’une simulation cosmologique.
Nous présentons un modèle semi-analytique (MSA) conçu pour être utilisé dans une simulation hydrodynamique à grande échelle comme traitement de sous-grille afin de générer l’évolution des galaxies dans un contexte cosmologique. Le but ultime de ce projet est d’étudier l’histoire de l’enrichissement chimique du milieu intergalactique (MIG) ainsi que les interactions entre les galaxies et leur environnement. Le MSA inclut tous les ingrédients nécessaires pour reproduire l’évolution des galaxies de faible masse et de masse intermédiaire. Cela comprend l’accrétion du halo galactique et du MIG, le refroidissement radiatif, la formation stellaire, l’enrichissement chimique et la production de vents galactiques propulsés par l’énergie mécanique et la radiation des étoiles massives. La physique des bulles interstellaires est appliquée à chaque population d’étoiles qui se forme dans le modèle afin de relier l’activité stellaire à la production des vents galactiques propulsés par l’énergie mécanique. Nous utilisons des modèles stellaires à jour pour générer l’évolution de chacune des populations d’étoiles en fonction de leur masse, de leur métallicité et de leur âge. Cela permet d’inclure, dans le processus d’enrichissement, les vents stellaires des étoiles massives, les supernovae de Type II, Ib et Ic, les hypernovae, les vents stellaires des étoiles de faible masse et de masse intermédiaire ainsi que les supernovae de Type Ia. Avec ces ingrédients, notre modèle peut reproduire les abondances de plusieurs éléments observées dans les étoiles du voisinage solaire. De manière plus générale, notre MSA peut reproduire la relation actuelle observée entre la masse stellaire des galaxies et la masse de leur halo de matière sombre. Il peut aussi reproduire la métallicité, la quantité d’hydrogène et le taux de formation stellaire spécifique observés dans les galaxies de l’Univers local. Notre modèle est également consistant avec les observations suggérant que les galaxies de faible masse sont davantage affectées par la rétroaction stellaire que les galaxies plus massives. De plus, le modèle peut reproduire les différents comportements, soit oscillatoire ou stable, observés dans l’évolution du taux de formation stellaire des galaxies. Tous ces résultats démontrent que notre MSA est suffisamment qualifié pour traiter l’évolution des galaxies à l’intérieur d’une simulation cosmologique.
We present a semi-analytical model (SAM) designed to be used in a large-scale hydrodynamical simulation as a sub-grid treatment in order to generate the evolution of galaxies in a cosmological context. The ultimate goal of this project is to study the chemical enrichment history of the intergalactic medium (IGM) and the interactions between galaxies and their surrounding. Presently, the SAM takes into account all the ingredients needed to compute the evolution of low- and intermediate-mass galaxies. This includes the accretion of the galactic halo and the IGM, radiative cooling, star formation, chemical enrichment, and the production of galactic outflows driven by the mechanical energy and the radiation of massive stars. The physics of interstellar bubbles is applied to every stellar population which forms in the model in order to link the stellar activity to the production of outflows driven by mechanical energy. We use up-to-date stellar models to generate the evolution of each stellar population as a function of their mass, metallicity, and age. This enables us to include, in the enrichment process, the stellar winds from massive stars, Type II, Ib, and Ic supernovae, hypernovae, the stellar winds from low- and intermediate-mass stars in the asymptotic giant branch, and Type Ia supernovae. With these ingredients, our model can reproduce the abundances of several elements observed in the stars located in the solar neighborhood. More generally, our SAM reproduces the current stellar-to-dark-halo mass relation observed in galaxies. It can also reproduce the metallicity, the hydrogen mass fraction, and the specific star formation rate observed in galaxies as a function of their stellar mass. Our model is also consistent with observations which suggest that low-mass galaxies are more affected by stellar feedback than higher-mass galaxies. Moreover, the model can reproduce the periodic and the stable behaviors observed in the star formation rate of galaxies. All these results show that our SAM is sufficiently qualified to treat the evolution of low- and intermediate-mass galaxies inside a large-scale cosmological simulation.
We present a semi-analytical model (SAM) designed to be used in a large-scale hydrodynamical simulation as a sub-grid treatment in order to generate the evolution of galaxies in a cosmological context. The ultimate goal of this project is to study the chemical enrichment history of the intergalactic medium (IGM) and the interactions between galaxies and their surrounding. Presently, the SAM takes into account all the ingredients needed to compute the evolution of low- and intermediate-mass galaxies. This includes the accretion of the galactic halo and the IGM, radiative cooling, star formation, chemical enrichment, and the production of galactic outflows driven by the mechanical energy and the radiation of massive stars. The physics of interstellar bubbles is applied to every stellar population which forms in the model in order to link the stellar activity to the production of outflows driven by mechanical energy. We use up-to-date stellar models to generate the evolution of each stellar population as a function of their mass, metallicity, and age. This enables us to include, in the enrichment process, the stellar winds from massive stars, Type II, Ib, and Ic supernovae, hypernovae, the stellar winds from low- and intermediate-mass stars in the asymptotic giant branch, and Type Ia supernovae. With these ingredients, our model can reproduce the abundances of several elements observed in the stars located in the solar neighborhood. More generally, our SAM reproduces the current stellar-to-dark-halo mass relation observed in galaxies. It can also reproduce the metallicity, the hydrogen mass fraction, and the specific star formation rate observed in galaxies as a function of their stellar mass. Our model is also consistent with observations which suggest that low-mass galaxies are more affected by stellar feedback than higher-mass galaxies. Moreover, the model can reproduce the periodic and the stable behaviors observed in the star formation rate of galaxies. All these results show that our SAM is sufficiently qualified to treat the evolution of low- and intermediate-mass galaxies inside a large-scale cosmological simulation.
3

Côté, Benoît. "Modèle de vents galactiques destiné aux simulations cosmologiques à grande échelle". Thesis, Université Laval, 2010. http://www.theses.ulaval.ca/2010/27873/27873.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Mohamed, Drissi. "Un modèle de propagation de feux de végétation à grande échelle". Phd thesis, Université de Provence - Aix-Marseille I, 2013. http://tel.archives-ouvertes.fr/tel-00931806.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le présent travail est consacré au développement et à la validation d'un modèle hybride de propagation d'un incendie de végétation à grande échelle prenant en compte les hétérogénéités locales liées à la végétation, à la topographie du terrain et aux conditions météorologiques. Dans un premier temps, on présente différentes méthodes permettant de générer un réseau amorphe, représentatif d'une distribution réaliste de la végétation. Le modèle hybride est un modèle de réseau où les phénomènes qui se produisent à l'échelle macroscopique sont traités de façon déterministe, comme le préchauffage du site végétal provenant du rayonnement de la flamme et des braises et de la convection par les gaz chauds, mais aussi son refroidissement radiatif et son inflammation pilotée. Le rayonnement thermique provenant de la flamme est calculé en combinant le modèle de flamme solide à la méthode de Monte Carlo et en considérant son atténuation par la couche d'air atmosphérique entre la flamme et la végétation réceptive. Le modèle est ensuite appliqué à des configurations simples de propagation sur un terrain plat ou incliné, en présence ou non d'un vent constant. Les résultats obtenus sont en bon accord avec les données de la littérature. Une étude de sensibilité a été également menée permettant d'identifier les paramètres les plus influents du modèle, en termes de vitesse de propagation du feu, et de les hiérarchiser. La phase de validation a portée sur l'analyse comparative des contours de feux calculés par le modèle avec ceux mesurés lors d'un brûlage dirigé réalisé en Australie et d'un feu réel qui a lieu en Corse en 2009, montrant un très bon accord en termes de vitesse de propagation, de contours de feu et de surface brûlée.
5

Côté, Benoit. "Modèle de vents galactiques destiné aux simulations cosmologiques à grande échelle". Master's thesis, Université Laval, 2010. http://hdl.handle.net/20.500.11794/22281.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les vents galactiques sont des éléments importants à considérer dans les simulations numériques à grande échelle car ils ont des impacts sur la formation des galaxies environnantes. Puisque les galaxies sont mal résolues dans de telles simulations, les vents galactiques sont habituellement générés par des méthodes semi-analytiques. Dans le cadre de ce projet, un modèle galactique a été développé afin d'améliorer le modèle semi-analytique de Pieri et al. (2007). Ce nouveau modèle permet de suivre de manière consistante l'évolution de l'enrichissement des galaxies en tenant compte des vents stellaires, des supernovae et de différents scénarios de formation stellaire. Les vents galactiques sont générés par l'énergie thermique provenant des supernovae et des vents stellaires à l'intérieur des galaxies. Avec ce formalisme, seules les galaxies ayant une masse inférieure ou égale à 10¹⁰ MQ risquent de contribuer à l'enrichissement du milieu intergalactique. La distribution des vents galactiques dans ce milieu est calculée en respectant l'ordre chronologique des éjectas. De plus, la composition de ce vent peut désormais être décomposée en 31 éléments chimiques. Pour la même quantité d'étoiles formées durant l'évolution galactique, un taux de formation stellaire de longue durée produit un plus long vent galactique qu'un taux de formation stellaire de courte durée. Cependant, ce vent est alors moins dense et moins concentré en métaux. En augmentant l'efficacité de formation stellaire, la portée et la métallicité du vent galactique augmentent également. Par contre, dans certains cas, une trop grande quantité d'étoiles peut complètement balayer le milieu interstellaire de son gaz, ce qui altère l'évolution du vent galactique. Pour respecter la quantité de métaux observée dans le milieu intergalactique, les vents galactiques doivent provenir des galaxies ayant possédé une métallicité initiale différente de zéro au moment de leur formation. Dans ce cas et lors d'une collision galactique, les vents stellaires peuvent contribuer de manière significative au bilan énergétique et à la quantité de carbone et d'azote éjectée dans le milieu intergalactique.
6

Drissi, Mohamed. "Un modèle de propagation de feux de végétation à grande échelle". Thesis, Aix-Marseille, 2013. http://www.theses.fr/2013AIXM4704.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le présent travail est consacré au développement et à la validation d'un modèle hybride de propagation d'un incendie de végétation à grande échelle prenant en compte les hétérogénéités locales liées à la végétation, à la topographie du terrain et aux conditions météorologiques. Dans un premier temps, on présente différentes méthodes permettant de générer un réseau amorphe, représentatif d'une distribution réaliste de la végétation. Le modèle hybride est un modèle de réseau où les phénomènes qui se produisent à l'échelle macroscopique sont traités de façon déterministe, comme le préchauffage du site végétal provenant du rayonnement de la flamme et des braises et de la convection par les gaz chauds, mais aussi son refroidissement radiatif et son inflammation pilotée. Le rayonnement thermique provenant de la flamme est calculé en combinant le modèle de flamme solide à la méthode de Monte Carlo et en considérant son atténuation par la couche d'air atmosphérique entre la flamme et la végétation réceptive. Le modèle est ensuite appliqué à des configurations simples de propagation sur un terrain plat ou incliné, en présence ou non d'un vent constant. Les résultats obtenus sont en bon accord avec les données de la littérature. Une étude de sensibilité a été également menée permettant d'identifier les paramètres les plus influents du modèle, en termes de vitesse de propagation du feu, et de les hiérarchiser. La phase de validation a portée sur l'analyse comparative des contours de feux calculés par le modèle avec ceux mesurés lors d'un brûlage dirigé réalisé en Australie et d'un feu réel qui a lieu en Corse en 2009, montrant un très bon accord en termes de vitesse de propagation
The present work is devoted to the development of a hybrid model for predicting the rate of spread of wildland fires at a large scale, taking into account the local heterogeneities related to vegetation, topography, and meteorological conditions. Some methods for generating amorphous network, representative of real vegetation landscapes, are proposed. Mechanisms of heat transfer from the flame front to the virgin fuel are modeled: radiative preheating from the flame and embers, convective preheating from hot gases, radiative heat losses and piloted ignition of the receptive vegetation item. Flame radiation is calculated by combining the solid flame model with the Monte Carlo method and by taking into account its attenuation by the atmospheric layer between the flame and the receptive vegetation. The model is applied to simple configurations where the fire spreads on a flat or inclined terrain, with or without a constant wind. Model results are in good agreement with literature data. A sensitivity study is conducted to identify the most influential parameters of the model. Eventually, the model is validated by comparing predicted fire patterns with those obtained from a prescribed burning in Australia and from a historical fire that occurred in Corsica in 2009, showing a very good agreement in terms of fire patterns, rate of spread, and burned area
7

Guenot, Damien. "Simulation des effets instationnaires à grande échelle dans les écoulements décollés". École nationale supérieure de l'aéronautique et de l'espace (Toulouse ; 1972-2007), 2004. http://www.theses.fr/2004ESAE0009.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le calcul des écoulements turbulents décollés est un des enjeux majeurs de l’aérodynamique numérique. Différentes méthodes existent : résolution des équations moyennées stationnaires, instationnaires (RANS/URANS), ou Simulation des Grandes Échelles (SGE). La méthode hybride Detached Eddy Simulation (DES) semble bien adaptée : elle utilise un modèle unique qui se comporte près des parois comme un modèle URANS (limite le coût de calcul), et loin comme une SGE (décrit mieux les écoulements hors équilibre). Les calculs de plaque plane montrent la nécessité de calculer les zones attachées en mode URANS. Pour le profil en décrochage, différents paramètres (maillage, envergure, formulation en mode SGE) sont testés. On obtient une meilleure prévision de la portance et de la traînée par rapport à l’URANS. Le cas de la marche descendante montre les limites de la DES. La géométrie pose le problème de la couche limite amont épaisse où les structures turbulentes sont absentes (traitée en URANS).
8

Oudinet, Johan. "Approches combinatoires pour le test statistique à grande échelle". Paris 11, 2010. http://www.theses.fr/2010PA112347.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse porte sur le développement de méthodes combinatoires pour le test et la vérification formelle. En particulier, sur des approches probabilistes lorsque la vérification exhaustive n'est plus envisageable. Dans le cadre du test (basé sur un modèle), je cherche à guider l'exploration aléatoire du modèle afin de garantir une bonne satisfaction du critère de couverture attendu, quelle que soit la topologie sous-jacente du modèle exploré. Dans le cadre du model-checking, je montre comment générer aléatoirement un nombre fini de chemins pour savoir si une propriété est satisfaite avec une certaine probabilité. Dans une première partie, je compare différents algorithmes pour générer uniformément des chemins dans un automate. Puis je propose un nouvel algorithme qui offre un bon compromis avec une complexité en espace sous-linéaire en la longueur des chemins et une complexité quasi-linéaire en temps. Cet algorithme permet l'exploration d'un modèle de plusieurs dizaines de millions d'états en y générant des chemins de plusieurs centaines de milliers de transitions. Dans une seconde partie, je présente une manière de combiner réduction par ordres partiels et génération à la volée pour explorer des systèmes concurrents sans construire le modèle global, mais en s'appuyant uniquement sur les modèles des composants. Enfin, je montre comment biaiser les algorithmes précédents pour satisfaire d'autres critères de couverture. Lorsque ces critères ne sont pas basés sur des chemins, mais un ensemble d'états ou de transitions, nous utilisons une solution mixte pour assurer à la fois un ensemble varié de moyens d'atteindre ces états ou transitions et la satisfaction du critère avec une bonne probabilité
This thesis focuses on the development of combinatorial methods for testing and formal verification. Particularly on probabilistic approaches because exhaustive verification is often not tractable for complex systems. For model-based testing, I guide the random exploration of the model to ensure a satisfaction with desired probability of the expected coverage criterion, regardless of the underlying topology of the explored model. Regarding model-checking, I show how to generate a random number of finite paths to check if a property is satisfied with a certain probability. In the first part, I compare different algorithms for generating uniformly at random paths in an automaton. Then I propose a new algorithm that offers a good compromise with a sub-linear space complexity in the path length and a almost-linear time complexity. This algorithm allows the exploration of large models (tens of millions of states) by generating long paths (hundreds of thousands of transitions). In a second part, I present a way to combine partial order reduction and on-the-fly generation techniques to explore concurrent systems without constructing the global model, but relying on models of the components only. Finally, I show how to bias the previous algorithms to satisfy other coverage criteria. When a criterion is not based on paths, but on a set of states or transitions, we use a mixed solution to ensure both various ways of exploring those states or transitions and the criterion satisfaction with a desired probability
9

Perret, Gaële. "Etude de l' asymétrie cyclone-anticyclone dans les sillages de grande échelle". Phd thesis, Paris 6, 2005. http://pastel.archives-ouvertes.fr/pastel-00002367.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
10

Hussein, Mohammad. "Un modèle d'exécution à base d'agents mobiles pour l'optimisation dynamique de requêtes réparties à grande échelle". Toulouse 3, 2005. http://www.theses.fr/2005TOU30203.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
11

Praga, Alexis. "Un modèle de transport et de chimie atmosphérique à grande échelle adapté aux calculateurs massivement parallèles". Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30012/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse présente un modèle bi-dimensionnel pour le transport atmosphérique à grande échelle, nommé Pangolin, conçu pour passer à l'échelle sur les achitectures parallèles. La version actuelle comporte une advection 2D ainsi qu'un schéma linéaire de chimie et servira de base pour un modèle de chimie-transport (MCT). Pour obtenir la conservation de la masse, un schéma en volume finis de type van Leer a été retenu pour l'advection et étendu au cas 2D en utilisant des opérateurs alternés. La conservation de la masse est assurée en corrigeant les vents en amont. Nous proposons une solution au problème "des pôles" de la grille régulière latitude-longitude grâce à une nouvelle grille préservant approximativement les aires des cellules et couvrant la sphère uniformément. La parallélisation du modèle se base sur l'advection et utilise un algorithme de décomposition de domaines spécialement adapté à la grille. Cela permet d'obtenir l'équilibrage de la charge de calcul avec MPI, une librairie d'échanges de messages. Pour que les performances soient à la hauteur sur les architectures parallèles actuelles et futures, les propriétés analytiques de la grille sont exploitées pour le schéma d'advection et la parallélisation en privilégiant le moindre coût des flops par rapport aux mouvement de données. Le modèle est validé sur des cas tests analytiques et comparé à des schémas de transport à l'aide d'un comparatif récemment publié. Pangolin est aussi comparé au MCT de Météo-France via un schéma linéaire d'ozone et l'utilisation de coordonnées isentropes
We present in this thesis the development of a large-scale bi-dimensional atmospheric transport scheme designed for parallel architectures with scalability in mind. The current version, named Pangolin, contains a bi-dimensional advection and a simple linear chemistry scheme for stratospheric ozone and will serve as a basis for a future Chemistry Transport Model (CTM). For mass-preservation, a van Leer finite volume scheme was chosen for advection and extended to 2D with operator splitting. To ensure mass preservation, winds are corrected in a preprocessing step. We aim at addressing the "pole issue" of the traditional regular latitude-longitude by presenting a new quasi area-preserving grid mapping the sphere uniformly. The parallelization of the model is based on the advection operator and a custom domain-decomposition algorithm is presented here to attain load-balancing in a message-passing context. To run efficiently on current and future parallel architectures, algebraic features of the grid are exploited in the advection scheme and parallelization algorithm to favor the cheaper costs of flops versus data movement. The model is validated on algebraic test cases and compared to other state-of-theart schemes using a recent benchmark. Pangolin is also compared to the CTM of Météo-France, MOCAGE, using a linear ozone scheme and isentropic coordinates
12

Vega, Baez Germàn Eduardo. "Développement d'applications à grande échelle par composition de méta-modèles". Université Joseph Fourier (Grenoble), 2005. http://www.theses.fr/2005GRE10278.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Parmi les approches de génie logiciel, l'Ingénierie Dirigée par les Modèles (IDM) vise à fournir un cadre qui permet de s'attaquer à la complexité croissante du développement des logiciels dans un paradigme unificateur : elle conçoit l'intégralité du cycle de vie du logiciel comme un processus de production, de raffinement itératif et d'intégration de modèles. Les travaux de cette thèse se placent dans cette mouvance. Nous nous intéressons particulièrement à la problématique de la gestion de la complexité et de la diversité de domaines métier impliqués dans les applications de grande taille, et nous proposons de l'approcher sous une optique IDM. Un domaine est un champ d'expertise, potentiellement partagé par de multiples applications. La connaissance et le savoir-faire développé au sein de ce domaine deviennent des atouts majeurs. Cette expertise peut être formalisée, et surtout réutilisé, sous la forme d'un langage de modélisation dédié, un Domain Specific Language (DSL). Nous proposons une démarche basée sur la description d'un système par divers modèles exprimés dans des langages de modélisation dédiés différents. La composition de modèles permet de modéliser des applications complexes couvrant plusieurs domaines simultanément. L'originalité de notre démarche est que, d'une part, chaque DSL est spécifié par un méta-modèle suffisamment précis pour pouvoir construire, de façon semi-automatique, une machine virtuelle spécialisée du domaine ; c'est cette machine virtuelle qui permet l'exécution des modèles associés. D'autre part, il est possible de composer ces méta-modèles pour définir de nouveaux domaines plus complexes. La composition de méta-modèles permet d'améliorer la modularité, d'obtenir de taux de réutilisation plus importants, et surtout d'obtenir des fonctionnalités plus vastes et sophistiquées que celles des domaines composés
Model Driven Software Engineering (MDSE) is a Software Engineering approach that addresses the ever increasing complexity of software development and maintenance through a unified conceptual framework in which the whole software life cycle is seen as a process of model production, refinement and integration. This thesis contributes to this MDSE trend. We focus mainly on the issues raised by the complexity and diversity of the domains of expertise involved in large size software applications, and we propose to address these issues in an MDSE perspective. A domain is an expertise area, potentially shared by many different software applications. The knowledge and know-how in a domain are major assets. This expertise can be formalized and reused when captured by a Domain Specific Language (DSL). We propose an approach in which the target system is described by different models, written in different DSL. In this approach, composing these different models allows for modeling complex application covering simultaneously different domains. Our approach is an original contribution in that each DSL is specified by a meta model precise enough to build, in a semi automatic way, a domain virtual machine ; it is this virtual machine that interprets the domain models. Then, it is possible to compose these meta models to define new and more complex domains. Meta model composition increases modularity and reuse, and allows building domain with much larger functional scope than possible with traditional approaches
13

Guidard, Vincent. "Assimilation multi-échelle dans un modèle météorologique régional". Phd thesis, Université Paul Sabatier - Toulouse III, 2007. http://tel.archives-ouvertes.fr/tel-00569483.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les modèles météorologiques à aire limitée sont aujourd'hui dotés de systèmes d'analyse de données observées propres, pour la plupart. Ces analyses combinent en général une ébauche provenant du modèle et des observations dans le but de rafraîchir les structures décrites par le modèle à aire limitée. Néanmoins, l'information provenant du modèle coupleur présente également un intérêt. En effet, le modèle coupleur est en général un modèle global bénéficiant de techniques d'assimilation de données performantes, qui permet de fournir une bonne description des grandes échelles notamment. L'objectif de ce travail de thèse est d'injecter l'information issue du modèle coupleur directement dans l'assimilation variationnelle tridimensionnelle (3D-VAR) du modèle à aire limitée, en tant que nouvelle source d'information. Concrètement, on décrit le vecteur d'information entrant dans l'assimilation du modèle à aire limitée comme étant la concaténation des différentes sources d'information : l'ébauche du modèle, les observations et les grandes échelles de l'analyse du modèle coupleur. Ce formalisme utilise une mesure de l'incertitude sur les sources d'information, décrite par les covariances entre les erreurs des différentes sources d'information. Des simplifications sur les covariances croisées entres les sources d'information sont proposées, afin de pouvoir développer le formalisme en vue de le rendre applicable simplement dans un logiciel d'analyse déjà existant. Une première utilisation de ce nouveau formalisme est faite dans un modèle académique unidimensionnel “en eaux peu profondes”, en mettant en oeuvre un modèle coupleur et un modèle couplé. Ces expériences montrent des résultats neutres à positifs, suivant les configurations, limités par le cadre simplifié de ce modèle académique. Dans le cadre de l'application de cette méthode dans les modèles utilisés à Météo- France (modèle global ARPÈGE et modèle à aire limitée ALADIN), une évaluation des statistiques liées aux erreurs sur les sources d'information est menée. Tout d'abord le choix des échelles venant de l'analyse du modèle global est fait, pour ne garder que les plus grandes structures (environ 240 km). Puis les statistiques sont calculées à partir de travaux précédents utilisant des méthodes ensemblistes pour échantillonner les erreurs. L'étude de ces statistiques permet de décrire les propriétés des covariances d'erreurs (écarts types, isotropie, etc.) et de quantifier l'erreur commise en appliquant les simplifications proposées. L'évaluation sur des cycles d'assimilation d'une quinzaine de jours montre que l'introduction des grandes échelles de l'analyse du modèle global a un impact légèrement positif en terme de score objectif. Néanmoins, malgré des différences visibles et systématiques engendrées par l'utilisation de cette nouvelle source d'information, aucun cas d'étude sur des champs diagnostiques, comme les précipitations, ne permet d'illustrer cet apport en terme de temps sensible ou de phénomènes météorologiques spécifiques. Ce travail de thèse propose donc une technique d'analyse en aire limitée permettant de prendre en compte des informations provenant du modèle coupleur, en plus des observations, pour corriger l'ébauche du modèle. Il ouvre la voie à d'autres recherches, notamment en sélectionnant d'autres échelles venant du modèle coupleur à considérer ou en l'étendant par l'ajout de la dimension temporelle.
14

Oueslati, Boutheina. "Interaction entre convection nuageuse et circulation de grande échelle dans les tropiques". Toulouse 3, 2012. http://thesesups.ups-tlse.fr/1795/.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le syndrome de double zone de convergence intertropicale (ITCZ) est un biais systématique dont souffrent la majorité des modèles de circulation générale (GCM). Les causes de ce comportement problématique ne sont toujours pas élucidées. Le but de la thèse est d'apporter des éléments de réponses à ce sujet et de suggérer des pistes d'amélioration des GCMs. Le travail de thèse a mis en évidence l'importance des rétroactions couplées océan-atmosphère et dynamique-thermodynamique dans la structure de l'ITCZ. Dans un premier temps, les mécanismes à l'origine de l'émergence de régimes de précipitations distincts en réponse à différents forçages en température de surface de la mer (SST) ont été analysés, dans les GCMs atmosphériques ARPEGE-Climat et LMDz, en configuration aquaplanète. La transition du régime double à deux ITCZ vers le régime simple à une seule ITCZ a été plus particulièrement analysée. Dans les deux modèles, cette transition est forcée par la convergence des vents de basses couches associée aux changements de gradients méridiens de température de couche limite. Les rétroactions sèches et humides modulent la transition en favorisant ou en s'opposant au forçage par les SST. Les rétroactions dynamiques sèches sont associées l'advection horizontale d'air froid subtropical. Les rétroactions humides, présentes uniquement dans LMDz, sont associées à la convection et incluent le refroidissement stratosphérique et celui de la couche limite dû aux courants convectifs descendants. Les processus humides sont déterminants pour la structure de l'ITCZ par leur influence sur le profil vertical de chauffage diabatique et sur les rétroactions convection-humidité, deux grandeurs très sensibles au schéma de convection et, en particulier, à l'entraînement latéral convectif. Une analyse de l'influence de l'entraînement latéral convectif sur l'ITCZ est effectuée en utilisant le GCM CNRM-CM5 dans une hiérarchie de modèles (couplé océan-atmosphère, atmosphérique et aquaplanète) et montre que la sensibilité de l'ITCZ à ce paramètre est robuste dans les différentes configurations. L'augmentation de l'entraînement convectif réduit considérablement la double ITCZ. Ce changement de structure de l'ITCZ est associé à un changement de la circulation tropicale résultant de rétroactions entre convection et dynamique de grande échelle. En plus de la dynamique verticale, la SST et les rétroactions couplées sont déterminantes pour la structure de l'ITCZ. Les études de sensibilité à l'entraînement latéral convectif montrent que les rétroactions couplées amplifient le biais de double ITCZ. L'analyse multi-modèle des GCMs CMIP5 montre que les processus thermodynamiques associés à la SST sont en grande partie responsables du problème de double ITCZ dans les simulations couplées
The spurious double intertropical convergence zone (ITCZ) is a systematic bias affecting state-of-the-art coupled general circulation models (GCM); there is still no consensus on its causes. The goal of this thesis is to shed some light on this outstanding problem toward the improvement of climate model performances. This work emphasizes the roles of coupled ocean-atmosphere and dynamics-thermodynamics feedbacks in the ITCZ structure. The first step was to study the response of the atmospheric GCMs ARPEGE-climat and LMDz in aquaplanet configuration, to a range of SST latitudinal distributions. The purpose was to investigate the existence of multiple precipitation regimes, explore their characteristics and untangle the mechanisms at play in regime transition. The transition from the double regime with two ITCZs to the single regime with only one ITCZ at the equator was analyzed. In both models, the transition between these regimes is mainly driven by changes in the low-level convergence that are forced by the atmospheric boundary layer temperature gradients. Model-dependent, dry and moist feedbacks intervene to reinforce or weaken the effect of the temperature forcing. Dry dynamical feedbacks are mainly driven by horizontal advection of cold subtropical air. Moist thermodynamics which are only active in LMDz; they act as negative feedbacks on low-level convergence and are associated with cooling in the stratospheric cold top and in the boundary layer by convective downdrafts. Moist processes play a crucial role in the ITCZ structure through their influence on the vertical profile of convective heating and modulation of moisture-convection feedbacks, two variables that are very sensitive to the convection scheme and, in particular, to lateral convective entrainment. The influence of lateral convective entrainment on the ITCZ structure is analyzed through a hierarchy of model configurations (coupled ocean-atmosphere, atmospheric and aquaplanet) using the CNRM-CM5 GCM. The sensitivity of the ITCZ structure to this parameter is robust across our hierarchy of models. In response to an increased entrainment rate, the realistic simulations exhibit a weakening of the southern side of the double ITCZ over the southeastern Pacific. The change in ITCZ configuration is associated with a more realistic representation of the tropical circulation driven by feedbacks between large-scale dynamics and deep convection. Together with vertical dynamics, SST and associated coupled feedbacks drive the ITCZ location. Sensitivity experiments to lateral entrainment show that ocean-atmosphere feedbacks amplify the double ITCZ bias. A multi-model analysis using CMIP5 GCMs show that the double ITCZ bias has become small in atmosphere-only simulations, and that coupled atmosphere-ocean feedbacks account for a large part of this bias in coupled simulations
15

Hoyos-Idrobo, Andrés. "Ensembles des modeles en fMRI : l'apprentissage stable à grande échelle". Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS029/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
En imagerie médicale, des collaborations internationales ont lançé l'acquisition de centaines de Terabytes de données - et en particulierde données d'Imagerie par Résonance Magnétique fonctionelle (IRMf) -pour les mettre à disposition de la communauté scientifique.Extraire de l'information utile de ces données nécessite d'importants prétraitements et des étapes de réduction de bruit. La complexité de ces analyses rend les résultats très sensibles aux paramètres choisis. Le temps de calcul requis augmente plus vite que linéairement: les jeux de données sont si importants qu'il ne tiennent plus dans le cache, et les architectures de calcul classiques deviennent inefficaces.Pour réduire les temps de calcul, nous avons étudié le feature-grouping commetechnique de réduction de dimension. Pour ce faire, nous utilisons des méthodes de clustering. Nous proposons un algorithme de clustering agglomératif en temps linéaire: Recursive Nearest Agglomeration (ReNA). ReNA prévient la création de clusters énormes, qui constitue un défaut des méthodes agglomératives rapidesexistantes. Nous démontrons empiriquement que cet algorithme de clustering engendre des modèles très précis et rapides, et permet d'analyser de grands jeux de données avec des ressources limitées.En neuroimagerie, l'apprentissage statistique peut servir à étudierl'organisation cognitive du cerveau. Des modèles prédictifs permettent d'identifier les régions du cerveau impliquées dans le traitement cognitif d'un stimulus externe. L'entraînement de ces modèles est un problème de très grande dimension, et il est nécéssaire d'introduire un a priori pour obtenir un modèle satisfaisant.Afin de pouvoir traiter de grands jeux de données et d'améliorer lastabilité des résultats, nous proposons de combiner le clustering etl'utilisation d'ensembles de modèles. Nous évaluons la performance empirique de ce procédé à travers de nombreux jeux de données de neuroimagerie. Cette méthode est hautement parallélisable et moins coûteuse que l'état del'art en temps de calcul. Elle permet, avec moins de données d'entraînement,d'obtenir de meilleures prédictions. Enfin, nous montrons que l'utilisation d'ensembles de modèles améliore la stabilité des cartes de poids résultantes et réduit la variance du score de prédiction
In medical imaging, collaborative worldwide initiatives have begun theacquisition of hundreds of Terabytes of data that are made available to thescientific community. In particular, functional Magnetic Resonance Imaging --fMRI-- data. However, this signal requires extensive fitting and noise reduction steps to extract useful information. The complexity of these analysis pipelines yields results that are highly dependent on the chosen parameters.The computation cost of this data deluge is worse than linear: as datasetsno longer fit in cache, standard computational architectures cannot beefficiently used.To speed-up the computation time, we considered dimensionality reduction byfeature grouping. We use clustering methods to perform this task. We introduce a linear-time agglomerative clustering scheme, Recursive Nearest Agglomeration (ReNA). Unlike existing fast agglomerative schemes, it avoids the creation of giant clusters. We then show empirically how this clustering algorithm yields very fast and accurate models, enabling to process large datasets on budget.In neuroimaging, machine learning can be used to understand the cognitiveorganization of the brain. The idea is to build predictive models that are used to identify the brain regions involved in the cognitive processing of an external stimulus. However, training such estimators is a high-dimensional problem, and one needs to impose some prior to find a suitable model.To handle large datasets and increase stability of results, we propose to useensembles of models in combination with clustering. We study the empirical performance of this pipeline on a large number of brain imaging datasets. This method is highly parallelizable, it has lower computation time than the state-of-the-art methods and we show that, it requires less data samples to achieve better prediction accuracy. Finally, we show that ensembles of models improve the stability of the weight maps and reduce the variance of prediction accuracy
16

Cordonnier, Guillaume. "Modèles à couches pour simuler l'évolution de paysages à grande échelle". Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAM072/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le développement des nouvelles technologies permet la visualisation interactive de mondes virtuels de plus en plus vastes et complexes. La production de paysages plausibles au sein de ces mondes devient un défi majeur, en raison de l'importance des éléments de terrain et des écosystèmes dans la qualité et le réalisme du résultat. S'y rajoute la difficulté d'éditer de tels éléments sur des échelles spatiales et temporelles aussi vastes que peuvent l'être celles des chaînes de montagnes. Cette édition se fait souvent en couplant des méthodes manuelles et de longues simulations numériques dont le calibrage est complexifié par le nombre des paramètres et leur caractère peu intuitif.Cette thèse propose d'explorer de nouvelles méthodes de simulation de paysages à grande échelle, avec pour objectif d'améliorer le contrôle et le réalisme des scènes obtenues. Notre stratégie est de fonder nos méthodes sur des lois éprouvées dans différents domaines scientifiques, ce qui permet de renforcer la plausibilité des résultats, tout en construisant des outils de résolution efficaces et des leviers de contrôles intuitifs.En observant des phénomènes liés aux zones de compression de la croûte terrestre, nous proposons une méthode de contrôle intuitif de la surrection à l'aide d'une métaphore de sculpture des plaques tectoniques. Combinée avec de nouvelles méthodes efficaces d'érosion fluviale et glaciaire, celle-ci permet de sculpter rapidement de vastes chaînes de montagnes. Pour visualiser les paysages obtenus à échelle humaine, nous démontrons le besoin de combiner la simulation de phénomènes variés et de temporalités différentes, et nous proposons une méthode de simulation stochastique pour résoudre cette difficile cohabitation, que nous appliquons à la simulation de processus géologiques tels que l'érosion, jointe à la formation d'écosystèmes. Cette méthode est déclinée sur GPU et appliquée à la formation du manteau neigeux, en combinant des aspects au long cours (précipitations, changements d'état de l'eau) et des aspects dynamiques (avalanches, impact des skieurs).Les différentes méthodes proposées permettent de simuler l'évolution de paysages à grande échelle, tout en accordant une attention particulière au contrôle. Ces aspects sont validés par des études utilisateur et des comparaisons avec des données issues de paysages réels
The development of new technologies allows the interactive visualization of virtual worlds showing an increasing amount of details and spacial extent. The production of plausible landscapes within these worlds becomes a major challenge, not only because the important part that terrain features and ecosystems play in the quality and realism of 3D sceneries, but also from the editing complexity of large landforms at mountain range scales. Interactive authoring is often achieved by coupling editing techniques with computationally and time demanding numerical simulation, whose calibration is harder as the number of non-intuitive parameters increases.This thesis explores new methods for the simulation of large-scale landscapes. Our goal is to improve both the control and the realism of the synthetic scenes. Our strategy to increase the plausibility consist on building our methods on physically and geomorphologically-inspired laws: we develop new solving schemes, which, combined with intuitive control tools, improve user experience.By observing phenomena triggered by compression areas within the Earth's crust, we propose a method for the intuitive control of the uplift based on a metaphor on the sculpting of the tectonic plates. Combined with new efficient methods for fluvial and glacial erosion, this allows for the fast sculpting of large mountain ranges. In order to visualize the resulting landscapes withing human sight, we demonstrate the need of combining the simulation of various phenomena with different time spans, and we propose a stochastic simulation technique to solve this complex cohabitation. This methodology is applied to the simulation of geological processes such as erosion interleaved with ecosystems formation. This method is then implemented on the GPU, combining long term effects (snow fall, phase changes of water) with highly dynamics ones (avalanches, skiers impact).Our methods allow the simulation of the evolution of large scale, visually plausible landscapes, while accounting for user control. These results were validated by user studies as well as comparisons with data obtained from real landscapes
17

Mellah, Kohi Meryem. "Modèle de caractérisation d'une bibliothèque CMOS : définition d'une sélection optimale d'éléments". Montpellier 2, 1995. http://www.theses.fr/1995MON20156.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous presentons dans ce travail une methode d'evaluation des performances des portes cmos, permettant de definir une strategie d'utilisation des elements d'une bibliotheque. Nous montrons qu'en utilisant un style regulier d'implantation, associe a une strategie de dimensionnement, nous pouvons modeliser les performances des portes logiques avec une precision proche de celle obtenue par caracterisation directe des performances des masques d'implantation. A partir des lois de caracterisation obtenues, le cout et l'efficacite des portes peuvent alors etre definis par rapport a leur dimensionnement, en mettant en evidence les parametres associes au layout et a la technologie. La notion de limite de charge est introduite et calculee pour chaque porte. Cette notion permet de definir les conditions d'utilisation des differents elements de la bibliotheque et de developper une strategie d'acceleration basee sur l'evaluation des facteurs de charge et leur comparaison a cette valeur limite. Cette strategie permet de faire le meilleur choix de selection des portes en fonction des retards imposes le long des chemins critiques. Ces resultats sont ensuite appliques a des bibliotheques de cellules standards. L'illustration avec des bibliotheques un micron montre comment interpreter, pour chaque element, les coefficients des lois de caracterisation en terme d'efficacite de portes. Les exemples d'application donnes sur la prediction des performances au niveau logique et pour la validation de la strategie d'acceleration illustrent l'efficacite de la methode proposee. La synthese de tous les resultats obtenus doit permettre de definir les conditions de realisation d'une bibliotheque de cellules optimales en terme de meilleur choix de portes
18

Audinot, Timothée. "Développement d’un modèle de dynamique forestière à grande échelle pour simuler les forêts françaises dans un contexte non-stationnaire". Electronic Thesis or Diss., Université de Lorraine, 2021. http://www.theses.fr/2021LORR0179.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Contexte. Depuis la révolution industrielle, les forêts européennes connaissent une dynamique d’expansion de leur surface et de leur stock de bois. Cette expansion, conjuguée au changement climatique, entraîne des modifications des processus de dynamique forestière. L’émergence de la bioéconomie européenne augure dans ce contexte d’évolutions des stratégies de gestion forestière à l’échelle européenne et nationale. La simulation des ressources forestières futures et de leur pilotage par des modèles à grande échelle spatiale est donc indispensable pour fournir des outils de planification stratégique. En France, les ressources forestières se caractérisent par une diversité marquée par rapport à d’autres pays européens. Le modèle de dynamique forestière MARGOT (MAtrix model of forest Resource Growth and dynamics On the Territory scale), a été mis en place par l’inventaire forestier national (IFN) en 1993 pour simuler les ressources forestières françaises à partir des données de cet inventaire, mais n’a été l’objet que de travaux de recherche restreints depuis son origine. Ses simulations restent limitées à un horizon temporel de moyen terme (inférieur à 30 ans), sous des scénarios de gestion de type business as usual, et ne tenant pas compte des contextes forestiers et environnementaux non-stationnaires.Objectifs. Cette thèse a pour ambition générale de consacrer un effort de recherche de rupture sur le modèle MARGOT, afin d’aborder les enjeux forestiers actuels. Les objectifs précis sont : i) de déterminer la capacité du modèle MARGOT à restituer l’expansion forestière française sur une période rétrospective longue (1971-2016), ii) de prendre en compte de façon synthétique de l’hétérogénéité des forêts à grande échelle, iii) de prendre en compte le phénomène de densification des forêts dans la dynamique démographique, iv) d’inclure les forçages climatiques externes dans la dynamique de croissance des forêts, v) dans un contexte devenu très incertain, de pouvoir mesurer le niveau d’incertitude des simulations résultant de l’erreur d’échantillonnage de l’inventaire forestier au regard des évolutions tendancielles considérées. Le développement de scénarios de gestion forestière reste hors du champ de ce travail. Principaux résultats. Une méthode générique de partition des forêts selon leur hétérogénéité géographique et compositionnelle a été mise en place, avec une vocation applicative à d’autres contextes forestiers européens. Une méthode de propagation de l’incertitude d’échantillonnage aux paramètres du modèle, puis aux simulations, a été développée à partir d’approches de ré-échantillonnage de données et de modélisation d’erreurs. Une approche originale d’intégration des phénomènes de densité-dépendance démographique, fondée sur une métrique de densité et la réintroduction d’un concept de « peuplement forestier » adapté à ce modèle, a été développée. Une stratégie d’intégration des forçages climatiques des paramètres démographiques du modèle a été développée à partir d’une approche d’hybridation entrées-sorties avec le modèle fonctionnel CASTANEA pour un sous-ensemble de la forêt française incluant les espèces de chênes, de hêtre, d’épicéa commun, et de pin sylvestre. L’ensemble de ces développements a permis de réduire très notablement le biais de prédiction du modèle initial. Conclusions. Les développements consentis font du modèle MARGOT un outil d’exploration et de planification plus fiable des ressources forestières, et reposant sur une approche de modélisation originale et unique en Europe. L’utilisation de statistiques forestières anciennes permettra d’évaluer le modèle et de simuler le stock de carbone de la forêt française sur un horizon temporel plus importante (de plus de 100 ans). Une évaluation approfondie des performances de ce nouveau modèle par des simulations intensives doit être conduite
Context. Since the industrial revolution, European forests have shown expansion of their area and growing stock. This expansion, together with climate change, drive changes in the processes of forest dynamic. The emergence of a European bioeconomy strategy suggests new developments of forest management strategies at European and national levels. Simulating future forest resources and their management with large-scale models is therefore essential to provide strategic planning support tools. In France, forest resources show high diversity as compared with other European countries' forests. The MARGOT forest dynamic model (MAtrix model of forest Resource Growth and dynamics On the Territory scale), was developed by the national forest inventory (IFN) in 1993 to simulate French forest resources from data of this inventory, but has been the subject of restricted developments, and simulations remain limited to a time horizon shorter than 30 years, under “business as usual” management scenarios, and not taking into account non-stationary forest and environmental contexts.Aims. The general ambition of this thesis was to consent a significant development effort on MARGOT model, in order to tackle current forestry issues. The specific objectives were: i) to assess the capacity of MARGOT to describe French forest expansion over a long retrospective period (1971-2016), ii) to take into account the heterogeneity of forests at large-scale in a holistic way, iii) to account for the impacts of forest densification in demographic dynamic processes, iv) to encompass external climatic forcing in forest growth, v) in a very uncertain context, to be able to quantify NFI sampling uncertainty in model parameters and simulations with respect to the magnitude of other trends considered. The development of forest management scenarios remained outside the scope of this work.Main results. A generic method for forest partitioning according to their geographic and compositional heterogeneity has been implemented. This method is intended to be applied to other European forest contexts. A method of propagating sampling uncertainty to model parameters and simulations has been developed from data resampling and error modelling approaches. An original approach to integrating density-dependence in demographic processes has been developed, based on a density metric and the reintroduction of forest stand entities adapted to the model. A strategy for integrating climate forcing of model demographic parameters was developed based on an input-output coupling approach with the process-based model CASTANEA, for a subset of French forests including oak, beech, Norway spruce, and Scots pine forests. All of these developments significantly reduced the prediction bias of the initial model.Conclusions. These developments make MARGOT a much more reliable forest resource assessment tool, and are based on an original modeling approach that is unique in Europe. The use of ancient forest statistics will make it possible to evaluate the model and simulate the carbon stock of French forests over a longer time horizon (over 100 years). Intensive simulations to assess the performance of this new model must be done
19

Martin, Armel. "Influence des ondes de gravité de montagne sur l'écoulement de grande échelle en présence de niveaux critiques". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2008. http://tel.archives-ouvertes.fr/tel-00812517.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'effet sur l'écoulement atmosphérique de grande échelle, du déferlement des ondes de gravité de montagne à des niveaux critiques, est étudiée sous l'angle d'une production de vorticité potentielle dans le cadre du modèle de Eady. Concernant les échelles synoptiques, on montre notamment à l'aide d'un modèle semi-géostrophique linéarisé forcé par une force paramétrisée, que l'effet est cyclolytique dans le cas d'un front froid, et cyclogénétique pour un front chaud. Puis la dynamique 2D complète non linéaire est abordée à l'aide des équations primitives anélastiques. La réponse au forçage montagneux (paramétrisé ou direct) aux échelles sous-synoptiques, contient notamment des modes de Eady non-géostrophiques, couplant une onde de Eady de surface à une onde d'inertie-gravité de même échelle, et des trains d'ondes d'inertie-gravité générés spontanément par l'écoulement équilibré associé au dipole de vorticité potentielle. L'étude de la saturation non linéaire de ces réponses donne des amplitudes relativement faibles mais significatives.
20

Lopez, Alain. "Réduction de Grosstalk, fenêtre inductive et modèles équivalents de lignes de transmission couplées". Montpellier 2, 2004. http://www.theses.fr/2004MON20112.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
21

Aouad, Lamine. "Contribution à l'algorithmique matricielle et évaluation de performances sur les grilles de calcul, vers un modèle de programmation à grande échelle". Lille 1, 2005. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2005/50376-2005-Aouad.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les grilles de calcul offrent une alternative intéressante pour les applications de calcul matriciel, grandes consommatrices de ressources de calcul et de mémoire. Néanmoins, les modèles de calcul de type 'task farming' inhérents à la plupart de ces systèmes rendent difficile une programmation efficace car la granularité de ces applications les rend inadaptées Dans cette thèse, nous proposons un modèle de programmation sur grilles de calcul non-dédiées basé sur la gestion de la localité des données; du réseau de communication jusqu'aux mémoires locales des noeuds de calcul, pour des applications matricielles basées sur des distributions par blocs. La technique de programmation out-of-core est introduite comme réponse aux problèmes de restriction mémoire sur les noeuds de calcul. Cette technique tend à minimiser l'impact des entrées/sorties nécessaires au calcul lorsque la taille des tâches excède la taille mémoire allouable. D'un autre côté, des techniques de placement persistant proposant l'anticipation de migration et le clouage des données permettent d'optimiser les besoins en communications et d'atteindre un bon niveau de performances par rapport aux implémentations classiques Les évaluations de performances ont été réalisées sur deux noyaux de l'algèbre matriciel sur de larges plateformes de calcul déployées sur trois sites géographiquement distribués, en France et au Japan, et sur la plateforme expérimentale Grid'5000
22

Lambaerts, Julien. "Les effets dynamiques de l'humidité dans les modèles idéalisés de l'atmosphère de grande échelle". Paris 6, 2011. http://www.theses.fr/2011PA066514.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La vapeur d'eau joue un rôle important dans le climat, notamment par le dégagement de chaleur latente qu'elle produit lors de sa condensation. Cet effet intervient dans les phénomènes liés à la convection tropicale et accompagne les perturbations synoptiques des latitudes moyennes. Il est actuellement paramétrisé dans les modèles de circulation générale et son déclenchement introduit un effet de seuil non-linéaire dans les équations du système. Pour étudier l'impact de la condensation sur la dynamique atmosphérique de grande échelle, nous avons développé des modèles idéalisés de type St-Venant où le dégagement de chaleur est représenté par un flux de masse entre les couches qui conserve l'enthalpie humide et où la condensation est paramétrisée avec un schéma Betts-Miller simple. Ces modèles sont non-linéaires et agéostrophiques et correspondent dans certaines limites aux modèles d'études précédentes. La condensation modifie les propriétés des modèles de St-Venant secs qui, sous certaines conditions, sont des systèmes hyperboliques par partie présentant des vitesses caractéristiques humides plus lentes que les sèches et des solutions sous forme de fronts de précipitation. Nos modèles sont résolus numériquement à l'aide de schémas aux volumes finis permettant de mener des expériences non-linéaires de haute résolution. L'impact de l'humidité sur l'intégralité du développement des instabilités dynamiques barotrope et barocline a ainsi été étudié. La condensation augmente le taux de croissance de l'instabilité et intensifie les mouvements agéostrophiques et cycloniques de la couche humide. Et l'asymétrie cyclonique qu'elle provoque modifie la stabilistation de l'écoulement.
23

Jenni, Sandra. "Calage de la géométrie des réseaux de fractures aux données hydrodynamiques de production d'un champ pétrolier". Paris 6, 2005. http://www.theses.fr/2005PA066024.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
24

Assouline, Béatrice Gillian. "Mise au point d'un nouveau modèle d' étude des gènes exprimés au cours du développement du pancréas : le poisson médaka, Oryzias Latipes". Paris 7, 2005. http://www.theses.fr/2005PA077003.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
25

Nguyen, Thi Thanh Tam. "Codèle : Une Approche de Composition de Modèles pour la Construction de Systèmes à Grande Échelle". Phd thesis, Université Joseph Fourier (Grenoble), 2008. http://tel.archives-ouvertes.fr/tel-00399655.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Depuis "toujours", en Génie Logiciel comme dans toutes les ingénieries, afin réduire la complexité et pour améliorer la réutilisation, le produit à construire est divisé en parties construites indépendamment et ensuite assemblées. L'approche récente de l'Ingénierie Dirigée par les Modèles (IDM, ou MDE pour Model-Driven Engineering), fait de même, en proposant "simplement" que les parties à construire et à assembler soient des modèles et non pas des programmes. C'est ainsi que le problème de la composition de modèles est devenu un thème important de l'IDM, et le sujet de cette thèse. En effet, un système logiciel réel est bien trop complexe pour pouvoir être décrit par un seul modèle. De nombreux modèles devront être créés pour le spécifier, soit à divers niveaux d'abstraction, soit selon divers points de vue, soit encore selon des domaines fonctionnels differents et complémentaires. Dans ce travail, nous partons de l'hypothèse que de tels domaines métiers existent. Un domaine est un champ d'expertise avec 1) les savoir-faire et les connaissances capturés et formalisés sous la forme d'un langage de modélisation dédié au domaine (un Domain-Specific Modeling Language (DSML)), et 2) des outils et des environnements supportant le développement d'applications dans ce domaine. Une application, dans un domaine, est décrite par un modèle (conforme au métamodèle du domaine). Dans ce travail, nous faisons aussi l'hypothèse que ces domaines sont exécutables ; les modèles du domaine sont exécutés par une machine virtuelle du domaine. En IDM, comme dans les autres approches du Génie Logiciel, la réutilisation impose que le processus d'assemblage des parties puisse se faire sans avoir à modifier celles-ci, ni bien sur l'environnement qui les a produit ou qui les exécute. Appliqué à notre contexte, cela signifie qu'il faut être capable de composer des modèles sans les modifier et sans modifier ni l'éditeur ni la machine virtuelle du domaine dont ils sont issus. C'est le problème que nous abordons dans notre travail. Nous montrons que pour atteindre cet objectif, il faut d'abord composer les domaines c'est à dire composer leurs métamodèles et leurs machines virtuelles, puis les modèles. Nous montrons dans ce travail comment ces compositions peuvent être réalisées sans modifier les éléments compos és, en utilisant des relations dites horizontales entre les métamodèles, et des liens entre les modèles. Cette approche est validée d'abord par la réalisation d'un certain nombre de domaines composites, et par de nombreuses compositions de modèles opérationnelles. Une partie importante du travail a consisté à définir Codèle, un langage de composition de modèles et de métamodèles, et à réaliser l'environnement d'assistance correspondant. Codèle assiste les ingénieurs pour composer de façon systématique les domaines, et rend automatique ou semi-automatique la composition de tous modèles provenant de ces domaines. Nous présentons l'outil Codèle et nous évaluons son usage dans divers projets.
26

Guziolowski, Carito. "Étude des réseaux biologiques à grande échelle par modélisation statique et résolution des contraintes". Rennes 1, 2010. http://www.theses.fr/2010REN1S006.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
To this date many approaches exist that model a genetic regulatory network in order to elucidate the dynamics of the system. These methods focus, however, mainly on small-scale regulatory models. In this thesis we use a formal approach over qualitative large-scale regulatory networks, that models the equilibrium shift of the cell molecules between two steady states. We test the coherency between the network topology and gene expression data, by using a general interaction logical causal rule. The outputs of our approach are to measure the consistency of our data, diagnose inconsistent regions of the network with respect to the experimental data, and infer the qualitative variation of new network molecules. Our method reasons over the whole network of interactions using eefficient algorithms based either on decision diagrams, dependency graphs, or answer set programming. We proposed programs and bioinformatic tools that, based on these efficient implementations, automatize this reasoning. We validated this approach using the transcriptional networks of E. Coli and S. Cerevisiae, and the signaling network of the EWS-FLI1 human oncogene. Our main results were: (1) high prediction accuracy of the shifts of the network molecules, (2) effective manual and automatic corrections of the model and/or data, (3) automatic inference of the role of transcription factors, and (4) automatic reasoning over the causes that influence important phenotypes on a signaling network. All in all, we provided a methodology that can be applied to complete regulatory networks built at different molecular levels, by exploiting the constantly increasing high-throughput outputs
Il existe plusieurs approches qui modélisent des réseaux de régulation génétiques afin d'élucider la dynamique d'un système biologique. Cependant, ces approches concernent des modèles à petite-échelle. Dans cette thèse nous utilisons un approche formelle sur les réseaux de régulation à grande-échelle qui modélise les variations des concentrations des molécules d'une cellule entre deux états stationnaires. On teste la cohérence entre la topologie du réseau et des données d'expression génétique en utilisant une règle causale de consistance. Les résultats de cette approche sont : test de la consistance entre les données et un réseau, diagnostic des régions du réseau inconsistantes avec les données expérimentales, et inférence des variations des éléments du réseau. Notre méthode raisonne sur la topologie globale du réseau en utilisant des algorithmes efficaces basés sur des diagrammes de décision, des graphes de dépendance, ou la programmation par ensemble réponse. Nous avons proposé des programmes et des outils bioinformatiques basés sur ces algorithmes qui automatisent ces raisonnements. On a validé cette approche en utilisant des réseaux transcriptionnels des espèces E. Coli et S. Cerevisiae, et le réseau de signalisation de l'oncogène EWS-FLI1. Nos résultats principaux sont: (1) un pourcentage élevé de validation des prédictions sur la variation des molécules du réseau, (2) des corrections manuelles et automatiques efficaces du modèle et/ou données, (3) l'inférence automatique des rôles des facteurs de transcription, et (4) raisonnement automatique sur les causes qui influencent des phénotypes importants dans des réseaux de signalisation
27

Fernandez-Abrevaya, Victoria. "Apprentissage à grande échelle de modèles de formes et de mouvements pour le visage 3D". Electronic Thesis or Diss., Université Grenoble Alpes, 2020. https://theses.hal.science/tel-03151303.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les modèles du visage 3D fondés sur des données sont une direction prometteuse pour capturer les subtilités complexes du visage humain, et une composante centrale de nombreuses applications grâce à leur capacité à simplifier des tâches complexes. La plupart des approches basées sur les données à ce jour ont été construites à partir d’un nombre limité d’échantillons ou par une augmentation par données synthétiques, principalement en raison de la difficulté à obtenir des scans 3D à grande échelle. Pourtant, il existe une quantité substantielle d’informations qui peuvent être recueillies lorsque l’on considère les sources publiquement accessibles qui ont été capturées au cours de la dernière décennie, dont la combinaison peut potentiellement apporter des modèles plus puissants.Cette thèse propose de nouvelles méthodes pour construire des modèles de la géométrie du visage 3D fondés sur des données, et examine si des performances améliorées peuvent être obtenues en apprenant à partir d’ensembles de données vastes et variés. Afin d’utiliser efficacement un grand nombre d’échantillons d’apprentissage, nous développons de nouvelles techniques d’apprentissage profond conçues pour gérer efficacement les données faciales tri-dimensionnelles. Nous nous concentrons sur plusieurs aspects qui influencent la géométrie du visage : ses composantes de forme, y compris les détails, ses composants de mouvement telles que l’expression, et l’interaction entre ces deux sous-espaces.Nous développons notamment deux approches pour construire des modèles génératifs qui découplent l’espace latent en fonction des sources naturelles de variation, e.g.identité et expression. La première approche considère une nouvelle architecture d’auto-encodeur profond qui permet d’apprendre un modèle multilinéaire sans nécessiter l’assemblage des données comme un tenseur complet. Nous proposons ensuite un nouveau modèle non linéaire basé sur l’apprentissage antagoniste qui davantage améliore la capacité de découplage. Ceci est rendu possible par une nouvelle architecture 3D-2D qui combine un générateur 3D avec un discriminateur 2D, où les deux domaines sont connectés par une couche de projection géométrique.En tant que besoin préalable à la construction de modèles basés sur les données, nous abordons également le problème de mise en correspondance d’un grand nombre de scans 3D de visages en mouvement. Nous proposons une approche qui peut gérer automatiquement une variété de séquences avec des hypothèses minimales sur les données d’entrée. Ceci est réalisé par l’utilisation d’un modèle spatio-temporel ainsi qu’une initialisation basée sur la régression, et nous montrons que nous pouvons obtenir des correspondances précises d’une manière efficace et évolutive.Finalement, nous abordons le problème de la récupération des normales de surface à partir d’images naturelles, dans le but d’enrichir les reconstructions 3D grossières existantes. Nous proposons une méthode qui peut exploiter toutes les images disponibles ainsi que les données normales, qu’elles soient couplées ou non, grâce à une nouvelle architecture d’apprentissage cross-modale. Notre approche repose sur un nouveau module qui permet de transférer les détails locaux de l’image vers la surface de sortie sans nuire aux performances lors de l’auto-encodage des modalités, en obtenant des résultats de pointe pour la tâche
Data-driven models of the 3D face are a promising direction for capturing the subtle complexities of the human face, and a central component to numerous applications thanks to their ability to simplify complex tasks. Most data-driven approaches to date were built from either a relatively limited number of samples or by synthetic data augmentation, mainly because of the difficulty in obtaining large-scale and accurate 3D scans of the face. Yet, there is a substantial amount of information that can be gathered when considering publicly available sources that have been captured over the last decade, whose combination can potentially bring forward more powerful models.This thesis proposes novel methods for building data-driven models of the 3D face geometry, and investigates whether improved performances can be obtained by learning from large and varied datasets of 3D facial scans. In order to make efficient use of a large number of training samples we develop novel deep learning techniques designed to effectively handle three-dimensional face data. We focus on several aspects that influence the geometry of the face: its shape components including fine details, its motion components such as expression, and the interaction between these two subspaces.We develop in particular two approaches for building generative models that decouple the latent space according to natural sources of variation, e.g.identity and expression. The first approach considers a novel deep autoencoder architecture that allows to learn a multilinear model without requiring the training data to be assembled as a complete tensor. We next propose a novel non-linear model based on adversarial training that further improves the decoupling capacity. This is enabled by a new 3D-2D architecture combining a 3D generator with a 2D discriminator, where both domains are bridged by a geometry mapping layer.As a necessary prerequisite for building data-driven models, we also address the problem of registering a large number of 3D facial scans in motion. We propose an approach that can efficiently and automatically handle a variety of sequences while making minimal assumptions on the input data. This is achieved by the use of a spatiotemporal model as well as a regression-based initialization, and we show that we can obtain accurate registrations in an efficient and scalable manner.Finally, we address the problem of recovering surface normals from natural images, with the goal of enriching existing coarse 3D reconstructions. We propose a method that can leverage all available image and normal data, whether paired or not, thanks to a new cross-modal learning architecture. Core to our approach is a novel module that we call deactivable skip connections, which allows to transfer the local details from the image to the output surface without hurting the performance when autoencoding modalities, achieving state-of-the-art results for the task
28

Sultan, Emmanuelle. "Etude de la circulation océanique à grande échelle dans l'océan indien sud par méthode inverse". Paris, Muséum national d'histoire naturelle, 2001. http://www.theses.fr/2001MNHN0019.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
En vue de réactualiser nos connaissances de la circulation de grande échelle dans l'Océan Indien sur, un modèle inverse aux différences finies est appliqué aux données hydrologiques disponibles à l'heure actuelle. La vitesse géostrophique au niveau de référence est ajustée par des contraintes de conservation de flux de masse, de chaleur et de vorticité potentielle. Trois résultats majeurs ressortent de cette étude. 1) Les différents systèmes de circulation de l'océan Indien sud sont bien mis en évidence avec, pour chacun d'eux, un fort contrôle topographique lié à la complexité de la bathymétrie dans cette région. La nature barotrope du gyre de Weddell est prouvée avec une extension vers l'est limitée par la branche sud du Courant Circumpolaire Antarctique. 2) La circulation au fond au nord de 50°S suit les courants de bords ouest avec une tendance cyclonique. Au sud de 50°S, l'origine de l'eau de fond soit être validée par des études complémentaires. 3) La position de la cellule méridienne de circulation thermohaline est estimée entre 26°S et 32°S par 1400m de profondeur et elle est concentrée à l'est du Seuil du Mozambique. Elle met en jeu 15 Sv (1Sv=10 millions m3/s) ce qui correspond à de très fortes vitesses verticales. A 32°S, à l'est du Seuil du Mozambique, 15Sv sont véhiculés par un important Sous-courant des Aiguilles. Le gain de chaleur vers le Sud à 32° est de 0. 33PW (1PW=10 [exposant 15] W). Le modèle inverse aux différences finies est un outil robuste de synthèse et d'analyse pour la circulation du fond au sud de 50°S et pour la zone tropicale. L'impact de l'intensité du Courant des Aiguilles sur l'intensité de la cellule méridienne de circulation pourrait être quantifiée avec d'autres simulations.
29

Kulunchakov, Andrei. "Optimisation stochastique pour l'apprentissage machine à grande échelle : réduction de la variance et accélération". Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALM057.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse vise à explorer divers sujets liés à l'analyse des méthodes de premier ordre appliquées à des problèmes stochastiques de grande dimension. Notre première contribution porte sur divers algorithmes incrémentaux, tels que SVRG, SAGA, MISO, SDCA, qui ont été analysés de manière approfondie pour les problèmes avec des informations de gradient exactes. Nous proposons une nouvelle technique, qui permet de traiter ces méthodes de manière unifiée et de démontrer leur robustesse à des perturbations stochastiques lors de l'observation des gradients. Notre approche est basée sur une extension du concept de suite d'estimation introduite par Yurii Nesterov pour l'analyse d'algorithmes déterministes accélérés.Cette approche permet de concevoir de façon naturelle de nouveaux algorithmes incrémentaux offrant les mêmes garanties que les méthodes existantes tout en étant robustes aux perturbations stochastiques.Enfin, nous proposons un nouvel algorithme de descente de gradient stochastique accéléré et un nouvel algorithme SVRG accéléré robuste au bruit stochastique. Dans le dernier cas il s'agit essentiellement de l'accélération déterministe au sens de Nesterov, qui préserve la convergence optimale des erreurs stochastiques.Finalement, nous abordons le problème de l'accélération générique. Pour cela, nous étendons l'approche multi-étapes de Catalyst, qui visait à l'origine l'accélération de méthodes déterministes. Afin de l'appliquer aux problèmes stochastiques, nous le modifions pour le rendre plus flexible par rapport au choix des fonctions auxiliaires minimisées à chaque étape de l'algorithme. Finalement, à partir d'une méthode d'optimisation pour les problèmes fortement convexes, avec des garanties standard de convergence, notre procédure commence par accélérer la convergence vers une région dominée par le bruit, pour converger avec une vitesse quasi-optimale ensuite. Cette approche nous permet d'accélérer diverses méthodes stochastiques, y compris les algorithmes à variance réduite. Là encore, le cadre développé présente des similitudes avec l'analyse d'algorithmes accélérés à l'aide des suites d'estimation. En ce sens, nous essayons de combler l'écart entre l'optimisation déterministe et stochastique en termes d'accélération de Nesterov. Une autre contribution est une analyse unifiée d'algorithmes proximaux stochastiques lorsque l'opérateur proximal ne peut pas être calculé de façon exacte.Ensuite, nous étudions des propriétés d'algorithmes stochastique non-Euclidiens appliqués au problème d'estimation parcimonieuse. La structure de parcimonie permet de réduire de façon significative les effets du bruit dans les observation du gradient. Nous proposons un nouvel algorithme stochastique, appelé SMD-SR, permettant de faire meilleur usage de cette structure. Là encore, la méthode en question est une routine multi-étapes qui utilise l'algorithme stochastique de descente en miroir comme élément constitutif de ses étapes. Cette procédure comporte deux phases de convergence, dont la convergence linéaire de l'erreur pendant la phase préliminaire, et la convergence à la vitesse asymptotique optimale pendant la phase asymptotique. Par rapport aux solutions existantes les plus efficaces aux problèmes d’optimisation stochastique parcimonieux, nous proposons une amélioration sur plusieurs aspects. Tout d'abord, nous montrons que l'algorithme proposé réduit l'erreur initiale avec une vitesse linéaire (comme un algorithme déterministe de descente de gradient, utilisant l'observation complète du gradient), avec un taux de convergence optimal par rapport aux caractéristiques du bruit. Deuxièmement, nous obtenons ce taux pour une grande classe de modèles de bruit, y compris les distributions sous-gaussiennes, de Rademacher, de Student multivariées, etc. Enfin, ces résultats sont obtenus sous la condition optimale sur le niveau de parcimonie qui peut approcher le nombre total d'iterations de l'algorithme (à un facteur logarithmique près)
A goal of this thesis is to explore several topics in optimization for high-dimensional stochastic problems. The first task is related to various incremental approaches, which rely on exact gradient information, such as SVRG, SAGA, MISO, SDCA. While the minimization of large limit sums of functions was thoroughly analyzed, we suggest in Chapter 2 a new technique, which allows to consider all these methods in a generic fashion and demonstrate their robustness to possible stochastic perturbations in the gradient information.Our technique is based on extending the concept of estimate sequence introduced originally by Yu. Nesterov in order to accelerate deterministic algorithms.Using the finite-sum structure of the problems, we are able to modify the aforementioned algorithms to take into account stochastic perturbations. At the same time, the framework allows to derive naturally new algorithms with the same guarantees as existing incremental methods. Finally, we propose a new accelerated stochastic gradient descent algorithm and a new accelerated SVRG algorithm that is robust to stochastic noise. This acceleration essentially performs the typical deterministic acceleration in the sense of Nesterov, while preserving the optimal variance convergence.Next, we address the problem of generic acceleration in stochastic optimization. For this task, we generalize in Chapter 3 the multi-stage approach called Catalyst, which was originally aimed to accelerate deterministic methods. In order to apply it to stochastic problems, we improve its flexibility on the choice of surrogate functions minimized at each stage. Finally, given an optimization method with mild convergence guarantees for strongly convex problems, our developed multi-stage procedure, accelerates convergence to a noise-dominated region, and then achieves the optimal (up to a logarithmic factor) worst-case convergence depending on the noise variance of the gradients. Thus, we successfully address the acceleration of various stochastic methods, including the variance-reduced approaches considered and generalized in Chapter 2. Again, the developed framework bears similarities with the acceleration performed by Yu. Nesterov using the estimate sequences. In this sense, we try to fill the gap between deterministic and stochastic optimization in terms of Nesterov's acceleration. A side contribution of this chapter is a generic analysis that can handle inexact proximal operators, providing new insights about the robustness of stochastic algorithms when the proximal operator cannot be exactly computed.In Chapter 4, we study properties of non-Euclidean stochastic algorithms applied to the problem of sparse signal recovery. A sparse structure significantly reduces the effects of noise in gradient observations. We propose a new stochastic algorithm, called SMD-SR, allowing to make better use of this structure. This method is a multi-step procedure which uses the stochastic mirror descent algorithm as a building block over its stages. Essentially, SMD-SR has two phases of convergence with the linear bias convergence during the preliminary phase and the optimal asymptotic rate during the asymptotic phase.Comparing to the most effective existing solution to the sparse stochastic optimization problems, we offer an improvement in several aspects. First, we establish the linear bias convergence (similar to the one of the deterministic gradient descent algorithm, when the full gradient observation is available), while showing the optimal robustness to noise. Second, we achieve this rate for a large class of noise models, including sub-Gaussian, Rademacher, multivariate Student distributions and scale mixtures. Finally, these results are obtained under the optimal condition on the level of sparsity which can approach the total number of iterations of the algorithm (up to a logarithmic factor)
30

Quaas, Johannes. "L'effet indirect des aérosols : paramétrisation dans des modèles de grande échelle et évaluation des données satellitales". Palaiseau, Ecole polytechnique, 2003. http://www.theses.fr/2003EPXX0046.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
31

Vie, Jill-Jênn. "Modèles de tests adaptatifs pour le diagnostic de connaissances dans un cadre d'apprentissage à grande échelle". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLC090/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse porte sur les tests adaptatifs dans les environnements d’apprentissage. Elle s’inscrit dans les contextes de fouille de données éducatives et d’analytique de l’apprentissage, où l’on s’intéresse à utiliser les données laissées par les apprenants dans des environnements éducatifs pour optimiser l’apprentissage au sens large.L’évaluation par ordinateur permet de stocker les réponses des apprenants facilement, afin de les analyser et d’améliorer les évaluations futures. Dans cette thèse, nous nous intéressons à un certain type de test par ordinateur, les tests adaptatifs. Ceux-ci permettent de poser une question à un apprenant, de traiter sa réponse à la volée, et de choisir la question suivante à lui poser en fonction de ses réponses précédentes. Ce processus réduit le nombre de questions à poser à un apprenant tout en conservant une mesure précise de son niveau. Les tests adaptatifs sont aujourd’hui implémentés pour des tests standardisés tels que le GMAT ou le GRE, administrés à des centaines de milliers d’étudiants. Toutefois, les modèles de tests adaptatifs traditionnels se contentent de noter les apprenants, ce qui est utile pour l’institution qui évalue, mais pas pour leur apprentissage. C’est pourquoi des modèles plus formatifs ont été proposés, permettant de faire un retour plus riche à l’apprenant à l’issue du test pour qu’il puisse comprendre ses lacunes et y remédier. On parle alors de diagnostic adaptatif.Dans cette thèse, nous avons répertorié des modèles de tests adaptatifs issus de différents pans de la littérature. Nous les avons comparés de façon qualitative et quantitative. Nous avons ainsi proposé un protocole expérimental, que nous avons implémenté pour comparer les principaux modèles de tests adaptatifs sur plusieurs jeux de données réelles. Cela nous a amenés à proposer un modèle hybride de diagnostic de connaissances adaptatif, meilleur que les modèles de tests formatifs existants sur tous les jeux de données testés. Enfin, nous avons élaboré une stratégie pour poser plusieursquestions au tout début du test afin de réaliser une meilleure première estimation des connaissances de l’apprenant. Ce système peut être appliqué à la génération automatique de feuilles d’exercices, par exemple sur un cours en ligne ouvert et massif (MOOC)
This thesis studies adaptive tests within learning environments. It falls within educational data mining and learning analytics, where student educational data is processed so as to optimize their learning.Computerized assessments allow us to store and analyze student data easily, in order to provide better tests for future learners. In this thesis, we focus on computerized adaptive testing. Such adaptive tests which can ask a question to the learner, analyze their answer on the fly, and choose the next question to ask accordingly. This process reduces the number of questions to ask to a learner while keeping an accurate measurement of their level. Adaptive tests are today massively used in practice, for example in the GMAT and GRE standardized tests, that are administered to hundreds of thousands of students. Traditionally, models used for adaptive assessment have been mostly summative : they measure or rank effectively examinees, but do not provide any other feedback. Recent advances have focused on formative assessments, that provide more useful feedback for both the learner and the teacher ; hence, they are more useful for improving student learning.In this thesis, we have reviewed adaptive testing models from various research communities. We have compared them qualitatively and quantitatively. Thus, we have proposed an experimental protocol that we have implemented in order to compare the most popular adaptive testing models, on real data. This led us to provide a hybrid model for adaptive cognitive diagnosis, better than existing models for formative assessment on all tried datasets. Finally, we have developed a strategy for asking several questions at the beginning of a test in order to measure the learner more accurately. This system can be applied to the automatic generation of worksheets, for example on a massive online open course (MOOC)
32

Guichard, Françoise. "Impact d'un ensemble de nuages sur l'environnement de plus grande échelle vu par un modèle de convection nuageuse explicite (cas GATE et TOGA-GAte)". Toulouse, INPT, 1995. http://www.theses.fr/1995INPT034H.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette these represente une etude a echelle fine de la convection nuageuse tropicale oceanique et de ses effets a plus grande echelle, a l'aide des bilans thermodynamiques fournis par le modele numerique non-hydrostatique explicite de nuages du cnrm. On analyse une portion d'atmosphere correspondant typiquement a une colonne de modele de circulation generale. Les effets radiatifs (schema du cepmmt) ont ete inclus afin de traiter physiquement les interactions convection-rayonnement. De nouveaux diagnostics ont ete developpes afin d'analyser temporellement et spatialement le systeme et les mecanismes operants. On utilise des simulations bidimensionnelles (donnees gate) poursuivies sur quelques jours, pour caracteriser le regime convectif et sa sensibilite (dans un cas de convection peu organisee), et des simulations tridimensionnelles (donnees toga-coare) poursuivies sur une demi-journee, avec inclusion de la phase glace, pour etudier dans le detail un evenement convectif precis (cas observe de lignes convectives). Relativement aux schemas de convection, l'interet de cette approche est de fournir des elements de comparaison et de reflexion difficiles a obtenir a partir des observations seules. Les simulations bidimensionnelles montrent une grande variabilite temporelle de l'activite convective et des transferts verticaux de vapeur d'eau importante, responsables pour ce cas d'une humidification systematique dans les hautes couches nuageuses. Les effets radiatifs intensifient l'activite convective et le cycle diurne du rayonnement represente un facteur de controle conduisant a un maximum d'activite convective pendant la nuit pour les convergences de grande echelle faibles. L'analyse des simulations tridimensionnelles basee sur une partition du systeme en zones internes (convectives, ciel clair) met en evidence les points suivants. On observe un equilibre de masse entre ces zones, ou intervient la masse de l'eau sous ses differentes phases, resultant d'importants mecanismes de compensation. La connaissance du flux de masse en nuages permet d'estimer correctement le rechauffement/assechement par degagement de chaleur latente. En revanche, la somme des flux resolus a l'echelle des zones internes conduit a une large sous-estimation des flux convectifs. Enfin, cette analyse montre la presence conjointe d'une couche de convection peu profonde dans la simulation, qui est responsable d'un minimum d'assechement dans les basses couches
33

Erez, Giacomo. "Modélisation du terme source d'incendie : montée en échelle à partir d'essais de comportement au feu vers l'échelle réelle : approche "modèle", "numérique" et "expérimentale"". Electronic Thesis or Diss., Université de Lorraine, 2019. http://www.theses.fr/2019LORR0189.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le recours à la simulation numérique peut être précieux pour un investigateur cherchant à évaluer une hypothèse dans le cadre de la recherche des causes et circonstances d'un incendie. Pour utiliser cet outil, il est primordial de définir précisément le terme source, c'est-à-dire la quantité d'énergie ou de gaz combustibles que le foyer va dégager au cours du temps. Il peut être déterminé par des essais en échelle réduite ou réelle. La première approche est souvent préférée car plus facile à mettre en œuvre et moins coûteuse. Dans ce cas, il est ensuite nécessaire de transposer les résultats vers l'échelle réelle : pour cela, plusieurs types de modèles ont été proposés. Les plus complets reposent sur des modèles de pyrolyse, qui décrivent le comportement au feu à partir des réactions chimiques dans la phase condensée. Toutefois, ils ne sont pour l'instant pas mûrs pour les applications en investigation. C'est pourquoi une autre famille de modèles, dits thermiques, a été choisie dans l'étude présentée ici. Ces modèles visent à prédire le terme source en fonction de la sollicitation thermique uniquement. Les travaux sont divisés en deux parties principales, à savoir une caractérisation approfondie des transferts de chaleur au sein d'une flamme et une investigation de leur influence sur la décomposition des matériaux. Pour le premier sujet, l'accent est mis sur les transferts radiatifs car ils jouent un rôle prédominant dans l'entretien de la combustion et la propagation. Le rayonnement des flammes a donc été caractérisé pour plusieurs combustibles (kérosène, gazole, heptane, mousse polyuréthane et bois) et de nombreuses tailles de foyer (de 0,3 m à 3,5 m de côté). Les mesures, incluant de l'imagerie visible mais aussi un dispositif d'opacimétrie multispectral et un spectromètre infrarouge, ont permis de décrire la forme et l'émission des flammes. Ces données ont ensuite été utilisées dans un modèle (méthode de Monte-Carlo) pour prédire les flux thermiques reçus à différentes positions. Ces prédictions reproduisent bien les valeurs mesurées lors des essais, ce qui montre que les principaux phénomènes contrôlant le rayonnement ont été identifiés et pris en compte, pour toutes les tailles de foyer. Étant donné que l'objectif final est de fournir un outil de simulation complet, il a été choisi d'évaluer Fire Dynamics Simulator (FDS) afin de déterminer si le code permet de décrire correctement ces transferts radiatifs. Ce travail a été fait grâce aux données et connaissances acquises précédemment et montre que le code prédit correctement les flux reçus. Il a donc été choisi, pour la suite des travaux, de se reposer sur le modèle de rayonnement déjà incorporé dans FDS, pour profiter de son couplage avec le reste des modèles utiles à la simulation incendie. Concernant le second thème de l'étude, à savoir l'effet du rayonnement sur la décomposition, un travail expérimental a été mené sur la mousse polyuréthane au cône calorimètre, afin de lier la vitesse de perte de masse (MLR, pour Mass loss rate) au flux thermique imposé. Ces données ont permis de construire un modèle prédisant le MLR en fonction du temps et de l'éclairement, ce qui représente bien l'approche thermique évoquée précédemment. Des essais à plus grande échelle ont servi à caractériser la propagation du feu à la surface du combustible mais aussi à l'intérieur des échantillons de mousse, en employant différents moyens de mesure (imagerie visible, thermométrie, photogrammétrie). En plus des connaissances acquises, cette étude indique que l'utilisation de données obtenues à petite échelle est possible pour prédire le comportement au feu à échelle réelle. C'est donc ce qui a été fait, en modifiant le code source de FDS, pour intégrer une approche thermique en utilisant les données du modèle décrivant le MLR en fonction du temps et de l'éclairement. Les premières simulations montrent des résultats encourageants, et seront complétées par l'étude de géométries plus complexes
Numerical simulations can provide valuable information to fire investigators, but only if the fire source is precisely defined. This can be done through full- or small-scale testing. The latter is often preferred because these tests are easier to perform, but their results have to be extrapolated in order to represent full-scale fire behaviour. Various approaches have been proposed to perform this upscaling. An example is pyrolysis models, which involve a detailed description of condensed phase reactions. However, these models are not ready yet for investigation applications. This is why another approach was chosen for the work presented here, employing a heat transfer model: the prediction of mass loss rate for a material is determined based on a heat balance. This principle explains the two-part structure of this study: first, a detailed characterisation of heat transfers is performed; then, the influence of these heat transfers on thermal decomposition is studied. The first part focuses on thermal radiation because it is the leading mechanism of flame spread. Flame radiation was characterised for several fuels (kerosene, diesel, heptane, polyurethane foam and wood) and many fire sizes (from 0.3 m up to 3.5 m wide). Measurements included visible video recordings, multispectral opacimetry and infrared spectrometry, which allowed the determination of a simplified flame shape as well as its emissive power. These data were then used in a model (Monte-Carlo method) to predict incident heat fluxes at various locations. These values were compared to the measurements and showed a good agreement, thus proving that the main phenomena governing flame radiation were captured and reproduced, for all fire sizes. Because the final objective of this work is to provide a comprehensive fire simulation tool, a software already available, namely Fire Dynamics Simulator (FDS), was evaluated regarding its ability to model radiative heat transfers. This was done using the data and knowledge gathered before, and showed that the code could predict incident heat fluxes reasonably well. It was thus chosen to use FDS and its radiation model for the rest of this work. The second part aims at correlating thermal decomposition to thermal radiation. This was done by performing cone calorimeter tests on polyurethane foam and using the results to build a model which allows the prediction of MLR as a function of time and incident heat flux. Larger tests were also performed to study flame spread on top and inside foam samples, through various measurements: videos processing, temperatures analysis, photogrammetry. The results suggest that using small-scale data to predict full-scale fire behaviour is a reasonable approach for the scenarios being investigated. It was thus put into practice using FDS, by modifying the source code to allow for the use of a thermal model, in other words defining the fire source based on the model predicting MLR as a function of time and incident heat flux. The results of the first simulations are promising, and predictions for more complex geometries will be evaluated to validate this method
34

Guendouz, Hassina. "Implémentation d'un modèle timing dans un simulateur logique junior "VLSI" et restructuration de la chaine "CAO" correspondante". Paris 11, 1988. http://www.theses.fr/1988PA112115.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La simulation logique pour "VLSI" est une étape importante lors de la conception d'un "DESIGN" dont les structures logiques se compliquent. Le " DESIGNER" a besoin d'un outil lui permettant de vérifier le comportement logique et dynamique de son schéma. L'essor considérable des outils de "CAO" industriels (Génération Mentor, Sun, Valid ou Daisy), met à la disposition des concepteurs d'aujourd'hui plusieurs méthodes d'implantation du masque du circuit intégré, ainsi que des outils de simulation logique et électrique. Depuis quelques années, la micro-électronique est rentrée dans le cursus de la majeure partie des universités et écoles concernées. N'ayant pas les moyens de s'équiper en outils de "CAO" industriels alors très onéreux, ces centres ne pouvaient se consacrer à l'apprentissage de techniques de conception. De ce fait, des recherches sont orientées aujourd'hui vers une nouvelle génération de micro-ordinateurs (type Personal Computer), permettant d'effectuer la majorité des opérations d'ingénierie : Schémas et simulation. Ces postes de travail doivent être simples d’utilisation, interactive et rapide en simulation. De plus, l'association de ces postes de travail en réseau à des stations de plus grande puissance, décharge ces dernières de certaines tâches. Le simulateur "Junior" CAO/VLSI a vu le jour dans le cadre de ces recherches. Ce dernier tente de relever le défi en simulant des circuits de moyenne complexité, avec une vitesse remarquable sur des stations de moyenne puissance. Les points traités dans ce rapport sont les suivants :- Saisie graphique d'un circuit de 1700 portes sur une station expérimentale et étude de la structure de la chaîne de "CAO" utilisée pour futur développements. Étude du modèle utilisé par notre simulateur pour optimiser et accélérer la simulation. Passage d'un modèle timing "Unitaire" à un modèle "Nominal".
35

Fagot, Christophe. "Méthodes et algorithmes pour le test intégré de circuits VLSI combinatoires". Montpellier 2, 2000. http://www.theses.fr/2000MON20003.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le travail presente dans cette these porte sur la recherche de structures efficaces pour le test integre de circuits vlsi combinatoires. La qualite d'une structure de test integre se juge sur le temps de test qu'elle implique, la surface de silicium qu'elle occupe, et le nombre de fautes qu'elle permet de detecter. Tout d'abord, nous presentons une methode qui permet d'initialiser un generateur de vecteurs afin que la sequence qu'il produit permette soit de faire apparaitre avec le moins d'erreurs possible un ensemble de vecteurs donnes, soit de detecter le plus de fautes possible. Nous presentons ensuite une structure de correction des vecteurs produits par ce generateur. Cette structure est un ensemble de masques utilises cycliquement pour modifier les valeurs des bits de ces vecteurs. Des algorithmes gloutons de construction d'une telle structure sont enfin proposes.
36

Fuchs, Frank. "Contribution à la reconstruction du bâti en milieu urbain, à l'aide d'images aériennes stéréoscopiques à grande échelle : étude d'une approche structurelle". Paris 5, 2001. http://www.theses.fr/2001PA058004.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'institut géographique national poursuit ses efforts de recherche visant à automatiser la saisie de bases de données localisées. Dans ce cadre, nous abordons le thème du bâti dont nous cherchons une reconstruction des toits dite grande échelle, i. E. Comprenant leur structure interne. Nous utilisons des outils de calcul de modèle numérique d'élévation (MNE) à partir d'images aériennes à forte résolution (10 à 20 cm). Le MNE produit permet de focaliser les travaux de reconstruction sur des surfaces de taille raisonnable. L'approche proposée est structurelle. Elle s'appuie sur une base de modèles exprimée de manière déclarative ce qui confère une certaine souplesse à l'approche. La stratégie générale se compose de trois étapes. La première étape consiste à détecter dans les données initiales, des objets tridimensionnels simples, appelés primitives : segments de droites, portions de plan, façades. La seconde étape consiste à reconstruire un bâtiment à l'aide d'un modèle. Un modèle est un graphe relationnel attribue. Il est mis en correspondance avec un graphe appuie sur les primitives, grâce a des techniques récentes de calcul d'isomorphisme de sous-graphes avec tolérance d'erreur. Celles-ci utilisent le formalisme de distance d’Edition, qui permet d'intégrer une fonction de ressemblance entre un modèle et les primitives détectées. L'emploi d'une grammaire de graphe est proposé, afin de réduire la combinatoire du problème d'appariement. Après mise en correspondance, une reconstruction finale est réalisée. La troisième étape consiste à choisir, parmi les reconstructions effectuées à l'aide de différents modèles, celle qui est la plus adaptée aux données. Le mémoire présente des résultats obtenus en exploitant la méthode sur des scènes aériennes réelles. Il propose également une évaluation de la méthode, dans un cadre automatique. Enfin, après avoir dressé un bilan de la méthode, ce mémoire propose des extensions de ces travaux.
37

Garonne, Vincent. "Etude, définition et modélisation d'un système distribué à grande échelle : DIRAC - Distributed infrastructure with remote agent control". Aix-Marseille 2, 2005. http://theses.univ-amu.fr.lama.univ-amu.fr/2005AIX22057.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
38

Veber, Philippe. "Modélisation grande échelle de réseaux biologiques : vérification par contraintes booléennes de la cohérence des données". Phd thesis, Université Rennes 1, 2007. http://tel.archives-ouvertes.fr/tel-00185895.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les techniques de biologie moléculaire dites haut-débit permettent de mesurer un grand nombre de variables simultanément. Elles sont aujourd'hui couramment utilisées et produisent des masses importantes de données. Leur exploitation est compliquée par le bruit généralement observé dans les mesures, et ce d'autant plus que ces dernières sont en général trop onéreuses pour être suffisamment reproduites. La question abordée dans cette thèse porte sur l'intégration et l'exploitation des données haut-débit : chaque source de données mesurant un aspect du fonctionnement cellulaire, comment les combiner dans un modèle et en tirer des conclusions pertinentes sur le plan biologique ? Nous introduisons un critère de consistance entre un modèle graphique des régulations cellulaires et des données de déplacement d'équilibre. Nous montrons ensuite comment utiliser ce critère comme guide pour formuler des prédictions ou proposer des corrections en cas d'incompatibilité. Ces différentes tâches impliquent la résolution de contraintes à variables sur domaines finis, pour lesquelles nous proposons deux approches complémentaires. La première est basée sur la notion de diagramme de décision, qui est une structure de données utilisée pour la vérification des circuits ; la deuxième fait appel à des techniques récentes de programmation logique. L'utilisation de ces techniques est illustrée avec des données réelles sur la bactérie "E. coli" et sur la levure. Les réseaux étudiés comportent jusqu'à plusieurs milliers de gènes et de régulations. Nous montrons enfin, sur ces données, comment notre critère de consistance nous permet d'arriver à des prédictions robustes, ainsi que des corrections pertinentes du modèle étudié.
39

Hartmann, Philipp. "Effet de l'hydrodynamique sur l'utilisation de la lumière au sein de cultures de microalgues à grande échelle". Thesis, Nice, 2014. http://www.theses.fr/2014NICE4022/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les microalgues sont souvent considérées comme de potentielles candidates pour la production d'énergie. Cependant, le lien entre l'énergie contenue dans la biomasse et l'énergie nécessaire pour cultiver les microalgues, en particulier pour agiter la culture, est complexe. Le mélange a un effet direct sur la photosynthèse car il affecte la façon dont les cellules sont successivement transportées entre la lumière et les zones sombres. En particulier, l'hydrodynamique module la fréquence à laquelle la lumière est perçue par les cellules. Dans cette thèse nous avons étudié la réponse du processus de photosynthèse à divers signaux lumineux. Tout d'abord, l'effet de cycles lumière-obscurité a été étudié à l’aide d'un modèle mécaniste de photosynthèse et de croissance. Il a été montré que l'augmentation de la fréquence lumineuse augmente l'efficacité photosynthétique. Ensuite, nous avons développé un modèle de photoacclimatation, en supposant à la fois un changement dans le nombre et la section des photosystèmes. Les concepts proposés ont ensuite été validés expérimentalement. Un dispositif à base de LED a été développé et des cycles lumière-obscurité de fréquences variables ont été appliqués à Dunaliella Salina. Les résultats confirment les prédictions des modèles, comme la dynamique de photoacclimatation. Enfin, un modèle hydrodynamique 3D a été simulé pour un raceway. Cela a permis de reconstruire numériquement les trajectoires lagrangiennes de cellules, et donc d’évaluer le signal lumineux perçu par les microalgues. Ces trajectoires réalistes ont alors alimenté un modèle de photosynthèse et ont permis de comprendre l’effet du mélange sur l'efficacité photosynthétique
Microalgae are often seen as a promising candidate to contribute to energy generation in the future. However, the link between the energy contained in the biomass and the required energy to grow the microalgae, especially to mix the culture, is complex. Mixing has a direct effect on photosynthesis since it affects the way cells are successively transported between light and dark zones, especially the hydrodynamics modulates the frequency at which light is percept by the cells. In this thesis the question of nonlinear response of the photosynthesis process to varying light signals at different time scales has been investigated. Firstly, the effect of light-dark cycle frequency on the response of a mechanistic model for photosynthesis and growth has been studied. It is shown that increasing the light supply frequency enhances photosynthetic efficiency. A model for photoacclimation has been developed assuming both a change in the number and the cross section of the photosystems. The proposed concepts have been experimentally validated using a self-developed LED device to expose the green algae Dunaliella Salina to light-dark cycles at different frequencies. The results support model hypotheses, i.e. mid-term photoacclimation depends on the average light intensity. Finally, a 3D hydrodynamic model for a raceway type culturing device has been used to compute Lagrangian trajectories numerically. Based on the trajectories, time-dependent light signals for individual cells have been calculated. Using these light signals, a photosynthesis model was integrated in order to investigate the dependency of photosynthetic efficiency on hydrodynamic regime
40

Bousserez, Nicolas. "Étude du transport intercontinental de la pollution atmosphérique entre l'Amérique du nord et l'Europe à l'aide du modèle de chimie-transport MOCAGE". Toulouse 3, 2008. http://www.theses.fr/2008TOU30330.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail de thèse a pour objectif principal de caractériser le transport intercontinental de la pollution atmosphérique entre l'Amérique du nord et l'Europe. Pour cela nous focalisons notre étude sur l'été 2004 et utilisons les données aéroportées in situ de la campagne ICARTT ainsi que le modèle global de chimie-transport MOCAGE. Dans une première partie nous évaluons le modèle MOCAGE à l'aide des mesures de la campagne ICARTT sur trois domaines d'intérêt pour l'analyse de l'évolution des panaches pollués durant leur transport : le nord-est des Etats-Unis, l'Atlantique nord et l'Europe. Nous analysons ensuite les impacts respectifs des panaches de feux de biomasse et des panaches anthropiques nord-américains sur la chimie de l'ozone au-dessus de l'Atlantique Nord. Enfin nous comparons deux stratégies de modélisation pour prendre en compte l'importante variabilité spatio-temporelle des feux de biomasse : l'assimilation journalière de données satellites de CO et l'utilisation d'un inventaire d'émission journalier des feux de biomasse
This work aims to characterize the intercontinental transport of pollution between North America and Europe. We focus our study on the summer 2004, using aircraft in situ data from the ICARTT experiment together with simulations from the MOCAGE global chemistry-transport model. In a first part we present an evaluation of the model against in situ measurements over three domains of interest : North-East United States, North Atlantic and Europe. In a second part we analyze the respective impacts of North American biomass burning and anthropogenic plumes on ozone chemistry over the North Atlantic. The last part of our study compares two different modeling strategies to take into account the high space and time variability of biomass burning sources: assimilating daily space-based CO observations into the model and using a daily emission inventory of fire emissions
41

Flottes, Marie-Lise. "Contribution au test déterministe des circuits cmos : équivalences de pannes". Montpellier 2, 1990. http://www.theses.fr/1990MON20060.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette these traite des relations de test dans les circuits cmos. Ce type de relation permet de reduire par equivalence ou dominance des ensembles de pannes. Une etude bibliographique presente l'utilisation de ces relations sur des ensembles de pannes de collage affectant des circuits modelises au niveau porte. L'inefficacite de ces modeles classiques pour representer correctement certaines particularites de la technologie cmos (portes de transmission, effets sequentiels ou analogiques de certains types de pannes) et l'inflation du nombre de modeles et de sites de fautes qui en decoule nous ont amene a reconsiderer le probleme pour des circuits representes au niveau interrupteur. Apres une presentation des differents modeles que nous avons choisi d'utiliser, nous proposons une base theorique permettant d'analyser les relations de test liant des pannes de collage, stuck-off, stuck-on, coupure et court-circuit. Plusieurs relations sont alors demontrees. Cette etude est conclue par la definition d'un ensemble de points de controle dans les reseaux de transistors puis dans les circuits ou plusieurs niveaux de modelisation peuvent etre utilises simultanement. Enfin, une application est proposee sous la forme d'un generateur de listes de pannes minimisees. La presentation de ce logiciel dans le contexte d'un systeme complet de generation d'ensemble de test permet d'en illustrer l'utilisation
42

Loko, Houdété Odilon. "Analyse de l'impact d'une intervention à grande échelle avec le modèle de risques proportionnels de Cox avec surplus de zéros : application au projet Avahan de lutte contre le VIH/SIDA en Inde". Thesis, Université Laval, 2014. http://www.theses.ulaval.ca/2014/30546/30546.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’évaluation de l’impact des interventions à grande échelle est nécessaire dans un contexte de rareté des ressources. La rapidité de leur mise en oeuvre et certaines raisons éthiques font qu’on ne randomise pas les populations en groupes témoin et traitement. La non disponibilité de données fiables avant le démarrage des interventions ajoute aux difficultés. Certains ont proposé, dans ce cas, la reconstruction de l’historique des données à partir d’enquêtes. Dans le cas du projet Avahan pour lutter contre le VIH/SIDA, pour déterminer son effet sur l’utilisation du condom par les travailleuses du sexe, nous avons proposé une méthode qui est un mélange des modèles de régression logistique et de Cox. Nous comparons notre méthode à une basée sur les équations d’estimation généralisées en utilisant une simulation et les données d’Avahan. Les résultats montrent que notre méthode est plus puissante, mais moins robuste.
43

Lequay, Victor. "Une approche ascendante pour la gestion énergétique d'une Smart-Grid : modèle adaptatif et réactif fondé sur une architecture décentralisée pour un système générique centré sur l'utilisateur permettant un déploiement à grande échelle". Thesis, Lyon, 2019. http://www.theses.fr/2019LYSE1304.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le domaine de la gestion de l'énergie dans les smart grids a été largement exploré ces dernières années, de nombreuses approches différentes étant proposées dans la littérature. En collaboration avec notre partenaire industriel Ubiant, qui déploie des solutions d'optimisation énergétique du bâtiment, nous avons mis en évidence le besoin d'un système vraiment robuste et évolutif exploitant la flexibilité de la consommation résidentielle pour optimiser l'utilisation de l'énergie au sein d'une smart grid. Dans le même temps, nous avons observé que la majorité des travaux existants se concentraient sur la gestion de la production et du stockage et qu'aucune des architectures proposées n'étaient véritablement décentralisées. Notre objectif était alors de concevoir un mécanisme dynamique et adaptatif permettant de tirer parti de toute la flexibilité existante tout en garantissant le confort de l'utilisateur et une répartition équitable des efforts d'équilibrage ; mais aussi de proposer une plate-forme ouverte et modulaire avec laquelle une grande variété d'appareils, de contraintes et même d'algorithmes pourraient être interfacés. Dans cette thèse, nous avons réalisé (1) une évaluation des techniques actuelles de prévision de la consommation individuelle en temps réel, dont les résultats nous ont amenés à suivre (2) une approche ascendante et décentralisée pour l'ajustement diffus résidentiel reposant sur un mécanisme de compensation pour assurer un effacement stable. Sur cette base, nous avons ensuite construit (3) une plate-forme générique centrée sur l'utilisateur pour la gestion de l'énergie dans les réseaux intelligents, permettant une intégration aisée de plusieurs périphériques, une adaptation rapide à l'évolution de l'environnement et des contraintes, ainsi qu'un déploiement efficace
The field of Energy Management Systems for Smart Grids has been extensively explored in recent years, with many different approaches being described in the literature. In collaboration with our industrial partner Ubiant, which deploys smart homes solutions, we identified a need for a highly robust and scalable system that would exploit the flexibility of residential consumption to optimize energy use in the smart grid. At the same time we observed that the majority of existing works focused on the management of production and storage only, and that none of the proposed architectures are fully decentralized. Our objective was then to design a dynamic and adaptive mechanism to leverage every existing flexibility while ensuring the user's comfort and a fair distribution of the load balancing effort ; but also to offer a modular and open platform with which a large variety of devices, constraints and even algorithms could be interfaced. In this thesis we realised (1) an evaluation of state of the art techniques in real-time individual load forecasting, whose results led us to follow (2) a bottom-up and decentralized approach to distributed residential load shedding system relying on a dynamic compensation mechanism to provide a stable curtailment. On this basis, we then built (3) a generic user-centered platform for energy management in smart grids allowing the easy integration of multiple devices, the quick adaptation to changing environment and constraints, and an efficient deployment
44

Telescu, Mihai. "Modélisation d'ordre réduit des interconnexions de circuits VLSI". Brest, 2007. http://www.theses.fr/2007BRES2038.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les concepteurs de circuits intégrés s’intéressent de plus en plus aux effets des structures d’interconnexion. Leur prise en compte dans les simulations est devenue un enjeu majeur. La recherche menée durant ce travail de thèse a eu pour objectif l’élaboration de nouveaux outils mathématiques de réduction d’ordre des modèles. Les applications visées en priorité concernent les lignes d’interconnexion des circuits VLSI. L’approche que nous proposons à la problématique de réduction de modèle nécessite une première étape de modélisation du système d’origine par une représentation de Laguerre ou de Kautz. Le manuscrit contient une présentation synthétique de ces bases de fonctions orthogonales. Cinq méthodes de réduction d’ordre des modèles, étudiées durant ce travail de thèse sont ensuite présentées en détail. Nous donnons plusieurs exemples d’application de nos méthodes aux lignes d’interconnexion. Nous illustrons, entre autres, la possibilité d’obtenir des circuits équivalents de faible complexité à partir de nos modèles réduits et la possibilité d’obtenir des modèles réduits directement à partir de données issues des simulations électromagnétiques
Lntegrated circuit designers are showing a growing interest in the effects of interconnect structures. Taking these effects into consideration during simulations has become a major goal. The main objective of this PhD was the development new model order reduction mathematical tools. VLSI interconnect applications were our main priority. Our model order reduction strategy supposes an initial modeling of the origjnal system using either a Laguerre or a Kautz representation. This manuscript contains a synthetic presentation 0f these orthogonal function bases. The five order reduction methods studied during this PhD are then presented. We make available several examples of application of methods to interconnect lines. Weillçistate, among other aspects, the possibility of obtaining Iow complexity equivalent circuits from our models and the possibility of performing reduced order modeling directly from data provided by full-wave simulation
45

Limoge, Claire. "Méthode de diagnostic à grande échelle de la vulnérabilité sismique des Monuments Historiques : Chapelles et églises baroques des hautes vallées de Savoie". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLN014/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’objectif de ce travail est de proposer une méthode d’analyse de vulnérabilité sismique adaptée à l’étude d’un patrimoine historique complet très étendu, indépendamment de la renommée de chaque bâtiment. En effet la grande vulnérabilité sismique du patrimoine ancien, très souvent en maçonnerie, impose, afin d’éviter tout dommage irréparable, de se donner les moyens d’intervenir en amont. Notre démarche doit donc répondre à trois impératifs principaux: développer des outils de choix à grande échelle afin de hiérarchiser les besoins, offrir une analyse pertinente du comportement sous séisme d'une structure historique maçonnée même en première approche, et trouver des méthodes pour gérer le nombre important d’incertitudes qui caractérise le diagnostic des édifices anciens. Pour ce faire, nous étudions les églises et chapelles baroques des hautes vallées de la Savoie française, témoignages d'une période particulièrement prospère dans l'histoire de la Savoie et d'un mouvement artistique unique dans un environnement hostile. Dans ce contexte nous avons donc développé ou adapté différents outils afin de pouvoir traiter les particularités des édifices anciens et utiliser pour des édifices anciens en maçonnerie rustique les potentialités des techniques proposées pour les édifices modernes : modélisations numériques non-linéaires dynamiques temporelles, mesures vibratoires in-situ, analyse multi modale non-linéaire
The aim of this thesis is to propose a seismic vulnerability assessment method well suited to the study of a complete historical heritage, regardless of the prestige of each building. Indeed the great seismic vulnerability of the historical heritage, often in masonry, requires to act preventively in order to avoid irreparable damage. Our approach must tackle three main requirements: to develop large-scale tools of choice to prioritize the needs, to provide relevant analysis of seismic behavior on the structural scale even in the first study, and to manage the large number of uncertainties characterizing the old buildings structural assessment. To this aim, we study the baroque churches and chapels in the high valleys of the French Savoie. They witness to a particularly prosperous period in the history of Savoy and a unique artistic movement adapted to a harsh environment. In this context we have therefore developed or adapted different tools in order to handle the peculiarities of the old buildings. This way we can use the today proposed techniques for modern buildings to study these ancient buildings in rustic masonry: non-linear temporal dynamics numerical modeling, vibratory in situ measurements, non-linear multi modal analysis
46

Picourlat, Fanny. "Mise à l'échelle des processus hydrologiques pour les modèles de surface continentale, de la modélisation 3D intégrée au modèle de réservoir : Application au bassin du Little Washita". Thesis, université Paris-Saclay, 2022. http://www.theses.fr/2022UPASJ016.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le cycle de l'eau étant un élément moteur du climat, modéliser avec exactitude les différents flux hydrologiques continentaux constitue un enjeu majeur de la modélisation climatique. Ces flux sont modélisés au sein des modèles de surface continentale (nommés LSM) dont la résolution horizontale est de l'ordre de la centaine de kilomètres. À cette échelle, la représentation de l'hydrologie continentale est simplifiée : les écoulements latéraux sont conceptualisés au travers de réservoirs, et leur influence sur la distribution spatiale de la teneur en eau des sols est négligée. De telles simplifications introduisent des biais sur le calcul du flux évapotranspiratoire, ainsi que du débit en rivière. Un consensus est par conséquent observé au sein de la communauté scientifique sur le besoin d'améliorer la représentation de l'hydrologie dans les LSM. Dans ce contexte, l'objectif de cette thèse est de mettre en œuvre une démarche de mise à l'échelle des processus hydrologiques pour les LSM, allant de la modélisation 3D intégrée au modèle de réservoirs. Appliquée au bassin du Little Washita (Oklahoma, USA), cette démarche s'articule en trois étapes de réduction de dimensionnalité. En premier lieu, une simulation 3D de référence est conduite sur vingt années à l'aide d'un code intégré à base physique. Le modèle 3D est ensuite réduit à un modèle 2D de versant équivalent. Une troisième étape consiste en la réduction, au moyen d'hypothèses simplificatrices, du modèle 2D à un modèle conceptuel de réservoirs. Enfin, une simulation de colonne 1D est conduite à l'aide d'un LSM. Une comparaison avec le résultat du modèle conceptuel issu de la démarche de mise à l'échelle permet de dégager différentes pistes de développement de l'hydrologie des LSM
As the water cycle is a driving force of climate, accurate modeling of the various continental hydrological fluxes is a major challenge in climate modeling. These flows are modeled within Land Surface Models (LSM) with a horizontal resolution of about 100 km. At this scale, the representation of continental hydrology is simplified: lateral flows are conceptualized through reservoirs, and their influence on the spatial distribution of soil water content is neglected. Such simplifications introduce biases on the calculation of evapotranspiratory flux and river flow. A consensus is therefore observed within the scientific community on the need to improve the representation of hydrology in LSM. In this context, the objective of this thesis is to develop an upscaling approach of the hydrological processes for LSM, ranging from integrated 3D model to reservoir model. Applied to the Little Washita basin (Oklahoma, USA), this approach is articulated in three steps of dimensionality reduction. First, a 3D simulation is conducted over 20 years using a physically-based integrated code. The 3D model of the basin is then reduced to a 2D equivalent hillslope model. A third step consists in reducing the 2D model to a conceptual reservoir model using simplifying assumptions. Finally, a 1D column simulation is performed using a LSM. A comparison with the conceptual model resulting from the upscaling approach allows us to identify different avenues for the development of LSM hydrology
47

Legrand, Caroline. "Simulation des variations de débits et de l’activité de crue du Rhône amont à partir de l’information atmosphérique de grande échelle sur le dernier siècle et le dernier millénaire". Electronic Thesis or Diss., Université Grenoble Alpes, 2024. http://www.theses.fr/2024GRALU011.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les crues sont des aléas naturels extrêmement destructeurs qui peuvent avoir des répercussions considérables sur les écosystèmes et les sociétés. L’activité et l’intensité des crues pourraient être amplifiées par le changement climatique en cours. Quantifier les évolutions possibles pour les décennies à venir est cependant difficile. L'approche classique consiste à estimer ces évolutions à partir de projections hydrologiques obtenues par simulation à partir des scénarios météorologiques produits pour différents scénarios climatiques futurs. Ces scénarios météorologiques, qui doivent, entre autres choses, être adaptés aux échelles spatiales et temporelles des bassins considérés, sont typiquement produits avec des modèles de descente d’échelle à partir des conditions atmosphériques de grande échelle simulées par des modèles climatiques. Ces modèles de descente d’échelle sont soit dynamiques soit statistiques. La possibilité de produire, avec ce type de modèles, des scénarios météorologiques pertinents est supposée acquise mais est rarement évaluée.Dans cette étude, nous avons évalué la capacité de deux chaînes de simulation à reproduire, au cours du dernier siècle (1902-2009) et à partir de l’information atmosphérique de grande échelle uniquement, les variations temporelles observées des débits et des événements de crue du bassin versant du Rhône amont (10 900 km²). Les chaînes de modélisation sont constituées (i) de la réanalyse atmosphérique ERA-20C, (ii) soit du modèle de descente d'échelle statistique SCAMP, soit du modèle de descente d'échelle dynamique MAR et (iii) du modèle glacio-hydrologique GSM-SOCONT.Les évaluations sur les températures et les précipitations de bassin journalières soulignent la nécessité d'une correction de biais pour les deux modèles de descente d’échelle. Pour éviter des simulations non pertinentes de la dynamique du manteau neigeux, en particulier pour les hautes altitudes, la correction des biais est nécessaire non seulement pour les scénarios de précipitations et de températures, mais aussi pour les scénarios de gradients altimétriques de température pour la chaîne de descente d'échelle dynamique.Les évaluations sur l’hydrologie des bassins montrent que les variations multi-échelles (journalières, saisonnières et interannuelles) observées des débits et les situations hydrologiques de basse fréquence (séquences d’étiage et événements de crue) sont globalement bien reproduites pour la période 1961-2009. Pour la première moitié du siècle, l’accord avec les débits de référence est plus faible, probablement en raison de la moindre qualité des données (données ERA-20C et de débits) et/ou de certaines hypothèses et choix de modélisation (e.g. calibration basée sur des signatures hydrologiques, hypothèse de stationnarité). Ces résultats ainsi que ceux sur les variations de l’activité de crue obtenus sur le siècle dernier permettent d’envisager l’utilisation des chaînes de modélisation pour des contextes climatiques différents.Dans une dernière partie, nous avons simulé les variations de l’activité de crue sur l’ensemble du dernier millénaire en utilisant les sorties d’un modèle climatique rendues disponibles par le projet PMIP (Past Model Intercomparison Project). Les sorties du modèle climatique CESM Last Millennium Ensemble, composé de 12 membres, ont été statistiquement descendues en échelle au pas de temps journalier sur la période 850-2004 avec le modèle SCAMP (pour des raisons de coûts de calcul) et utilisées comme forçages dans le modèle GSM-SOCONT.Les variations de l'activité de crue du Rhône amont simulées sur le dernier millénaire ont été comparées à celles reconstituées à partir d’archives sédimentaires du lac du Bourget. Les résultats obtenus suggèrent que les variations de l’activité de crue reconstituées sur cette période pourraient être liées à la variabilité interne du climat et non pas à un quelconque forçage atmosphérique de grande échelle
Floods are often destructive natural hazards that can have considerable implications on ecosystems and societies. In many regions of the world, flood activity and intensity are expected to be amplified by the ongoing climate change. However, quantifying possible changes over the coming decades is difficult. The classical approach is to estimate possible changes from hydrological projections obtained by simulation using meteorological scenarios produced for different future climate scenarios. Among other things, these meteorological scenarios have to be adapted to the spatial and temporal scales of the considered basins. They are typically produced with downscaling models from the large-scale atmospheric conditions simulated by climate models. Downscaling models are either dynamical or statistical. The possibility of producing relevant meteorological scenarios with downscaling models is taken for granted, but is rarely assessed.In this study, we assessed the ability of two simulation chains to reproduce, over the last century (1902-2009) and from large-scale atmospheric information only, the observed temporal variations in flows and flood events in the Upper Rhône River catchment (10,900 km²). The modeling chains are made up of (i) the ERA-20C atmospheric reanalysis, (ii) either the statistical downscaling model SCAMP or the dynamical downscaling model MAR, and (iii) the glacio-hydrological model GSM-SOCONT.When compared to observations, the downscaled scenarios of daily temperatures and precipitation highlight the need for a bias correction. This is the case for both downscaling models. For the dynamical downscaling chain, bias correction is additionally necessary for the temperature lapse rate scenarios to avoid irrelevant simulations of snowpack dynamics, particularly for high elevations.The bias-corrected scenarios were then used as input to the GSM-SOCONT model to generate time series of discharge scenarios for multiple stations of the Upper Rhône River. The observed multi-scale variations (daily, seasonal and interannual) in flows and low frequency hydrological situations (low flow sequences and flood events) are generally well reproduced for the period 1961-2009. For the first half of the century, the agreement with the reference flows is weaker, probably due to lower data quality (ERA-20C and flow data) and/or certain assumptions and modeling choices (e.g. calibration based on hydrological signatures, stationarity assumption). These results, and those obtained over the last century on variations in flood activity, suggest that the modeling chains can be used in other climatic contexts.In the last part, we simulated variations in flood activity over the last millennium using climate model outputs made available by the Past Model Intercomparison Project (PMIP). Outputs from the climate model CESM Last Millennium Ensemble, made up of 12 members, were statistically downscaled at the daily time step over the period 850-2004 with SCAMP (for reasons of computational cost) and used as input to the GSM-SOCONT model.The simulated variations in flood activity in the Upper Rhône River over the last millennium were compared with those reconstructed from the sediments cores of Lake Bourget. The results suggest that the variations in flood activity reconstructed over this period could only be due to internal climate variability and not to any large-scale atmospheric forcing
48

Federici, Dominique. "Simulation de fautes comportementales de systèmes digitaux décrits à haut niveau d'abstraction en VHDL". Corte, 1999. http://www.theses.fr/1999CORT3039.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’étude présentée dans ce mémoire entre dans le cadre de la conception des systèmes digitaux à très haute échelle d’intégration. Le but de notre travail est la définition et le développement d'un simulateur de fautes pour des systèmes digitaux décrits à haut niveau d'abstraction selon un point de vue comportemental. Pour accomplir cette tache, nous avons développé une approche intégrant les quatre étapes suivantes : - étude d'une modélisation adéquate explicitant les concepts de base des descriptions comportementales, en particulier la séparation données/commande. - choix d'un modèle de fautes comportementales. - définition d'un principe de simulation de fautes comportementales : notre méthode consiste à propager des listes de fautes à travers les éléments de base du modèle du système étudié - implémentation de ce principe : ces travaux ont été réalisés à partir des concepts de la théorie des objets offrant ainsi la possibilité d’élaborer un outil évolutif. La validation de notre approche est mise en oeuvre à travers l’étude d'un exemple : le registre 8-bit.
49

Laurent, Pierre. "L'univers aux grandes échelles : études de l'homogénéité cosmique et de l'énergie noire à partir des relevés de quasars BOSS et eBOSS". Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLS227/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail de thèse se sépare en deux volets. Le premier volet concerne l'étude de l'homogénéité de l'univers, et le second une mesure de l'échelle BAO, qui constitue une règle standard permettant de mesurer l'évolution du taux d'expansion de l'univers. Ces deux analyses reposent sur l'étude de la structuration (ou clustering) des quasars des relevés BOSS et eBOSS, qui couvrent la gamme en redshift 0,9 < z < 2,8. Les mesures des observables caractérisant la structuration de l'univers aux grandes échelles sont très sensibles aux effets systématiques, nous avons donc étudiés ces effets en profondeur. Nous avons mis en évidence que les sélections de cibles quasars BOSS et eBOSS ne sont pas parfaitement homogènes, et corrigé cet effet. Au final, la mesure de la fonction de corrélation des quasars nous a permis de mesurer le biais des quasars sur la gamme en redshift 0,9 < z < 2,8. Nous obtenons la mesure actuelle la plus précise du biais, b = 3,85 ± 0,11 dans la gamme 2,2 < z < 2,8 pour le relevé BOSS, et b = 2,44 ± 0,04 dans la gamme 0,9 < z < 2,2 pour le relevé eBOSS. Le Principe Cosmologique stipule que notre univers est isotrope et homogène à grande échelle. Il s'agit d'un des postulats de base de la cosmologie moderne. En étudiant la structuration à très grande échelle des quasars, nous avons prouvé l'isotropie spatiale de l'univers dans la gamme 0,9 < z < 2,8, indépendamment de toute hypothèse et cosmologie fiducielle. L'isotropie spatiale stipule que l'univers est isotrope dans chaque couche de redshift. En la combinant au principe de Copernic, qui stipule que nous ne nous situons pas à une position particulière dans l'univers, permet de prouver que notre univers est homogène aux grandes échelles. Nous avons effectué une mesure de la dimension de corrélation fractale de l'univers, D₂(r), en utilisant un nouvel estimateur, inspiré de l'estimateur de Landy-Szalay pour la fonction de corrélation. En corrigeant notre estimateur du biais des quasars, nous avons mesuré (3 - D₂(r)) = (6,0 ± 2,1) x 10⁻⁵ entre 250 h⁻¹ Mpc et 1200 h⁻¹ Mpc pour le relevé eBOSS, dans la gamme 0,9 < z < 2,2. Pour le relevé BOSS, nous obtenons (3 - D₂(r)) = (3,9 ± 2,1) x 10⁻⁵, dans la gamme 2,2 < z < 2,8. De plus, nous montrons que le modèle Lambda-CDM décrit très bien la transition d'un régime structuré vers un régime homogène. D’autre part, nous avons mesuré la position du pic BAO dans les fonctions de corrélation des quasars BOSS et eBOSS, détecté à 2,5 sigma dans les deux relevés. Si nous mesurons le paramètre α, qui correspond au rapport entre la position du pic mesuré et la position prédite par une cosmologie fiducielle (en utilisant les paramètres Planck 2013), nous mesurons α = 1,074 pour le relevé BOSS, et α = 1,009 pour le relevé eBOSS. Ces mesures, combinées uniquement à la mesure locale de H₀, nous permettent de contraindre l'espace des paramètres de modèles au-delà du Lambda-CDM
This work consists in two parts. The first one is a study of cosmic homogeneity, and the second one a measurement of the BAO scale, which provides a standard ruler that allows for a direct measurement of the expansion rate of the universe. These two analyses rely on the study of quasar clustering in the BOSS and eBOSS quasar samples, which cover the redshift range 0.9 < z < 2.8. On large scales, the measurement of statistical observables is very sensitive to systematic effects, so we deeply studied these effects. We found evidences that the target selections of BOSS and eBOSS quasars are not perfectly homogeneous, and we have corrected this effect. The measurement of the quasar correlation function provides the quasar bias in the redshift range 0.9 < z < 2.8. We obtain the most precise measurement of the quasar bias at high redshift, b = 3.85 ± 0.11, in the range 2.2 < z < 2.8 for the BOSS survey, and b = 2.44 ± 0.04 in the range 0.9 < z < 2.2 for the eBOSS survey. The Cosmological Principle states that the universe is homogeneous and isotropic on large scales. It is one of the basic assumptions of modern cosmology. By studying quasar clustering on large scales, we have proved ''spatial isotropy'', i.e. the fact that the universe is isotropic in each redshift bins. This has been done in the range 0.9 < z < 2.8 without any assumption or fiducial cosmology. If we combine spatial isotropy with the Copernican Principle, which states that we do not occupy a peculiar place in the universe, it is proved that the universe is homogeneous on large scales. We provide a measurement of the fractal correlation dimension of the universe, D₂(r), which is 3 for an homogeneous distribution, and we used a new estimator inspired from the Landy-Szalay estimator for the correlation function. If we correct our measurement for quasar bias, we obtain (3 - D₂(r)) = (6.0 ± 2.1) x 10⁻⁵ between 250 h⁻¹ Mpc and 1200 h⁻¹ Mpc for eBOSS, in the range 0.9 < z < 2.2. For BOSS, we obtain (3 - D₂(r)) = (3.9 ± 2.1) x 10⁻⁵, in the range 2.2 < z < 2.8. Moreover, we have shown that the Lambda-CDM model provide a very nice description of the transition from structures to homogeneity. We have also measured the position of the BAO peak in the BOSS and eBOSS quasar correlation functions, which yield a 2,5 sigma detection in both surveys. If we measure the α parameter, which corresponds to the ratio of the measured position of the peak to the predicted position in a fiducial cosmology (here Planck 2013), we measure α = 1.074 for BOSS, and α = 1.009 for eBOSS. These measurements, combined only with the local measurement of H₀, allows for constraints in parameter space for models beyond Lambda-CDM
50

Al, Shaer Ali. "Analyse des déformations permanentes des voies ferrées : approche dynamique". Marne-la-vallée, ENPC, 2005. https://pastel.archives-ouvertes.fr/pastel-00001592.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri

Vai alla bibliografia