To see the other types of publications on this topic, follow the link: Reconstruction et simulations de flux.

Dissertations / Theses on the topic 'Reconstruction et simulations de flux'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Reconstruction et simulations de flux.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Negre, Delphine. "Rationalisation de l’Accès aux Produits Naturels Fongiques par une Approche OSMAC in silico : Cas d’étude avec la modélisation du métabolisme de Penicillium rubens." Electronic Thesis or Diss., Nantes Université, 2024. http://www.theses.fr/2024NANU4038.

Full text
Abstract:
Face à la résistance accrue aux antibiotiques menaçant la santé publique, la prospection de nouvelles molécules biologiquement actives est pressante. Les champignons filamenteux se distinguent par leur capacité à synthétiser une large gamme de produits naturels, sous l’influence de clusters de gènes biosynthétiques (BGC) qui orchestrent la production de métabolites spécialisés. Toutefois, de nombreux produits issus de ces BGCs n’ont pas encore été caractérisés et leur chimiodiversité demeure sous-explorée en raison de l’incapacité à activer l’ensemble de leur potentiel en laboratoire. L’approche OSMAC (One Strain Many Compound) permet de solliciter ce potentiel en variant les conditions de culture. Cependant, cette méthode reste complexe et coûteuse en raison de son caractère aléatoire et du grand nombre d’expérimentations nécessaires. L’optimisation de ces processus nécessite l’intégration de stratégies plus rationnelles et efficaces. A l’aide d’approches systémiques liées à la biologie des systèmes, les réseaux métaboliques à l’échelle du génome (GSMN) offrent une modélisation détaillée des voies métaboliques, des enzymes impliquées et des gènes associés, fournissant un aperçu précis du métabolisme. Dans ce cadre, nous proposons une stratégie alternative: l’OSMAC in silico. En reconstruisant un GSMN actualisé pour Penicillium rubens, nous avons pu étudier les réponses de son métabolisme sous divers scénarios nutritionnels. Cette modélisation a permis d’évaluer l’influence de différentes sources de carbone et d’azote sur sa croissance et la production de métabolites spécialisés, ouvrant ainsi de nouvelles perspectives pour optimiser la production de produits naturels
Given the pressing issue of increasing antibiotic resistance threatening public health, new biologically active molecule research is urgent. Filamentous fungi are charcterised by their ability to synthesise a wide range of natural products, driven by biosynthetic gene clusters (BGCs) that orchestrate the production of specialised metabolites. However, many products derived from these BGCs remain uncharacterised, and their chemodiversity is underexplored due to the inability to activate their full potential in laboratory settings. The OSMAC (One Strain Many Compounds) approach seeks to harness this potential through culture condition variations. Nevertheless, this method remains complex and costly due to its randomness and vast number of experiments required. Therefore, optimising these processes needs the integration of more rational and efficient strategies. Using systems biology approaches, genome-scale metabolic networks (GSMNs) provide detailed modeling of metabolic pathways, involved enzymes, and associated genes, offering a precise overview of metabolism. In this context, we propose an alternative strategiy: in silico OSMAC. By reconstructing an updated GSMN for Penicillium rubens , we studied its metabolic responses under various nutritional scenarios. This modelling enabled us to assess the influence of different carbon and nitrogen sources on growth and the production of specialised metabolites, thereby opening new prospects for optimising the production of natural products
APA, Harvard, Vancouver, ISO, and other styles
2

Delestre, Olivier. "Simulation du ruissellement d'eau de pluie sur des surfaces agricoles." Phd thesis, Université d'Orléans, 2010. http://tel.archives-ouvertes.fr/tel-00587197.

Full text
Abstract:
L'objectif de ce travail est le développement d'un modèle et d'une méthode numérique adaptés à la simulation du ruissellement d'eau de pluie sur des surfaces agricoles. Pour cela, nous utilisons un système d'équations aux dérivées partielles pour les eaux peu profondes : le système de Saint Venant. La pluie et l'infiltration y sont pris en compte par l'ajout de termes source et le couplage avec un modèle d'infiltration. Le système étant hyperbolique et conservatif nous choisissons d'utiliser un schéma aux volumes finis avec reconstruction hydrostatique. Avec cette reconstruction nous obtenons un schéma permettant de traiter les équilibres stationnaires et les interfaces sec/mouillé dues aux événements pluvieux. Tout d'abord, nous effectuons une comparaison systématique de différents flux numériques, de différentes reconstructions d'ordre deux (MUSCL et ENO modifiées) et de différentes méthodes de traitement des frottements sur des solutions analytiques unidimensionnelles. Ces comparaisons nous permettent de choisir une méthode numérique adaptée à la simulation du ruissellement qui en outre capture les phénomènes de type roll-waves. Ensuite nous nous intéressons au traitement de la pluie et de l'infiltration à l'aide du modèle de Green-Ampt. Cette méthode généralisée en dimension deux est validée sur des résultats expérimentaux obtenus à l'INRA d'Orléans et à l'IRD. La méthode numérique choisie et validée a été implémentée dans FullSWOF_2D un logiciel libre écrit en C++ pour la simulation de ruissellement d'eau de pluie sur des surfaces agricoles.
APA, Harvard, Vancouver, ISO, and other styles
3

Ntemos, George. "GPU-accelerated high-order scale-resolving simulations using the flux reconstruction approach." Thesis, Imperial College London, 2017. http://hdl.handle.net/10044/1/59135.

Full text
Abstract:
High-order methods in Computational Fluid Dynamics (CFD) offer a potential route towards the resolution of hitherto intractable fluid-dynamics problems in industry. The Flux Reconstruction (FR) approach provides a unifying framework for a number of popular high-order methods such as the Discontinuous Galerkin (DG). Its suitability for use on unstructured grids along with its ability to facilitate massively parallelised implementation on architectures such as GPUs provide a means to tackle computationally challenging flows around complex geometries. Such a flow can be found in the rod-aerofoil tandem configuration: Complex, unsteady flow structures generated by and interacting with more than a single solid body are central to a number of applications in the aerospace industry. The current thesis attempts to demonstrate the suitability of the FR approach in successfully simulating the flow around a rod-aerofoil configuration. The in-house CFD solver employed in the research is presented and the FR implementation analysed. Computational grid resolution issues arising from the rod-aerofoil problem are studied and a novel strategy for the stabilisation of the computation is implemented in the form of local entropy stability. The results obtained are analysed and conclusions are drawn on the utility of the FR approach in the absence of a sub-grid scale model (Implicit LES - under-resolved DNS). The present work confirms the utility of local entropy stability for the stabilisation of the rod-aerofoil simulation of aerofoil-chord based Reynolds number of Re=480, 000. It will also demonstrate that the under-resolved DNS setup that resulted in a computational cost of approximately six hours for a single flow pass over the aerofoil chord on 200 Nvidia P100 GPUs resulted in moderate success for a significant portion of the flow dynamics, which not adequately predicted when compared with experiment. The latter led to a series of useful conclusions. The core of the conclusions involved the apparent over-prediction of time-averaged velocity and momentum deficits across wakes and as well as over-prediction of turbulent intensities. An identification of the problematic areas is therefore given and potential alleviation techniques outlined.
APA, Harvard, Vancouver, ISO, and other styles
4

Ridel, Mélissa. "Reconstruction du flux d'énergie et recherche de squarks et gluinos dans l'expérience D0." Phd thesis, Université Paris Sud - Paris XI, 2002. http://tel.archives-ouvertes.fr/tel-00002927.

Full text
Abstract:
DO est l'une des 2 expériences du collisionneur p-pbar du Fermi National Accelerator Laboratory près de Chicago. Après 5 années d'arrêt, le Run II a débuté en mars 2001. Il permettra d'explorer de nouveaux domaines de masses de squarks et de gluinos, particules supersymétriques dont la signature en jets et énergie transverse manquante est l'objet de ce travail. Mais, avant le démarrage, j'ai travaillé sur des améliorations hardware et software de la mesure de l'énergie, essentielle pour les jets et l'énergie transverse manquante.
Une simulation des chaînes de lecture et de calibration de chaque voie du calorimètre a été réalisée. Son résultat dépend de 8 grandeurs caractéristiques qui ont été extraites par traitement du signal de mesures de réflectométrie temporelle. Elle permettra de définir une stratégie de calibration du calorimètre.
Une clusterisation des dépôts d'énergie calorimétrique a été réalisée (cel1NN) basée sur la cellule et non la tour et exploitant au maximum la granularité du calorimètre notamment en débutant dans le Sème compartiment électromagnétique, 4 fois plus granulaire que les autres. L'information longitudinale permet de séparer les particules électromagnétiques et hadroniques superposées. Ainsi, tous les éléments indispensables â la reconstruction individuelle des gerbes sont mis en oeuvre.
Puis, l'energy flow combine les clusters ce11NN et les traces reconstruites dans la cavité centrale pour conserver la meilleure mesure de l'énergie et améliorer ainsi la reconstruction du flux d'énergie de chaque événement.
L'efficacité des déclenchements calorimétriques actuels a été déterminée et utilisée pour une recherche de squarks et gluinos utilisant des événements Monte Carlo dans le cadre de mSUGRA. Une limite inférieure sur les masses des squarks et des gluinos qu'atteindra DO avec 100 pb-1 de luminosité est prédite â partir d'outils de reconstruction standards; elle pourra être améliorée grâce à l'utilisation de l'energy flow.
APA, Harvard, Vancouver, ISO, and other styles
5

Ridel, Mélissa. "Reconstruction du flux d'énergie et recherche de squarks et gluinos dans l'expérience DØ." Paris 11, 2002. http://www.theses.fr/2002PA112101.

Full text
Abstract:
DØ est l'une des 2 expériences du collisionneur pp ̃du Fermi National Accelerator Laboratory près de Chicago. Après 5 années d'arrêt, le Run II a débuté en mars 2001. Il permettra d'explorer de nouveaux domaines de masses de squarks et de gluinos, particules supersymétriques dont la signature en jets et énergie tranverse manquante est l'objet de ce travail. Mais, avant le démarrage, j'ai travaillé sur des améliorations hardware et software de la mesure de l'énergie, essentielle pour les jets et l'énergie transverse manquante. Une simulation des chaînes de lecture et de calibration de chaque voie du calorimètre a été réalisée. Son résultat dépend de 8 grandeurs caractéristiques qui ont été extraites par traitement du signal de mesures de réflectométrie temporelle. Elle permettra de définir une stratégie de calibration du calorimètre. Une clusterisation des dépôts d'énergie calorimétrique a été réalisée (cellNN) basée sur la cellule et non la tour et exploitant au maximum la granularité du calorimètre notamment en débutant dans le 3ème compartiment électromagnétique, 4 fois plus granulaire que les autres. L'information longitudinale permet de séparer les particules électromagnétiques et hadroniques superposées. Ainsi, tous les éléments indispensables à la reconstruction individuelle des gerbes sont mis en œuvre. Puis, l'energy flow combine les clusters cellNN et les traces reconstruites dans la cavité centrale pour conserver la meilleure mesure de l'énergie et améliorer ainsi la reconstruction du flux d'énergie de chaque événement. L'efficacité des déclenchements calorimétriques actuels a été déterminée et utilisée pour une recherche de squarks et gluinos utilisant des événements Monte Carlo dans le cadre de mSUGRA. Une limite inférieure sur les masses des squarks et des gluinos qu'atteindra DØ avec 100 pb^(-1) de luminosité est prédite à partir d'outils de reconstruction standard; elle pourra être améliorée grâce à l'utilisation de l'energy flow
The DØ experiment is located at the Fermi National Accelerator Laboratory on the TeVatron proton-antiproton collider. The Run II has started in march 2001 after 5 years of shutdown and will allow DØ extend its reach in squarks and gluinos searches, particles predicted by supersymmetry. In this work, I focussed on their decays that lead to signature with jets and missing transverse energy. But before the data taking started, I studied bath software and hardware ways to improve the energy measurement which is crutial for jets and for missing transverse energy. For each calorimeter channel, the physics and the calibration signal has been simulated based on a database of the 8 parameters that describe each channel. The parameters have been extracted from time reflectometry measurements. The calibration strategy can be defined using this simulation. Energy deposits in the calorimeter has been clustered with celINN, at the cellievei instead of the tower level. Efforts have been made to take advantage of the calorimeter granularity to aim at individual particles showers reconstruction. CellNN starts from the third floor which has a quadruple granulariry compared to the other floors. The longitudinal information has been used to detect electromagnetic and hadronic showers overlaps. Then, clusters and reconstructed tracks from the central detectors are combined and their energies compared. The better measurement is kept. Using this procedure allows to improve the reconstruction of each event energy flow. The efficiency of the current calorimeter triggers has been determined. They has been used to perform a Monte Carlo search analysis of squarks and gluinos in the mSUGRA framework. The lower bound that DO will be able to put on squarks and gluinos masses with a 100 pb^(-1) integrated luminosity has been predicted. The use of the energy flow instead of standard reconstruction tools will be able to improve this lower limit
APA, Harvard, Vancouver, ISO, and other styles
6

Marchand, Mathieu. "Flux financiers et endettement de l'État : simulations par modèle d'équilibre général calculable (MEGC)." Thesis, Université Laval, 2007. http://www.theses.ulaval.ca/2007/24520/24520.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Décossin, Étienne. "Ébullition et assèchement dans un lit de particules avec production interne de chaleur : premières expériences et simulations numériques en situation multidimensionnelle." Toulouse, INPT, 2000. http://www.theses.fr/2000INPT004H.

Full text
Abstract:
Dans le contexte des études sur les accidents graves dans les centrales nucléaires, la démonstration de la capacité de refroidissement des lits de particules de corium, matériau résultant de la fusion du coeur et véhiculant la puissance résiduelle, est d'une grande importance. De nombreux travaux expérimentaux, essentiellement 1D, ont démontré l'existence d'un flux critique d'assèchement au-delà duquel le refroidissement des particules par l'ébullition de l'eau interstitielle n'est plus assuré. L'interprétation et la modélisation du phénomène reposent sur l'équation hydrodynamique d'Ergun, adaptée aux écoulements diphasiques par le biais des coefficients de perméabilité et passabilité relatives. Cette équation, malgré son manque de justification théorique, est aujourd'hui généralisée dans les modèles multidimensionnels pour simuler des situations représentatives des cas réacteurs. Un programme expérimental original a été élaboré dans le but de fournir des données de validation pour ces modèles. Constitué de billes en acier chauffées par induction, le lit poreux a un rapport d'aspect choisi pour capter des phénomènes bidimensionnels, en l'occurence des circulations convectives de liquide. Des premières mesures de flux critique d'assèchement ont été obtenues dans le cas homogène pour différentes hauteurs de lit et diamètres de billes. La confrontation des essais avec de simulations numériques montrent les limites actuelles de la modélisation. Ces premiers résultats montrent la nécessité de raffiner la représentation du phénomène d'assèchement tant au niveau des conditions aux limites que des équations de quantité de mouvement.
APA, Harvard, Vancouver, ISO, and other styles
8

Didorally, Sheddia. "Prévision des flux de chaleur turbulents et pariétaux par des simulations instationnaires pour des écoulements turbulents chauffés." Thesis, Toulouse, ISAE, 2014. http://www.theses.fr/2014ESAE0015/document.

Full text
Abstract:
Cette thèse s’inscrit dans le cadre de l’amélioration des prévisions aérothermiques qui suscite l’intérêt croissant des industriels aéronautiques. Elle consiste à évaluer l’apport des méthodes URANS avancées de type SAS dans la prévision des flux de chaleur turbulents et pariétaux pour des écoulements turbulents chauffés. Elle vise aussi à situer ces approches par rapports aux modèles URANS classiques de type DRSM et hybrides RANS/LES comme la ZDES. Une extension de l’approche SAS à un modèle DRSM a d’abord été proposé afin d’obtenir une meilleure restitution des tensions de Reynolds résolues et modélisées. Ce modale SAS-DRSM a été implanté dans le code elsA de l’ONERA. Nous avons ensuite évalué les approches SAS disponibles avec ce code sur la prévention d’écoulements aérothermiques rencontrés sur avion dans un compartiment de moteur. Ces études ont montré que les approches SAS améliorent la représentation des écoulements par rapport aux modèles URANS classiques. Elles aboutissent à des écoulements fortement tridimensionnels avec de nombreuses structures turbulentes. Ces structures induisent un mélange turbulent accru et donc une meilleure prévision du flux de chaleur pariétal. De plus, nos travaux ont situé les approches de type SAS comme des méthodes plus précises que les méthodes URANS classiques sans augmentation importante du coût de calcul. Les modèles SAS ne résolvent pas les plus petites structures caractéristiques du mouvement turbulent par rapport à la ZDES qui montre des prévisions supérieures. Le modèle SAS-RDSM offre néanmoins la meilleur alternative de type SAS. Enfin, l’étude du flux de chaleur turbulent semble retrouver le fait que l’hypothèse classique de nombre de Prandtl turbulent constat n’est pas valable dans toutes les zones de l’écoulement
The improvement of aerothermal predictions is a major concern for aeronautic manufacturers. In line with this issue, SAS approaches are assessed on the prediction of wall and turbulent heat fluxes for heated-turbulent flows. This study also aims at evaluating these advanced URANS methods in regard to DRSM models and hybrid RANS/LES approaches as ZDES. Firstly, we proposed to combine the SAS approach and a DRSM model in order to better reproduce both resolved and modelled Reynolds stresses. This new model, called SAS-DRSM, was implemented in ONERA Navier-Strokes code elsA. Unsteady simulations of two heated turbulent flows encountered in an aircraft engine compartment were then performed to evaluate all the SAS models available in the code. These numerical studies demonstrated that SAS approaches improve prediction of the flows compared to classical URANS models. They lead to full 3D flows with many turbulent structures. These structures favour turbulent mixing and thus induce a better prediction of the wall heat fluxes. Moreover, the numerical simulations showed that SAS methods are more accurate than classical URANS models without increasing significantly calculation costs. SAS approaches are not able to resolve the smallest turbulent structures in relation to ZDES which provides better predictions. Finally, the investigation of the turbulent heat flux suggested that the constant turbulent Prendtl number assumption, that is characteristic of classical URANS models, may not be valid in some regions of the flow
APA, Harvard, Vancouver, ISO, and other styles
9

Frasson, Thomas. "Flux de chaleur hétérogène dans des simulations de convection mantellique : impact sur la géodynamo et les inversions magnétiques." Electronic Thesis or Diss., Université Grenoble Alpes, 2024. http://www.theses.fr/2024GRALU027.

Full text
Abstract:
Le champ magnétique terrestre est généré par la convection du fer liquide dans le noyau, éléctriquementconducteur, produisant un effet dynamo. Ce processus, appelé géodynamo, maintientun champ magnétique depuis des milliards d’années. Les données paléomagnétiques montrent quele comportement de la géodynamo a changé au cours des temps géologiques. Ces changementsde comportement sont visibles à travers les variations de l’amplitude et de la stabilité du dipôlemagnétique. Les variations du flux de chaleur à la limite entre le noyau et le manteau (CMB) duesà la convection mantellique ont été suggérées comme un mécanisme capable d’entraîner un telchangement de comportement.Les modèles numériques de convection mantellique et de la géodynamo ont connu des améliorationssignificatives ces dernières années. Le couplage entre ces deux types de modèle peutdonner des indications sur la façon dont la géodynamo réagit aux variations de flux de chaleurà la CMB. Notre compréhension actuelle de ce couplage entre le manteau et le noyau est néanmoinsrestreinte par les limitations des modèles numériques. Du côté du manteau, l’orientationdu manteau par rapport à l’axe de rotation doit être mieux contrainte afin d’exploiter les récentessimulations reproduisant environ 1 Gyr de convection mantellique. Pour contraindre cette orientation,l’axe de plus grand moment d’inertie du manteau doit être aligné avec l’axe de rotation de laTerre, ce qui provoque des rotations du manteau appelées "true polar wander" (TPW). Du côté dunoyau, les simulations numériques sont encore loin du régime de paramètre de la Terre, et il n’estpas certain que le mécanisme d’inversion observé dans ces modèles soit pertinent pour le noyaude la Terre.Ce travail vise à mieux contraindre la façon dont les hétérogénéités de flux de chaleur à laCMB affectent la géodynamo. Dans une première partie, nous explorons l’impact du TPW surle flux de chaleur à la CMB en utilisant deux modèles de convection mantellique récemmentpubliés : un modèle contraint par une reconstruction de plaque et un second produisant de manièreautocohèrente un comportement de tectonique des plaques. Le géoïde est calculé pour corriger leTPW. Une alternative à la correction du TPW est utilisée pour le modèle contraint par la positiondes plaques en repositionnant simplement le manteau dans le référentiel paléomagnétique. Dansce modèle, l’axe de plus grand moment d’inertie n’est pas cohérent avec la position du dipôlemagnétique déduite du paléomagnétisme. Le TPW joue un rôle important dans la redistributiondu flux de chaleur, notamment à des échelles de temps courtes (≤ 10 Myr). Ces variations rapidesmodifient la distribution latitudinale du flux de chaleur à la CMB. Une analyse en composantesprincipales est effectuée pour obtenir les motifs de flux de chaleur dominant dans les modèles.Dans une deuxième partie, nous étudions l’impact des conditions hétérogènes de flux de chaleurau sommet du noyau dans des modèles de géodynamo qui s’étendent vers des régimes deparamètres plus proches de celui de la Terre que ce qui a été fait précédemment. L’effet de ladistribution du flux de chaleur en latitude est notamment étudié. Des motifs de flux complexes extraitsdes modèles de convection mantellique sont également utilisés. Nous montrons qu’un refroidissementéquatorial du noyau est le plus efficace pour déstabiliser le dipôle magnétique, tandisqu’un refroidissement polaire tend à stabiliser le dipôle. Les effets observés des flux de chaleurhétérogènes s’expliquent par la compatibilité entre les motifs de flux et les écoulements zonaux.Notamment, les motifs de flux de chaleur ont un effet plus modéré lorsque les écoulements zoiinaux vers l’ouest sont forts, avec une déstabilisation du dipôle seulement pour des amplitudesimprobables. Un paramètre contrôlant l’amplitude et la stabilité du dipôle magnétique, cohérentavec l’existence d’inversions magnétiques pour la Terre, est proposé
The Earth’s magnetic field is generated within the Earth’s core, where convective motions ofthe electrically conducting liquid iron result in a dynamo action. This process, called the geodynamo,has been maintaining a magnetic field for billion of years. Paleomagnetic evidence showsthat the behaviour of the geodynamo has changed during geological times. These behaviourchanges are visible through variations in the strength and stability of the magnetic dipole. Variationsin the heat flux at the core-mantle boundary (CMB) due to mantle convection have beensuggested as one possible mechanism capable of driving such a change of behaviour.Numerical models of mantle convection and of the geodynamo have made significant improvementsin the recent years. Coupling mantle convection models and geodynamo models cangive insights into how the geodynamo reacts to variations in the CMB heat flux. Our current understandingof this thermal coupling between the mantle and the core is nonetheless restricted bylimitations in numerical models on both the mantle and core side. On the mantle side, the orientationof the mantle with respect to the spin axis has to be better constrained in order to exploitrecent simulations reproducing about 1 Gyr of mantle convection. Constraining this orientationrequires to align the maximum inertia axis of the mantle with the spin axis of the Earth, causingsolid-body rotations of the mantle called true polar wander (TPW). On the core side, numericalsimulations are still far from the parameter regime of the Earth, and it is not clear whether thereversing mechanism observed in these models is relevant for the Earth’s core.This work aims at acquiring a more complete understanding of how lateral heterogeneitiesof the CMB heat flux affect the geodynamo. In a first part, we explore the impact of TPW onthe CMB heat flux using two recently published mantle convection models: one model drivenby a plate reconstruction and a second that self-consistently produces a plate-like behaviour. Wecompute the geoid in both models to correct for TPW. An alternative to TPW correction is used forthe plate-driven model by simply repositioning the model in the original paleomagnetic referenceframe of the plate reconstruction. We find that in the plate-driven mantle convection model, themaximum inertia axis does not show a long-term consistency with the position of the magneticdipole inferred from paleomagnetism. TPW plays an important role in redistributing the CMBheat flux, notably at short time scales (≤ 10 Myr). Those rapid variations modify the latitudinaldistribution of the CMB heat flux. A principal component analysis (PCA) is computed to obtainthe dominant CMB heat flux patterns in the models.In a second part, we study the impact of heterogeneous heat flux conditions at the top of thecore in geodynamo models that expands towards more Earth-like parameter regimes than previouslydone. We especially focus on the heat flux distribution between the poles and the equator.More complex patterns extracted from the mantle convection models are also used. We show thatan equatorial cooling of the core is the most efficient at destabilizing the magnetic dipole, while apolar cooling of the core tends to stabilize the dipole. The observed effects of heterogeneous heatflux patterns are explained through the compatibility of thermal winds generated by the heat fluxpattern with zonal flows. Notably, heat flux patterns have a more moderate effect when westwardzonal flows are strong, with a destabilization of the dipole only for unrealistically large amplitudes.A parameter controlling the strength and stability of the magnetic dipole that is consistentwith the reversing behaviour of the geodynamo is suggested.i
APA, Harvard, Vancouver, ISO, and other styles
10

Solminihac, Florence de. "Effets de perturbations magnétiques sur la dynamique de la barrière de transport dans un Tokamak : modélisation et simulations numériques." Thesis, Aix-Marseille, 2012. http://www.theses.fr/2012AIXM4743/document.

Full text
Abstract:
Dans cette thèse nous étudions l'impact de perturbations magnétiques résonnantes sur la dynamique de la barrière de transport dans un tokamak. Pour cela nous avons réalisé des simulations numériques tridimensionnelles de turbulence dans le plasma de bord du tokamak. Nos simulations numériques ont reproduit les résultats expérimentaux observés dans différents tokamaks. Dans le régime de confinement amélioré (mode H), la barrière de transport n'est pas stable : elle effectue des oscillations de relaxation, qui partagent des caractéristiques communes avec les "modes localisés au bord'' (Edge Localized Modes, ELMs). Ces ELMs ont à la fois des avantages et des inconvénients. D'un côté, ils permettent d'évacuer les impuretés présentes dans le coe ur du plasma. Mais d'un autre côté, la charge thermique induite sur la paroi pendant un ELM peut endommager les matériaux de première paroi. Pour cette raison, ils doivent être contrôlés. Cette thèse s'inscrit dans le contexte du projet ITER actuellement en construction en France. Sur ITER, le contrôle des ELMs sera indispensable en raison de la quantité d'énergie évacuée. Parmi les différentes façons de contrôler les ELMs, les perturbations magnétiques résonnantes (Resonant Magnetic Perturbations, RMPs) semblent prometteuses. Ces perturbations magnétiques résonnantes sont créées par des bobines externes. Nous nous plaçons dans le cas du tokamak TEXTOR et nous considérons deux configurations pour les bobines externes : dans un premier temps, une perturbation magnétique résonnante comprenant plusieurs harmoniques, qui permet d'avoir une zone stochastique au bord du plasma lorsque les chaînes d'îlots magnétiques se superposent
In this PhD thesis we study the impact of resonant magnetic perturbations on the transport barrier dynamics in a tokamak. In this goal we have performed turbulence tridimensional numerical simulations in the edge plasma of a tokamak, which reproduced the experimental results observed in different tokamaks. In the improved confinement regime (H mode), the transport barrier is not stable : it does relaxation oscillations, which share common features with the ``Edge Localized Modes'' (ELMs). These ELMs both have advantages and drawbacks. On the one hand, they enable to push away the impurities present in the plasma core. But on the other hand, the thermal load induced on the wall during an ELM can damage the first wall materials. For this reason, they must be controlled. This PhD thesis belongs to the frame of the ITER project, which is today in construction in France. On ITER the ELMs control will be compulsory due to the quantity of energy released. Among the different ways of controlling the ELMs, the resonant magnetic perturbations (RMPs) seem promising. These resonant magnetic perturbations are created by external coils. We consider the TEXTOR tokamak case and we consider two configurations for the external coils : first, a resonant magnetic perturbation with several harmonics, which enables to have a stochastic zone at the plasma edge when the magnetic island chains overlap ; then, a resonant magnetic perturbation with a single harmonic, which therefore creates a single magnetic island chain. In this PhD thesis, we focus on the non-axisymmetric equilibrium created in the plasma by the resonant magnetic perturbation
APA, Harvard, Vancouver, ISO, and other styles
11

Breton, Catherine. "Reconstruction de l’histoire de l’olivier (Olea europaea subsp. Europaea) et de son processus de domestication en région méditerranéenne, étudiés sur des bases moléculaires." Aix-Marseille 3, 2006. http://www.theses.fr/2006AIX30066.

Full text
Abstract:
Comment l’olivier a-t-il été domestiqué à partir de la forme sauvage l’oléastre ? La diversité moléculaire à 14 locus SSR nucléaires et 2 chloroplastiques de l’olivier et de l’oléastre ont été étudiées et comparées sur un échantillonnage de plus de 1500 individus répartis sur tout le pourtour du bassin méditerranéen. Pour préciser l’histoire des deux taxons nous avons utilisé une méthode bayésienne pour analyser la diversité nucléaire afin de reconstruire des lignées ancestrales de l’oléastre. Les analyses de diversité avec les outils classiques de génétique des populations révèlent des tendances mais ne permettent pas des conclusions tranchées quant aux regroupements car les individus forment un continuum. Les flux de gènes depuis les cultivars déplacés de l’Est vers l’Ouest par l’homme lors des migrations ont perturbé la structuration de la diversité des oléastres sur le continent et quelques îles. La méthode d’analyse bayésienne utilisée permet a posteriori de trier les arbres pour les rattacher à onze lignées ancestrales d’oléastres se rattachant à une dizaine de régions géographiques. Les cultivars étudiés apparaissent ancrés dans 9 lignées ancestrales et délimitent une origine géographique pour chaque évènement de domestication, elles correspondent à des foyers de domestication révélés pour l’olivier (Israël et Espagne - Portugal) et d’autres non soupçonnées (Corse, Chypre, France, Tunisie). La méthode bayésienne utilisée apparaît donc comme complémentaire des analyses de diversité pour assigner les individus dans les lignées ancestrales. Les diverses méthodes utilisées convergent pour rendre les résultats solides. La domestication multilocale est donc réelle chez l’olivier, elle conduit à une domestication incomplète avec des individus intermédiaires inclassables
How has the olive been domesticated from its wild form, the oleaster? Molecular diversity at 14 nuclear and 2 chloroplast loci was investigated for comparison amongst a set of more than 1500 individuals from the entire Mediterranean basin. To document the history of the two taxa, a Bayesian method was used to reconstruct the ancestral lines. Diversity analysis with classic genetic tools revealed tendencies but did not provide clear-cut conclusions because the individuals fell along a continuum. Indeed, gene flow from cultivars that were displaced from East to West during human migrations has disturbed the genetic structure on both the continent and various islands. The Bayesian method enabled us to reconstruct the ancestral lineages a posteriori, and so to screen the trees individually in order to reveal those with only a single ancestor in one lineage, rather than “hybrids” with several ancestors in several lineages. We determined 11 ancestral oleaster lineages that originate from ten geographical areas, some of which are recognised as refuge zones for plant and animal species. Cultivars studied separately from oleasters proved to possess 9 ancestral lineages. Cultivars from each lineage delimit a geographic origin corresponding to a domestication event and, while some of these have already been described (Israel, Spain), others were unknown (Corsica, Cyprus, France, and Tunisia). The Bayesian method used was, therefore, complementary with diversity analyses in assigning and admixing each individual to one or several ancestral lineages. Thus, the diverse methods used contributed to providing more robust results. The olive has, therefore, undergone multilocal domestication which is incomplete, as many trees remain unclassifiable
APA, Harvard, Vancouver, ISO, and other styles
12

Yureidini, Ahmed. "Reconstruction robuste des vaisseaux sanguins pour les simulations médicales interactives à partir de données patients." Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2014. http://tel.archives-ouvertes.fr/tel-01010973.

Full text
Abstract:
Dans le cadre des simulations interactives, le manque de modèles géométriques reste une des limitations majeures des simulateurs. Actuellement, les simulateurs commerciaux ne proposent pas ou un tout cas, un nombre limité de cas. Un grand nombre des travaux abordent cependant ce sujet tout au long de ces deux dernières décennies. Malgré une vaste littérature, les méthodes ne sont pas adaptées à un contexte interactif, plus particulièrement quand il s'agit des réseaux vasculaires. Dans cette thèse, nous considérons le problème de la segmentation et la reconstruction des vaisseaux sanguins à partir de données patients en Angiographie Rotationnelle (RA) 3D. Pour ce faire, nous proposons deux nouveaux algorithmes, un pour la segmentation et un autre, pour la reconstruction. Tout d'abord, le réseau vasculaire est construit grâce à un algorithme de suivi de la ligne centrale des vaisseaux. De plus, notre procédure de suivi extrait des points à la surface des vaisseaux de manière robuste. Deuxièmement, ces points sont estimés par une surface implicite (un blobby model) qui est, à son tour, raffinée de façon itérative. Les résultats du suivi et de la reconstruction sont produit à partir de données synthétiques et réelles. Lors de la simulation de la navigation d'outils interventionnels, notre modèle géométrique remplit les exigences des simulations interactives: une prédiction et détection rapide des collisions, l'accès à l'information topologique, une surface lisse et la mise à disposition de quantités différentielles pour la résolution des contacts.
APA, Harvard, Vancouver, ISO, and other styles
13

Stute, Simon. "Modélisation avancée en simulations Monte Carlo de tomographie par émission de positons pour l'amélioration de la reconstruction et de la quantification." Paris 11, 2010. http://www.theses.fr/2010PA112264.

Full text
Abstract:
La tomographie d'émission de positons (TEP) est une technique d'imagerie médicale jouant un rôle prépondérant en oncologie. Cependant, les images TEP souffrent d'une résolution spatiale médiocre et d'un niveau de bruit élevé. De ce fait, la caractérisation des lésions tumorales n'a toujours pas fait l'objet de consensus, et de nombreuses méthodes sont sans cesse proposées par la communauté. Une méthode de simulation Monte Carlo a été développée pour produire des images TEP de patients atteints de cancer, indiscernables des images cliniques, et pour lesquelles tous les paramètres sont maîtrisés. La simulation d'un groupe de patients a permis d'évaluer 14 méthodes de quantification dans des conditions réalistes. La méthode proposée a aussi été étendue pour simuler des examens TEP successifs de patients, dans le cadre du suivi thérapeutique, en incluant une modélisation de l'évolution tumorale, et de la variation au cours du temps de la distribution d'activité physiologique non-tumorale. La capacité des simulations Monte Carlo a ensuite été exploitée pour élaborer un modèle précis des phénomènes physiques de détection et l'incorporer dans la reconstruction tomographique. La méthode de reconstruction résultante a été comparée à diverses méthodes de la littérature, sur la base de jeux de données simulées et d'acquisitions cliniques. Nous avons ainsi prouvé la supériorité de la méthode proposée par rapport aux approches équivalentes sur les données simulées, et montré sa robustesse sur les données cliniques. L'utilisation de cette méthode permettra d'améliorer la précision des mesures quantitatives effectuées en routine clinique
Positron emission tomography (PET) is a medical imaging technique that plays a major role in cancer diagnosis and cancer patient monitoring. However, PET images suffer from a modest spatial resolution and high noise. As a result, there is no consensus on how the metabolically active tumour volume and the tumour uptake should be characterized. Ln the meantime, research groups keep producing new methods for tumour characterization based on PET images, which need to be assessed in realistic conditions. A Monte Carlo simulation based method has been developed to produce PET images of cancer patients that are indistinguishable from clinical images, and for which all parameters are known. Fourteen quantification methods were compared in realistic conditions using a group of patient data simulated using this method. Ln addition, the proposed method was extended to simulate serial PET scans in the context of patient monitoring, including modelling of tumour changes and variability over time of non-tumour physiological uptake. Ln a second part of the work, Monte Carlo simulations were used to study the detection probability inside the crystals of the tomograph. A model of the crystal response was derived and included in the system matrix involved in tomographic reconstruction. The resulting reconstruction method was compared with other sophisticated methods proposed in the literature. Using simulated data, we demonstrated that the proposed method improved the noise/resolution trade-off over equivalent approaches. We illustrated the robustness of the method using clinical data. The proposed method might lead to an improved accuracy in tumour characterization from PET images
APA, Harvard, Vancouver, ISO, and other styles
14

Moriceau, Brivaëla. "Étude de la dissolution de la silice biogénique des agrégats : utilisation dans la reconstruction des flux de sédimentation de la silice biogénique et du carbonne dans la colonne d'eau." Brest, 2005. http://www.theses.fr/2005BRES2034.

Full text
Abstract:
L’augmentation de la teneur en carbone dans l’atmosphère provoquée par les activités anthropiques est freinée par l’effet « puit de carbone » de certaines régions de l’océan, en particulier grâce à la pompe biologique de carbone. La forte participation des diatomées à la production primaire océanique ainsi que leur capacité à former des agrégats nous ont conduit à étudier le rôle des diatomées, et en particulier l’impact de l’agrégation sur la pompe biologique de carbone. Des expériences en laboratoire ont permis de déterminer que la vitesse de dissolution des frustules de diatomées est plus faible pour les cellules agrégées que pour les cellules libres. Le modèle d’agrégat utilisé pour mieux comprendre les paramètres conduisant à ces mesures expérimentales, confirme que la dissolution de la BSiO2 est ralentie et démontre que la diffusion de la DSi dans l’agrégat est plus faible que dans l’eau de mer. Le ralentissement de la dissolution est attribué aux fortes teneurs en DSi mesurées dans l’agrégat et à une viabilité plus longue des diatomées agrégées. Les résultats expérimentaux sont ensuite combinés avec des mesures in situ de flux de BSiO2 dans neuf provinces de l’océan, dans un modèle simplifié reconstruisant les flux de BSiO2 de la colonne d’eau. Ce modèle détermine la répartition de la BSiO2 du flux entre cellules libres et grosses particules et donne des informations sur la dynamique des particules. Les flux de BSiO2 reconstruits, associés à une relation empirique donnant l’évolution des rapports Si:C avec la profondeur, permettent d’évaluer le véritable rôle des diatomées dans la pompe biologique de carbone en calculant les flux de carbone au bas de la couche hivernale de mélange. L’utilisation des flux de Si comme traceur des flux de C permet de s’affranchir des difficultés liées à la chimie complexe à laquelle est soumis le C. Le rôle des diatomées dans l’export ou le transfert de carbone dépend de la façon d’estimer l’export hors de la couche de surface
The dramatic increase of carbon concentration in the atmosphere is limited by the action of some oceanic areas that act like a “sink of carbon” mainly thanks to the biological pump. Because of the strong participation of diatoms to the primary production and their ability to aggregate, we study the role of diatoms and the impact of aggregation on the biological pump. Laboratory experiments determined that the BSiO2 dissolution rate of aggregated cells is lower than the one of freely suspended cells. The model of aggregate used to better understand aggregate internal parameters that provoke the decrease of the dissolution rate, confirmed that the dissolution is lower in aggregates and added that the DSi diffusion in aggregate is lower than in seawater. The decrease of the BSiO2 dissolution rate is attributed to the strong DSi concentrations measured into aggregates and to the higher viability of aggregated cells. Experimental results were then combined with in situ measurements of BSiO2 fluxes in nine areas cf the ocean, intc a simple model that reconstruct BSiO2 fluxes in the water column. This model allows to calculate the repartition of the BSiO2 between large particles and freely suspended cells and to better understand particles dynamic. The BSiO2 fluxes reconstructed using the model, were then associated with a relation between Si/C ratios and water column depth to determine the real importance of diatoms in the biological pump cf carbon. We then calculated the carbon fluxes at the maximum depth of the mixing layer. The use of the Si fluxes as a proxy of the carbon fluxes allow to ignore difficulties due to the cornplexity of the carbon chemistry. The role of diatoms in the export and transfer of carbon strongly depend on the way used to calculate the export out of the surface layer
APA, Harvard, Vancouver, ISO, and other styles
15

Garreau, Morgane. "Simulations hémodynamiques pour l'IRM : contrôle qualité, optimisation et intégration à la pratique clinique." Electronic Thesis or Diss., Université de Montpellier (2022-....), 2023. http://www.theses.fr/2023UMONS040.

Full text
Abstract:
L'étude de l'hémodynamique, c'est-à-dire de la dynamique du sang, est considérée par la communauté médicale comme un biomarqueur essentiel pour caractériser l'apparition et le développement des pathologies cardiovasculaires. Historiquement, l'imagerie à résonance magnétique (IRM), technique non-invasive et non-ionisante, permet de reconstruire des images morphologiques des tissus biologiques. Des progrès récents lui donnent aussi accès à l'évolution temporelle du champ de vitesse du sang dans les trois directions de l'espace. Cette technique, connu sous le nom d'IRM de flux 4D, est encore peu utilisée dans la pratique clinique étant donné sa faible résolution spatio-temporelle et sa longue durée d'acquisition.Cette thèse a pour but d'étudier les performances de la séquence de flux 4D. Dans un premier temps, l'impact de séquences accélérées (GRAPPA, compressed sensing) sur la reconstruction des champs de vitesse est étudié dans un cadre combinant mesures expérimentales sur un fantôme imageur de flux et simulations de mécanique des fluides numérique (MFN). On montre que l'acquisition hautement accélérée avec compressed sensing est en bon accord avec la simulation numérique si les corrections appropriées sont appliquées, notamment par rapport aux courants de Foucault. Dans un second temps, l'impact d'un paramètre de séquence, l'écho partiel, est examiné. L'étude est conduite avec une méthodologie couplant la simulation du processus d'acquisition IRM avec la MFN et permettant de reconstruire des images synthétiques d'IRM. Cette configuration permet de s'affranchir des erreurs expérimentales pour s'intéresser uniquement aux erreurs intrinsèques au processus IRM. Deux séquences constructeur réalistes, sans et avec écho partiel, sont simulées sur deux types d'écoulement dans un fantôme de flux numérique. Pour les deux écoulements, la séquence avec écho partiel donne globalement de meilleurs résultats. Il est ainsi suggéré que l'effet d'atténuation des artéfacts de déplacement permise par l'écho partiel est plus important que celui de réduction du signal IRM acquis que ce paramètre engendre. De plus, la simulation couplée IRM-MFN apparaît comme un outil d'intérêt dans le contexte de la conception et de l'optimisation de séquences IRM et pourrait être étendu à d'autres types de séquences
The study of hemodynamics, i.e. the dynamics of blood flow, is considered by the medical community as an essential biomarker to characterize the onset and the development of cardiovascular pathologies. Historically, magnetic resonance imaging (MRI), a non-invasive and non-ionizing technique, allows to reconstruct morphological images of the biological tissues. Recent progresses have made it possible to access the temporal evolution of the blood velocity field in the three spatial directions. This technique, known as 4D flow MRI, is still little used in the clinical practice due to its low spatiotemporal resolution and its long scan time.This thesis aims at studying how the 4D flow MRI sequence performs. To begin with, the impact of accelerated sequences (GRAPPA, compressed sensing) on reconstructed velocity fields is studied in a framework combining experimental measurements in a flow phantom and computational fluid dynamics (CFD) simulations. It is shown that the highly accelerated sequence with compressed sensing is in good agreement with numerical simulation as long as appropriate corrections are applied, namely with respect to the eddy currents. Then, the impact of a sequence parameter, namely partial echo, is investigated. The study is conducted thanks to a methodology coupling the simulation of the MR acquisition process with CFD and allowing to reconstruct synthetic MR images (SMRI). This configuration is freed from experimental errors and allows to only focus on the errors intrinsic to the MRI process. Two realistic constructor sequences, without and with partial echo, are simulated for two types of flow in a numerical flow fantom. For both flows, the sequence with partial echo results in overall better results. It suggests that the mitigation of the displacement artifacts made possible by the partial echo has a greater impact than the reduced MR signal acquired that it induces. Furthermore, the coupled MRI-CFD simulation appears as a tool of interest in the context of sequence design and optimization. It could be expanded to other types of MR sequences
APA, Harvard, Vancouver, ISO, and other styles
16

Tendeng, Ndéye Léna. "Étude de modèles de transmission de la Schistosomiase : analyse mathématique, reconstruction des variables d'état et estimation des paramètres." Thesis, Université de Lorraine, 2013. http://www.theses.fr/2013LORR0110/document.

Full text
Abstract:
L'objectif de cette thèse est l'analyse mathématique et l'estimation des paramètres de modèles de métapopulation de la bilharziose. A partir du modèle de base de Macdonald, nous expliquons en détail comment ces modèles sont construits. Nous faisons leur analyse mathématique complète à partir du nombre de reproduction du calcul du nombre de reproduction de base R0. Nous montrons que si R0 est inférieur ou égal à 1 alors l'équilibre sans maladie est globalement asymptotiquement stable. Dans le cas où R0 est strictement plus grand que 1 nous montrons l'existence et l'unicité de l'équilibre endémique et prouvons ensuite que ce dernier est globalement asymptotiquement stable. La plupart des variables et paramètres de modèles mathématiques étant inconnus, nous proposons, dans notre travail, des méthodes de calibration par les observateurs : la méthode du Moving Horizon State Estimation ou MHSE et celle de l'observateur grand gain. Une application de ces deux méthodes sera faite sur le modèle de Macdonald
The aim oh this thesis is the mathematical analysis and the estimation of the parameters of some metapopulation models for bilharzia transmission. We explain how the metapopulation models are built and give a full analysis of their stability. We compute the basic reproduction number R0. We show that if R0 is less than 1 then the Disease Free Equilibrium(DFE) is globally asymptotically stable. In case R0 is higher than 1, we prove the existence and the uniqueness of an endemic equilibrium which is globally asymptotically stable. At last,we suggest methods for the estimation of the states and the parameters for models. We build a numerical observer using the Moving Horizon State Estimation(MHSE) and an analitic one by the High Gain observer method. Applications of thes methods will be done on the Macdonald transmission model of bilharzia
APA, Harvard, Vancouver, ISO, and other styles
17

Gagnon, Sandra. "Pseudomonas aeruginosa souche LESB58 : Étude préliminaire pour la reconstruction métabolique in silico et analyse de la distribution de flux métaboliques à l'état stationnaire." Thesis, Université Laval, 2012. http://www.theses.ulaval.ca/2012/28835/28835.pdf.

Full text
Abstract:
Pseudomonas aeruginosa souche LESB58 est une bactérie pathogène connue pour sa versatilité, son antibiorésistance et son caractère opportuniste émergent qui le rend responsable d'infections nosocomiales importantes en milieu hospitalier. Dans le cadre de ce travail, nous posons l’hypothèse qu’il est possible d’étudier le génome de la bactérie pathogène P. aeruginosa souche LESB58 par une approche de modélisation métabolique et analyse in silico à partir des annotations de son génome séquencé. Nous utilisons une approche basée sur les contraintes nommée « Flux Balance analysis (FBA) » pour analyser le modèle in silico. Comme le génome de P. aeruginosa n’est pas très caractérisé et qu’il contient un nombre considérable de gènes sans annotation fonctionnelle, nous n’avons pas terminé la reconstruction à l’échelle génomique. Comme un nombre important de relations « génotype-phénotype » n’ont pu être établies, nous avons débuté une analyse de génomique comparative de quatre souches séquencées de P. aeruginosa, soit les souches LESB58, PAO1, PA7 et PA14, afin de cibler les gènes impliqués dans les phénotypes connus de P. aeruginosa. Le but de ce travail a été de s’initier aux méthodes d’analyses métaboliques in silico et de recherches de relations « génotype-phénotype » pouvant reconstruire un modèle in silico.
APA, Harvard, Vancouver, ISO, and other styles
18

Briton, Jean-Philippe. "Simulations numériques de la diffusion multiple de la lumière par une méthode de Monte-Carlo et applications." Rouen, 1989. http://www.theses.fr/1989ROUES040.

Full text
Abstract:
Ce mémoire décrit une approche de la diffusion multiple de la lumière à l'aide d'une méthode de Monte-Carlo. Après une description générale de la diffusion de la lumière et des méthodes de Monte-Carlo, les caractéristiques de la modélisation élaborée sont données. Le code de calcul réalisé est validé par rapport à la théorie développée par Van de Hulst et par rapport aux expériences publiées par Bruscaglioni et al. La validité du code assurée, il a permis d'étudier le modèle à 4-flux qui est un modèle simplifié pour la diffusion multiple. Ces travaux permettent d'avoir un mode d'emploi de ce modèle. Enfin, le chapitre 6 décrit une application du code aux problèmes de visibilité routière
APA, Harvard, Vancouver, ISO, and other styles
19

Lachkar, Zouhair. "Rôle des tourbillons de méso-échelle océaniques dans la distribution et les flux air-mer de CO2 anthropique à l'échelle globale." Paris 6, 2007. http://www.theses.fr/2007PA066036.

Full text
Abstract:
Les tourbillons de méso-échelle jouent un rôle essentiel dans la dynamique océanique et particulièrement dans l'océan Austral. Dans cette thèse nous explorons le rôle des tourbillons de méso-échelle dans l'estimation du puits océanique de CO2 anthropique grâce à une approche multi-traceurs et multi-résolutions. Nos analyses montrent que les tourbillons résolus réduisent sensiblement les flux air-mer du CO2 anthropique permettant ainsi un meilleur accord avec les observations. Les mécanismes de l’action des tourbillons sur les flux air-mer des traceurs sont identifiés. L'augmentation de la résolution horizontale affecte également la pénétration verticale des traceurs dans l'océan Austral, et particulièrement la ventilation des couches intermédiaires. Les tourbillons induisent également une modification substantielle de la distribution spatiale des régions source des Eaux Antarctiques Intermédiaires. Enfin, l'efficacité de la paramétrisation de Gent & McWilliams (1990) à représenter les effets des tourbillons dans les simulations de traceurs est évaluée.
APA, Harvard, Vancouver, ISO, and other styles
20

Tendeng, Léna. "Etude de modèles de transmission de la Schistosomiase: Analyse mathématique, reconstruction des variables d'état et estimation des paramètres." Phd thesis, Université de Lorraine, 2013. http://tel.archives-ouvertes.fr/tel-00843687.

Full text
Abstract:
L'objectif de cette thèse est l'analyse mathématique et l'estimation des paramètres de modèles de métapopulation de la bilharziose. A partir du modèle de base de Macdonald, nous expliquons en détail comment ces modèles sont construits. Nous faisons leur analyse mathématique complète à partir du calcul du nombre de reproduction de base R0. Nous montrons que si R0 est inférieur ou égal à 1 alors l'équilibre sans maladie est globalement asymptotiquement stable. Dans le cas où R0 est strictement plus grand que 1 nous montrons l'existence et l'unicité de l'équilibre endémique et prouvons ensuite que ce dernier est globalement asymptotiquement stable. La plupart des variables et paramètres de modèles mathématiques étant inconnus, nous proposons, dans notre travail, des méthodes de calibration par les observateurs :la méthode du Moving Horizon State Estimation ou MHSE et celle de l'observateur grand gain. Une application de ces deux méthodes sera faite sur le modèle de MacDonald.
APA, Harvard, Vancouver, ISO, and other styles
21

Benoit, Didier. "Conception, reconstruction et évaluation d'une géométrie de collimation multi-focale en tomographie d'émission monophotonique préclinique." Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00949951.

Full text
Abstract:
La tomographie d'émission monophotonique (TEMP) dédiée au petit animal est une technique d'imagerie nucléaire qui joue un rôle important en imagerie moléculaire. Les systèmes TEMP, à l'aide de collimateurs pinholes ou multi-pinholes, peuvent atteindre des résolutions spatiales submillimétriques et une haute sensibilité pour un petit champ de vue, ce qui est particulièrement attractif pour imager des souris. Une géométrie de collimation originale a été proposée, dans le cadre d'un projet, appelé SIGAHRS, piloté par la société Biospace. Ce collimateur présente des longueurs focales qui varient spatialement dans le plan transaxial et qui sont fixes dans le plan axial. Une haute résolution spatiale est recherchée au centre du champ de vue, avec un grand champ de vue et une haute sensibilité. Grâce aux simulations Monte Carlo, dont nous pouvons maîtriser tous les paramètres, nous avons étudié cette collimation originale que nous avons positionnée par rapport à un collimateur parallèle et un collimateur monofocal convergent. Afin de générer des données efficacement, nous avons développé un module multi-CPU/GPU qui utilise une technique de lancer de rayons dans le collimateur et qui nous a permis de gagner un facteur ~ 60 en temps de calcul, tout en conservant ~ 90 % du signal, pour l'isotope ⁹⁹^mTc (émettant à 140,5 keV), comparé à une simulation Monte Carlo classique. Cependant, cette approche néglige la pénétration septale et la diffusion dans le collimateur. Les données simulées ont ensuite été reconstruites avec l'algorithme OSEM. Nous avons développé quatre méthodes de projection (une projection simple (S-RT), une projection avec volume d'intersection (S-RT-IV), une projection avec calcul de l'angle solide (S-RT-SA) et une projection tenant compte de la profondeur d'interaction (S-RT-SA-D)). Nous avons aussi modélisé une PSF dans l'espace image, anisotrope et non-stationnaire, en nous inspirant de la littérature existante. Nous avons étudié le conditionnement de la matrice système pour chaque projecteur et collimateur, et nous avons comparé les images reconstruites pour chacun des collimateurs et pour chacun des projecteurs. Nous avons montré que le collimateur original proposé est le système le moins bien conditionné. Nous avons aussi montré que la modélisation de la PSF dans l'image ainsi que de la profondeur d'intéraction améliorent la qualité des images reconstruites ainsi que le recouvrement de contraste. Cependant, ces méthodes introduisent des artefacts de bord. Comparé aux systèmes existants, nous montrons que ce nouveau collimateur a un grand champ de vue (~ 70 mm dans le plan transaxial), avec une résolution de 1,0 mm dans le meilleur des cas, mais qu'il a une sensibilité relativement faible (1,32x10⁻² %).
APA, Harvard, Vancouver, ISO, and other styles
22

Tendeng, Ndéye Léna. "Étude de modèles de transmission de la Schistosomiase : analyse mathématique, reconstruction des variables d'état et estimation des paramètres." Electronic Thesis or Diss., Université de Lorraine, 2013. http://www.theses.fr/2013LORR0110.

Full text
Abstract:
L'objectif de cette thèse est l'analyse mathématique et l'estimation des paramètres de modèles de métapopulation de la bilharziose. A partir du modèle de base de Macdonald, nous expliquons en détail comment ces modèles sont construits. Nous faisons leur analyse mathématique complète à partir du nombre de reproduction du calcul du nombre de reproduction de base R0. Nous montrons que si R0 est inférieur ou égal à 1 alors l'équilibre sans maladie est globalement asymptotiquement stable. Dans le cas où R0 est strictement plus grand que 1 nous montrons l'existence et l'unicité de l'équilibre endémique et prouvons ensuite que ce dernier est globalement asymptotiquement stable. La plupart des variables et paramètres de modèles mathématiques étant inconnus, nous proposons, dans notre travail, des méthodes de calibration par les observateurs : la méthode du Moving Horizon State Estimation ou MHSE et celle de l'observateur grand gain. Une application de ces deux méthodes sera faite sur le modèle de Macdonald
The aim oh this thesis is the mathematical analysis and the estimation of the parameters of some metapopulation models for bilharzia transmission. We explain how the metapopulation models are built and give a full analysis of their stability. We compute the basic reproduction number R0. We show that if R0 is less than 1 then the Disease Free Equilibrium(DFE) is globally asymptotically stable. In case R0 is higher than 1, we prove the existence and the uniqueness of an endemic equilibrium which is globally asymptotically stable. At last,we suggest methods for the estimation of the states and the parameters for models. We build a numerical observer using the Moving Horizon State Estimation(MHSE) and an analitic one by the High Gain observer method. Applications of thes methods will be done on the Macdonald transmission model of bilharzia
APA, Harvard, Vancouver, ISO, and other styles
23

Gasnault, Olivier. "MESURES DE LA COMPOSITION DES SURFACES PLANETAIRES PAR SPECTROMETRIE GAMMA ET NEUTRONIQUE -- Etudes préparatoires pour Mars et pour la Lune par simulations numériques --." Phd thesis, Université Paul Sabatier - Toulouse III, 1999. http://tel.archives-ouvertes.fr/tel-00602978.

Full text
Abstract:
La spectrométrie gamma et neutronique forme un puissant outil de caractérisation géologique et géochimique des surfaces planétaires. Cette méthode permet d'aborder des questions capitales en planétologie: composition de la croûte, du manteau; glaces; volcanisme; processus d'altération... La majorité des neutrons et des photons gamma résultent de l'interaction du rayonnement cosmique avec la matière. Le premier chapitre présente la physique de ces interactions nucléaires dans les sols planétaires et dans les détecteurs. Nos travaux visent à optimiser les observations en précisant les performances instrumentales, et en isolant les relations entre la composition du sol et les flux de neutrons. Des simulations numériques utilisant le code GEANT du CERN supportent notre analyse. Le deuxième chapitre évalue les performances du spectromètre gamma à base de germanium pour MARS SURVEYOR 2001. Le résultat des simulations est confronté aux mesures de calibration; puis les performances sont calculées en configuration de vol. Le bruit de fond près de Mars est évalué à ~160 c/s. L'instrument offre une bonne sensibilité à: Fe, Mg, K, Si, Th, Cl et O. Il sera possible aussi de mesurer U, Ti, H, C, S, Ca et Al. Les lobes d'émission à la surface sont aussi calculés. Ces mesures permettront une meilleure compréhension de la surface martienne. Le dernier chapitre traite de l'émission des neutrons rapides lunaires [500 keV; 10 MeV]. La forte influence de l'oxygène est mise en évidence. Comme l'a observé LUNAR PROSPECTOR, le flux intégré montre une dépendance marquée avec la teneur du régolite en fer et en titane, permettant la cartographie. L'influence des autres éléments chimiques est quantifiée. Une formule mathématique simple est proposée pour estimer le flux intégré de neutrons suivant la composition du sol. Enfin, une étude des effets de l'hydrogène sur le flux de neutrons rapides est menée; nous examinons les possibilités de quantifier son abondance dans le sol par cette méthode.
APA, Harvard, Vancouver, ISO, and other styles
24

Ngadjeu, Djomzoue Alain narcisse. "Etude des effets de gaine induites par une antenne de chauffage à la fréquence cyclotronique ionique (FCI, 30-80 MHz) et de leur impact sur les mesures par sondes dans les plasmas de fusion." Thesis, Nancy 1, 2010. http://www.theses.fr/2010NAN10118/document.

Full text
Abstract:
Ces travaux abordent la problématique des mesures de sonde de Langmuir dans un environnement RF. Les mesures expérimentales ont montré que des courants DC négatifs (électroniques) étaient collectés sur la structure d'une antenne ICRF sous tension, pendant que des courants DC positifs (ioniques) sont recueillis par une sonde de Langmuir à l'autre bout du tube de flux magnétique ouvert connecté à l'antenne, la sonde étant au potentiel de la machine. Un modèle de tube de flux asymétrique, de type de sonde double, est présenté. Celui-ci modélise un plasma, confiné le long des lignes de champ magnétique, ayant à chaque extrémité une électrode dont l'une est polarisée à un potentiel RF et l'autre à la masse. L'électrode polarisée modélise le potentiel RF résultant de l'intégration, le long d'une ligne champ magnétique, du champ électrique rayonné par les straps d'une antenne ICRF, tandis que l'autre électrode modélise la sonde au potentiel de la machine. Ce modèle permet d'expliquer l'apparition de courants DC en émettant simplement l'hypothèse qu'il faut à la fois une asymétrie de la source RF par rapport à une masse fixe, une conductivité RF transverse non nulle autorisant des courants RF transverses ainsi qu'une caractéristique courant-tension non linéaire due aux gaines pour favoriser des courants négatifs du côté RF et des courants positifs côté sonde. Ce modèle permet également de modéliser les caractéristiques Courant DC - Tension DC d'une sonde en présence de RF et ainsi d'évaluer les propriétés du plasma. Dans ce cas l'électrode modélisant la sonde n'est plus à la masse, mais à un potentiel donné. Des résultats analytiques sont trouvés dans certaines limites
This work investigates the problematic of probe measurements in RF environment. DC currents flowing along magnetic field lines connected to powered ICRF antennas have been observed experimentally. Negative (i.e. net electron) current is collected on the powered ICRF antenna structure, while positive (i.e. net ion) current is collected by magnetically connected Langmuir probes. An asymmetric model based upon a double probe configuration was developed. The ICRF near field effect is mimicked by a ?driven? RF electrode at one extremity of an "active" open magnetic flux tube, where a purely sinusoidal potential is imposed. The other connection point is maintained at ground potential to model a collecting probe. This "active" flux tube can exchange transverse RF currents with surrounding "passive" tubes, whose extremities are grounded. With simple assumptions, an analytical solution is obtained. We can thus explain how DC currents are produced from RF sheaths. This model also makes it possible to model the characteristics DC Current' DC Voltage of a probe in the presence of RF and thus to evaluate some plasma properties. In this case the electrode at ground potential (probe) is polarized at a given potential. Analytical results are found within certain limits
APA, Harvard, Vancouver, ISO, and other styles
25

Aubree, Flora. "Adaptation dans un monde en mouvement - adaptation des communautés et relations biodiversité-fonctionnement des écosystèmes, hétérogénéité spatiale et évolution de la tolérance au stress, migration pulsée et adaptation locale." Electronic Thesis or Diss., Université Côte d'Azur, 2021. http://www.theses.fr/2021COAZ6023.

Full text
Abstract:
Le monde change à un rythme sans précédent sous de nombreux aspects interconnectés les uns aux autres, et les écosystèmes sont parmi les premiers systèmes concernés. L'évolution actuelle des conditions environnementales – en partie induite par les activités anthropiques – s'accompagne d'une augmentation de la variabilité temporelle des processus environnementaux, qui vient s’ajouter à la variabilité naturelle existante. Ce travail de thèse fait partie des études qui cherchent à comprendre comment la variabilité de certains processus environnementaux clés va impacter la composition et les propriétés écologiques et évolutives des écosystèmes à différentes échelles. L'accent est mis en particulier sur l'interaction entre cette variabilité et le processus d'adaptation par évolution, qui est un aspect fondamental de la dynamique des écosystèmes. L'adaptation fait partie intégrante du fonctionnement des écosystèmes, mais elle est encore relativement peu considérée. Dans cette thèse, trois échelles biologiques sont considérées : l'échelle de la communauté, l'échelle de l'espèce et l'échelle des populations. Une approche de modélisation théorique est utilisée pour introduire certains aspects de la variabilité et étudier la façon dont les dynamiques écologiques et évolutives sont impactées.A l'échelle de la communauté, nous questionnons l'impact que des changements dans le niveau de co-adaptation des espèces peuvent avoir sur certaines relations biodiversité-fonctionnement des écosystèmes (BEF ; relations diversité-productivité, diversité-stabilité et diversité-réponse aux invasions). Des communautés aléatoires et co-adaptées sont comparées à l'aide de méthodes de dynamiques adaptatives. Les résultats montrent que la co-adaptation des espèces a un impact sur la plupart des relations BEF, inversant parfois la pente de la relation. À l'échelle de l'espèce, l'évolution de la tolérance au stress, dans le cadre d'un modèle de compromis entre la tolérance et la fécondité, est également explorée via des méthodes de dynamiques adaptatives. Les comportements évolutifs de ce modèle sont déterminés pour différentes intensités de trade-off et différentes distributions de stress. L'hétérogénéité du niveau de stress a un rôle plus important que le niveau de stress moyen dans la détermination de la stabilité de l’équilibre évolutif (contrôlant le branching). L’inverse est observé quant à la détermination de la valeur de la tolérance au stress à l’équilibre évolutif. Enfin, à l'échelle de la population, nous nous intéressons au flux génétique entre des sous-populations d'une même espèce, qui est un déterminant important de la dynamique évolutive. L'impact que des schémas de migrations variables dans le temps peuvent avoir sur le flux de gènes et sur l'adaptation locale est questionné en utilisant à la fois des analyses mathématiques et des simulations stochastiques d'un modèle île-continent. Dans ce modèle, la migration se produit sous forme de ``pulses'' récurrents. On constate que cette migratoire pulsée peut diminuer ou augmenter le taux de migration effectif selon le type de sélection appliquée. Globalement, la migration pulsée favorise la fixation d'allèles délétères et augmente la maladaptation. Les résultats suggèrent également que la migration pulsée peut laisser une signature détectable dans les génomes. Pour conclure, ces résultats sont mis en perspective, et des éléments sont proposés pour tester ces prédictions avec des données d’observations. Certaines conséquences pratiques que ces résultats peuvent avoir pour la gestion des écosystèmes et la conservation biologique sont également discutées
The world is changing at an unprecedented rate in many interconnected aspects, and ecosystems are primarily concerned. The current shift in environmental conditions is accompanied by an increase in the temporal variability of environmental processes, which is also driven by anthropogenic activities. This work is part of the effort to understand how variability in key environmental processes impacts ecosystem composition and ecological and evolutionary functioning at different scales. The focus is made in particular on the interplay between such variability and the process of adaptation, which is a key aspect of ecosystem dynamics. Adaptation is integral to the functioning of ecosystems, yet it is still relatively little considered. In this thesis, three biological scales are considered – the scale of the community, the scale of the species, and the scale of populations. A theoretical modeling approach is used to introduce some aspects of variability and investigate how ecological and evolutionary dynamics are impacted.At the community scale, the impact that changes in the species co-adaptation level may have on some biodiversity-ecosystem functioning (BEF) relationships (diversity-productivity, diversity-stability and diversity-response to invasion relationships) is questioned. Random and co-adapted communities are compared using adaptive dynamics methods. Results show that species co-adaptation impacts most BEF relationships, sometimes inverting the slope of the relationship. At the species scale, the evolution of stress tolerance under a tolerance-fecundity trade-off model is explored using adaptive dynamics as well. The evolutionary outcomes are determined under different trade-offs and different stress distributions. The most critical parameters in determining the evolutionary outcomes (ESS trait value, branching) are highlighted, and they evidence that stress level heterogeneity is more critical than average stress level. At the population scale, gene flow between sub-populations of the same species is an important determinant of evolutionary dynamics. The impact that temporally variable migration patterns have on gene flow and local adaptation is questioned using both mathematical analyses and stochastic simulations of a mainland-island model. In this model, migration occurs as recurrent “pulses”. This migration pulsedness is found to not only decrease, but also increase, the effective migration rate, depending on the type of selection. Overall, migration pulsedness favors the fixation of deleterious alleles and increases maladaptation. Results also suggest that pulsed migration may leave a detectable signature across genomes. To conclude, these results are put into perspective, and elements are proposed for possible tests of the predictions with observational data. Some practical consequences they may have for ecosystem management and biological conservation are also discussed
APA, Harvard, Vancouver, ISO, and other styles
26

Moriceau, Brivaëla. "Etude de la dissolution de la silice biogénique des agrégats : Utilisation dans la reconstruction des flux de sédimentation de la silice biogénique et du carbone dans la colonne d'eau." Phd thesis, Université de Bretagne occidentale - Brest, 2005. http://tel.archives-ouvertes.fr/tel-00353481.

Full text
Abstract:
Les échanges entre le carbone de l'atmosphère et les autres réservoirs (océan, biosphère terrestre...) étaient équilibrés jusqu'à l'ère industrielle. Depuis 1850, les activités anthropiques telles que la déforestation, l'élevage intensif et surtout la combustion d'énergies fossiles émettent en grande quantité CO2 et CH4 dans l'atmosphère. L'équilibre rompu provoque une augmentation de la teneur en carbone dans l'atmosphère. Cette augmentation devrait être plus importante mais il semble qu'une partie du carbone rejeté par la combustion de combustibles fossiles est absorbée par certaines régions de l'océan, des zones « puits ».
Les échanges de CO2 entre océan et atmosphère sont régis par les lois physicochimiques et répondent à des besoins biologiques. Les processus physicochimiques vont faire tendre les teneurs en carbone de l'océan et de l'atmosphère vers un équilibre variant selon la température et la surface de mélange qui est liée à l'intensité du vent. Des processus biologiques interviennent aussi dans les échanges de carbone entre l'océan et l'atmosphère. La couche de surface océanique reste sous-saturée en carbone car les floraisons algales consomment une partie du carbone dissous, par photosynthèse. Une partie de cette biomasse sédimente et emporte ainsi du carbone vers les couches océaniques profondes. A l'issue de la sédimentation une partie du carbone est séquestrée dans les eaux profondes et une moyenne de 0.3 % du carbone produit en surface est intégrée aux sédiments. C'est le principe de la pompe biologique qui augmente le transfert de CO2 vers l'océan profond.
Certaines algues unicellulaires favorisent plus que d'autres la sédimentation du carbone. Ces microalgues peuvent être lestées par des minéraux ou s'intégrer à des particules plus grosses qui sédimentent rapidement. Il existe deux types de ballasts biogéniques, la silice biogénique (BSiO2) principalement formée par les diatomées et le carbonate de calcium (CaCO3) formé majoritairement par les coccolithophoridés. La domination de la production primaire océanique par les diatomées, leur capacité à intégrer de grosses particules ainsi que leur position à la base d'une chaîne alimentaire saine, semblent faire des diatomées le participant majeur de la pompe biologique de carbone. Ceci est en contradiction avec les récentes exploitations des bases de données de flux de particules dans l'océan qui attribuent ce transfert aux coccolithophoridés. Cette incertitude a, en grande partie, motivé le présent travail.
Les diatomées ont besoin de l'acide orthosilicique (DSi) pour construire leur frustule, or, la disponibilité de la DSi dans l'océan global dépend essentiellement de la profondeur de recyclage de la BSiO2. A la fin d'un bloom, de nombreuses diatomées sédimentent sous la forme d'agrégats. L'agrégation des diatomées influence non seulement le recyclage de la BSiO2 dans les eaux océaniques de surface, mais aussi la sédimentation et la préservation de la BSiO2 sur le plancher océanique. Les diatomées agrégées sédimentent en effet rapidement le long de la colonne d'eau, ce qui laisse peu de temps à la dissolution. Les expériences en laboratoire présentées dans cette étude, ont exploré l'influence de l'agrégation sur la vitesse de dissolution de la BSiO2. Des agrégats monospécifiques ont été formés à partir de trois espèces différentes de diatomées, des Chaetoceros decipiens, des Skeletonema costatum, et des Thalassiosira weissflogii. Les vitesses de dissolution de la BSiO2 des cellules de diatomées de la même culture ont été mesurées pour des cellules agrégées et libres, puis comparées. Les vitesses de dissolution initiales des frustules de diatomées étaient significativement plus faibles pour les cellules agrégées (4.6 an-1) que pour les cellules libres (14 an-1). Les vitesses de dissolution plus lentes de la BSiO2 des agrégats ont été attribuées (1) aux concentrations élevées en DSi dans les agrégats (entre 9 et 230 µM) comparativement au milieu environnant les cellules libres, (2) à une plus forte viabilité des cellules agrégées et (3) à un nombre de bactéries par diatomées plus faible dans les agrégats. Les variations des vitesses de dissolution entre les différents agrégats semblent s'expliquer par des concentrations en TEP variables selon les agrégats.
Les processus biogéochimiques internes des agrégats sont fort peu connus. La diminution de la vitesse de sédimentation observée dans les expériences de laboratoire, pourrait n'être qu'apparente si seule la diffusion de l'acide orthosilicique (DSi) depuis l'intérieur vers l'extérieur de l'agrégat était ralentie. En effet de fortes concentrations en DSi ont été mesurées à l'intérieur des agrégats. Nous présentons un modèle qui décrit la dissolution de la BSiO2 dans un agrégat ainsi que la diffusion de la DSi depuis l'intérieur de l'agrégat vers le milieu environnant. Ce modèle simule l'évolution des concentrations internes en DSi et BSiO2, ainsi que l'accumulation de DSi dans le milieu environnant l'agrégat. La vitesse de dissolution est dépendante de l'écart à l'équilibre, qui décroît avec le temps à mesure que la concentration interne en DSi augmente suite au processus de dissolution, ainsi que de la viabilité des cellules, puisque seules les cellules mortes se dissolvent. Ce modèle permet de montrer que seule la combinaison d'une dissolution réellement ralentie et d'une diffusion également ralentie, permet de reproduire les concentrations internes et externes en DSi. Il est suggéré que le ralentissement de la diffusion pourrait être dû à une association étroite entre la DSi et les TEP. Le ralentissement de la dissolution est quant à lui, attribué pour 16 – 33% à la forte teneur en DSi au sein de l'agrégat et pour 33-66%, à une viabilité plus longue des diatomées agrégées.
Au vu de l'importance des diatomées dans les processus de sédimentation de la matière organique (carbone et BSiO2), nous avons utilisé les résultats précédents dans le but d'établir un modèle simplifié des flux de BSiO2 dans la colonne d'eau. Le flux de sédimentation est décrit comme étant majoritairement composé d'agrégats, mais aussi de cellules libres et de pelotes fécales, les résultats expérimentaux de mesures de vitesses de dissolution de la BSiO2 dans les cellules libres, les agrégats et les pelotes fécales sont ainsi combinés avec des mesures in situ de production de BSiO2 et de flux de BSiO2 dans les eaux profondes de neuf provinces biogéochimiques de l'océan. La comparaison des sorties du modèle et des mesures in situ permet de déterminer la composition du flux de sédimentation en qualité (vitesse de sédimentation) et en quantité (répartition de la BSiO2 entre les cellules libres et les grosses particules). Nous déterminons ainsi que 40% à 90% de la BSiO2 produite en surface, se dissout avant la profondeur maximale de la couche de mélange. Le recyclage domine dans tous les sites quelle que soit la vitesse de sédimentation calculée. L'intensité du recyclage en surface est attribuée à la capacité des cellules à rester libres. Indépendamment de leurs ballasts (BSiO2), les diatomées qui ne sédimentent pas sous la forme d'agrégats ou de pelotes fécales de gros brouteurs vont se dissoudre à de faibles profondeurs. Le modèle permet d'obtenir des informations sur la dynamique des particules puisque nous avons pu déterminer que 200 m est une profondeur maximum optimale pour la couche de mélange, à laquelle les processus de terminaison des blooms tels que l'agrégation et le broutage semblent favorisés.
Notre aptitude à comprendre et à prévoir le rôle de l'océan dans le cycle global du carbone et sa réponse aux changements climatiques, dépend fortement de notre capacité à modéliser le fonctionnement de la pompe biologique à l'échelle globale. En dépit des nombreux progrès réalisés, les mystères entourant la pompe biologique de carbone sont loin d'être éclaircis. Dans cette thèse, la pompe biologique correspond à l'ensemble des mécanismes qui assurent le transfert d'une partie de la production primaire marine vers des profondeurs excédant la profondeur de la couche de mélange hivernale, de sorte que le carbone ne sera plus échangé avec l'atmosphère avant quelques décennies ou quelques siècles, c'est-à-dire sur des échelles de temps relevant de celle associée au changement climatique.
La profondeur de la couche de mélange hivernale se situe, selon les régions, entre 50 et 500 mètres avec quelques pointes vers 800 m (Levitus, 1994). Il s'agit là des profondeurs correspondant à la zone mesopélagique dont nous savons peu de choses puisque les flux de matière in situ sont étudiés à l'aide des pièges à particules qui fonctionnent très mal dans cette zone. Ces incertitudes dans les estimations des flux se reflètent dans les hypothèses sur les mécanismes de la pompe biologique et sur ses variations spatio-temporelles, comme le montre notre démonstration fondée sur les concepts d'export hors de la couche de mélange et d'efficacité de transfert à travers la zone mesopélagique.
Dans cette étude, nous avons voulu évaluer le véritable rôle des diatomées dans la pompe biologique de carbone. Toute la question est de savoir à quelle profondeur le carbone transporté par les diatomées est reminéralisé : au dessus ou au dessous de la couche hivernale de mélange ?
Récemment, les modèles globaux ont incorporé une description plus mécanistique des flux, en remplaçant les exponentielles décroissantes par une compétition entre la vitesse de chute des particules et leur vitesse de reminéralisation. Nous présentons dans cette thèse, une approche dans laquelle les flux de carbone au bas de la couche hivernale de mélange ont été calculés à partir de la reconstitution des flux de BSiO2 présentée précédemment et d'une relation empirique décrivant l'évolution du rapport Si:C avec la profondeur dans différentes provinces biogéochimiques. En combinant les flux de BSiO2 avec cette équation, il est possible de reconstruire les flux de carbone à n'importe quelle profondeur et de calculer des efficacités d'export ou de transfert à travers la zone mesopélagique. L'idée est simple : l'utilisation des flux de Si comme traceur des flux de C permet de s'affranchir des difficultés liées à la chimie complexe à laquelle est soumis le C. Par ailleurs, s'il s'avère impossible de reconstruire les flux de C à partir des flux de Si dans l'océan moderne, l'utilisation de la BSiO2 des sédiments comme paleotraceur de la productivité passée sera d'autant plus compromise.
Les flux reconstruits à partir de cette approche semi-mécanistique sont plus faibles que ceux dérivés des algorithmes précédemment publiés et la proportion de carbone exporté diminue lorsque la productivité augmente. Cette reconstruction rappelle l'importance de la saisonnalité. Elle a des implications pour notre compréhension du fonctionnement de la pompe biologique dans l'océan actuel et pour nos interprétations des enregistrements paléocéanographiques sur son fonctionnement dans l'océan passé. Le rôle attribué aux diatomées ou aux coccolithophoridés dans l'export ou le transfert plus profond de carbone, est fortement dépendant de la façon avec laquelle l'export hors de la couche de surface est estimé.
APA, Harvard, Vancouver, ISO, and other styles
27

Macko, Miroslav. "Expérience SuperNEMO : Études des incertitudes systématiques sur la reconstruction de traces et sur l'étalonnage en énergie. Evaluation de la sensibilité de la 0nbb avec émission de Majoron pour le Se-82." Thesis, Bordeaux, 2018. http://www.theses.fr/2018BORD0368/document.

Full text
Abstract:
La thèse présentée est composée de divers projets que j’ai réalisés au cours de la phasede construction du démonstrateur SuperNEMO pendant la période 2015-2018.L’expérience SuperNEMO, située dans le laboratoire souterrain LSM, est conçue pourrechercher 0nbb de 82Se. Sa technologie, qui tire parti du suivi des particules, est uniquedans le domaine des expériences de double désintégration bêta. La reconstruction de latopologie des événements est un outil puissant pour la suppression de fond naturel.Une partie de la thèse est consacrée à un travail expérimental. J’ai participé à la préparationde modules optiques, partie intégrante du calorimètre SuperNEMO. Les résultats de lapréparation et des tests de 520 modules optiques sont présentés dans la thèse. En outre, jeprésente les résultats de la cartographie complète des sources 207Bi effectuée à l’aide de pixeldétecteurs. Je présente également des mesures précises de leurs activités pour lesquellesj’ai utilisé des détecteurs HPGe. Ces sources 207Bi seront utilisées pour l’étalonnage ducalorimètre. L’étude a joué un rôle clé dans le choix des 42 sources qui participeront àl’étalonnage du démonstrateur.Une autre partie de la thèse contient des projets axés sur les simulations de Monte Carlo.Dans un premier temps, j’ai étudié la précision de reconstruction de vertex réalisable parun algorithme de reconstruction développé pour l’expérience SuperNEMO. La précision estévaluée à l’aide de différentes méthodes statistiques dans diverses conditions (champ magnétique,énergie des électrons, angles d’émission, etc.). Les facteurs influençant la précision,en fonction des résultats obtenus, sont discutés.En 2018, j’ai également effectué les simulations du blindage contre les neutrons. Différentsmatériaux de blindage d’épaisseurs différentes ont été (dans la simulation) exposés àun spectre de neutrons réaliste provenant du LSM et les flux situés derrière le blindage ont étéestimés. Il a été démontré que les parties du détecteur en fer devraient capturer la grande majoritédes neutrons passant le blindage. Je discute également un problème de simulation desrayonnements gamma de désexcitation après capture de neutrons thermiques, apparaissantdans les logiciels standard. Je propose un nouveau générateur étendu capable de résoudre leproblème et de démontrer le concept dans un exemple analytiquement résolu.Avec le standard 0nbb, SuperNEMO sera capable de rechercher des modes plus exotiquesde la décroissance. Dans cette thèse, je présente les limites de demi-vie possibles queSuperNEMO peut atteindre pour 0nbb avec l’émission d’un ou deux Majorons. L’étudeest réalisée en fonction de l’activité de contamination interne par les isotopes 208Tl et 214Bi.La période de mesure après laquelle SuperNEMO devrait pouvoir améliorer les limites dedemi-vie de NEMO-3 (au cas où la décroissance ne serait pas observée) est estimée
Presented thesis is composed of variety of projects which I performed within theconstruction phase of SuperNEMO demonstrator during the period 2015-2018.SuperNEMO experiment, located at underground laboratory LSM, is designed to searchfor 0nbb of 82Se. Its technology, which takes advantage of particle tracking, is unique inthe field of double beta decay experiments. Event topology reconstruction is powerful toolfor suppression of naturally-occurring background radiation.Part of the thesis is dedicated to experimental work. I took part in assembly and testingof optical modules - the integral part of SuperNEMO calorimeter. Results of tests afterassembly of 520 optical modules are presented in the thesis. Furthermore, I present resultsof complete mapping of 207Bi sources performed using pixel detectors. I also present precisemeasurements of their activities for which I used HPGe detectors. These 207Bi sources willbe used for calibration of the calorimeter. Study played a key role in choice of 42 sourceswhich were installed in the demonstrator and will take part in calibration of the demonstrator.Another part of the thesis contains projects focused on Monte Carlo simulations. In firstof them, I studied a vertex reconstruction precision achievable by reconstruction algorithmdeveloped for SuperNEMO experiment. Precision is evaluated using different statisticalmethods in variety of different conditions (magnetic field, energy of electrons, angles ofemission, etc.). Factors influencing the precision, based on the achieved results are discussed.In 2018, I also performed simulations of neutron shielding. Variety of shielding materialswith different thicknesses were (in the simulation) exposed to realistic neutron spectrumfrom LSM and the fluxes behind the shielding were estimated. It was shown that the partsof the detector made of Iron should be expected to capture vast majority of neutrons passingthe shielding. I also discuss a problem with simulation of deexcitation gamma radiation,emitted after thermal neutron capture, which arises in standard software packages. I proposednew extended generator capable to resolve the problem and demonstrate the conceptin analytically solvable example.Along with standard 0nbb, SuperNEMO will be capable of searching for more exoticmodes of the decay. In the thesis, I present possible half-life limits achievable by SuperNEMOfor 0nbb with emission of one or two Majorons. The study is performed asa function of activity of internal contamination from 208Tl and 214Bi isotopes. Measurementperiod after which SuperNEMO should be able to improve half-life limits of NEMO-3 (incase the decay would not be observed) are estimated
Predkladaná dizertaˇcná práca je zložená z projektov rôzneho charakteru, na ktorýchsom pracoval vo fáze výstavby SuperNEMO demonštrátora v období rokov 2015-2018.Experiment SuperNEMO, umiestnený v podzemnom laboratóriu LSM, je zameraný nahl’adanie 0nbb v 82Se. Experiment je založený na technológii rekonštrukcie dráh elektrónovvznikajúcich v rozpade. Tento prístup je jedineˇcný v oblasti 0nbb experimentov.Rekonštrukcia topológie udalostí je silným nástrojom na potlaˇcenie pozad’ovej aktivity vyskytujúcejsa v laboratóriu, ako aj v konštrukˇcných materiáloch detektora.Cˇ ast’ práce je venovaná experimentálnym úlohám. Zúcˇastnil som sa na konštrukciioptických modulov - súˇcasti hlavného kalorimetra. Práca obsahuje výsledky prípravy atestovania 520 optických modulov, a takisto výsledky kompletného mapovania kalibraˇcných207Bi zdrojov vykonaného za pomoci pixelových detektorov. V tejto ˇcasti sú odprezentovanéaj výsledky merania ich aktivít za pomoci HPGe detektorov. Štúdia zohrávala kl’úˇcovúúlohu pri výbere 42 zdrojov, ktoré boli nainštalované do prvého SuperNEMO modulu, dodemonštrátora, a budú použité na jeho energetickú kalibráciu.ˇ Dalšiu ˇcast’ práce tvoria úlohy zamerané na Monte Carlo simulácie. Prvým z nich,je štúdia presnosti rekonštrukcie vertexu dvojitého beta rozpadu. Rozpadové vertexy súrekonštruované tzv. CAT (Cellular Automaton Tracker) algoritmom vyvinutým pre experimentSuperNEMO. V štúdii sú porovnávané viaceré spôsoby definovania presnosti rekonštrukcie.Presnost’ je skúmaná v závislosti na magnetickom poli v detektore, energii elektrónov,uhlov ich emisie atd’. Na základe výsledkov sú v štúdii pomenované faktory, ktoré ovplyvˇnujú presnost’ rekonštrukcie vertexov dvojitého beta rozpadu.V roku 2018 som takisto vypracoval štúdie neutrónového tienenia. Oˇcakávané toky neutrónovza tienením boli odhadnuté pomocou Monte Carlo simulácie. Kvalita odtienenia neutrónovz realistickéh pozad’ového spektra, nameraného v LSM, bola skúmana pre tri rôznemateriály rôznych hrúbok. Výsledky ukázali, že neutrónový tok prechádzajúci tienenímbude primárne zachytávaný na komponentoch detektora zhotoveného zo železa. V rámcištúdie neutrónového tienenia je takisto diskutovaný problém simulácie deexcitaˇcných gamakaskád, produkovaných jadrami, po záchyte termálnych neutrónov. Štandardné simulaˇcnésoftvérové balíˇcky využívajú generátory gama kaskád nepostaˇcujúce pre potreby štúdie.Navrhol som nový generátor, ktorý je schopný tieto problémy vyriešit’. Funkˇcnost’ generátorabola preukázaná na príklade jednoduchého systému.Okrem štandardného 0nbb je SuperNEMO experiment schopný hl’adat’ aj jeho exotickejšieverzie. V práci sa nachádzajú odhady limitov ˇcasu polpremeny 0nbb s emisiou jednéhoalebo dvoch Majorónov, dosiahnutel’né SuperNEMO demonštrátorom. Tieto limity sú študovanév závislosti na aktivite izotopov 208Tl a 214Bi, ktoré kontaminujú zdrojovú 82Se fóliu.Bola odhadnuá doba merania, za ktorú bude SuperNEMO schopný vylepšit’ limity ˇcasu polpremeny,pre dva spomenuté rozpadové módy, dosiahnutých experimentom NEMO-3
APA, Harvard, Vancouver, ISO, and other styles
28

Sajjad, Saeeda. "Développement d'outils de simulation et de reconstruction de gerbes de particules pour l'astronomie gamma avec les futurs imageurs Tcherenkov." Phd thesis, Montpellier 2, 2007. http://www.theses.fr/2007MON20249.

Full text
Abstract:
Le futur de l'astronomie gamma au sol repose sur l'utilisation de grands réseaux d'imageurs Tcherenkov atmosphériques (IACT) avec des capacités améliorées : seuil en énergie plus bas, meilleure sensibilité, meilleurs résolution et pouvoir de rejet. Pour concevoir ces systèmes et optimiser leurs caractéristiques, il est nécessaire de comprendre les gerbes atmosphériques et de disposer d'outils de simulation adaptés permettant d'évaluer les performances des réseaux. La première partie de cette thèse traite des gerbes atmosphériques, des propriétés de la lumière Tcherenkov qu'elles émettent et de leur simulation. La seconde partie présente les outils que nous avons développés pour la simulation des télescopes à imagerie Tcherenkov atmosphérique et les caractéristiques des images qu'ils obtiennent. La troisième partie de cette thèse contient une présentation des outils dévéloppés pour la reconstruction de la source, du pied de gerbe et de l'énergie ainsi que des propositions pour la séparation gamma-hadrons. Dans la dernière partie, ces outils sont utilisés pour étudier deux grands réseaux de télescopes à deux altitudes différentes et pour donner leurs performances pour la détection des rayons gamma.
APA, Harvard, Vancouver, ISO, and other styles
29

Sajjad, Saeeda. "Développement d'outils de simulation et de reconstruction de gerbes de particules pour l'astronomie gamma avec les futurs imageurs Tcherenkov." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2007. http://tel.archives-ouvertes.fr/tel-00408835.

Full text
Abstract:
Le futur de l'astronomie gamma au sol repose sur l'utilisation de grands réseaux d'imageurs Tcherenkov atmosphériques (IACT) avec des capacités améliorées : seuil en énergie plus bas, meilleure sensibilité, meilleurs résolution et pouvoir de rejet. Pour concevoir ces systèmes et optimiser leurs caractéristiques, il est nécessaire de comprendre les gerbes atmosphériques et de disposer d'outils de simulation adaptés permettant d'évaluer les performances des réseaux. La première partie de cette thèse traite des gerbes atmosphériques, des propriétés de la lumière Tcherenkov qu'elles émettent et de leur simulation. La seconde partie présente les outils que nous avons développés pour la simulation des télescopes à imagerie Tcherenkov atmosphérique et les caractéristiques des images qu'ils obtiennent. La troisième partie de cette thèse contient une présentation des outils dévéloppés pour la reconstruction de la source, du pied de gerbe et de l'énergie ainsi que des propositions pour la séparation gamma-hadrons. Dans la dernière partie, ces outils sont utilisés pour étudier deux grands réseaux de télescopes à deux altitudes différentes et pour donner leurs performances pour la détection des rayons gamma.
APA, Harvard, Vancouver, ISO, and other styles
30

Cloquet, Christophe. "Optimiser l'utilisation des données en reconstruction TEP: modélisation de résolution dans l'espace image et contribution à l'évaluation de la correction de mouvement." Doctoral thesis, Universite Libre de Bruxelles, 2011. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/209887.

Full text
Abstract:
Cancers et maladies cardio-vasculaires sont responsables de plus de 40 % des décès dans le monde. De nombreuses personnes souffrent par ailleurs quotidiennement de ces maladies. En réduire la fréquence dans le futur passe avant tout par une adaptation de notre mode de vie et une prévention accrue, éclairées par une connaissance plus approfondie des mécanismes de ces maladies. Il est également crucial d'améliorer les diagnostics et les traitements actuels afin de mieux prendre en charge les malades d'aujourd'hui et de demain.

Lorsque le tableau clinique présenté par un patient n'est pas clair, de nombreuses techniques d'imagerie médicale permettent d'affiner le diagnostic, de préciser le pronostic et de suivre l'évolution des maladies au cours du temps. Ces mêmes techniques sont également utilisées en recherche fondamentale pour faire progresser la connaissance du fonctionnement normal et pathologique du corps humain. Il s'agit par exemple de l'échographie, de l'imagerie par résonance magnétique, de la tomodensitométrie à rayons X ou encore de la tomographie par émission de positrons (TEP).

Certaines de ces techniques mettent en évidence le métabolisme de molécules, comme le glucose et certains acides aminés. C'est le cas de la tomographie par émission de positrons, dans laquelle une petite quantité de molécules marquées avec un élément radioactif est injectée au patient. Ces molécules se concentrent de préférence dans les endroits du corps humain où elles sont utilisées. Instables, les noyaux radioactifs se désintègrent en émettant un anti-électron, encore appelé positron. Chaque positron s'annihile ensuite à proximité du lieu d'émission avec un électron du corps du patient, provoquant l'émission simultanée de deux photons de haute énergie dans deux directions opposées. Après avoir traversé les tissus, ces photons sont captés par un anneau de détecteurs entourant le patient. Sur base de l'ensemble des événements collectés, un algorithme de reconstruction produit enfin une image de la distribution du traceur radioactif.

La tomographie par émission de positrons permet notamment d'évaluer l'efficacité du traitement des tumeurs avant que la taille de celles-ci n'ait changé, ce qui permet d'aider à décider de poursuivre ou non le traitement en cours. En cardiologie, cette technique permet de quantifier la viabilité du muscle cardiaque après un infarctus et aide ainsi à évaluer la pertinence d'une intervention chirurgicale.

Plusieurs facteurs limitent la précision des images TEP. Parmi ceux-ci, on trouve l'effet de volume partiel et le mouvement du coeur.

L'effet de volume partiel mène à des images floues, de la même manière qu'un objectif d'appareil photo incorrectement mis au point produit des photographies floues. Deux possibilités s'offrent aux photographes pour éviter cela :soit améliorer la mise au point de leur objectif, soit retoucher les images après les avoir réalisées ;améliorer la mise au point de l'objectif peut s'effectuer dans l'espace des données (ajouter une lentille correctrice avant l'objectif) ou dans l'espace des images (ajouter une lentille correctrice après l'objectif).

Le mouvement cardiaque provoque également une perte de netteté des images, analogue à l'effet de flou sur une photographie d'une voiture de course réalisée avec un grand temps de pose. Classiquement, on peut augmenter la netteté d'une image en diminuant le temps de pose. Cependant, dans ce cas, moins de photons traversent l'objectif et l'image obtenue est plus bruitée.

On pourrait alors imaginer obtenir de meilleurs images en suivant la voiture au moyen de l'appareil photo.

De cette manière, la voiture serait à la fois nette et peu corrompue par du bruit, car beaucoup de photons pourraient être détectés.

En imagerie TEP, l'effet de volume partiel est dû à de nombreux facteurs dont le fait que le positron ne s'annihile pas exactement à l'endroit de son émission et que le détecteur frappé par un photon n'est pas toujours correctement identifié. La solution passe par une meilleure modélisation de la physique de l'acquisition au cours de la reconstruction, qui, en pratique est complexe et nécessite d'effectuer des approximations.

La perte de netteté due au mouvement du coeur est classiquement traitée en figeant le mouvement dans plusieurs images successives au cours d'un battement cardiaque. Cependant, une telle solution résulte en une diminution du nombre de photons, et donc en une augmentation du bruit dans les images. Tenir compte du mouvement de l'objet pendant la reconstruction TEP permettrait d'augmenter la netteté en gardant un bruit acceptable. On peut également penser à superposer différentes images recalées au moyen du mouvement.

Au cours de ce travail, nous avons étudié des méthodes qui tirent le meilleur parti possible des informations fournies par les événements détectés. Pour ce faire, nous avons choisi de baser nos reconstructions sur une liste d'événements contenant la position exacte des détecteurs et le temps exact d'arrivée des photons, au lieu de l'histogramme classiquement utilisé.

L'amélioration de résolution passe par la connaissance de l'image d'une source ponctuelle radioactive produite par la caméra.

À la suite d'autres travaux, nous avons mesuré cette image et nous l'avons modélisée, pour la première fois, au moyen d'une fonction spatialement variable, non-gaussienne et asymétrique. Nous avons ensuite intégré cette fonction dans un algorithme de reconstruction, dans l'espace image. C'est la seule possibilité pratique dans le cas d'acquisitions en mode liste. Nous avons ensuite comparé les résultats obtenus avec un traitement de l'image après la reconstruction.

Dans le cadre de la correction de mouvement cardiaque, nous avons opté pour l'étude de la reconstruction simultanée de l'image et du déplacement, sans autres informations externes que les données TEP et le signal d'un électrocardiogramme. Nous avons ensuite choisi d'étudier la qualité de ces estimateurs conjoints intensité-déplacement au moyen de leur variance. Nous avons étudié la variance minimale que peut atteindre un estimateur conjoint intensité-mouvement, sur base des données TEP uniquement, au moyen d'un outil appelé borne de Cramer-Rao. Dans ce cadre, nous avons étudié différentes manières existantes d'estimer la borne de Cramer-Rao et nous avons proposé une nouvelle méthode d'estimation de la borne de Cramer-Rao adaptée à des images de grande dimension. Nous avons enfin mis en évidence que la variance de l'algorithme classique OSEM était supérieure à celle prédite par la borne de Cramer-Rao. En ce qui concerne les estimateurs combinés intensité-déplacement, nous avons observé la diminution de la variance minimale possible sur les intensités lorsque le déplacement était paramétrisé sur des fonctions spatiales lisses.

Ce travail est organisé comme suit. Le chapitre théorique commence par brosser brièvement le contexte historique de la tomographie par émission de positrons. Nous avons souhaité insister sur le fait que l'évolution des idées n'est romantique et linéaire qu'à grande échelle. Nous abordons ensuite la description physique de l'acquisition TEP. Dans un deuxième chapitre, nous rappelons quelques éléments de la théorie de l'estimation et de l'approximation et nous traitons des problèmes inverses en général et de la reconstruction TEP en particulier.

La seconde partie aborde le problème du manque de netteté des images et la solution que nous avons choisi d'y apporter :une modélisation dans l'espace image de la réponse impulsionnelle de la caméra, en tenant compte de ses caractéristiques non gaussienne, asymétrique et spatialement variable. Nous présentons également le résultat de la comparaison avec une déconvolution post-reconstruction. Les résultats présentés dans ce chapitre ont fait l'objet d'une publication dans la revue Physics in Medicine and Biology.

Dans un troisième volet, nous abordons la correction de mouvement. Une premier chapitre brosse le contexte de la correction de mouvement en TEP et remet en perspective les différentes méthodes existantes, dans un cadre bayésien unificateur.

Un second chapitre aborde ensuite l'estimation de la qualité des images TEP et étudie en particulier la borne de Cramer-Rao.

Les résultats obtenus sont enfin résumés et replacés dans leur contexte dans une conclusion générale.


Doctorat en Sciences de l'ingénieur
info:eu-repo/semantics/nonPublished

APA, Harvard, Vancouver, ISO, and other styles
31

Auer, Benjamin. "Modélisation et caractérisation d'un système TEMP à collimation sténopée dédié à l'imagerie du petit animal." Thesis, Strasbourg, 2017. http://www.theses.fr/2017STRAE001/document.

Full text
Abstract:
Le développement de plusieurs méthodes de reconstruction quantitatives dédiées à la Tomographie par Emission Mono Photonique du petit animal a été au cœur de cette thèse. Dans cette optique, une modélisation rigoureuse par simulation Monte Carlo du processus d’acquisition du système disponible, a été mise en place et validée. La modélisation matricielle combinée à l’algorithme de reconstruction itératif OS-EM, a permis la caractérisation des performances du système. Les valeurs de sensibilité et de résolution spatiale tomographique sont respectivement de 0,027% au centre du champ de vue et de 0,87 mm. Les limitations majeures des méthodes Monte Carlo nous ont conduit à développer une génération matricielle efficace et simplifiée des effets physiques occurrents dans le sujet. Mon approche, basée sur une décomposition de la matrice système, associée à une base de données pré-calculées, a démontré un temps acceptable pour un suivi quotidien (1h), conduisant à une reconstruction d’images personnalisée. Les approximations inhérentes à l’approche mise en place ont un impact modéré sur les valeurs des coefficients de recouvrement, une correction d’environ 10% ayant été obtenue
My thesis focuses on the development of several quantitative reconstruction methods dedicated to small animal Single Photon Emission Computed Tomography. The latter is based on modeling the acquisition process of a 4-heads pinhole SPECT system using Monte Carlo simulations.The system matrix approach, combined with the OS-EM iterative reconstruction algorithm, enabled to characterize the system performances and to compare it to the state of the art. Sensitivity of about 0,027% in the center of the field of view combined with a tomographic spatial resolution of 0,87 mm were obtained.The major drawbacks of Monte Carlo methods led us to develop an efficient and simplified modeling of the physical effects occurring in the subject. My approach based on a system matrix decomposition, associated to a scatter pre-calculated database method, demonstrated an acceptable time for a daily imaging subject follow-up (1h), leading to a personalized imaging approach. The inherent approximations of the scatter pre-calculated approach have a moderate impact on the recovery coefficients results, nevertheless a correction of about 10% was achieved
APA, Harvard, Vancouver, ISO, and other styles
32

Alvarez, Areiza Diego. "Réflexions sur la reconstruction prothétique de l’Articulation Temporo-Mandibulaire (ATM) à travers une étude biomécanique comparative entre sujets asymptomatique et pathologique." Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0335/document.

Full text
Abstract:
Cette thèse aborde une étude biomécanique de l’Articulation Temporo Mandibulaire (ATM), dont l’un des objectifs est la définition d’une approche complète, faisant appel à des outils modernes, permettant la conception d’une prothèse d’ATM personnalisée. Tout d’abord, nous avons conçu et réalisé un tribomètre reproduisant les conditions physiologiques de fonctionnement de l’ATM, afin d’étudier les interactions entre un matériau prothétique et de l’os porcin et de quantifier leurs usures respectives. La conception prothétique personnalisée passe par la réalisation d’un « état des lieux ». Nous avons donc défini un protocole de caractérisation non invasif de l’ATM. Il correspond à l’acquisition de sa géométrie actuelle et des mouvements élémentaires de la mandibule. Dans un deuxième temps, des simulations numériques en dynamique des corps rigides et/ou en éléments finis ont été réalisées pour accéder à des grandeurs mécaniques, telles que contraintes et déformations, nécessaires à la conception d’une prothèse. La totalité du protocole a été menée sur deux sujets d’étude : un sujet présentant une résorption condylienne et un sujet asymptomatique. Des modèles numériques personnalisés ont été construits pour chaque cas. Ces modèles nous ont permis d’étudier le fonctionnement articulaire de chaque individu. Nous avons effectué des comparaisons entre ces deux sujets et nous avons pu constater des différences notables concernant le fonctionnement articulaire. Il s’est avéré que les changements morphologiques occasionnés par la résorption osseuse ont des conséquences sur l’activité musculaire, ainsi que sur les efforts articulaires. Ce travail a permis d’enrichir les connaissances fondamentales par rapport au fonctionnement de l’ATM. Il a également permis de valider des outils d’évaluation de l’état fonctionnel de l’articulation. L’approche développée durant cette thèse est mise en pratique au sein de la société OBL, spécialisée dans la conception et la réalisation de prothèses maxillo-faciales sur mesure. Elle peut également être utilisée comme outil d’évaluation de solutions prothétiques existantes et à venir
This thesis deals with a biomechanical study of the Temporo-Mandibular Joint (TMJ); one of the objectives of this work is the definition of a complete approach, using modern tools, allowing the design of a personalized TMJ prosthesis. First of all, a tribometer reproducing the TMJ physiological conditions was designed and built, in order to study the interactions between porcine bone and a prosthetic material and to quantify their respective wears. Through this device, the relationships between the contact parameters and bone wear were determined. Personalized prosthetic design needs first to carry out “a state-of-the-art”. We defined a non invasive protocol for TMJ characterization. It corresponds to the acquisition of its current geometry and of the mandible elementary motions. In a second step, numerical simulations of rigid bodies and/or finite elements were achieved to obtain the mechanical quantities, such as stresses and strains, necessary for the prosthesis design. The entire protocol was conducted on two subjects: an asymptomatic one and a second one with condylar resorption. Personalized numerical models were built for each case. These models allowed us study the joint functioning of each subject. We made comparisons between these subjects and significant differences were found. It was proved that the changes produced by bone resorption have an impact on muscle activity, as well as contact forces in joints. This work allowed enhancing the fundamental knowledge regarding TMJ operating conditions. It also enabled to validate evaluation tools of the functional state of the joint. The approach developed during this thesis is applied by OBL society, specialized in the design of customed maxillofacial prostheses. The approach proposed in this work can also be used as an evaluation tool of existing prosthetic solutions, as well as future solutions
APA, Harvard, Vancouver, ISO, and other styles
33

Nguyen, Bang Giang. "Classification en espaces fonctionnels utilisant la norme BV avec applications aux images ophtalmologiques et à la complexité du trafic aérien." Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2473/.

Full text
Abstract:
Dans cette thèse, nous traitons deux problèmes différents, en utilisant le concept de variation totale. Le premier problème est la classification des vascularites dans l'angiographie du fond d'œil, et a pour but de faciliter le travail des ophtalmologistes pour diagnostiquer ce type de maladies auto-immunes. Il vise aussi à identifier sur les angiographies les éléments permettant de diagnostiquer la sclérose en plaques. A partir de certains résultats du premier problème, un second problème a pu être abordé, consistant à développer une nouvelle métrique de congestion d'espace aérien. Cette métrique permet de quantifier la complexité de gestion du trafic aérien dans une zone donnée et s'avère très utile dans les processus d'optimisation du système de gestion du trafic aérien (Air Trafic Management, ATM). Dans la première partie de cette thèse, nous introduisons les notions requises pour résoudre ces deux problèmes. Tout d'abord nous présentons le principe de variation totale, ainsi que la manière dont il est utilisé dans nos méthodes. Ensuite, nous détaillons le fonctionnement des machines à vecteurs supports (Support Vector Machines, SVM), qui sont des algorithmes d'apprentissage automatique utilisés pour la classification et la régression. Dans la deuxième partie de cette thèse, nous présentons d'abord un état de l'art des méthodes de segmentation et de mesure des vaisseaux sanguins dans les images rétiniennes, étape importante de notre méthode. Ensuite, nous décrivons notre méthode de classification des images rétiniennes. Pour commencer, nous détectons les régions pathologiques dans les images des patients malades en nous basant sur la norme BV calculée à chaque point le long de l'axe central des vaisseaux. Ensuite, pour classer les images, nous introduisons une stratégie d'extraction des caractéristiques pathologiques pour générer un ensemble de vecteurs de caractéristiques pathologiques qui représente l'ensemble d'images d'origine pour le SVM. Les images sont alors classées en utilisant des méthodes standard de classification par SVM. Enfin, la troisième partie décrit deux applications de la variation totale dans le domaine de l'ATM. Dans la première application, en partant des idées développées dans la deuxième partie, nous introduisons une méthode d'extraction des flux principaux d'avions de l'espace aérien. En nous basant sur les algorithmes utilisés dans la deuxième partie, nous avons développé un indicateur de complexité de l'espace aérien utilisable au niveau macroscopique. Cet indicateur est ensuite comparé à la métrique de densité habituelle, qui consiste simplement à compter le nombre d'avions dans un secteur de l'espace aérien. La seconde application se base sur un modèle par systèmes dynamiques du trafic aérien. Nous proposons une nouvelle métrique de complexité du trafic basée sur le calcul de la norme locale de variation totale vectorielle de la déviation relative du champ de vecteurs. Le but est de réduire la complexité. Trois scénarios de trafic différents sont étudiés pour évaluer la qualité de la méthode proposée
In this thesis, we deal with two different problems using Total Variation concept. The first problem concerns the classification of vasculitis in multiple sclerosis fundus angiography, aiming to help ophthalmologists to diagnose such autoimmune diseases. It also aims at determining potential angiography details in intermediate uveitis in order to help diagnosing multiple sclerosis. The second problem aims at developing new airspace congestion metric, which is an important index that is used for improving Air Traffic Management (ATM) capacity. In the first part of this thesis, we provide preliminary knowledge required to solve the above-mentioned problems. First, we present an overview of the Total Variation and express how it is used in our methods. Then, we present a tutorial on Support Vector Machines (SVMs) which is a learning algorithm used for classification and regression. In the second part of this thesis, we first provide a review of methods for segmentation and measurement of blood vessel in retinal image that is an important step in our method. Then, we present our proposed method for classification of retinal images. First, we detect the diseased region in the pathological images based on the computation of BV norm at each point along the centerline of the blood vessels. Then, to classify the images, we introduce a feature extraction strategy to generate a set of feature vectors that represents the input image set for the SVMs. After that, a standard SVM classifier is applied in order to classify the images. Finally, in the third part of this thesis, we address two applications of TV in the ATM domain. In the first application, based on the ideas developed in the second part, we introduce a methodology to extract the main air traffic flows in the airspace. Moreover, we develop a new airspace complexity indicator which can be used to organize air traffic at macroscopic level. This indicator is then compared to the regular density metric which is computed just by counting the number of aircraft in the airspace sector. The second application is based on a dynamical system model of air traffic. We propose a method for developing a new traffic complexity metric by computing the local vectorial total variation norm of the relative deviation vector field. Its aim is to reduce complexity. Three different traffic situations are investigated to evaluate the fitness of the proposed method
APA, Harvard, Vancouver, ISO, and other styles
34

Zein, Sara. "Simulations Monte Carlo des effets des photons de 250 keV sur un fantôme 3D réaliste de mitochondrie et évaluation des effets des nanoparticules d'or sur les caractéristiques des irradiations." Thesis, Université Clermont Auvergne‎ (2017-2020), 2017. http://www.theses.fr/2017CLFAC036/document.

Full text
Abstract:
Dans le domaine de la radiobiologie, les dommages causés à l'ADN nucléaire sont largement étudiés puisque l’ADN est considéré la cible la plus sensible dans la cellule. En plus de l’ADN, les mitochondries commencent à attirer l'attention comme des cibles sensibles, car elles contrôlent de nombreuses fonctions importantes pour la survie de la cellule. Ce sont des organites à double membranes principalement chargées de la production d'énergie ainsi que la régulation réactive des espèces d'oxygène, la signalisation cellulaire et le contrôle de l'apoptose. Certaines expériences ont montré qu'après exposition aux rayonnements ionisants, les teneurs mitochondriales sont modifiées et leurs fonctions sont affectées. C'est pourquoi nous sommes intéressés par l'étude des effets des rayonnements ionisants sur les mitochondries. À l'échelle microscopique, les simulations Monte-Carlo sont utiles pour reproduire les traces de particules ionisantes pour une étude approfondie. Par conséquent, nous avons produit des fantômes 3D de mitochondries à partir d'images microscopiques de cellules fibroblastiques. Ces fantômes ont été transformés de façon à être téléchargés dans Geant4 sous forme de mailles tessélisées et tétraédriques remplies d'eau représentant la géométrie réaliste de ces organites. Les simulations numériques ont été effectuées afin de calculer les dépôts d’énergie induits par des photons de 250 keV à l'intérieur de ces fantômes. Les processus électromagnétiques Geant4-DNA sont utilisés pour simuler les traces des électrons secondaires produits. Étant donné que les dommages groupés sont plus difficiles à réparer par les cellules, un algorithme spécifique est utilisé pour étudier le regroupement spatial des dégâts potentiels des rayonnements. En radiothérapie, il est difficile de donner une dose efficace aux sites de la tumeur sans affecter les tissus environnants sains. L'utilisation de nanoparticules d'or comme radio-sensibilisateurs semble être prometteuse. Leur coefficient d'absorption élevé augmente la probabilité d’interaction des photons et induit une dose tumorale plus importante lorsque ces particules sont absorbés de manière préférentielle dans les tumeurs. Puisque l'or a un nombre atomique élevé, les électrons Auger sont produits en abondance. Ces électrons ont une portée plus faible que les photoélectrons, ce qui leur permet de déposer la majeure partie de leur énergie près de la nanoparticule, ce qui augmente la dose locale. Nous avons étudié l'effet radio-sensibilisant des nanoparticules d'or sur le fantôme des mitochondries. L'efficacité de cette méthode dépend du nombre, de la taille et de la répartition spatiale des nanoparticules d'or. Après exposition aux rayonnements ionisants, des espèces réactives d'oxygène sont produites dans le milieu biologique qui contient une quantité d'eau abondante. Dans cette étude, nous simulons les espèces chimiques produites à l'intérieur du fantôme des mitochondries et leur regroupement est estimé. La distribution spatiale des produits chimiques et leur évolution avec le temps et par la suite analysée au moyen d’algorithme spécifique de traitement de données
In the field of radiobiology, damage to nuclear DNA is extensively studied since it is considered as a sensitive target inside cells. Mitochondria are starting to get some attention as sensitive targets as well since they control many functions important to the cell’s survival. They are double membraned organelles mainly in charge of energy production as well as reactive oxygen species regulation, cell signaling and apoptosis control. Some experiments have shown that after exposure to ionizing radiation the mitochondrial contents are altered and their functions are affected. That is why we are interested in studying the effects of ionizing radiation on mitochondria. At the microscopic scale, Monte Carlo simulations are helpful in reproducing the tracks of ionizing particles for a close study. Therefore, we produced 3D phantoms of mitochondria starting from microscopic images of fibroblast cells. These phantoms are easily uploaded into Geant4 as tessellated and tetrahedral meshes filled with water representing the realistic geometry of these organelles. Microdosimetric analysis is performed to deposited energy by 250keV photons inside these phantoms. The Geant4-DNA electromagnetic processes are used to simulate the tracking of the produced secondary electrons. Since clustered damages are harder to repair by cells, a clustering algorithm is used to study the spatial clustering of potential radiation damages. In radiotherapy, it is a challenge to deliver an efficient dose to the tumor sites without affecting healthy surrounding tissues. The use of gold nanoparticles as radio-sensitizers seems to be promising. Their high photon absorption coefficient compared to tissues deposit a larger dose when they are preferentially absorbed in tumors. Since gold has a high atomic number, Auger electrons are produced abundantly. These electrons have lower range than photoelectrons enabling them to deposit most of their energy near the nanoparticle and thus increasing the local dose. We studied the radio-sensitizing effect of gold nanoparticles on the mitochondria phantom. The effectiveness of this method is dependent on the number, size and spatial distribution of gold nanoparticles. After exposure to ionizing radiation, reactive oxygen species are produced in the biological material that contains abundant amount of water. In this study, we simulate the chemical species produced inside the mitochondria phantom and their clustering is estimated. We take advantage of the Geant4-DNA chemistry processes libraries that is recently included in the Geant4.10.1 release to simulate the spatial distribution of the chemicals and their evolution with time
APA, Harvard, Vancouver, ISO, and other styles
35

Belmajdoub, Fouad. "Développement d'une méthode de reconstruction 3D du tronc scoliotique par imagerie numérique stéréoscopique et modélisation des calculs par réseaux de Pétri à flux de données en vue d'une implémentation sur une architecture parallèle." Aix-Marseille 3, 1993. http://www.theses.fr/1993AIX30087.

Full text
Abstract:
Notre etude a pour objet la reconstruction tridimensionnelle d'un moulage de tronc d'un scoliotique, en vue d'une cfao de corset de scoliose. Cette these se compose de deux parties: la premiere partie presente les resultats concernant le developpement d'un nouvel outil informatique permettant aux orthesistes l'amelioration du procede de fabrication des corsets de scoliose. Le principe de base repose sur l'utilisation de la stereovision passive pour l'extraction des informations tridimensionnelles du moulage, puis le recours a l'outil cadkey de cao pour la phase de modelisation. Dans la seconde partie de la these, nous presentons une methode d'ordonnancement temporel des reseaux de petri a flux de donnees pour une implementation des calculs sur une architecture parallele. A cet effet, des algorithmes performants ont ete elabores tenant compte du nombre de coefficients nuls dans la matrice d'adjacence.
APA, Harvard, Vancouver, ISO, and other styles
36

Petitjean, Caroline. "Mesures in situ et simulations des flux de N²0 émis par les sols : Cas du changement d’usage des terres en Guyane : déforestation par la méthode ‘chop-and-mulch’ suivie de la mise en valeur agricole." Thesis, Antilles-Guyane, 2013. http://www.theses.fr/2013AGUY0610/document.

Full text
Abstract:
Cette these etudie les effets de la conversion de la foret tropicale en parcelles agricoles, sur les emissions de n2o par les sols. Ce travail est realise a l’echelle du cycle cultural sur le dispositif experimental de combi (littoral guyanais), a l’aide de mesures in situ et de simulations (modele noe) des flux de n2o. La foret tropicale a ete comparee a des parcelles de foret converties en terres agricoles par la methode ‘chop-and-mulch’. La methode de deforestation ‘chop-and-mulch’ associe coupe mecanique de la vegetation, broyage puis enfouissement des residus forestiers dans le sol. Les terres agricoles etaient soient des parcelles de prairie non paturee soient des parcelles cultivees (maïs fertilise/soja) conduites en semis conventionnel (semis apres travail du sol, sans plante de couverture) ou en semis direct (sans travail du sol, avec plantes de couverture).Les principaux resultats de cette etude sont : le sol de la foret tropicale de combi est un faible emetteur de n2o ; la conversion par la methode ‘chop-and-mulch’ de cette foret en prairie ne conduit pas a une augmentation significative des emissions de n2o entre le 19eme et le 31eme mois suivant la conversion ; la conversion de la foret en parcelles cultivees induit une augmentation significative des emissions de n2o due a la fertilisation et a la modification des parametres edaphiques (densite apparente, temperature, humidite volumique) ; la technique sans travail du sol n’engendre pas de flux de n2o significativement plus eleves que la technique avec travail du sol ; l’introduction du phenomene d’hysterese hydrique dans le modele noe presente un reel potentiel pour l’estimation des emissions de n2o in situ
This study investigates the effects of the conversion of tropical forest to cultivation on soil n2o emissions. The study was carried out over a complete crop cycle at the experimental site combi (french guianese coast). Nitrous oxide fluxes were obtained in the field and by conducting simulations with the noe model. Undisturbed tropical rainforest was compared to rainforest that had been converted to agricultural land using the ‘chop-and-mulch’ method. The ‘chop-and-mulch’ method is a fire-free method used for vegetation clearing combining the mechanical felling of trees with the mulching of small vegetation. Agricultural land included either mowed grassland or soybean/fertilised maize crop rotation. For croplands the two cultivation practices employed were: conventional seeding (using an offset disc harrow, without cover plants) or direct seeding (no till, with cover plants).The main results of this study are: rainforest soil at combi produced low n2o emissions; rainforest converted to mowed grassland using the 'chop-and-mulch’ method did not lead to a significant increase in n2o emissions between the 19th and 31st months after conversion; the conversion of rainforest to croplands induced a significant increase in soil n2o emissions due to the application of fertiliser and the modification of soil parameters (bulk density, temperature, volumetric moisture); n2o emissions from agricultural practices with no-till were no higher than those produced by conventional agricultural practices using an offset disc harrow; and, the introduction of an hydric hysteresis into the noe model constitutes a promising improvement to estimate in situ n2o emissions
APA, Harvard, Vancouver, ISO, and other styles
37

Ducousso, Nicolas. "Coexistence et interactions de la circulation décennale moyenne et des ondes et tourbillons transitoires dans l'océan Atlantique Nord." Brest, 2011. http://www.theses.fr/2011BRES2055.

Full text
Abstract:
Les observations de la circulation océanique montrent que la circulation générale coexiste avec des structures de méso-échelle transitoires se présentant sous la forme d’ondes et de tourbillons cohérents. On cherche dans cette thèse à caractériser différents aspects des mécanismes d’interactions qui couplent ces mouvements. Deux tâches sont successivement menées : la première consiste en une revue critique des différents formalismes théoriques proposés pour répondre à cet objectif ; la seconde en l’analyse d’une simulation réaliste turbulente issue du projet DRAKKAR dans un cadre original, celui du formalisme isopycnal résiduel détaillé par McDougall et Mclntosh (2001). A la différence du traditionnel formalisme eulérien, ce formalisme met explicitement en évidence les fortes contraintes qu’imposent la stratification et la quasi-adiabaticité de l’océan intérieur sur la circulation moyenne et sur les mécanismes d’interactions. L’analyse illustre ces contraintes. Elle montre d’abord que la vitesse résiduelle moyenne est quasiment alignée sur les surfaces isopycnales et que sa composante diapycnale est très faible. Elle montre ensuite que les flux turbulents résiduels de chaleur et de sel sont quasiment alignés sur les surfaces isopycnales et que leur intensité est significative dans les zones frontales. Les diffusivités turbulentes finalement estimés sont partiellement en accord avec les valeurs communément acceptées dans la littérature
Observations of the ocean circulation reveal that the large-scale general circulation coexists with transient waves and coherent vortices. This thesis aims at characterizing some aspects of the interaction mechanisms, which link these kinds of motion. This objective encompasses two tasks: the first task is a critical review of the theoretical frameworks previously published in the literature; the second task consists of the analysis of a numerical simulation provided by the DRAKKAR team. The diagnostic s performed within the Temporal Residual Mean framework, as detailed by McDougall and Mclntosh (2001). Indeed, this framework provides a valuable perspective, as the constraint of the stratification and the quasi-adiabaticity of the ocean interior on the mean circulation and the interaction mechanisms is made explicit. The analysis illustrates these constraints by showing two things. First, the residual mean velocity is nearly aligned with the isopycnal surfaces and its diapycnal component is very weak. Second, the residual eddy fluxes of heat and salt are nearly aligned with the isopycnal surfaces and their intensity are significant in frontal areas only. Eddy diffusivities evaluated from the residual eddy fluxes are in partial accordance with values commonly found in the literature
APA, Harvard, Vancouver, ISO, and other styles
38

Fakih, Hussein. "Étude mathématique et numérique de quelques généralisations de l'équation de Cahn-Hilliard : applications à la retouche d'images et à la biologie." Thesis, Poitiers, 2015. http://www.theses.fr/2015POIT2275/document.

Full text
Abstract:
Cette thèse se situe dans le cadre de l'analyse théorique et numérique de quelques généralisations de l'équation de Cahn-Hilliard. On étudie l'existence, l'unicité et la régularité de la solution de ces modèles ainsi que son comportement asymptotique en terme d'existence d'un attracteur global de dimension fractale finie. La première partie de la thèse concerne des modèles appliqués à la retouche d'images. D'abord, on étudie la dynamique de l'équation de Bertozzi-Esedoglu-Gillette-Cahn-Hilliard avec des conditions de type Neumann sur le bord et une nonlinéarité régulière de type polynomial et on propose un schéma numérique avec une méthode de seuil efficace pour le problème de la retouche et très rapide en terme de temps de convergence. Ensuite, on étudie ce modèle avec des conditions de type Neumann sur le bord et une nonlinéarité singulière de type logarithmique et on donne des simulations numériques avec seuil qui confirment que les résultats obtenus avec une nonlinéarité de type logarithmique sont meilleurs que ceux obtenus avec une nonlinéarité de type polynomial. Finalement, on propose un modèle basé sur le système de Cahn-Hilliard pour la retouche d'images colorées. La deuxième partie de la thèse est consacrée à des applications en biologie et en chimie. On étudie la convergence de la solution d'une généralisation de l'équation de Cahn-Hilliard avec un terme de prolifération, associée à des conditions aux limites de type Neumann et une nonlinéarité régulière. Dans ce cas, on démontre que soit la solution explose en temps fini soit elle existe globalement en temps. Par ailleurs, on donne des simulations numériques qui confirment les résultats théoriques obtenus. On termine par l'étude de l'équation de Cahn-Hilliard avec un terme source et une nonlinéarité régulière. Dans cette étude, on considère le modèle à la fois avec des conditions aux limites de type Neumann et de type Dirichlet
This thesis is situated in the context of the theoretical and numerical analysis of some generalizations of the Cahn-Hilliard equation. We study the well-possedness of these models, as well as the asymptotic behavior in terms of the existence of finite-dimenstional (in the sense of the fractal dimension) attractors. The first part of this thesis is devoted to some models which, in particular, have applications in image inpainting. We start by the study of the dynamics of the Bertozzi-Esedoglu-Gillette-Cahn-Hilliard equation with Neumann boundary conditions and a regular nonlinearity. We give numerical simulations with a fast numerical scheme with threshold which is sufficient to obtain good inpainting results. Furthermore, we study this model with Neumann boundary conditions and a logarithmic nonlinearity and we also give numerical simulations which confirm that the results obtained with a logarithmic nonlinearity are better than the ones obtained with a polynomial nonlinearity. Finally, we propose a model based on the Cahn-Hilliard system which has applications in color image inpainting. The second part of this thesis is devoted to some models which, in particular, have applications in biology and chemistry. We study the convergence of the solution of a Cahn-Hilliard equation with a proliferation term and associated with Neumann boundary conditions and a regular nonlinearity. In that case, we prove that the solutions blow up in finite time or exist globally in time. Furthermore, we give numericial simulations which confirm the theoritical results. We end with the study of the Cahn-Hilliard equation with a mass source and a regular nonlinearity. In this study, we consider both Neumann and Dirichlet boundary conditions
APA, Harvard, Vancouver, ISO, and other styles
39

Audusse, Emmanuel. "Modelisation hyperbolique et analyse numerique pour les ecoulements en eaux peu profondes." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2004. http://tel.archives-ouvertes.fr/tel-00008047.

Full text
Abstract:
Nous etudions dans cette these differentes lois de conservation hyperboliques associees a la modelisation des ecoulements en eaux peu profondes.
Nous nous consacrons d'abord a l'analyse numerique du systeme de Saint-Venant avec termes sources. Nous presentons un schema volumes finis bidimensionnel d'ordre 2, conservatif et consistant, qui s'appuie sur une interpretation cinetique du systeme et une methode de reconstruction hydrostatique des variables aux interfaces. Ce schema preserve la positivite de la hauteur d'eau et l'etat stationnaire associe au lac au repos.
Nous etendons ensuite l'interpretation cinetique au couplage du systeme avec une equation de transport. Nous construisons un schema volumes finis a deux pas de temps, qui permet de prendre en compte les differentes vitesses de propagation de l'information presentes dans le probleme. Cette approche preserve les proprietes de stabilite du systeme et reduit sensiblement la diffusion numerique et les temps de calcul.
Nous proposons egalement un nouveau modele de Saint-Venant multicouche, qui permet de retrouver des profils de vitesse non constants, tout en preservant le caractere invariant et bidimensionnel du domaine de definition. Nous presentons sa derivation a partir des equations de Navier-Stokes et une etude de stabilite - energie, hyperbolicite. Nous etudions egalement ses relations avec d'autres modeles fluides et sa mise en oeuvre numerique, la encore basee sur l'utilisation des schemas cinetiques.
Enfin nous etablissons un theoreme d'unicite pour les lois de conservation scalaires avec flux discontinus. La preuve est basee sur l'utilisation d'une nouvelle famille d'entropies, qui constituent une adaptation naturelle des entropies de Kruzkov classiques au cas discontinu. Cette methode permet de lever certaines hypotheses classiques sur le flux - convexite, existence de bornes BV, nombre fini de discontinuites - et ne necessite pas l'introduction d'une condition d'interface.
APA, Harvard, Vancouver, ISO, and other styles
40

Nguyen, Thanh Don. "Impact de la résolution et de la précision de la topographie sur la modélisation de la dynamique d’invasion d’une crue en plaine inondable." Thesis, Toulouse, INPT, 2012. http://www.theses.fr/2012INPT0093/document.

Full text
Abstract:
Nous analysons dans cette thèse différents aspects associés à la modélisation des écoulements à surface libre en eaux peu profondes (Shallow Water). Nous étudions tout d’abord le système d’équations de Saint-Venant à deux dimensions et leur résolution par la méthode numérique des volumes finis, en portant une attention particulière sur les aspects hyperboliques et conservatifs. Ces schémas permettent de traiter les équilibres stationnaires, les interfaces sec/mouillé et aussi de modéliser des écoulements subcritique, transcritique et supercritique. Nous présentons ensuite la théorie de la méthode d’assimilation variationnelle de données adaptée à ce type d’écoulement. Son application au travers des études de sensibilité est longuement discutée dans le cadre de l'hydraulique à surface libre. Après cette partie à caractère théorique, la partie tests commence par une qualification de l’ensemble des méthodes numériques qui sont implémentées dans le code DassFlow, développé à l’Université de Toulouse, principalement à l’IMT mais aussi à l’IMFT. Ce code résout les équations Shallow Water par une méthode de volumes finis et est validé par comparaison avec les solutions analytiques pour des cas tests classiques. Ces mêmes résultats sont comparés avec un autre code d’hydraulique à surface libre aux éléments finis en deux dimensions, Telemac 2D. Une particularité notable du code DassFlow est de permettre l’assimilation variationnelle de données grâce au code adjoint permettant le calcul du gradient de la fonction coût. Ce code adjoint a été obtenu en utilisant l'outil de différentiation automatique Tapenade (Inria). Nous testons ensuite sur un cas réel, hydrauliquement complexe, différentes qualités de Modèles Numériques de Terrain (MNT) et de bathymétrie du lit d’une rivière. Ces informations proviennent soit d’une base de données classique type IGN, soit d’informations LIDAR à très haute résolution. La comparaison des influences respectives de la bathymétrie, du maillage et du type de code utilisé, sur la dynamique d’inondation est menée très finement. Enfin nous réalisons des études cartographiques de sensibilité aux paramètres du modèle sur DassFlow. Ces cartes montrent l’influence respective des différents paramètres ou de la localisation des points de mesure virtuels. Cette localisation optimale de ces points est nécessaire pour une future assimilation de données efficiente
We analyze in this thesis various aspects associated with the modeling of free surface flows in shallow water approximation. We first study the system of Saint-Venant equations in two dimensions and its resolution with the numerical finite volumes method, focusing in particular on aspects hyperbolic and conservative. These schemes can process stationary equilibria, wetdry interfaces and model subcritical, transcritical and supercritical flows. After, we present the variational data assimilation method theory fitted to this kind of flow. Its application through sensitivity studies is fully discussed in the context of free surface water. After this theoretical part, we test the qualification of numerical methods implemented in the code Dassflow, developed at the University of Toulouse, mainly at l'IMT, but also at IMFT. This code solves the Shallow Water equations by finite volume method and is validated by comparison with analytical solutions for standard test cases. These results are compared with another hydraulic free surface flow code using finite elements in two dimensions: Telemac2D. A significant feature of the Dassflow code is to allow variational data assimilation using the adjoint method for calculating the cost function gradient. The adjoint code was obtained using the automatic differentiation tool Tapenade (INRIA). Then, the test is carried on a real hydraulically complex case using different qualities of Digital Elevation Models (DEM) and bathymetry of the river bed. This information are provided by either a conventional database types IGN or a very high resolution LIDAR information. The comparison of the respective influences of bathymetry, mesh size, kind of code used on the dynamics of flooding is very finely explored. Finally we perform sensitivity mapping studies on parameters of the Dassflow model. These maps show the respective influence of different parameters and of the location of virtual measurement points. This optimal location of these points is necessary for an efficient data assimilation in the future
APA, Harvard, Vancouver, ISO, and other styles
41

Peng, Yong. "In-depth accident investigation of pedestrian impact dynamics and development of head injury risk functions." Thesis, Strasbourg, 2012. http://www.theses.fr/2012STRAD024.

Full text
Abstract:
Les piétons comptent parmi les usagers de la route les plus vulnérables dans la mesure où ils ne bénéficient d'aucune protection en cas d'impact avec un véhicule automobile. Plus de 1,17 millions de personnes sont tués sur la route de part le monde dont environ 65% ce piétons. Les blessures de la tête, souvent fatales, concernent environ 30 % des blessures enregistrées. Ces blessures conduisent à des incapacités de longue durée avec un coût sociétal et économique immense. Il est par conséquent essentiel de comprendre aussi bien les mécanismes d'accidents que les mécanismes de blessure de la tête afin d'intervenir sur la conception de la face avant des véhicules automobile. Dans ce contexte l'objet de la présente thèse est d'analyser la répons dynamique du piton en cas d'accident et ce contribuer au développement de critères de blessure de la tête. Dans le but d'étudier l'influence de la position du piéton, de la géométrie de la face avant du véhicule et de sa vitesse initiale sur la cinématique du piéton et les conditions d'impact de la tête, une simulation multi-corps a été mise en place. Les résultats de ces simulations donnent la vitesse et l'angle d'impact de la tête et la position de l'impact sur le véhicule. Cette analyse paramètrique a été conduite sur cinq types de véhicules et pour un modèle humain adulte et enfant de 6 ans et a permis de consolider les connaissances sur la conditions d'impact de la tête en comparaison avec les tests normatifs en vigueur.[...]
Pedestrians are regarded as an extremely vulnerable and high-risk group of road users since they are unprotected in vehicle impacts. More than 1.17 million people throughout the world are killed in road traffic accidents each year. Where, about 65% of deaths involve pedestrians. The head injuries in vehicle-pedestrian collisions accounted for about 30% of all reported injuries on different body regions, which often resulted in a fatal consequence. Such injuries can result in disabilities and long-term sequence, which lead to significant social costs. It is therefore important to study the characteristics of pedestrian accidents and understand the head injury mechanism of the pedestrian so as to improve vehicle design for pedestrian protection. The aim of this study is to investigate pedestrian dynamic response and develop head injury risk functions.In order to investigate the effect of pedestrian gait, vehicle front geometry and impact velocity on the dynamic responses of the head, the multi-body dynamic (MBD) models were used to simulate the head responses in vehicle to pedestrian collisions with different vehicle types in terms of head impact point measured with Wrap Around Distance (WAD), head relative velocity and impact angle. A simulation matrix is established using five vehicle types, and two mathematical models of the pedestrians represented a 50th male adult and a 6 year old child as well as seven pedestrian gaits based on typical postures in pedestrian accidents. In order to simulate a large range of impact conditions, four vehicle velocities (30 km/h, 40 km/h, 50 km/h and 60 km/h) are considered for each pedestrian position and vehicle type.A total of 43 passenger car versus pedestrian accidents were selected from In-depth Investigation of Vehicle Accidents in Changsha, China (IVAC) and German In-Depth Accident Study (GIDAS) database for simulation study. According to real-world accident investigation, accident reconstructions were conducted using multi-body system (MBS) pedestrian and car models under MADYMO simulation environment to calculate head impact conditions, in terms of head impact velocity, head position and head orientation. In order to study kinematics of adult pedestrian, relationship curves: head impact time, throw distance, head impact velocity and vehicle impact velocity, were computed and logistic regression models: head impact velocity, resultant angular velocity, HIC value, head contact force and head injuries, were developed based on the results from accident reconstructions.The automobile windshield, with which pedestrians come into frequent contact, has been identified as one of the main contact sources for pedestrian head injuries. In order to investigate the mechanical behavior of windshield laminated glass in the caseof pedestrian head impact, windshield FE models were set up using different combination for the modeling of glass and PVB, with various connection types and two mesh sizes (5 mm and 10 mm). Each windshield model was impacted with a standard adult headform impactor in an LS-DYNA simulation environment, and the results were compared with the experimental data reported in the literatures.In order to assess head injury risks of adult pedestrians, accident reconstructions were carried out by using Hybrid III head model based on the real-world pedestrian accidents. The impact conditions were obtained from the MBS simulation, including head impact velocity, head position and head orientation. They were used to set the initial conditions in a simulation of a Hybrid III FE head model striking a windshield FE model. Logistic regression models, Skull Fracture Correlate (SFC), head linear acceleration, Head Impact Power (HIP), HIC value, resultant angular acceleration and head injuries, were developed to study brain injury risk.{...]
APA, Harvard, Vancouver, ISO, and other styles
42

Bresson, Damien. "Étude de l’écoulement sanguin dans un anévrysme intracrânien avant et après traitement par stent flow diverter : quantification par traitement d’images de séquences angiographiques 2D." Thesis, Compiègne, 2016. http://www.theses.fr/2016COMP2308/document.

Full text
Abstract:
Les anévrysmes intracrâniens (AIC) sont des malformations artérielles développées au dépend des vaisseaux qui vascularisent le parenchyme cérébral. Leur rupture provoque une hémorragie intracrânienne, appelée hémorragie sous-arachnoïdienne, responsable d'une mortalité importante ou de séquelles fonctionnelles lourdes. Le traitement préventif de ces lésions est fréquemment réalisé lors d'une procédure endovasculaire (appelée coiling), par implantation, au sein de la poche artérielle pathologique, de spires métallique en platine à détachement contrôlé (les coils). La présence de ce matériel provoque une thrombose de la poche ce qui entraine secondairement une exclusion de l'anévrysme de la circulation artérielle. Une modalité de traitement endovasculaire plus récente fait appel à un dispositif implantable innovant appelé stent "flow diverter" (FD) que l'on déploie en regard de l'orifice qui fait communiquer l'artère et l’anévrysme : le collet anévrysmal. Ces stents FD, au design particulier, associant une faible porosité à une densité de pores élevée, agissent comme des "déflecteurs" et diminuent le flux sanguin entrant et sortant de l'anévrysme. L'objectif du traitement demeure toujours l'exclusion de l'anévrysme mais celle-ci est obtenue indirectement en agissant sur la "porte d'entrée" de l'anévrysme (le collet) et non plus directement sur la poche anévrysmale elle-même. Il ne s'agit plus alors de remplir le sac anévrysmal avec des coils mais de provoquer une thrombose stable et pérenne en altérant uniquement le flux sanguin qui le pénètre. Cette modalité thérapeutique novatrice a suscité un engouement important de la part des neuroradiologues interventionnels depuis 2007, date des premières implantations en Europe. Cependant, bien que reposant sur les capacités d'un tel dispositif à modifier le flux, on constate qu'il existe très peu d'outils d'imagerie disponibles actuellement et capables de quantifier ces modifications en un délai raisonnable pour pouvoir être exploité lors du traitement endovasculaire. De cette constatation clinique est né un projet collaboratif dont la finalité était le développement d'un outil logiciel basé sur les séquences d'angiographie numérisées soustraites et capable de mesurer au moins un des aspects du flux sanguin (et donc de ses modifications). La démarche de recherche mise en œuvre s'est effectuée en trois étapes. Premièrement, une étape expérimentale portant sur la réalisation d'un modèle "optimisé" d'AIC permettant le recueil de données hémodynamiques et d'imagerie. Puis, une étape de recherche plus fondamentale comprenant deux parties: d'une part des simulations numériques réalisées dans le cadre d'un modèle 3D réaliste d'AIC et d'autre part l'analyse d'images angiographiques. Au cours de cette étape, nous avons utilisé des outils de traitement d'images existants et développé certains algorithmes, puis les avons validés avant de les implémenter sous JAVA pour créer un outil logiciel d'analyse de flux. Enfin, la dernière étape du projet a consisté en l'exploitation du logiciel pour étudier une série clinique de patients traités d'un AIC par stent FD. Elle a permis de mettre en évidence certains facteurs prédictifs d'exclusion de l'anévrysme à long terme susceptible d'avoir un impact, en temps réel, sur le traitement des AIC par stent FD
Intracranial aneurysms treatment based on intra aneurismal flow modification tend to replace traditionally coiling in many cases and not only complex aneurysms for which they were initially designed. Dedicated stents (low porosity, high pores density stents) called “flow diverter” stents are deployed across the neck of the aneurysm to achieve this purpose. The summation of three different mechanisms tend to lead to the healing of the aneurysm: immediate flow alteration due to the mechanical screen effect of the stent, physiological triggering of acute or progressive thrombus formation inside the aneurysm’s pouch and long term biological response leading in neointima formation and arterial wall remodeling. This underlying sequence of processes is also supposed to decrease the recanalization rate. Scientific data supporting the flow alteration theory are numerous and especially computational flow dynamics (CFD). These approaches are very helpful for improving biomechanical knowledge of the relations between blood flow and pathology, but they do not fit in real-time treatments. Neuroendovascular treatments are performed under dynamic x-ray modality (digital subtracted angiography a DSA-).However, in daily practice, FD stents are sized to the patient’s 3D vasculature anatomy and then deployed. The flow modification is then evaluated by the clinician in an intuitive manner: the decision to deploy or not another stent is based solely on a visual estimation. The lack of tools available in the angioroom for quantifying in real time the blood flow hemodynamics should be pointed out. It would make sense to take advantage of functional data contained in contrast bolus propagation and not only anatomical data. Thus, we proposed to create flow software based on angiographic analysis. This software was built using algorithms developed and validated on 2D-DSA sequences obtained in a swine intracranial aneurysm model. This intracranial animal model was also optimized to obtain 3D vascular imaging and experimental hemodynamic data that could be used to realize realistic computational flow dynamic. In a third step, the software tool was used to analyze flow modification from angiographic sequences acquired during unruptured IA from patients treated with a FD stent. Finally, correlation between flow change and aneurysm occlusion at long term follow-up with the objective of identifying predictive markers of long term occlusion was performed
APA, Harvard, Vancouver, ISO, and other styles
43

Simon, Nataline. "Développement des méthodes actives de mesures distribuées de température par fibre optique pour la quantification des écoulements souterrains : apports et limites pour la caractérisation des échanges nappe/rivière." Thesis, Rennes 1, 2020. http://www.theses.fr/2020REN1B028.

Full text
Abstract:
Les échanges entre les rivières et les nappes d’eau souterraine jouent un rôle essentiel dans le maintien des écosystèmes aquatiques. Or, leur caractérisation demeure difficile du fait de leur forte variabilité dans l’espace et dans le temps. Dans ce contexte, l’objectif de ce travail de thèse est de développer des méthodes actives de mesures distribuées de température pour quantifier la dynamique des interactions nappe/rivière. Après avoir établi une nouvelle approche pour évaluer la résolution spatiale des mesures de température, nous avons validé deux nouvelles méthodes d’interprétation permettant d’estimer de manière distribuée les flux d’eau et la conductivité thermique du milieu poreux. Les travaux, associant modélisations numériques et mesures expérimentales en laboratoire, montrent que les méthodes d’interprétation développées permettent d’estimer avec une excellente précision les écoulements et que la gamme de flux pouvant être investiguée est particulièrement large. Pour tester cette approche prometteuse, des expériences actives ont ensuite été réalisées sur le terrain dans deux environnements différents : d’abord dans un petit cours d’eau d’ordre 1 de tête de bassin versant, puis dans un fleuve s’écoulant le long d’une plaine alluviale. Ces applications ont démontré le fort potentiel des méthodes actives pour quantifier les écoulements à l’interface nappe/rivière et décrire leur variabilité spatiale et temporelle. La comparaison des résultats obtenus sur les deux sites a permis finalement de discuter la faisabilité, les apports mais aussi les limites de la méthode dans différents contextes hydrologiques
Groundwater/surface water interactions play a fundamental role in the functioning of aquatic ecosystems. However, their quantification is challenging because exchange processes vary both in time and space. Here, we propose an active distributed heat transport experiment in order to quantify the spatial and temporal variability of groundwater/surface water interactions. As a first step, we proposed a new approach to evaluate the spatial resolution of temperature measurements. Then, two interpretation methods of active-DTS experiments were developed and fully validated to estimate the distribution of porous media thermal conductivity and the groundwater fluxes in sediments. Based on numerical simulations and sandbox experiments, results demonstrated the potentiality of these methods for quantifying distributed groundwater fluxes with high accuracy. The large range of groundwater fluxes that can be investigated with the method makes specially promising the application of active experiments for many subsurface applications. Secondly, we conducted heat transport experiments within the streambed sediments of two different streams: in a first-order stream, then in a large flow-system located along an alluvial plain. These applications demonstrated the relevance of using active experiments to characterize the spatial complexity of stream exchanges. Finally, the comparison of results obtained for each experimental site allowed discussing the capabilities and limitations of using active-DTS field experiments to characterize groundwater/surface water interactions in different hydrological contexts
APA, Harvard, Vancouver, ISO, and other styles
44

Gardes, Thomas. "Reconstruction temporelle des contaminations métalliques et organiques particulaires dans le bassin versant de l'Eure et devenir des sédiments suite à l'arasement d'un barrage. Reconstruction of anthropogenic activities in legacy sediments from the Eure River, a major tributary of the Seine Estuary (France) Flux estimation, temporal trends and source determination of trace metal contamination in a major tributary of the Seine estuary, France Temporal trends, sources, and relationships between sediment characteristics and polycyclic aromatic hydrocarbons (PAHs) and polychlorinated biphenyls (PCBs) in sediment cores from the major Seine estuary tributary, France Impacts à court-terme de l’arasement d’un barrage sur la morphologie du cours d’eau et la remobilisation de sédiments contaminés par les métaux traces Bioaccessibility of polycyclic aromatic compounds (PAHs, PCBs) and trace elements: Influencing factors and determination in a river sediment core." Thesis, Normandie, 2020. http://www.theses.fr/2020NORMR038.

Full text
Abstract:
L’impact anthropique sur les cours d’eau a significativement augmenté suite à la révolution industrielle engagée par les pays occidentaux. Ainsi, les modifications de la géomorphologie des cours d’eau pour le stockage de l’eau et la navigation, la conversion des surfaces à des fins agricoles, industrielles et d’urbanisation illustrent cette pression environnementale, qui se traduit, en autre, par une augmentation de rejets de divers contaminants dans les compartiments environnementaux et notamment les rivières. Une part de ces rejets peut donc se retrouver dans les matières en suspension, considérées alors comme des puits de stockage, qui transitent dans les rivières. Les aménagements des rivières et notamment la construction de barrages favorisent alors la sédimentation de ces particules contaminées au cours du temps. Ces sédiments d’origines anthropiques, également appelés legacy sediments, sont donc les témoins des activités anthropiques et permettent de reconstruire les trajectoires temporelles des contaminations au sein des bassins versants. L’Eure, affluent majeur de l’estuaire de Seine, a connu d’importantes pressions anthropiques depuis le vingtième siècle. La reconstruction temporelle des pressions anthropiques a nécessité l’association de différentes approches méthodologiques : (i) une analyse diachronique des modifications morphologiques de la rivière a été menée, conjointement à (ii) une analyse de la dynamique sédimentaire et de la nature des dépôts sédimentaires par couplage de méthodes géophysiques, sédimentologiques et géochimiques, et à (iii) la mise en place d’un réseau de suivi du comportement hydro-sédimentaire avec un échantillonnage en continu des matières en suspensions. De profondes modifications géomorphologiques se sont produites en aval du bassin versant, avec pour principales conséquences un exutoire déplacé d’une dizaine de kilomètres en direction d’un barrage et la formation d’annexes hydrauliques favorisant l’accumulation de sédiments dès les années 1940. Ceux-ci ont permis de montrer que le bassin versant de l’Eure avait connu d’importantes contaminations dont les conséquences sont encore enregistrées malgré l’arrêt des activités ou usages. Les tendances temporelles des éléments traces métalliques et métalloïdes ont montré de fortes contaminations en As dans les années 1940 et des contaminations d’origines industrielles en Cr, Co, Ni, Cu, Zn, Ag et Cd durant les années 1960–1970, ainsi que des contaminations en Sb et Pb en 1990–2000. Ces dernières sont toujours enregistrées malgré l’arrêt des activités responsables des rejets, comme l’ont attesté les résultats issus des matières en suspension actuellement collectées dans le cours d’eau. A l’instar d’une majorité des métaux traces, les contaminants organiques, tels les HAPs, ont montré d’importantes contaminations durant les années 1940–1960, dont les signatures indiquent une origine majoritairement pyrogénique. Les PCBs ont montré des contaminations importantes lors de la période 1950–1970, en lien avec la production et les usages nationaux de mélanges composés en majorité de congénères faiblement chlorés. Enfin, l’intérêt porté à une troisième famille de contaminants organiques persistants, les pesticides organochlorés, a montré l’utilisation de lindane et du DDT notamment lors de la période 1940–1970, et a mis en avant d’une part une utilisation post-interdiction du lindane et d’autre part la présence d’un métabolite du DDT plusieurs décennies après l’arrêt d’utilisation de ce dernier, en lien avec l’augmentation de l’érosion des sols cultivés
The anthropogenic impact on rivers has significantly increased following the industrial revolutioninitiated by Western countries. Thus, changes in the geomorphology of rivers for water storage andnavigation, the conversion of land for agricultural, industrial and urbanization purposes illustrate thisenvironmental pressure, which results, among other things, in an increase in discharges of variouscontaminants into environmental compartments, particularly rivers. Therefore, part of these dischargescan end up in suspended particulate matter, which is then considered as storage wells, which transit inrivers. River development, particularly the construction of dams, encourages the sedimentation of these contaminated particles over time. These sediments of anthropogenic origin, also called legacy sediments, are therefore witnesses to human activities and make it possible to reconstruct the temporal trajectories of contamination within watersheds. The Eure River, a major tributary of the Seine estuary, has experienced significant anthropogenic pressures since the twentieth century. The temporal reconstruction of anthropogenic pressures has required the combination of different methodological approaches: (i) a diachronic analysis of the morphological modifications of the river was carried out, in conjunction with (ii) an analysis of the sedimentary dynamics and the nature of the sediment deposits by coupling geophysical, sedimentological and geochemical methods, and (iii) the setting up of a network for monitoring the hydro-sedimentary behaviour with continuous sampling of suspended particulate matter. Significant geomorphological changes have occurred in the lower reaches of the watershed, with the main consequences being an outlet moved some ten kilometres in the direction of a dam and the formation of hydraulic annexes favouring the accumulation of sediments as early as the 1940s. These made it possible to show that the Eure River watershed had experienced significant contamination, the consequences of which are still being recorded despite the cessation of activities or uses. The temporal trends of trace metal and metalloid elements showed strong contaminations in As in the 1940s and contaminations of industrial origin in Cr, Co, Ni, Cu, Zn, Ag and Cd in the 1960s and 1970s, as well as contaminations in Sb and Pb in 1990–2000. The latter are still recorded despite the cessation of the activities responsible for the discharges, as evidenced by the results from the suspended particulate matter currently collected in the river. Like most trace metals, organic contaminants such as PAHs showed significant contamination during the 1940–1960s, with signatures indicating a predominantly pyrogenic origin. PCBs showed significant contamination during the period 1950–1970, in connection with the production and national uses of mixtures composed mainly of low chlorinated congeners. Finally, interest in a third family of persistent organic contaminants, organochlorine pesticides, showed the use of lindane and DDT, particularly during the 1940–1970 period, and highlighted the post-ban use of lindane and the presence of a metabolite of DDT several decades after the cessation of its use, in connection with the increase in erosion of cultivated soils
APA, Harvard, Vancouver, ISO, and other styles
45

Marchand, Mathieu. "Flux financiers et endettement de l'État : simulations par modèle d'équilibre général calculable (MEGC) /." 2007. http://www.theses.ulaval.ca/2007/24520/24520.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
46

Didorally, S. "Prévision des flux de chaleur turbulents et pariétaux par des simulations instationnaires pour des écoulements turbulents chauffés." Phd thesis, 2014. http://tel.archives-ouvertes.fr/tel-01055867.

Full text
Abstract:
Cette thèse s'inscrit dans le cadre de l'amélioration des prévisions aérothermiques qui suscite un intérêt croissant de la part des industriels aéronautiques. Elle consiste à évaluer l'apport des méthodes URANS avancées de type SAS dans la prévision des flux de chaleur turbulents et pariétaux pour des écoulements turbulents chauffés. Elle vise également à situer ces approches par rapport à des modèles URANS classiques de type DRSM et à des méthodes hybrides RANS/LES comme la ZDES. Nous avons dans un premier temps proposé une extension de l'approche SAS à un modèle DRSM afin d'obtenir une meilleure restitution des tensions de Reynolds résolues et modélisées. Ce nouveau modèle SAS-DRSM a été implanté dans le code Navier-Stokes elsA de l'ONERA. Nous avons ensuite évalué l'ensemble des approches SAS disponibles avec ce code sur la prévision de deux écoulements aérothermiques rencontrés sur avion dans un compartiment de moteur. Ces études numériques ont montré que les approches SAS améliorent la représentation des écoulements par rapport aux modèles URANS classiques. Elles aboutissent à des écoulements fortement tridimensionnels présentant de nombreuses structures turbulentes. Ces structures induisent un mélange turbulent plus important et permettent alors une meilleure prévision du flux de chaleur pariétal. Par ailleurs, nos travaux ont permis de situer plus clairement les approches de type SAS comme des méthodes plus précises que les méthodes URANS classiques sans augmentation importante de mise en œuvre ou de coût de calcul. Les modèles SAS ne permettent pas de résoudre les plus petites structures caractéristiques du mouvement turbulent par rapport à la ZDES qui montre ici des prévisions supérieures. Le modèle SAS-DRSM offre néanmoins la meilleure alternative de type SAS. Enfin, l'étude du flux de chaleur turbulent semble retrouver le fait que l'hypothèse de nombre de Prandtl turbulent constant classique des modèles URANS n'est pas valable dans toutes les zones de l'écoulement.
APA, Harvard, Vancouver, ISO, and other styles
47

Beauchemin, Cynthia. "Turbulence de surface pour des simulations de fluides basées sur un système de particules." Thèse, 2016. http://hdl.handle.net/1866/18755.

Full text
Abstract:
En simulation de fluides, il est très difficile d'obtenir des simulations contenant un haut niveau de détails efficacement dû à la complexité des phénomènes étudiés. Beaucoup de travaux se sont attaqués à ce problème afin de développer de nouvelles techniques permettant d'augmenter la résolution apparente des fluides à plus faibles coûts de calcul. Les nouvelles méthodes adaptatives ou multi-échelles ont permis de grandement améliorer la qualité visuelle des simulations de fumée et de liquides, mais certains problèmes demeurent toujours ouverts et au centre de nombreuses recherches. L'objectif de ce mémoire est d'élaborer une méthode multi-échelles afin d'augmenter la résolution apparente d'une simulation de liquide basée sur un système de particules déjà existante, un type de simulation très populaire grâce à ses propriétés de conservation d'énergie. Une telle méthode permettrait d'obtenir des simulations de résolution apparente élevée à bien moindres coûts de calcul et permettrait ainsi aux artistes d'obtenir un aperçu de leur simulation plus rapidement, tout en ayant un résultat de haute qualité. Nous présentons une méthode permettant de reconstruire une surface d'une telle simulation qui soit encline à la simulation de dynamique de surface afin d'injecter des détails de hautes fréquences occasionnés par la tension de surface. Notre méthode détecte les endroits sous-résolus de la simulation et y injecte de la turbulence grâce à de multiples oscillateurs à différentes fréquences. Les vagues à hautes fréquences injectées sont alors propagées à l'aide d'une simulation d'onde sur la surface. Notre méthode s'applique totalement en tant que post-traitement et préserve ainsi entièrement le comportement général de la simulation d'entrée tout en augmentant nettement la résolution apparente de la surface de celle-ci.
Accurately simulating the behaviour of fluids remains a difficult problem in computer graphics, and performing these simulations at a high level of detail is particularly challenging due to the complexity of the underlying dynamics of a fluid. A recent and significant body of work targets this problem by trying to augment the apparent resolution of an underlying, lower-resolution simulation, instead of performing a more costly simulation at the full-resolution. Adaptive or multi-scale methods in this area have proven successful for simulations of smoke and liquids, but no comprehensive solution exists. The goal of this thesis is to devise a new multi-scale detail-augmentation technique suitable for application atop existing particle-based fluid simulators. Particle simulations of fluid dynamics are a popular, heavily-used alternative to grid-based simulations due to their ability to better preserve energy, and no detail-augmentation techniques have been devised for this class of simulator. As such, our work would permit digital artists to perform more efficient lower-resolution particle simulations of a liquid, and then layer-on a detailed secondary simulation at a negligible cost. To do so, we present a method for reconstructing the surface of a liquid, during the particle simulation, in a manner that is amenable to high-frequency detail injection due to higher-resolution surface tension effects. Our technique detects potentially under-resolved regions on the initial simulation and synthesizes turbulent dynamics with novel multi-frequency oscillators. These dynamics result in a high-frequency wave simulation that is propagated over the (reconstructed) liquid surface. Our algorithm can be applied as a post-process, completely independent of the underlying simulation code, and so it is trivial to integrate in an existing 3D digital content creation pipeline.
APA, Harvard, Vancouver, ISO, and other styles
48

Tremblay, Benoit. "Reconstruction des mouvements du plasma dans une région active solaire à l'aide de données d'observation et d'une minimisation Lagrangienne." Thèse, 2015. http://hdl.handle.net/1866/12531.

Full text
Abstract:
À ce jour, les différentes méthodes de reconstruction des mouvements du plasma à la surface du Soleil qui ont été proposées présupposent une MHD idéale (Welsch et al., 2007). Cependant, Chae & Sakurai (2008) ont montré l’existence d’une diffusivité magnétique turbulente à la photosphère. Nous introduisons une généralisation de la méthode du Minimum Energy Fit (MEF ; Longcope, 2004) pour les plasmas résistifs. Le Resistive Minimum Energy Fit (MEF-R ; Tremblay & Vincent, 2014) reconstruit les champs de vitesse du plasma et la diffusivité magnétique turbulente qui satisfont à l’équation d’induction magnétique résistive et qui minimisent une fonctionnelle analogue à l’énergie cinétique totale. Une séquence de magnétogrammes et de Dopplergrammes sur les régions actives AR 9077 et AR 12158 ayant chacune produit une éruption de classe X a été utilisée dans MEF-R pour reconstruire les mouvements du plasma à la surface du Soleil. Les séquences temporelles des vitesses et des diffusivités magnétiques turbulentes calculées par MEF-R sont comparées au flux en rayons X mous enregistré par le satellite GOES-15 avant, pendant et après l’éruption. Pour AR 12158, nous observons une corrélation entre les valeurs significatives de la diffusivité magnétique turbulente et de la vitesse microturbulente pour les champs magnétiques faibles.
To this day, the various methods proposed for the reconstruction of plasma motions at the Sun’s surface are all based on ideal MHD (Welsch et al., 2007). However, Chae & Sakurai (2008) have shown the existence of an eddy magnetic diffusivity at the photosphere. We introduce a generalization of the Minimum Energy Fit (MEF; Longcope, 2004) for resistive plasmas. The Resistive Minimum Energy Fit (MEF-R; Tremblay & Vincent, 2014) infers velocity fields and an eddy magnetic diffusivity which solve the resistive magnetic induction equation and minimize an energy-like functional. A sequence of magnetograms and Dopplergrams documenting the active regions AR 9077 and AR 12158 are used as input in MEF-R to reconstruct plasma motions at the Sun’s surface. Time series of the inferred velocities and eddy magnetic diffusivities are compared to the soft X-ray flux observed by GOES-15. We find a positive correlation between significant eddy magnetic diffusivities and microturbulent velocities for weak magnetic fields in AR 12158.
APA, Harvard, Vancouver, ISO, and other styles
49

Benrhaiem, Rania. "Méthodes d’analyse de mouvement en vision 3D : invariance aux délais temporels entre des caméras non synchronisées et flux optique par isocontours." Thèse, 2016. http://hdl.handle.net/1866/18469.

Full text
Abstract:
Cette thèse porte sur deux sujets de vision par ordinateur axés sur l’analyse de mouvement dans une scène dynamique vue par une ou plusieurs caméras. En premier lieu, nous avons travaillé sur le problème de la capture de mouvement avec des caméras non synchronisées. Ceci entraı̂ne généralement des erreurs de mise en correspondance 2D et par la suite des erreurs de reconstruction 3D. En contraste avec les solutions matérielles déjà existantes qui essaient de minimiser voire annuler le délai temporel entre les caméras, nous avons proposé une solution qui assure une invariance aux délais. En d’autres termes, nous avons développé une méthode qui permet de trouver la bonne mise en correspondance entre les points à reconstruire indépendamment du délai temporel. En second lieu, nous nous sommes intéressés au problème du flux optique avec une approche différente des méthodes proposées dans l’état de l’art. Le flux optique est utilisé pour l’analyse de mouvement en temps réel. Il est donc important qu’il soit calculé rapidement. Généralement, les méthodes existantes de flux optique sont classées en deux principales catégories: ou bien à la fois denses et précises mais très exigeantes en calcul, ou bien rapides mais moins denses et moins précises. Nous avons proposé une alternative qui tient compte à la fois du temps de calcul et de la précision du résultat. Nous avons proposé d’utiliser les isocontours d’intensité et de les mettre en correspondance afin de retrouver le flux optique en question. Ces travaux ont amené à deux principales contributions intégrées dans les chapitres de la thèse.
In this thesis we focused on two computer vision subjects. Both of them concern motion analysis in a dynamic scene seen by one or more cameras. The first subject concerns motion capture using unsynchronised cameras. This causes many correspondence errors and 3D reconstruction errors. In contrast with existing material solutions trying to minimize the temporal delay between the cameras, we propose a software solution ensuring an invariance to the existing temporal delay. We developed a method that finds the good correspondence between points regardless of the temporal delay. It solves the resulting spatial shift and finds the correct position of the shifted points. In the second subject, we focused on the optical flow problem using a different approach than the ones in the state of the art. In most applications, optical flow is used for real-time motion analysis. It is then important to be performed in a reduced time. In general, existing optical flow methods are classified into two main categories: either precise and dense but computationally intensive, or fast but less precise and less dense. In this work, we propose an alternative solution being at the same time, fast and precise. To do this, we propose extracting intensity isocontours to find corresponding points representing the related optical flow. By addressing these problems we made two major contributions.
APA, Harvard, Vancouver, ISO, and other styles
50

Pirot, Dorian. "Reconstruction des structures magnéto-convectives solaires sous une région active, par l’utilisation conjointe d’un modèle de convection anélastique et d’une méthode d’assimilation de données." Thèse, 2012. http://hdl.handle.net/1866/8662.

Full text
Abstract:
L’utilisation d’une méthode d’assimilation de données, associée à un modèle de convection anélastique, nous permet la reconstruction des structures physiques d’une partie de la zone convective située en dessous d’une région solaire active. Les résultats obtenus nous informent sur les processus d’émergence des tubes de champ magnétique au travers de la zone convective ainsi que sur les mécanismes de formation des régions actives. Les données solaires utilisées proviennent de l’instrument MDI à bord de l’observatoire spatial SOHO et concernent principalement la région active AR9077 lors de l’ ́évènement du “jour de la Bastille”, le 14 juillet 2000. Cet évènement a conduit à l’avènement d’une éruption solaire, suivie par une importante éjection de masse coronale. Les données assimilées (magnétogrammes, cartes de températures et de vitesses verticales) couvrent une surface de 175 méga-mètres de coté acquises au niveau photosphérique. La méthode d’assimilation de données employée est le “coup de coude direct et rétrograde”, une méthode de relaxation Newtonienne similaire à la méthode “quasi-linéaire inverse 3D”. Elle présente l’originalité de ne pas nécessiter le calcul des équations adjointes au modèle physique. Aussi, la simplicité de la méthode est un avantage numérique conséquent. Notre étude montre au travers d’un test simple l’applicabilité de cette méthode à un modèle de convection utilisé dans le cadre de l’approximation anélastique. Nous montrons ainsi l’efficacité de cette méthode et révélons son potentiel pour l’assimilation de données solaires. Afin d’assurer l’unicité mathématique de la solution obtenue nous imposons une régularisation dans tout le domaine simulé. Nous montrons enfin que l’intérêt de la méthode employée ne se limite pas à la reconstruction des structures convectives, mais qu’elle permet également l’interpolation optimale des magnétogrammes photosphériques, voir même la prédiction de leur évolution temporelle.
We use a data assimilation technique, together with an anelastic convection model, in order to reconstruct the convective patterns below a solar active region. Our results yield information about the magnetic field emergence through the convective zone and the mechanisms of active region formation. The solar data we used are taken from the instrument MDI on board the spatial observatory SOHO on July 2000 the 14th for the event called ”bastille day event”. This specific event leads to a solar flare followed by a coronal mass ejection. Assimilated data (magnetograms, temperature maps and vertical velocity maps) cover an area of 175 Mm × 175 Mm at photospheric level. The data assimilation technique we used, the ”Nudging Back and Forth”, is a Newtonian re- laxation technique similar to the ”quasi linear inverse 3D”. Such a technique does not require computation of the adjoint equations. Thus, simplicity of this method is a numerical advantage. Our study shows with a simple test case the applicability of this method to a convection model treated with the anelastic approximation. We show the efficiency of the NBF technique and we detail its potential for solar data assimi- lation. In addition, to ensure mathematical unicity of the obtained solution, a regularization has been imposed in the whole simulation domain. This is a new approach. Finally, we show that the interest of such a technique is not limited to the reconstruction of convective patterns but that it also allows optimal interpolation of photospheric magnetograms and predictions.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography