To see the other types of publications on this topic, follow the link: Analyse à grande échelle.

Dissertations / Theses on the topic 'Analyse à grande échelle'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Analyse à grande échelle.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Vargas-Magaña, Mariana. "Analyse des structures à grande échelle avec SDSS-III/BOSS." Phd thesis, Université Paris-Diderot - Paris VII, 2012. http://tel.archives-ouvertes.fr/tel-00726113.

Full text
Abstract:
Le travail de ma thèse s'est concentré sur l'extraction du signal laissé par les BAO dans la distribution des galaxies. Celui se présente sous forme d'un pic autour de 150 Mpc dans la fonction de corrélation à deux point de la matière. Cette échelle correspond à la distance parcourue par l'onde acoustique dans le fuide matière-radiation entre la période d'égalité matière-radiation et leur découplage à z ∼ 1100. Il en résulte une sur-densité à cette échelle autour de chaque perturbation primordiale. Le but de mon travail était d'efectuer une analyse complète sur les données prises par la collaboration SDSS III/BOSS jusqu'à l'été 2011 afin d'apporter des contraintes sur les paramètres caractérisant l'énergie noire, w0 et wa . On veut savoir si ces observations sont consistantes avec la fameuse constante cosmologique (w0 = 1 et wa = 0) ou si l'équation d'état de l'énergie noire évolue avec le temps (wa ̸= 0) impliquant alors des scénarios bien plus complexes pour cette composante. Pour y arriver, j'ai étudié et testé les outils d'analyse avec des simulations log-normal ainsi qu'avec les données publiques du DR7 de SDSS. J'ai étudié les effets de distorsion des redshifts dans le régime linéaire avec des simulations et j'ai développé une méthode d'optimisation d'estimateur de fonction de corrélation. Dans un second temps j'ai réalisé l'analyse complète des données BOSS-CMASS, qui utilise les galaxies elliptiques très lumineuses (LRGs), depuis la construction du catalogue jusqu'à l'obtention des contraintes cosmologique en passant par la correction des effets systématiques.
APA, Harvard, Vancouver, ISO, and other styles
2

Benmerzoug, Fateh. "Analyse, modélisation et visualisation de données sismiques à grande échelle." Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30077.

Full text
Abstract:
L'objectif principal de l'industrie pétrolière et gazière est de localiser et d'extraire les ressources en hydrocarbures, principalement le pétrole et le gaz naturel. Pour ce faire, de nombreuses mesures sismiques sont effectuées afin de rassembler autant de données que possible sur le terrain ou la surface marine d'intérêt. À l'aide d'une multitude de capteurs, les données sismiques sont acquises et traitées, donnant ainsi lieu à de gros volumes de données en forme de cube. Ces volumes sont ensuite utilisés pour calculer des attributs supplémentaires permettant de mieux comprendre la structure géologique et géophysique interne de la Terre. La visualisation et l'exploration de ces volumes sont essentielles pour comprendre la structure du sous-sol et localiser les réservoirs naturels dans lesquels le pétrole ou le gaz sont piégés. Les progrès récents des technologies de traitement et d'imagerie permettent aux ingénieurs et aux géo-scientifiques de réaliser des relevés sismiques plus vastes. Les mesures sismiques modernes donnent des volumes de données de plusieurs centaines de giga-octets. La taille des volumes acquis présente un réel défi, tant pour leur traitement que pour leur stockage et leur distribution. Ainsi, la compression des don- nées est une fonctionnalité très recherchée qui permet de répondre au dé de la taille des données. Un autre aspect difficile est la visualisation de tels volumes. Traditionnellement, un volume est découpé à la fois verticalement et horizontalement et visualisé au moyen de plans bidimensionnels. Cette méthode oblige l'utilisateur à faire défiler manuellement les tranches successives du volume a n de localiser et de suivre les caractéristiques géologiques intéressantes. Même si le découpage en tranches fournit une visualisation détaillée avec une représentation claire et concise de l'espace physique, il manque l'aspect de profondeur qui peut être crucial pour la compréhension de certaines structures. En outre, plus le volume est important, plus cette tâche peut être fastidieuse et répétitive. Une approche plus intuitive et pratique pour la visualisation est le rendu volumique. En définissant les filtres de couleur et d'opacité appropriés, l'utilisateur peut extraire et visualiser des corps géographiques entiers en tant qu'objets continus individuels dans un espace à 3 dimensions. Dans cette thèse, nous présentons une solution à la fois pour la compression des don- nées et pour la visualisation de données volumineuses. Nous présentons, dans un premier temps, la structure des données sismiques et des attributs présents dans une étude sismique typique. Nous présentons ensuite un état de l'art des méthodes de compression des données sismiques, en discutant des outils et des méthodes utilisés dans l'industrie. Un algorithme de compression de données sismiques est ensuite proposé, basé sur le concept de transformées étendues. En utilisant le GenLOT , transformées orthogonales généralisées, nous obtenons un filtre de transformation approprié qui décorrèle les données sismiques a n qu'elles puissent être mieux quantifiées et codées à l'aide de l'algorithme de compression proposé, P-SPECK, fondé sur le codage en blocs de plans de bits. De plus, nous avons proposé un environnement de rendu volumique out of core par tracé de rayons qui permet la visualisation de cubes sismiques arbitrairement grands. Les données sont décompressées à la demande et rendues à l'aide des filtres d'opacité et de couleur définis par l'utilisateur, ce qui en fait un outil relativement facile à utiliser
The main goal of the oil and gas industry is to locate and extract hydrocarbon resources, mainly petroleum and natural gas. To do this efficiently, numerous seismic measurements are conducted to gather up as much data as possible on terrain or marine surface area of interest. Using a multitude of sensors, seismic data are acquired and processed resulting in large cube-shaped data volumes. These volumes are then used to further compute additional attributes that helps in the understanding of the inner geological and geophysical structure of the earth. The visualization and exploration, called surveys, of these volumes are crucial to understand the structure of the underground and localize natural reservoirs where oil or gas are trapped. Recent advancements in both processing and imaging technologies enables engineers and geoscientists to perform larger seismic surveys. Modern seismic measurements yield large multi-hundred gigabytes of data volumes. The size of the acquired volumes presents a real challenge, both for processing such large volumes as well as their storage and distribution. Thus, data compression is a much- desired feature that helps answering the data size challenge. Another challenging aspect is the visualization of such large volumes. Traditionally, a volume is sliced both vertically and horizontally and visualized by means of 2-dimensional planes. This method necessitates the user having to manually scrolls back and forth be- tween successive slices in order to locate and track interesting geological features. Even though slicing provides a detailed visualization with a clear and concise representation of the physical space, it lacks the depth aspect that can be crucial in the understanding of certain structures. Additionally, the larger the volume gets, the more tedious and repetitive this task can be. A more intuitive approach for visualization is volume rendering. Rendering the seismic data as a volume presents an intuitive and hands on approach. By defining the appropriate color and opacity filters, the user can extract and visualize entire geo-bodies as individual continuous objects in a 3-dimensional space. In this thesis, we present a solution for both the data size and large data visualization challenges. We give an overview of the seismic data and attributes that are present in a typical seismic survey. We present an overview of data compression in a whole, discussing the necessary tools and methods that are used in the industry. A seismic data compression algorithm is then proposed, based on the concept of ex- tended transforms. By employing the GenLOT , Generalized Lapped Orthogonal Trans- forms we derive an appropriate transform filter that decorrelates the seismic data so they can be further quantized and encoded using P-SPECK, our proposed compression algorithm based on block-coding of bit-planes. Furthermore, we proposed a ray-casting out-of-core volume rendering framework that enables the visualization of arbitrarily large seismic cubes. Data are streamed on-demand and rendered using the user provided opacity and color filters, resulting in a fairly easy to use software package
APA, Harvard, Vancouver, ISO, and other styles
3

Guedj, Mickaël. "Méthodes Statistiques pour l’analyse de données génétiques d’association à grande échelle." Evry-Val d'Essonne, 2007. http://www.biblio.univ-evry.fr/theses/2007/2007EVRY0015.pdf.

Full text
Abstract:
Les avancées en Biologie Moléculaire ont accéléré le développement de techniques de génotypage haut-débit et ainsi permis le lancement des premières études génétiques d'association à grande échelle. La dimension et la complexité des données issues de ce nouveau type d'étude posent aujourd'hui de nouvelles perspectives statistiques et informatiques nécessaires à leur analyse, constituant le principal axe de recherche de cette thèse. Après une description introductive des principales problématiques liées aux études d'association à grande échelle, nous abordons plus particulièrement les approches simple-marqueur avec une étude de puissance des principaux test d’association, les approches multi-marqueurs avec le développement d’une méthode fondée sur la statistique du Score Local, et enfin le problème du test-multiple avec l'estimation du Local False Discovery Rate à travers un simple modèle de mélange gaussien
The increasing availability of dense Single Nucleotide Polymorphisms (SNPs) maps due to rapid improvements in Molecular Biology and genotyping technologies have recently led geneticists towards genome-wide association studies with hopes of encouraging results concerning our understanding of the genetic basis of complex diseases. The analysis of such high-throughput data implies today new statistical and computational problematic to face, which constitute the main topic of this thesis. After a brief description of the main questions raised by genome-wide association studies, we deal with single-marker approaches by a power study of the main association tests. We consider then the use of multi-markers approaches by focusing on the method we developed which relies on the Local Score. Finally, this thesis also deals with the multiple-testing problem: our Local Score-based approach circumvents this problem by reducing the number of tests; in parallel, we present an estimation of the Local False Discovery Rate by a simple Gaussian mixed model
APA, Harvard, Vancouver, ISO, and other styles
4

Virazel, Arnaud. "Test intégré des circuits digitaux : analyse et génération de séquences aléatoires adjacentes." Montpellier 2, 2001. http://www.theses.fr/2001MON20094.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Albeau, Karine. "Analyse à grande échelle des textures des séquences protéiques via l'approche Hydrophobic Cluster Analysis (HCA)." Phd thesis, Université de Versailles-Saint Quentin en Yvelines, 2005. http://tel.archives-ouvertes.fr/tel-00011139.

Full text
Abstract:
Découper, a priori et de façon précise, les séquences en domaines est d'une grande importance dans le champ de la biologie, notamment pour optimiser les études de génomique structurale et de génomique fonctionnelle. Différentes approches basées sur la composition en acides aminés, la complexité de la séquence ou la construction de modèles 3D ab initio, ont été développées par le passé. Nous proposons, dans le cadre de ce travail, une approche nouvelle et originale pour le découpage automatique et sensible des séquences protéiques en domaines structurés distincts par exploitation de leur texture. Cette approche bénéficie de l'information de voisinage 2D apportée par la méthodologie « Hydrophobic Cluster Analysis » (HCA). La distribution des différentes catégories d'amas hydrophobes, tels que définis par l'intermédiaire de HCA, ainsi que l'analyse de leurs caractéristiques en termes de structures secondaires, permettent d'appréhender de façon différenciée les textures des régions globulaires, non globulaires et/ou désordonnées, répétitives, passages membranaires isolés ou multiples.... L'approche développée, DomHCA, permet in fine de segmenter une séquence protéique en une série de régions et sous-régions caractérisées par des textures précises, segmentation qui, appliquée à l'échelle des génomes, autorise une comparaison rapide et originale de l'ensemble des séquences. Une des applications concerne les séquences du génome de Plasmodium falciparum qui, par leurs fortes proportions en acides aminés N et K, rendent les méthodes classiques de détection de similarité peu efficaces.
APA, Harvard, Vancouver, ISO, and other styles
6

Bland, Céline. "Innovations pour l'annotation protéogénomique à grande échelle du vivant." Thesis, Montpellier 1, 2013. http://www.theses.fr/2013MON13508.

Full text
Abstract:
La protéogénomique consiste à affiner l'annotation du génome d'organismes modèles pour lesquels des données protéomiques sont générées à haut-débit. Des erreurs d'annotation structurale ou fonctionnelle sont encore fréquentes. Innover dans les méthodologies permettant de lever ces ambiguïtés est essentiel. L'étude spécifique du N-terminome permet de vérifier expérimentalement l'identification du codon d'initiation de la traduction et de certifier les données obtenues. Pour cela, deux stratégies innovantes ont été développées basées sur : i) le marquage sélectif du N-terminal des protéines, ii) une digestion multienzymatique en parallèle, et ii) l'enrichissement spécifique des peptides N-terminaux marqués par chromatographies liquides successives ou immunocapture dirigée contre le groupement N-terminal ajouté. L'efficacité de ces méthodologies a été démontrée à partir du modèle bactérien Roseobacter denitrificans. Après enrichissement par chromatographie, 480 protéines ont été validées et 46 ré-annotées. Plusieurs sites d'initiation de la traduction ont été décelés et l'annotation par similarité a été remise en cause dans certains cas. Après immunocapture, 269 protéines ont été caractérisées dont 40% ont été identifiées spécifiquement après enrichissement. Trois gènes ont également été annotés pour la première fois. Les résultats complémentaires obtenus après analyse par spectrométrie de masse en tandem facilitent l'interprétation des données pour révéler les sites d'initiation réels de la synthèse des protéines et identifier de nouveaux produits d'expression des gènes. La ré-annotation peut devenir automatique et systématique pour améliorer les bases de données protéiques
Proteogenomics is a recent field at the junction of genomics and proteomics which consists of refining the annotation of the genome of model organisms with the help of high-throughput proteomic data. Structural and functional errors are still frequent and have been reported on several occasions. Innovative methodologies to prevent such errors are essential. N-terminomics enables experimental validation of initiation codons and certification of the annotation data. With this objective in mind, two innovative strategies have been developed combining: i) selective N-terminal labeling of proteins, ii) multienzymatic digestion in parallel, and iii) specific enrichment of most N-terminal labeled peptides using either successive liquid chromatography steps or immunocapture directed towards the N-terminal label. Efficiency of these methodologies has been demonstrated using Roseobacter denitrificans as bacterial model organism. After enrichment with chromatography, 480 proteins were validated and 46 re-annotated. Several start sites for translation initiation were detected and homology driven annotation was challenged in some cases. After immunocapture, 269 proteins were characterized of which 40% were identified specifically after enrichment. Three novel genes were also annotated for the first time. Complementary results obtained after tandem mass spectrometry analysis allows easier data interpretation to reveal real start sites of translation initiation of proteins and to identify novel expressed products. In this way, the re-annotation process may become automatic and systematic to improve protein databases
APA, Harvard, Vancouver, ISO, and other styles
7

Flaounas, Emmanouil. "Analyse de la mise en place de la mousson Africaine : dynamique régionale ou forçage de grande échelle ?" Phd thesis, Paris 6, 2010. http://www.theses.fr/2010PA066625.

Full text
Abstract:
La saison des pluies en Afrique de l'Ouest est primordiale pour les populations locales. La mise en place de la mousson (MAO) se produit fin juin et correspond à un affaiblissement global de la convection sur la région puis une transition brutale des précipitations de la côte de Guinée vers le Sahel. C'est le mécanisme responsable de ce « saut » qui est étudié ici à partir d'expériences numériques. La capacité du modèle à aire limitée WRF à reproduire la circulation de la MAO en 2006 a d'abord été évaluée. Différentes paramétrisations de la convection et de la couche limite ont été testées et leur impact sur les simulations analysé. Des tests de sensibilité ont ensuite été effectués pour évaluer le rôle de la dépression thermique saharienne et de la SST (mécanismes proposés dans d'autres études) sur la mise en place de la MAO. Les résultats montrent que la phase de transition dépend plus fortement de la dynamique de grande échelle que des éléments régionaux. Plus précisément, la mise en place de la mousson Indienne libère une onde de Rossby qui se propage vers l'ouest, arrive au dessus de l'Afrique du Nord en favorisant les intrusions de masses d'air sec au dessus de l'Afrique de l'Ouest qui inhibent la convection. En parallèle, le gradient méridien de pression de surface est renforcé et la MAO s'intensifie en advectant de l’humidité au dessus du Sahel. Une fois l'onde évacuée, la convection se réorganise au dessus du Sahel où les conditions thermodynamiques sont favorables. L'utilisation de simulations globales avec LMDz a confirmé le rôle de la mousson indienne sur toute la période 1989-2008 avec cependant des années plus ou moins marquées.
APA, Harvard, Vancouver, ISO, and other styles
8

Merroun, Omar. "Traitement à grand échelle des données symboliques." Paris 9, 2011. http://www.theses.fr/2011PA090027.

Full text
Abstract:
Les méthodes de l’Analyse de Données (AD) classiques ont été généralisées dans l’Analyse de Données Symboliques (ADS) en prenant en charge les données complexes (intervalles, ensembles, histogrammes, etc. ). Ces méthodes expriment des operations de haut niveau et sont très complexes. Le modèle de l’ADS, qui est implanté dans le logiciel SODAS2, ne supporte pas le traitement de volumes importants de données symboliques. Conformément à la démarche classique en modélisation et traitement de masses de données, nous proposons un nouveau modèle de données pour représenter les données symboliques et les manipuler avec des opérateurs algébriques minimaux et clos par composition. Nous donnons aussi des exemples de requêtes pour montrer l’expressivité de ce modèle. Nous avons implanté ce modèle algébrique, nommé LS-SODAS, et définit un langage, nommé XSDQL, pour formuler des requêtes afin de manipuler les données symboliques. Nous réalisons deux études de cas qui illustrent d’une part l’expressivité de ce langage et la capacité à traiter des volumes de données importants
Symbolic Data Analysis (SDA) proposes a generalization of classical Data Analysis (AD) methods using complex data (intervals, sets, histograms). These methods define high level and complex operators for symbolic data manipulation. Furthermore, recent implementations of the SDA model are not able to process large data volumes. According to the classical design of massive data computation, we define a new data model to represent and process symbolic data using algebraic operators that are minimal and closed by composition. We give some query samples to emphasize the expressiveness of our model. We implement this algebraic model, called LS-SODAS, and we define the language XSDQL to express queries for symbolic data manipulation. Two cases of study are provided in order to show the potential of XSDQL langage expressiveness and the data processing scalability
APA, Harvard, Vancouver, ISO, and other styles
9

Bolze, Raphaël. "Analyse et déploiement de solutions algorithmiques et logicielles pour des applications bioinformatiques à grande échelle sur la grille." Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2008. http://tel.archives-ouvertes.fr/tel-00344249.

Full text
Abstract:
Cette thèse présente un ensemble d'objectifs dont le fil conducteur est le programme Décrypthon (projet tripartite entre l'AFM, le CNRS et IBM) où les applications et les besoins ont évolué au fur et à mesure de l'avancée de nos travaux. Dans un premier temps nous montrerons le rôle d'architecte que nous avons endossé pour la conception de la grille Décrypthon. Les ressources de cette grille sont supportées par les cinq universités partenaires (Bordeaux I, Lille I, ENS-Lyon, Pierre et Marie Curie Paris VI et Orsay), ainsi que le réseau RENATER (Réseau National de Télécommunications pour l'Enseignement et la Recherche), sur lequel est connecté l'ensemble des machines. Le Centre de ressources informatiques de Haute Normandie (CRIHAN) participe également au programme, il héberge les données volumineuses des projets scientifiques. Nous présenterons ensuite les expériences que nous avons effectuées sur l'intergiciel DIET afin de tester ses propriétés de façon à explorer sa stabilité dans un environnement à grande échelle comme Grid'5000. Nous nous sommes intéressés, en outre, au projet "Help Cure Muscular Dystrophy", un des projets sélectionnés par le programme Décrypthon. Nous avons conduit des expériences dans le but de préparer la première phase de calcul sur la grille de volontaires "World Community Grid". Nous dévoilerons l'ensemble des étapes qui ont précédées et suivies la première phase calculatoire qui a demandé quelques 80 siècles de temps processeur. Pour terminer, nous avons développé une fonctionnalité à l'intergiciel DIET, le rendant capable de gérer l'exécution de tâches ayant des dépendances. Nous nous sommes intéressés à développer des algorithmes prenant en compte plusieurs applications qui demandent l'accès aux mêmes ressources de manière concurrente. Nous avons validé cette fonctionnalité avec des applications issues des projets du programme Décrython. Ces travaux ont nécessité un développement logiciel important, d'une part sur les applications du Décrypthon elles-mêmes et sur leur portage afin de rendre transparente leur utilisation sur la grille Décrypthon, mais aussi au niveau de l'intergiciel DIET et son écosystème : DIET_Webboard, VizDIET, GoDIET, LogService, MA_DAG, etc. Les résultats présentés ont été obtenus sur trois grilles mises à notre disposition: la grille universitaire du Décrypthon, la grille d'internautes (World Community Grid) et la grille expérimentale Grid'5000.
APA, Harvard, Vancouver, ISO, and other styles
10

Aljr, Hasan. "Influence de la tranchée sur les chaussées en milieu urbain : Analyse des données d’une expérimentation à grande échelle." Thesis, Lille 1, 2017. http://www.theses.fr/2017LIL10168/document.

Full text
Abstract:
La tranchée constitue une cause majeure de dégradation des voiries urbaines. Elle influence considérablement la durée de service de ces voiries. Le présent travail vise à étudier à travers une expérimentation à grande échelle l’influence de la tranchée sur la chaussée. Il a été réalisé dans le cadre d’une collaboration entre la Métropole Européenne de Lille, le Laboratoire de Génie Civil et géo-Environnement et Eurovia. Il comporte quatre parties. La première comporte une synthèse bibliographique sur l’influence de la tranchée sur la structure de la chaussée et sa durée de service ainsi que sur son impact économique. La seconde partie concerne l’analyse du fonctionnement du système d’instrumentation qui a été utilisée pour le suivi du comportement de la chaussée et de la tranchée construites à l’entrée du campus de Lille1. La troisième partie consiste dans l’évaluation de l’état structurel de la chaussée et de la tranchée à l’aide des essais de déflexion. La dernière présente une analyse des réponses de la chaussée et de la tranchée sous l’effet du trafic et l’influence de la température sur ces réponses
The trench is a major cause of deterioration of urban pavements. It considerably reduces the service life of these pavements. The present work aims to study through a large-scale experimentation the influence of the trench on urban pavements. It has been conducted within a collaboration between Lille Metropolis, Civil and geo-Environmental Engineering laboratory and Eurovia. It includes 4 parts. The first part contains a literature review concerning the influence of the trench on urban pavements as well as its economic impact. The second part concerns the analysis of the performances of the instrumentation system used to monitor the behavior of the pavement and the trench built at the entrance of Lille1 campus. The third part consists in the analysis of structural behavior of the pavement and the trench using deflection tests. The last presents an analysis of the responses of the pavement and the trench under traffic and the influence of the temperature on these responses
APA, Harvard, Vancouver, ISO, and other styles
11

Van, Waerbeke Ludovic. "Analyse de la distribution de matière à grande échelle par les effets de lentille gravitationnelle et les quasars." Paris 11, 1997. http://www.theses.fr/1997PA112168.

Full text
Abstract:
La premiere partie de cette these est une etude des problemes d'analyse et de mesure des effets de lentille gravitationnelles provoques par les structures a grande echelle de l'univers. Un chapitre theorique traite des proprietes statistiques de la convergence k, qui est une des caracteristiques mesurables des effets de lentille gravitationnelles. L'apparition de structures non-lineaires a grande echelle induit une valeur non nulle de l'asymetrie de la fonction de distribution de k. Il est montre que la mesure de cette asymetrie permet, d'une part de contraindre la densite moyenne de l'univers, independament de la forme et de la normalisation du spectre des fluctuations de masse, et d'autre part de reconstruire le spectre de masse projete, sans faire d'hypotheses particulieres sur les proprietes physiques et dynamiques de la matiere. Dans un deuxieme chapitre, analyse des donnees, il est montre l'insuffisance des methodes standard utilisees pour mesurer les effets de lentille gravitationnelles. Une methode alternative est developpee, basee sur la fonction d'auto-correlation pixel-pixel de l'image, qui n'introduit pas de biais et donne une mesure unique, independament de tout parametre de detection des galaxies. De maniere completement independante, la deuxieme partie de cette these porte sur l'ellaboration d'un nouveau test cosmologique, qui est une amelioration du test v sur vmax standard : en decoupant un echantillon en intervalles de magnitude absolue, on peut montrer que le choix d'une hypothese d'evolution permet de rejeter certaines cosmologies. Les resultats de ce test sur des echantillons de quasars simules et reels sont presentes.
APA, Harvard, Vancouver, ISO, and other styles
12

Chevalier, Cyril. "Contribution au test intégré : générateurs de vecteurs de test mixtes déterministes et pseudo-aléatoires." Montpellier 2, 1994. http://www.theses.fr/1994MON20141.

Full text
Abstract:
Le test integre est une technique de conception en vue du test qui est developpee afin de faciliter le test des circuits a tres haute echelle d'integration. L'idee principale du test integre est d'inclure dans le circuit a tester des circuits additionnels qui lui permettront de generer ses popres vecteurs de test et d'analyser ses reponses. L'objet de cette these est l'etude theorique et la realisation de structures de generation de vecteurs de test predetermines. Une architecture de generateur de vecteurs deterministes et pseudo-aleatoires resultant de transformations lineaires simples a ete proposee. Les diverses realisations experimentales demontrent la possibilite de traitement de sequences de test deterministes qui etaient jusqu'alors pratiquement irrealisables en test integre. En outre, la conjonction des deux modes de test permet d'effectuer du test integre avec une sequence de test courte et une couverture de fautes elevee. Le cout de la surface additionnelle reste modere grace a l'utilisation de vecteurs pseudo-aleatoires pour le test de la majeure partie des fautes. L'absence de restriction sur l'ordre des vecteurs permet d'envisager l'utilisation de cette architecture de generateurs sur des circuits sequentiels, ainsi que pour de nouvelles technologies ou le modele de fautes de collage ne convient pas
APA, Harvard, Vancouver, ISO, and other styles
13

Vrard, Mathieu. "Analyse sismique des géantes rouges : une vision détaillée à grande échelle de la structure du coeur et de l'enveloppe." Observatoire de Paris, 2015. https://theses.hal.science/tel-02167421.

Full text
Abstract:
Les étoiles géantes rouges sont des objets correspondant à la fin de vie des étoiles de faible masse telles que le Soleil. Ces étoiles passent par différents stades évolutifs, caractérisés par une forte variation de leur structure interne, avant de mourir. La structure de ces objets reste peu connue à cause de la difficulté pour les modèles de la simuler. La seule façon de contraindre observationnellement l'intérieur des étoiles reste la méthode de la sismologie stellaire : l'étude des tremblements d'étoiles. Durant cette thèse, j'ai utilisé les données du satellite Kepler (NASA) qui a mesuré, très précisément, les variations de la photométrie de plus de 15 000 étoiles géantes rouges pendant 4 ans, de 2009 à 2013. L'étude de ces données extrêmement précises, permet d'en déduire les propriétés de la structure de l'étoile. La première étude menée durant cette thèse concerne la caractérisation des propriétés de la région de seconde ionisation de l'hélium. J'ai mesuré sa position et mis en évidence une différence de comportement entre les différents états évolutifs de l'étoile. La seconde partie de la thèse consiste en la création d'une méthode automatique de détermination de la taille du cœur radiatif de l'étoile. Cette méthode, appliquée sur les 15 000 étoiles géantes rouges observées par Kepler, permet de savoir à quel stade d'évolution en sont ces objets ainsi qu'apporter des contraintes observables pour les modèles stellaires. Enfin, j'ai pu mettre à jour dans plusieurs étoiles la signature de discontinuités de structure se situant dans le cœur de ces objets
Red giant stars correspond to one of the last evolutionary states in the life of solar-like stars. They undergo severe changes in their internal structure when they evolve. These changes remain poorly constrained due to the difficulty to model the internal structure of red giants, especially during the last stages. A recent way to observationally constrain the internal structure of the stars derives from the analysis of their pulsations. This method is called asteroseismology. During three years, I have used ultra-precise photometric data obtained by the Kepler satellite (NASA) which has observed 15000 red giants during more than four years (from 2009 to 2013). The study of these continuous and extremely precise light-curves allow the precise characterization of their stellar structure. The first study I have conducted corresponds to the characterization of the properties of the region of second helium ionization. The location of this region has been measured and different properties between the different evolutionary states of the stars were put into light. Secondly, I have created an automated method to measure a seismic parameter directly linked to the size of the stars radiative core. I applied this method on the 15000 red giants stars present in the Kepler public data. This study bring new informations on the way the stars climb the red giant branch and evolve towards later evolutionary states depending on their mass and metallicity. The results allowed me to reveal in several stars the signature of structure discontinuities in their radiative core
APA, Harvard, Vancouver, ISO, and other styles
14

Sridhar, Srivatsan. "Analyse statistique de la distribution des amas de galaxies à partir des grands relevés de la nouvelle génération." Thesis, Université Côte d'Azur (ComUE), 2016. http://www.theses.fr/2016AZUR4152/document.

Full text
Abstract:
L'objectif de cette thèse est d'étudier la possibilité de construire la fonction de corrélation à 2 points des amas de galaxies détectés dans les grands relevés optiques de galaxies. En particulier j’étudie l’impact de décalages vers le rouge dégradés car dérivés de données photométriques seules comme cela sera le cas pour les grands relevés à venir. J’ai utilisé des sous-échantillons d’amas sélectionnés dans les catalogues simulés. Les décalages vers le rouge des amas sont modélisés à partir des décalages exacts auxquels sont rajoutés un brui gaussien d’écart type σ (z=0) = 0.005 à 0.050. La fonction de corrélation dans l’espace direct est calculées par une méthode de déprojection. L’étude a été menée sur 4 intervalles de masse et 6 de redshift couvrant le domaine 0N200) est similaire à Σ(>masse), ainsi que la fonction de biais qui peut être reproduite à 1σ près
I aim to study to which accuracy it is actually possible to recover the real-space to-point correlation function from cluster catalogues based on photometric redshifts. I make use of cluster sub-samples selected from a light-cone simulated catalogue. Photometric redshifts are assigned to each cluster by randomly extracting from a Gaussian distribution having a dispersion varied in the range σ (z=0) = 0.005 à 0.050. The correlation function in real-space is computed through deprojection method. Four masse ranges and six redshifts slices covering the redshift range 0
APA, Harvard, Vancouver, ISO, and other styles
15

Fernandez-Abrevaya, Victoria. "Apprentissage à grande échelle de modèles de formes et de mouvements pour le visage 3D." Electronic Thesis or Diss., Université Grenoble Alpes, 2020. https://theses.hal.science/tel-03151303.

Full text
Abstract:
Les modèles du visage 3D fondés sur des données sont une direction prometteuse pour capturer les subtilités complexes du visage humain, et une composante centrale de nombreuses applications grâce à leur capacité à simplifier des tâches complexes. La plupart des approches basées sur les données à ce jour ont été construites à partir d’un nombre limité d’échantillons ou par une augmentation par données synthétiques, principalement en raison de la difficulté à obtenir des scans 3D à grande échelle. Pourtant, il existe une quantité substantielle d’informations qui peuvent être recueillies lorsque l’on considère les sources publiquement accessibles qui ont été capturées au cours de la dernière décennie, dont la combinaison peut potentiellement apporter des modèles plus puissants.Cette thèse propose de nouvelles méthodes pour construire des modèles de la géométrie du visage 3D fondés sur des données, et examine si des performances améliorées peuvent être obtenues en apprenant à partir d’ensembles de données vastes et variés. Afin d’utiliser efficacement un grand nombre d’échantillons d’apprentissage, nous développons de nouvelles techniques d’apprentissage profond conçues pour gérer efficacement les données faciales tri-dimensionnelles. Nous nous concentrons sur plusieurs aspects qui influencent la géométrie du visage : ses composantes de forme, y compris les détails, ses composants de mouvement telles que l’expression, et l’interaction entre ces deux sous-espaces.Nous développons notamment deux approches pour construire des modèles génératifs qui découplent l’espace latent en fonction des sources naturelles de variation, e.g.identité et expression. La première approche considère une nouvelle architecture d’auto-encodeur profond qui permet d’apprendre un modèle multilinéaire sans nécessiter l’assemblage des données comme un tenseur complet. Nous proposons ensuite un nouveau modèle non linéaire basé sur l’apprentissage antagoniste qui davantage améliore la capacité de découplage. Ceci est rendu possible par une nouvelle architecture 3D-2D qui combine un générateur 3D avec un discriminateur 2D, où les deux domaines sont connectés par une couche de projection géométrique.En tant que besoin préalable à la construction de modèles basés sur les données, nous abordons également le problème de mise en correspondance d’un grand nombre de scans 3D de visages en mouvement. Nous proposons une approche qui peut gérer automatiquement une variété de séquences avec des hypothèses minimales sur les données d’entrée. Ceci est réalisé par l’utilisation d’un modèle spatio-temporel ainsi qu’une initialisation basée sur la régression, et nous montrons que nous pouvons obtenir des correspondances précises d’une manière efficace et évolutive.Finalement, nous abordons le problème de la récupération des normales de surface à partir d’images naturelles, dans le but d’enrichir les reconstructions 3D grossières existantes. Nous proposons une méthode qui peut exploiter toutes les images disponibles ainsi que les données normales, qu’elles soient couplées ou non, grâce à une nouvelle architecture d’apprentissage cross-modale. Notre approche repose sur un nouveau module qui permet de transférer les détails locaux de l’image vers la surface de sortie sans nuire aux performances lors de l’auto-encodage des modalités, en obtenant des résultats de pointe pour la tâche
Data-driven models of the 3D face are a promising direction for capturing the subtle complexities of the human face, and a central component to numerous applications thanks to their ability to simplify complex tasks. Most data-driven approaches to date were built from either a relatively limited number of samples or by synthetic data augmentation, mainly because of the difficulty in obtaining large-scale and accurate 3D scans of the face. Yet, there is a substantial amount of information that can be gathered when considering publicly available sources that have been captured over the last decade, whose combination can potentially bring forward more powerful models.This thesis proposes novel methods for building data-driven models of the 3D face geometry, and investigates whether improved performances can be obtained by learning from large and varied datasets of 3D facial scans. In order to make efficient use of a large number of training samples we develop novel deep learning techniques designed to effectively handle three-dimensional face data. We focus on several aspects that influence the geometry of the face: its shape components including fine details, its motion components such as expression, and the interaction between these two subspaces.We develop in particular two approaches for building generative models that decouple the latent space according to natural sources of variation, e.g.identity and expression. The first approach considers a novel deep autoencoder architecture that allows to learn a multilinear model without requiring the training data to be assembled as a complete tensor. We next propose a novel non-linear model based on adversarial training that further improves the decoupling capacity. This is enabled by a new 3D-2D architecture combining a 3D generator with a 2D discriminator, where both domains are bridged by a geometry mapping layer.As a necessary prerequisite for building data-driven models, we also address the problem of registering a large number of 3D facial scans in motion. We propose an approach that can efficiently and automatically handle a variety of sequences while making minimal assumptions on the input data. This is achieved by the use of a spatiotemporal model as well as a regression-based initialization, and we show that we can obtain accurate registrations in an efficient and scalable manner.Finally, we address the problem of recovering surface normals from natural images, with the goal of enriching existing coarse 3D reconstructions. We propose a method that can leverage all available image and normal data, whether paired or not, thanks to a new cross-modal learning architecture. Core to our approach is a novel module that we call deactivable skip connections, which allows to transfer the local details from the image to the output surface without hurting the performance when autoencoding modalities, achieving state-of-the-art results for the task
APA, Harvard, Vancouver, ISO, and other styles
16

Veber, Philippe. "Modélisation grande échelle de réseaux biologiques : vérification par contraintes booléennes de la cohérence des données." Phd thesis, Université Rennes 1, 2007. http://tel.archives-ouvertes.fr/tel-00185895.

Full text
Abstract:
Les techniques de biologie moléculaire dites haut-débit permettent de mesurer un grand nombre de variables simultanément. Elles sont aujourd'hui couramment utilisées et produisent des masses importantes de données. Leur exploitation est compliquée par le bruit généralement observé dans les mesures, et ce d'autant plus que ces dernières sont en général trop onéreuses pour être suffisamment reproduites. La question abordée dans cette thèse porte sur l'intégration et l'exploitation des données haut-débit : chaque source de données mesurant un aspect du fonctionnement cellulaire, comment les combiner dans un modèle et en tirer des conclusions pertinentes sur le plan biologique ? Nous introduisons un critère de consistance entre un modèle graphique des régulations cellulaires et des données de déplacement d'équilibre. Nous montrons ensuite comment utiliser ce critère comme guide pour formuler des prédictions ou proposer des corrections en cas d'incompatibilité. Ces différentes tâches impliquent la résolution de contraintes à variables sur domaines finis, pour lesquelles nous proposons deux approches complémentaires. La première est basée sur la notion de diagramme de décision, qui est une structure de données utilisée pour la vérification des circuits ; la deuxième fait appel à des techniques récentes de programmation logique. L'utilisation de ces techniques est illustrée avec des données réelles sur la bactérie "E. coli" et sur la levure. Les réseaux étudiés comportent jusqu'à plusieurs milliers de gènes et de régulations. Nous montrons enfin, sur ces données, comment notre critère de consistance nous permet d'arriver à des prédictions robustes, ainsi que des corrections pertinentes du modèle étudié.
APA, Harvard, Vancouver, ISO, and other styles
17

Hamdi-Larbi, Olfa. "Etude de la distribution, sur système à grande échelle, de calcul numérique traitant des matrices creuses compressées." Versailles-St Quentin en Yvelines, 2010. http://www.theses.fr/2010VERS0018.

Full text
Abstract:
Plusieurs applications scientifiques effectuent des calculs sur des matrices creuses de grandes tailles. Pour des raisons d'efficacité en temps et en espace lors du traitement de ces matrices, elles sont stockées selon des formats compressés adéquats. D'un autre côté, la plupart des calculs scientifiques creux se ramènent aux deux problèmes fondamentaux d'algèbre linéaire i. E. La résolution des systèmes linéaires (RSL) et le calcul d'éléments propres (CEP) de matrices. Nous étudions dans ce mémoire la distribution, au sein d'un Système Distribué à Grande Echelle (SDGE), des calculs dans des méthodes itératives de RSL et de CEP et ce, dans le cas creux. Le produit matrice-vecteur creux (PMVC) constitue le noyau de base pour la plupart de ces méthodes. Notre problématique se ramène en fait à l'étude de la distribution du PMVC sur un SDGE. Généralement, trois étapes sont nécessaires pour accomplir cette tâche, à savoir, le prétraitement, le traitement et le post-traitement. Dans la première étape, nous procédons d'abord à l'optimisation de quatre versions de l'algorithme du PMVC correspondant à quatre formats de compression spécifiques de la matrice, puis étudions leurs performances sur des machines cibles séquentielles. Nous nous focalisons de plus sur l'étude de l'équilibrage des charges pour la distribution des données traitées sur un SDGE. Concernant l'étape de traitement, elle a consisté à valider l'étude précédente par une série d'expérimentations réalisées sur une plate-forme gérée par l'intergiciel XtremWeb-CH. L'étape de post-traitement, quant à elle, a consisté à analyser et interpréter les résultats expérimentaux obtenus au niveau de l'étape précédente
Several scientific applications often use kernels performing computations on large sparse matrices. For reasons of efficiency in time and space, specific compression formats are used for storing such matrices. Most of sparse scientific computations address sparse linear algebra problems. Here two fundamental problems are often considered i. E. Linear systems resolution (LSR) and matrix eigen-values/vector computation (EVC). In this thesis, we address the problem of distributing, onto a Large Scale Distributed System (LSDS), computations performed in iterative methods for both LSR and EVC. The sparse matrix-vector product (SMVP) constitutes a basic kernel in such iterative mathods. Thus, our problem reduces to the SMVP distribution study on an LSDS. In principle, three phases are required for achieving this kind of applications, namely, pre -processing, processing and post-processing. In phase 1, we first proceed to the optimization of four versions of the SMVP algorithm corresponding to four specific matrix compressing formats, then study their performances on sequential target machines. In addition, we focus on the study of load balancing in the procedure of data (i. E. The sparse matrix rows) distribution on a LSDS. Concerning the processing phase, it consists in validating the previous study by a series of experimentations achieved on a volunteer distributed system we installed through using XtremWeb-CH middleware. As to the post-processing phase, it consists in interpreting the experimental results previously obtained in order to deduce adequate conclusions
APA, Harvard, Vancouver, ISO, and other styles
18

Leduc, Mélissa. "Analyse de l’apprentissage de formateurs et d’entraîneurs participant au Programme national de certification des entraîneurs." Thèse, Université d'Ottawa / University of Ottawa, 2012. http://hdl.handle.net/10393/20667.

Full text
Abstract:
Le but de cette thèse fut de comprendre l’apprentissage de formateurs d’entraîneurs et d’entraîneurs dans le Programme national de certification des entraîneurs. Deux études furent réalisées. La première porte sur l’apprentissage de cinq formateurs au moment d’être formé et en présentant des ateliers à des entraîneurs. La deuxième examine l’apprentissage de onze entraîneurs dans des ateliers. Les données furent collectées à partir de séances d’observation non participante et d’entretiens semi-structurés multiples. Elles furent analysées à partir de la théorie de l’apprentissage humain (Jarvis, 2006, 2007, 2008, 2009) et la théorie de Moon (2001) sur l’apprentissage dans les ateliers de courte durée. Les résultats révélèrent qu’apprendre peut être un processus cognitif, émotif et/ou pratique. Les formateurs apprirent autant en présentant les ateliers à des entraîneurs qu’au moment d’être formé. Les entraîneurs validèrent leur pratique, la modifièrent ou éprouvèrent de l’inconfort à la modifier. Des suggestions furent proposées aux responsables du programme.
APA, Harvard, Vancouver, ISO, and other styles
19

Brault, Florence. "Recherche et analyse de lentilles gravitationnelles fortes à échelle galactique dans les grands relevés." Paris 6, 2012. http://www.theses.fr/2012PA066567.

Full text
Abstract:
Ce travail de thèse traite du développement d'un détecteur original de lentilles gravitationnelles fortes à échelle galactique basé sur la modélisation massive des candidats. Ces événements sont aussi rares dans l'Univers qu'ils sont précieux pour appréhender l'évolution des galaxies dans un contexte cosmologique. La modélisation est paramétrique et optimisée par MCMC dans un cadre bayésien. Nous générons d'abord plusieurs échantillons d'entraînement : une centaine de lentilles simulées dans des conditions HST et CFHT, ainsi que 325 candidats lentille réels résultant d'une série de présélections sur les galaxies du CFHTLS-Wide et que nous classons selon leur crédibilité. Tout le challenge de la conception du détecteur réside en un compromis entre qualité des modèles et temps d'exécution. Nous lançons la modélisation en masse sur nos échantillons, en partant de conditions idéales d'application que nous complexifions par étapes pour se rapprocher des conditions d'observation et gagner du temps. Nous montrons qu'un modèle à 7 paramètres supposant une source sphérique retrouve la valeur du rayon d'Einstein sur les simulations CFHT avec une précision d'~7%. Nous appliquons un masque sur les données d'entrée qui améliore sensiblement la robustesse des modèles face à l'environnement, pour un temps de convergence médian de 4 minutes qui pourrait facilement être réduit d'un facteur 10 avec des techniques d'optimisation plus directes. D'après nos résultats, nous définissons des contours de sélection dans l'espace des paramètres, conférant une complétude d'~38% et une pureté d'~55% à l'échantillon des 51 candidats retenus par notre robot parmi les 325 systèmes présélectionnes
This thesis focuses on the development of a novel detector of strong galaxy-galaxy lenses based on the massive modeling of candidates in wide-field ground-based imaging data. Indeed, not only are these events rare in the Universe, but they are at the same time very valuable to understand galaxy formation and evolution in a cosmological context. We use parametric models, which are optimized by MCMC in a bayesian framework, so that we know the distribution of errors. We first generate several training samples : a hundred lenses simulated in HST and CFHT conditions, along with 325 observed lens candidates resulting from a series of preselections on the CFHTLS-Wide galaxies, and that we classify according to their credibility. The whole challenge in designing this detector lies in a subtle balance between the quality of models and the execution time. We massively run the modeling on our samples, beginning with ideal application conditions that we make more complex by stages so as to get closer to the observation conditions and save time. We show that a 7-parameter model assuming a spherical source can recover the Einstein radius from the CFHT simulations with a precision of ~7%. We apply a mask to the input data that noticeably enhances the robustness of the models facing environment problems, with a median convergence time of 4 minutes that could be easily reduced by a factor of 10 with more direct optimization techniques. From our results, we define selection contours in the parameter space, resulting in a completeness of ~38% and a purity of ~55% for the sample of 51 candidates accepted by our robot among the 325 preselected systems
APA, Harvard, Vancouver, ISO, and other styles
20

Emery, Charlotte. "Contribution de la future mission altimétrique à large fauchée SWOT pour la modélisation hydrologique à grande échelle." Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30034/document.

Full text
Abstract:
L'objectif scientifique de ce travail de thèse est d'améliorer l'estimation des flux d'eau à la surface des continents, à l'échelle saisonnière et interannuelle (de quelques années à décennale). En particulier, il s'agit d'étudier l'apport de données satellites, notamment de la future mission SWOT (Surface Water and Ocean Topography, lancement prévu en 2021), pour l'étude de la partie continentale du cycle de l'eau à l'échelle globale, à l'aide du modèle global de surfaces continentales ISBA-TRIP (Intéractions Sol-Biosphère-Atmosphère/Total Runoff and Integrating Pathways). Dans ce travail de thèse, j'explore le potentiel des données d'altimétrie satellitaire, pour corriger certains paramètres du modèle de routage de rivière TRIP et aussi pour corriger ses variables d'état. Pour ce faire, une plateforme d'assimilation de données virtuelles SWOT, mais aussi de données d'altimètres nadirs actuels a été mise en place. Mais avant l'assimilation de ces données de télédétection, il a été nécessaire de faire une analyse de sensibilité du modèle TRIP à ses paramètres, pour déterminer quels paramètres ont le plus d'influence sur les observables SWOT et qui donc pourront être corrigés. L'analyse de sensibilité (ANOVA) a alors été menée sur les principaux paramètres de TRIP. L'analyse de sensibilité a été menée sur le bassin de L'Amazone et les résultats ont été publiés. Les résultats ont montré que les hauteurs d'eau simulées sont sensibles aux paramètres géomorphologiques locaux exclusivement tandis que les débits simulés sont sensibles à l'ensemble des paramètres amont (selon le réseau de routage TRIP) et surtout au paramètre lié au temps de résidence des eaux souterraines. Enfin, les anomalies de hauteurs présentent des sensibilités similaires aux hauteurs d'eau mais avec des variations temporelles plus marquées. Ces résultats nous ont permis de faire les choix algorithmiques dans le cadre de l'assimilation de données. Ensuite, je me suis concentrée sur le développement de la maquette d'assimilation de données consistant en un Filtre de Kalman d'Ensemble (EnKF) et permet de faire soit de l'estimation de paramètres, soit de l'estimation d'état. La maquette en " estimation de paramètres " est testée et validée par une série d'expériences jumelles. On a assimilé des pseudo-observations de hauteurs et d'anomalies d'eau le long des traces du satellite SWOT, afin de corriger les coefficients de Manning du lit de la rivière, avec possibilité d'étendre à d'autres paramètres. Les premiers résultats montrent que la maquette est capable de retrouver la bonne distribution des coefficients de Manning en assimilant les hauteurs d'eau et les anomalies. Pour l'estimation d'état, on réalise des étapes d'assimilation journalières pour corriger le stock d'eau initial (condition initiale du modèle), en assimilant des débits estimés à partir de séries altimétriques de côtes d'eau ENVISAT. A partir de courbe de tarage hauteurs d'eau-débits calibrées sur le bassin de l'Amazone avec le modèle hydrologique MGB-IPH, les côtes d'eau ont été transformées en " débits altimétriques " que l'on assimile alors dans la maquette. Ces expériences d'estimation d'état nous permettent de sortir du cadre idéalisé des expériences jumelles en assimilant des données réelles, mais nous permet aussi de tester l'apport d'un premier jeu de données de débits provenant de mesures satellites, qui préfigure le futur produit de débit SWOT. Les résultats montrent que les erreurs sur le débits sont globalement améliorées : le run libre donne un RMSE de 2,79x103 m3/s (73,6 %) par rapport aux données in situ disponible sur le bassin et le run corrigé un RMSE de 1,98 x 103 m3/s (53,9 %)
Scientific objective of this PhD work is to improve water fluxes estimation on the continental surfaces, at interanual and interseasonal scale (from few years to decennial time period). More specifically, it studies contribution of remotely-sensed measurements to improve hydrology model. Notably, this work focuses on the incoming SWOT mission (Surface Water and Ocean Topography, launch scheduled for 2021) for the study of the continental water cycle at global scale, and using the land surface model ISBA-TRIP. In this PhD work, I explore the potential of satellite data to correct both input parameters of the river routing scheme TRIP and its state variables. To do so, a data assimilation platform has been set to assimilate SWOT virtual observation as well as discharge estimated from real nadir altimetry data. Beforehand, it was necessary to do a sensibility analysis of TRIP model to its parameters. The aim of such study was to highlight what are the most impacting parameters on SWOT-observed variables and therefore select the ones to correct via data assimilation. The sensibility analysis (ANOVA) has been led on TRIP main parameters. The study has been done over the Amazon basin. The results showed that the simulated water levels are sensitive to local geomorphological parmaters exclusively. On the other hand, the simulated discharges are sensitive to upstream parameters (according to the TRIP river routing network) and more particularly to the groundwater time constant. Finally, water anomalies present sensitivities similar to those of the water levels but with more pronounced temporal variations. These results also lead me to do some choices in the implementation of the assimilation scheme and have been published. Therefore, in the second part of my PhD, I focused on developing a data assimilation platform which consists in an Ensemble Kalman Filter (EnKF). It could either correct the model input parameters or directly its state. A series of twin experiments is used to test and validate the parameter estimation module of the platform. SWOT virtual-observations of water heights and anomalies along SWOT tracks are assimilated to correct the river manning coefficient, with the possibility to easily extend to other parameters. First results show that the platform is able to recover the "true" Manning distribution assimilating SWOT-like water heights and anomalies. In the state estimation mode, daily assimilation cycles are realized to correct TRIP river water storage initial state by assimilating ENVISAT-based discharge. Those observations are derived from ENVISAT water elevation measures, using rating curves from the MGB-IPH hydrological model (calibrated over the Amazon using in situ gages discharge). Using such kind of observation allows going beyond idealized twin experiments and also to test contribution of a remotely-sensed discharge product, which could prefigure the SWOT discharge product. The results show that discharge after assimilation are globally improved : the root-mean-square error between the analysis discharge ensemble mean and in situ discharges is reduced by 28 \%, compared to the root-mean-square error between the free run and in situ discharges (RMSE are respectively equal to 2.79 x 103 m3/s and 1.98 x 103 m3/s)
APA, Harvard, Vancouver, ISO, and other styles
21

Daher, Petra. "Analyse spatio-temporelle des structures à grande échelle dans les écoulements confinés : cas de l'aérodynamique interne dans un moteur à allumage commandé." Thesis, Normandie, 2018. http://www.theses.fr/2018NORMR100/document.

Full text
Abstract:
Les mécanismes d’évolution spatio-temporelle des structures turbulentes instationnaires tridimensionnelles, et en particulier ceux rencontrés aux plus grandes échelles, sont à l’origine de phénomènes d’instabilité qui conduisent très souvent à une diminution de la performance des systèmes énergétiques. C’est le cas des variations cycle-à-cycle dans le moteur à combustion interne. Malgré les progrès substantiels réalisés par la simulation numérique en mécanique des fluides, les approches expérimentales demeurent essentielles pour l’analyse et la compréhension des phénomènes physiques ayant lieu. Dans ce travail de thèse, deux types de vélocimétrie par image de particules (PIV) ont été appliqués et adaptés au banc moteur optique du laboratoire Coria pour étudier l’écoulement en fonction de six conditions de fonctionnement du moteur. La PIV Haute Cadence 2D2C a permis d’abord d’obtenir un suivi temporel de l’écoulement dans le cylindre durant un même cycle moteur ainsi qu’identifier ces variations cycliques. La PIV Tomographique 3D3C a permis ensuite d’étendre les données mesurées vers l’espace tridimensionnel. La Tomo-PIV fait intervenir 4 caméras en position angulaire visualisant un environnement de géométrie complexe, confinée, ayant un accès optique restreint et introduisant des déformations optiques importantes. Cela a nécessité une attention particulière vis-à-vis du processus de calibration 3D des modèles de caméras. Des analyses conditionnées 2D et 3D de l’écoulement sont effectuées en se basant principalement sur la décomposition propre orthogonale (POD) permettant de séparer les différentes échelles de structure et le critère Γ permettant l’identification des centres des tourbillons
The unsteady evolution of three-dimensional large scale flow structures can often lead to a decrease in the performance of energetic systems. This is the case of cycle-to-cycle variations occurring in the internal combustion engine. Despite the substantial advancement made by numerical simulations in fluid mechanics, experimental measurements remain a requirement to validate any numerical model of a physical process. In this thesis, two types of particle image velocimetry (PIV) were applied and adapted to the optical engine test bench of the Coria laboratory in order to study the in-cylinder flow with respect to six operating conditions. First, the Time-Resolved PIV (2D2C) allowed obtaining a temporal tracking of the in-cylinder flow and identifying cyclic variabilities. Then tomographic PIV (3D3C) allowed extending the measured data to the three-dimensional domain. The Tomo-PIV setup consisted of 4 cameras in angular positioning, visualizing a confined environment with restricted optical access and important optical deformations. This required a particular attention regarding the 3D calibration process of camera models. 2D and 3D conditional analyses of the flow were performed using the proper orthogonal decomposition (POD) allowing to separate the different scales of flow structures and the Γ criterion allowing the identification of vortices centres
APA, Harvard, Vancouver, ISO, and other styles
22

Gasser, Jean-Luc. "Analyse de signature des circuits intégrés complexes par test aléatoire utilisant les méthodes de traitement du signal : application à un microprocesseur." Toulouse, INPT, 1986. http://www.theses.fr/1986INPT079H.

Full text
Abstract:
On presente une methode de test des composants a tres haute densite d'integration (vlsi), et son application au microprocesseur 6809 (thomson-efcis). Une strategie de test aleatoire est proposee: on soumet le composant a analyser a une sequence de vecteurs aleatoires, qui n'est pas forcement reproductible, et on analyse sa reponse par des methodes de traitement du signal. Aucun modele du composant et tres peu d'hypotheses de panne sont elabores. On rappelle les principes de deux methodes permettant de simuler des pannes ou de tester la resistance des composants aux rayonnements cosmiques: l'utilisation des lasers et celle de sources radioactives. Les resultats experimentaux de l'irradiation electronique d'un lot de six 6809 mettent en evidence des points faibles de ce composant. On etablit une statistique des pannes en tenant compte de sa structure interne. La signature partielle du microprocesseur est obtenue par une methode d'analyse d'histogramme. L'application des fonctions de walsh-rademacher permet l'elaboration d'un estimateur du comportement individuel de chaque bit du bus du composant, dont les proprietes theoriques et numeriques sont decrites. On en deduit la distribution de la sequence a analyser qui autorise la probabilite de detection de panne maximale. On effectue l'analyse spectrale de l'estimateur par les methodes classiques (fft) et par la modelisation autoregressive (ar). La moyenne de l'estimateur est un parametre significatif, et son analyse spectrale met en evidence certaines proprietes du signal, mais egalement des problemes de non-stationarite qui n'ont pas ete resolus a cause des limitations dues a l'implantation materielle. Des solutions a ces problemes sont proposees, et on examine les applications de la methode de test a d'autres composants ou a des systemes logiques plus complexes
APA, Harvard, Vancouver, ISO, and other styles
23

Vanhauwaert, Pierre. "Analyse de sûreté par injection de fautes dans un environnement de prototypage à base de FPGA." Grenoble INPG, 2008. http://www.theses.fr/2008INPG0039.

Full text
Abstract:
L’évolution des technologies microélectroniques augmente la sensibilité des circuits intégrés face aux perturbations (impact de particules, perte de l’intégrité du signal…). Le comportement erroné d’un circuit peut être inacceptable et une analyse de sûreté à haut niveau d’abstraction permet de choisir les protections les plus adaptées et de limiter le surcoût induit par une éventuelle reprise de la description. Cette thèse porte sur le développement d’une méthodologie et d’un environnement améliorant l’étude de la robustesse de circuits intégrés numériques. L’approche proposée met en œuvre un prototype matériel d’une version instrumentée du circuit à analyser. L’environnement comprend trois niveaux d’exécution dont un niveau logiciel embarqué qui permet d’accélérer les expériences en conservant une grande flexibilité : l’utilisateur peut obtenir le meilleur compromis entre complexité de l’analyse et durée des expériences. Nous proposons également de nouvelles techniques d’instrumentation et de contrôle des injections afin d’améliorer les performances de l’environnement. Une évaluation prédictive de ces performances renseigne l’utilisateur sur les paramètres les plus influents et sur la durée de l’analyse pour un circuit et une implantation de l’environnement donnés. Enfin la méthodologie est appliquée pour l’analyse de deux systèmes significatifs dont un système matériel/logiciel construit autour d’un microprocesseur SparcV8
Technology downscaling increases the sensitivity of integrated circuits faced to perturbations (particles strikes, lose of signal integrity…). The erroneous behaviour of a circuit can be unacceptable and a dependability analysis at a high abstraction level enables to select the most efficient protections and to limit timing overhead induced by a possible rework. This PhD aims at developing a methodology and an environment which improves the dependability analysis of digital integrated circuits. The proposed approach uses a hardware prototype of an instrumented version of the design to be analyzed. The environment includes three levels of execution including an embedded software level that enables to speed-up the experiments while keeping an important flexibility: the user can obtain the best trade-off between the complexity of the analysis and the duration of the experiments. We also propose new techniques for the instrumentation and for the injection control in order to improve the performances of the environment. A predictive evaluation of the performances informs the designer on the most influent parameters and on the analysis duration for a given design and a given implementation of the environment. Finally the methodology is applied on the analysis of two significant systems including a hardware/software system built around a SparcV8 processor
APA, Harvard, Vancouver, ISO, and other styles
24

Aouad, Lamine. "Contribution à l'algorithmique matricielle et évaluation de performances sur les grilles de calcul, vers un modèle de programmation à grande échelle." Lille 1, 2005. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2005/50376-2005-Aouad.pdf.

Full text
Abstract:
Les grilles de calcul offrent une alternative intéressante pour les applications de calcul matriciel, grandes consommatrices de ressources de calcul et de mémoire. Néanmoins, les modèles de calcul de type 'task farming' inhérents à la plupart de ces systèmes rendent difficile une programmation efficace car la granularité de ces applications les rend inadaptées Dans cette thèse, nous proposons un modèle de programmation sur grilles de calcul non-dédiées basé sur la gestion de la localité des données; du réseau de communication jusqu'aux mémoires locales des noeuds de calcul, pour des applications matricielles basées sur des distributions par blocs. La technique de programmation out-of-core est introduite comme réponse aux problèmes de restriction mémoire sur les noeuds de calcul. Cette technique tend à minimiser l'impact des entrées/sorties nécessaires au calcul lorsque la taille des tâches excède la taille mémoire allouable. D'un autre côté, des techniques de placement persistant proposant l'anticipation de migration et le clouage des données permettent d'optimiser les besoins en communications et d'atteindre un bon niveau de performances par rapport aux implémentations classiques Les évaluations de performances ont été réalisées sur deux noyaux de l'algèbre matriciel sur de larges plateformes de calcul déployées sur trois sites géographiquement distribués, en France et au Japan, et sur la plateforme expérimentale Grid'5000
APA, Harvard, Vancouver, ISO, and other styles
25

Rombouts, Isabelle. "Variation géographique à grande échelle de la diversité des copépodes par rapport à la variabilité environnementale." Paris 6, 2009. http://www.theses.fr/2009PA066607.

Full text
Abstract:
Dans le contexte actuel du changement climatique, les études sur l’influence des paramètres environnementaux et de leurs impacts sur la diversité sont essentielles dans le but d’appréhender les altérations de cette diversité marine par le changement global. Les observations répétées des distributions latitudinales de la diversité, principalement en milieu terrestre, suggèrent que des mécanismes communs pourraient être responsables de leur formation et de leur maintien. Bien que de nombreuses hypothèses aient été proposées pour expliquer les distributions de la diversité terrestre et marine, les mécanismes sous-jacents restent encore à élucider dans de nombreux cas, en particulier dans le milieu océanique. Les copépodes planctoniques, maillon clé du réseau trophique en milieu marin, jouent un rôle majeur dans les fonctionnements des cycles biochimiques. Notre étude se focalise sur la manière dont la diversité des copépodes est influencée par l’environnement, première étape vers la compréhension de leur distribution, et leur réponse aux changements hydroclimatiques. Les résultats obtenus montrent que la distribution latitudinale de la diversité ne diminue pas de façon symétrique de l’Equateur aux Pôles, mais un large plateau au niveau de l’Hémisphère Sud et à l’inverse, un pic dans les latitudes subtropicales de l’Hémisphère Nord. Cette asymétrie de la diversité des copépodes est susceptible d’être influencée par la disponibilité en énergie pour les organismes, elle-même régulée par les forçages climatiques actuels dans la région équatoriale, à savoir la Zone de Convergence Inter-Tropicale. Notre étude montre que la température océanique peut expliquer 54% de la variation de la diversité et qu’une forte corrélation avec les distributions à grande échelle des copépodes existe. Afin d’étudier les relations entre descripteurs environnementaux et la diversité des copépodes, des analyses multivariées ont été appliquées et ont révélé que les régions à fortes diversités sont fréquemment associées à de fortes températures, des salinités élevées et de faibles concentrations en chlorophylle a et en nutriments. Les paramètres environnementaux les plus fortement corrélés à la diversité ont permis de modéliser les distributions et ainsi de prévoir à l’échelle globale la diversité des copépodes et de mettre en évidence les zones nécessitant un effort d’échantillonnage plus soutenu. Alors que la force de la relation entre la diversité et la température a été démontrée, les liens sous-jacents entre l'énergie disponible et la diversité restent insaisissables. Par conséquent, la Théorie Métabolique en Ecologie (MTE) a été testée afin d’expliquer les possibles mécanismes de distributions des copépodes à l’échelle mondiale. Les pentes de régression dévient des valeurs prévues par la théorie et cette différence quantitative met l'accent sur la nécessité d'amélioration de la MTE pour expliquer les motifs de la diversité à grande échelle. Enfin, nous avons examiné la variation spatio-temporelle dans les relations diversité - température au sein de biomes pouvant présenter une vulnérabilité régionale causée par le réchauffement climatique. Nous avons montré que malgré la relation positive entre la diversité annuelle et les températures de surface de l’océan, la variabilité spatiale est moins évidente. Cela peut s’expliquer par le fait que les relations entre le climat et la diversité, évidentes à grandes échelles, peuvent disparaître à plus petite échelle, substituées par les forçages des processus biologiques, mais également par le bruit introduit par l'effort d'échantillonnage inégal. En conclusion, nos résultats ont montré que les influences majeures du climat et de la disponibilité en énergie sont susceptibles de jouer un rôle important sur les variations géographiques à grande échelle de la diversité des copépodes, et que le rôle de la température sur la diversité reste un phénomène omniprésent et complexe.
APA, Harvard, Vancouver, ISO, and other styles
26

Limoge, Claire. "Méthode de diagnostic à grande échelle de la vulnérabilité sismique des Monuments Historiques : Chapelles et églises baroques des hautes vallées de Savoie." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLN014/document.

Full text
Abstract:
L’objectif de ce travail est de proposer une méthode d’analyse de vulnérabilité sismique adaptée à l’étude d’un patrimoine historique complet très étendu, indépendamment de la renommée de chaque bâtiment. En effet la grande vulnérabilité sismique du patrimoine ancien, très souvent en maçonnerie, impose, afin d’éviter tout dommage irréparable, de se donner les moyens d’intervenir en amont. Notre démarche doit donc répondre à trois impératifs principaux: développer des outils de choix à grande échelle afin de hiérarchiser les besoins, offrir une analyse pertinente du comportement sous séisme d'une structure historique maçonnée même en première approche, et trouver des méthodes pour gérer le nombre important d’incertitudes qui caractérise le diagnostic des édifices anciens. Pour ce faire, nous étudions les églises et chapelles baroques des hautes vallées de la Savoie française, témoignages d'une période particulièrement prospère dans l'histoire de la Savoie et d'un mouvement artistique unique dans un environnement hostile. Dans ce contexte nous avons donc développé ou adapté différents outils afin de pouvoir traiter les particularités des édifices anciens et utiliser pour des édifices anciens en maçonnerie rustique les potentialités des techniques proposées pour les édifices modernes : modélisations numériques non-linéaires dynamiques temporelles, mesures vibratoires in-situ, analyse multi modale non-linéaire
The aim of this thesis is to propose a seismic vulnerability assessment method well suited to the study of a complete historical heritage, regardless of the prestige of each building. Indeed the great seismic vulnerability of the historical heritage, often in masonry, requires to act preventively in order to avoid irreparable damage. Our approach must tackle three main requirements: to develop large-scale tools of choice to prioritize the needs, to provide relevant analysis of seismic behavior on the structural scale even in the first study, and to manage the large number of uncertainties characterizing the old buildings structural assessment. To this aim, we study the baroque churches and chapels in the high valleys of the French Savoie. They witness to a particularly prosperous period in the history of Savoy and a unique artistic movement adapted to a harsh environment. In this context we have therefore developed or adapted different tools in order to handle the peculiarities of the old buildings. This way we can use the today proposed techniques for modern buildings to study these ancient buildings in rustic masonry: non-linear temporal dynamics numerical modeling, vibratory in situ measurements, non-linear multi modal analysis
APA, Harvard, Vancouver, ISO, and other styles
27

Richard, Angélique. "Analyse de la variabilité de l’expression génique et du métabolisme glycolytique au cours du processus de différenciation érythrocytaire : de l’analyse à grande échelle aux questions mécanistiques." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSE1058/document.

Full text
Abstract:
La prise de décision cellulaire se traduit par la capacité de toute cellule vivante à intégrer les différentes informations provenant de son environnement, et à les transformer en une réponse biologique cohérente. Il est aujourd'hui de plus en plus démontré que les populations cellulaires présentent une hétérogénéité quantitative et qualitative significative, qui pourrait jouer un rôle essentiel dans le fonctionnement des organismes vivants. La première partie de ma thèse a ainsi consisté à étudier la variabilité de l'expression génique au cours de la différenciation de progéniteurs érythrocytaires aviaires primaires, à l'échelle de la cellule unique. L'expression de 92 gènes a été analysée par RT-qPCR dans des cellules isolées à différents temps de différenciation. Les principaux résultats de cette étude ont montré que la variabilité de l'expression des gènes, mesurée par l'entropie de Shannon, atteint un niveau maximal à 8h-24h de différenciation, simultanément à une chute du nombre de gènes corrélés. Cette augmentation de la variabilité génique précède l'engagement irréversible des cellules dans le processus de différenciation érythrocytaire identifié entre 24 et 48h. Cette étude a également mis en lumière le gène LDHA (Lactate dehydrogenase A), codant pour une enzyme de la glycolyse anaérobie, dans les progéniteurs érythrocytaires en état d'auto-renouvellement et aux points critiques, 8h et 24h, de la différenciation. La deuxième partie de ma thèse a donc consisté à analyser le rôle précis de LDHA dans l'auto-renouvellement des progéniteurs érythrocytaires, ainsi que les variations du métabolisme du glucose au cours de la différenciation. Nos premiers résultats suggèrent que le processus de différenciation érythrocytaire s'accompagne d'un changement métabolique correspondant au passage de la glycolyse anaérobie dépendante de LDHA, vers une production d'énergie aérobie, reposant sur la phosphorylation oxydative
The meaning of cell decision making consists in the capacity of every living cell to integrate environmental information and to transform it in a coherent biological response. Nowadays it is increasingly demonstrated that cell populations present a significant quantitative and qualitative heterogeneity that could be involved in living organisms functions. Thus, the first part of my thesis consisted in studying gene expression variability at the single-cell level during the differentiation process of primary avian erythroid progenitor cells. The expression of 92 genes was analyzed using RT-qPCR in cells isolated at different differentiation time-points. The main results of this study showed that gene expression variability, as measured by Shannon entropy, reached a maximal level, simultaneously to a drop in the number of correlated genes, at 8-24h of differentiation. This increase of the gene expression variability preceded the irreversible commitment of cells into differentiation, identified between 24h and 48h. This analysis also highlighted the potential importance ofLDHA(Lactate dehydrogenase A) encoding a glycolytic enzyme, in erythroid progenitors self-renewal and at the critical differentiation time-point 8-24h. Therefore the second part of my thesis consisted in analyzing the role of LDHA in erythroid progenitors self-renewal and the variations of glucose metabolism during the differentiation process. Our first results suggested that erythroid differentiation might be accompanied with a metabolic change, corresponding to a switch from anaerobic glycolysisdepending upon LDHA, toward aerobic energy production, relying upon oxidative phosphorylation
APA, Harvard, Vancouver, ISO, and other styles
28

Ammari, Abdelaziz. "Analyse de sûreté des circuits complexes décrits en langage de haut niveau." Grenoble INPG, 2006. https://tel.archives-ouvertes.fr/tel-00101622.

Full text
Abstract:
La probabilité des fautes transitoires augmente avec l'évolution des technologies. Plusieurs approches ont été proposées pour analyser très tôt l'impact de ces fautes sur un circuit numérique. Il est notamment possible d'utiliser une approche fondée sur l'injection de fautes dans une description VHDL au niveau RTL. Dans cette thèse, nous apportons plusieurs contributions à ce type d'analyse. Un premier aspect considéré est la prise en compte de l'environnement du circuit numérique lors des campagnes d'injection. Ainsi, une approche basée sur une analyse de sûreté de fonctionnement multi-niveaux a été développée et appliquée sur un exemple. Les injections sont réalisées dans le circuit numérique décrit au niveau RTL alors que le reste du système est décrit à un niveau d'abstraction plus élevé. L'analyse des résultats montre que certaines défaillances apparaissant au niveau du circuit n'ont en fait aucun impact sur le système. Nous présentons ensuite les avantages de la combinaison de deux types d'analyses : la classification des fautes en fonction de leurs effets, et l'analyse plus détaillée des configurations d'erreurs activées dans le circuit. Une campagne d'injection de fautes de type SEU a été réalisée sur un microcontrôleur 8051 décrit au niveau RTL. Les résultats montrent que la combinaison des analyses permet au concepteur de localiser les points critiques, facilitant l'étape de durcissement. Ils montrent également que, dans le cas d'un processeur à usage général, les configurations d'erreurs peuvent être dépendantes du programme exécuté. Cette étude a également permis de montrer que l'injection d'un très faible pourcentage des fautes possibles permet déjà d'obtenir des informations utiles pour le concepteur. La même méthodologie a été utilisée pour valider la robustesse obtenue avec un durcissement au niveau logiciel. Les résultats montrent que certaines fautes ne sont pas détectées par les mécanismes implémentés bien que ceux-ci aient été préalablement validés par des injections de fautes basées sur un simulateur de jeu d'instructions. Le dernier aspect de cette thèse concerne l'injection de fautes dans des blocs analogiques. En fait très peu de travaux traitent du sujet. Nous proposons donc un flot global d'analyse pour circuits numériques, analogiques ou mixtes, décrits au niveau comportemental. La possibilité d'injecter des fautes dans des blocs analogiques est discutée. Les résultats obtenus sur une PLL, choisie comme cas d'étude, sont analysés et montrent la faisabilité de l'injection de fautes dans des blocs analogiques. Pour valider le flot, des injections de fautes sont également réalisées au niveau transistor et comparées à celles réalisées à haut niveau. Il apparaît une bonne corrélation entre les résultats obtenus aux deux niveaux
The probability of transient faults increases with the evolution of the technologies. Several approaches have been proposed to early analyze the impact of these faults in a digital circuit. It is in particular possible to use an approach based on the injection of faults in a RT-Level VHDL description. In this thesis, we make several contributions to this type of analysis. A first considered aspect is to take into account the digital circuit's environment during the injection campaigns. So, an approach based on multi-level dependability analysis has been developed and applied to an example. The injections are performed in the digital circuit described at the RT-Level while the rest of the system is described at a higher level of abstraction. The results' analysis shows that failures appearing at circuit's level have in fact no impact on the system. We then present the advantages of the combination of two types of analyses : classification of faults with respect to their effects, and a more detailed analysis of error configurations activated in the circuit. An injection campaign of SEU-like faults was performed on a 8051 microcontroller described at RT-Level. The results show that the combination of the two type analyses allows a designer to localize the critical points, facilitating the hardening stage. They also show that, in the case of a general processor, the error configurations can be dependent on the executed program. This study also demonstrates that injecting a very small percentage of the possible faults gives useful information to the designer. The same methodology has been used to validate the robustness obtained with a software hardening. The results show that some faults are not detected by the implemented mechanisms although those were previously validated by fault injections based on an instruction set simulator. The last aspect of this thesis concerns the fault injection in analog blocks. In fact very few works cover this subject. We thus propose a global analysis flow for digital, analog or mixed circuits, described at behavioral level. The possibility to inject faults in analog blocks is discussed. The results obtained on a PLL, chosen as case study, have been analysed and show the feasibility of fault injections in analog blocks. To validate this flow, fault injections were also performed at transistor level and compared to those performed at high level. It appears a good correlation between the results obtained at the two levels
APA, Harvard, Vancouver, ISO, and other styles
29

Al, Shaer Ali. "Analyse des déformations permanentes des voies ferrées : approche dynamique." Marne-la-vallée, ENPC, 2005. https://pastel.archives-ouvertes.fr/pastel-00001592.

Full text
APA, Harvard, Vancouver, ISO, and other styles
30

Faucher, Florian. "Contributions à l'imagerie sismique par inversion des formes d’onde pour les équations d'onde harmoniques : Estimation de stabilité, analyse de convergence, expériences numériques avec algorithmes d'optimisation à grande échelle." Thesis, Pau, 2017. http://www.theses.fr/2017PAUU3024/document.

Full text
Abstract:
Dans ce projet, nous étudions la reconstruction de milieux terrestres souterrains.L’imagerie sismique est traitée avec un problème de minimisation itérative àgrande échelle, et nous utilisons la méthode de l’inversion des formes d’ondes(Full Waveform Inversion, FWI method). La reconstruction est basée sur desmesures d’ondes sismiques, car ces ondes sont caractérisées par le milieu danslequel elles se propagent. Tout d’abord, nous présentons les méthodesnumériques qui sont nécessaires pour prendre en compte l’hétérogénéité etl’anisotropie de la Terre. Ici, nous travaillons avec les solutions harmoniques deséquations des ondes, donc dans le domaine fréquentiel. Nous détaillons leséquations et l’approche numérique mises en place pour résoudre le problèmed’onde.Le problème inverse est établi afin de reconstruire les propriétés du milieu. Ils’agit d’un problème non-linéaire et mal posé, pour lequel nous disposons de peude données. Cependant, nous pouvons montrer une stabilité de type Lipschitzpour le problème inverse associé avec l’équation de Helmholtz, en considérantdes modèles représentés par des constantes par morceaux. Nous explicitons laborne inférieure et supérieure pour la constante de stabilité, qui nous permetd’obtenir une caractérisation de la stabilité en fonction de la fréquence et del’échelle. Nous revoyons ensuite le problème de minimisation associé à lareconstruction en sismique. La méthode de Newton apparaît comme naturelle,mais peut être difficilement accessible, dû au coup de calcul de la Hessienne.Nous présentons une comparaison des méthodes pour proposer un compromisentre temps de calcul et précision. Nous étudions la convergence de l’algorithme,en fonction de la géométrie du sous-sol, la fréquence et la paramétrisation. Celanous permet en particulier de quantifier la progression en fréquence, en estimantla taille du rayon de convergence de l’espace des solutions admissibles.A partir de l’étude de la stabilité et de la convergence, l’algorithme deminimisation itérative est conduit en faisant progresser la fréquence et l’échellesimultanément. Nous présentons des exemples en deux et trois dimensions, etillustrons l’incorporation d’atténuation et la considération de milieux anisotropes.Finalement, nous étudions le cas de reconstruction avec accès aux données deCauchy, motivé par les dual sensors développés en sismique. Cela nous permetde définir une nouvelle fonction coût, qui permet de prometteuses perspectivesavec un besoin minimal quant aux informations sur l’acquisition
In this project, we investigate the recovery of subsurface Earth parameters. Weconsider the seismic imaging as a large scale iterative minimization problem, anddeploy the Full Waveform Inversion (FWI) method, for which several aspects mustbe treated. The reconstruction is based on the wave equations because thecharacteristics of the measurements indicate the nature of the medium in whichthe waves propagate. First, the natural heterogeneity and anisotropy of the Earthrequire numerical methods that are adapted and efficient to solve the wavepropagation problem. In this study, we have decided to work with the harmonicformulation, i.e., in the frequency domain. Therefore, we detail the mathematicalequations involved and the numerical discretization used to solve the waveequations in large scale situations.The inverse problem is then established in order to frame the seismic imaging. Itis a nonlinear and ill-posed inverse problem by nature, due to the limitedavailable data, and the complexity of the subsurface characterization. However,we obtain a conditional Lipschitz-type stability in the case of piecewise constantmodel representation. We derive the lower and upper bound for the underlyingstability constant, which allows us to quantify the stability with frequency andscale. It is of great use for the underlying optimization algorithm involved to solvethe seismic problem. We review the foundations of iterative optimizationtechniques and provide the different methods that we have used in this project.The Newton method, due to the numerical cost of inverting the Hessian, may notalways be accessible. We propose some comparisons to identify the benefits ofusing the Hessian, in order to study what would be an appropriate procedureregarding the accuracy and time. We study the convergence of the iterativeminimization method, depending on different aspects such as the geometry ofthe subsurface, the frequency, and the parametrization. In particular, we quantifythe frequency progression, from the point of view of optimization, by showinghow the size of the basin of attraction evolves with frequency. Following the convergence and stability analysis of the problem, the iterativeminimization algorithm is conducted via a multi-level scheme where frequencyand scale progress simultaneously. We perform a collection of experiments,including acoustic and elastic media, in two and three dimensions. Theperspectives of attenuation and anisotropic reconstructions are also introduced.Finally, we study the case of Cauchy data, motivated by the dual sensors devicesthat are developed in the geophysical industry. We derive a novel cost function,which arises from the stability analysis of the problem. It allows elegantperspectives where no prior information on the acquisition set is required
APA, Harvard, Vancouver, ISO, and other styles
31

Gehan, Charlotte. "Évolution de la rotation du cœur des étoiles sur la branche des géantes rouges : des mesures à grande échelle vers une caractérisation du transport de moment cinétique." Electronic Thesis or Diss., Paris Sciences et Lettres (ComUE), 2018. http://www.theses.fr/2018PSLEO021.

Full text
Abstract:
L’astérosismologie consiste à sonder les intérieurs stellaires en détectant les ondes sismiques qui s’y propagent. Les géantes rouges, des étoiles évoluées peu massives dont l’hydrogène du cœur est épuisé, sont des pulsateurs de type solaire présentant des modes mixtes qui nous permettent d’accéder directement aux propriétés physiques de leur cœur. Les mesures sismiques disponibles indiquent qu’un ou plusieurs mécanismes physiques encore mal compris contrebalancent l’accélération de la rotation du cœur sous l’effet de sa contraction, en transportant du moment cinétique. La majeure partie de cette thèse a été consacrée au développement d’une méthode permettant une mesure aussi automatisée que possible de la rotation moyenne du cœur des étoiles de la branche des géantes rouges observées par le satellite Kepler (NASA). Les mesures obtenues pour environ 900 étoiles mettent en évidence que la rotation du cœur est à peu près constante le long de la branche des géantes rouges,avec des valeurs indépendantes de la masse des étoiles. Le deuxième volet de cette thèse est consacré à l’interprétation de ces résultats basée sur la modélisation stellaire. L’enjeu consiste à utiliser les mesures à grande échelle obtenues durant la première partie pour caractériser la quantité de moment cinétique qui doit être extraite localement de chaque région du cœur, à différents instants sur la branche des géantes rouges, pour différentes masses stellaires
Asteroseismology consists in probing stellar interiors through the detection of seismic waves. Red giants are evolved low-mass stars that have exhausted hydrogen in their core. These stars are solar-type pulsators presenting mixed modes that allow us to have a direct access to the physical properties of their core. The available seismic measurements indicate that one or several mechanisms that remain poorly understood counterbalance the acceleration ofthe core rotation, resulting from its contraction, by transporting angularmomentum. The greatest part of this PhD thesis was devoted to the development of a method allowing a measurement as automated as possible of the mean core rotation of stars on the red giant branch that were observed by the Kepler satellite (NASA). The measurements that were derived for almost 900 stars highlight that the core rotation is almost constant along the red giant branch, with values largely independent of the stellar mass. The second part of this PhD thesis is devoted to the interpretation of these results based on stellar modelling. The challenge consists in using the large-scale measurements obtainedin the first part to characterise the quantity of angular momentum that has to be extracted from each layer of the core, at different timesteps on the red giant branch, for different stellar masses
APA, Harvard, Vancouver, ISO, and other styles
32

Peloton, Julien. "Data analysis and scientific exploitation of the CMB B-modes experiment, POLARBEAR." Sorbonne Paris Cité, 2015. http://www.theses.fr/2015USPCC154.

Full text
Abstract:
L'évolution des techniques d'observation au cours des deux dernières décennies a rendu possible l'obtention de jeux de données de plus en plus précis, et a permis l'évolution de la cosmologie vers une science de haute précision. Les études menées sur les anisotropies du Fond Diffus Cosmologique n'ont jamais cessé de jouer un rôle prépondérant dans cette transformation, tant leurs impacts ont été importants. Néanmoins, les jeux de données extrêmement volumineux et complexes produits par les expériences de Fond Diffus en cours posent un nouveau défi pour le domaine, à tel point que la réussite de l'analyse moderne des données du Fond Diffus repose sur une forte interdisciplinarité combinant de la physique, des mathématiques, des méthodes statistiques ainsi que des méthodes de calcul numérique. Dans cette thèse, j'expose l'analyse du premier jeu de données produit par POLARBEAR, l'une des expériences actuelle de premier plan sur le Fond Diffus, ainsi que les résultats majeurs obtenus. L'expérience POLARBEAR est spécifiquement dédiée à la détection et à la caractérisation de la signature des modes B de la polarisation du Fond Diffus Cosmologique. La recherche des modes B est l'un des sujets actuel les plus passionnants pour le Fond Diffus, qui a commencé à ouvrir de nouvelles perspectives sur la cosmologie, en partie grâce aux résultats présentés et discutés dans ce travail. Dans cette thèse, je décris en premier lieu le modèle cosmologique actuel, en me concentrant sur la physique du Fond Diffus, et plus particulièrement ses propriétés de polarisation; ainsi qu'une vue d'ensemble des contributions et des résultats des expériences antérieures et en cours. Dans un deuxième temps, je présente l'instrument POLARBEAR, l'analyse des données prises lors de la première année d'observation, ainsi que les résultats scientifiques qui en ont été tirés, en soulignant principalement ma contribution au projet dans son ensemble. Dans le dernier chapitre, et dans le contexte des prochaines générations d'expérience sur les modes B, je détaille une étude plus systématique concernant l'impact de la présence des fuites des modes E dans les modes B sur les performances prévues par ces futures expériences, notamment en comparant plusieurs méthodes dont la méthodes des pseudospectres pures ainsi que l'estimateur quadratique à variance minimum. En particulier, dans le cas d'observation du ciel présentant une symétrie azimutale, je détaille comment l'estimateur quadratique à variance minimum peut être utilisé pour estimer de manière efficace les paramètres cosmologiques, et je présente une implémentation performante basée sur des algorithmes parallèles existants pour le calcul des transformations en harmoniques sphériques
Over the last two decades cosmology has been transformed from a data-starved to a data-driven, high precision science. N This transformation happened thanks to improved observational techniques, allowing to collect progressively bigger and more powerful data sets. Studies of the Cosmic Microwave Background (CMB) anisotropies have played, and continue on doing so, a particularly important and impactful role in this process. The huge data sets produced by recent CMB experiments pose new challenges for the field due to their volumes and complexity. Its successful resolution requires combining mathematical, statistical and computational methods aIl of which form a keystone of the modern CMB data analysis. In this thesis, I describe data analysis of the first data set produced by one of the most advanced, current CMB experiments, POLARBEAR and the major results it produced. The POLARBEAR experiment is a leading CMB B-mode polarization experiment aiming at detection and characterization of the so-called B-mode signature of the CMB polarization. This is one of the most exciting topics in the current CMB research, which only just has started yielding new insights onto cosmology in part thanks to the results discussed hereafter. In this thesis I describe first the modern cosmological model, focusing on the physics of the CMB, and in particular its polarization properties, and providing an overview of the past experiments and results. Subsequently, I present the POLARBEAR instrument, data analysis of its first year data set and the scientific results drawn from it, emphasizing my major contributions to the overall effort. In the last chapter, and in the context of the next generation CMB B-mode experiments, I present a more systematic study of the impact of the presence of the so-called E-to-B leakage on the performance forecasts of CMB B-modes experiments, by comparing several methods including the pure pseudospectrum method and the minimum variance quadratic estimator. In particular, I detail how the minimum variance quadratic estimator in the case of azimuthally symmetric patches can be used to estimate efficiently parameters, and I present an efficient implementation based on existing parallel algorithms for computing Spherical Harmonic Transforms
APA, Harvard, Vancouver, ISO, and other styles
33

Beck, Dominic. "Challenges in CMB Lensing Data Analysis and Scientific Exploitation of Current and Future CMB Polarization Experiments." Thesis, Université de Paris (2019-....), 2019. https://wo.app.u-paris.fr/cgi-bin/WebObjects/TheseWeb.woa/wa/show?t=3973&f=25502.

Full text
Abstract:
La prochaine génération de mesures du fond diffus cosmologique (CMB) continuera d’établir le domaine de la cosmologie comme une science de haute précision et ne cessera d’ouvrir de nouvelles frontières en physique fondamentale. Les mesures limitées par la variance cosmique de la température du CMB, mais aussi de sa polarisation jusqu'aux minutes d'arc, permettent des mesures précises de notre modèle cosmologique, qui est sensible à la physique insaisissable de la matière noire, de l'énergie noire et des neutrinos. De plus, une mesure aux grandes échelles de la polarisation CMB, dite “mode B”, permettra de déterminer la puissance des ondes gravitationnelles primordiales, générées par des phénomènes potentiellement présents dans le tout jeune univers, à des échelles d’énergie qui s’approchent de la théorie de grande unification. L'entrée dans un nouveau régime de sensibilité implique la nécessité d'améliorer notre compréhension de la physique et des méthodes d'analyse des effets systématiques astronomiques et instrumentaux.Dans ce contexte, cette thèse présente plusieurs analyses des possibles effets systématiques astronomiques et instrumentaux, principalement centrés sur les mesures CMB dans le cadre du lentillage gravitationnelle faible. Cet effet déforme le trajet des photons primaires du CMB, de sorte que les propriétés statistiques du signal mesuré s'écartent du signal primaire, et il faut donc prendre en compte cette distorsion. Cette thèse décrit la physique fondamentale, les méthodes d'analyse et les applications aux ensembles de données actuels de POLARBEAR, une expérience CMB dans le contexte scientifique des lentilles gravitationnelles.En particulier, cette thèse établit que les futures mesures de haute précision des lentilles gravitationnelles devront prendre en compte la haute complexité de cet effet, principalement causée par des déflexions multiples, induites par une distribution non linéaire des structures à grande échelle en évolution. De plus, l’impact des corrélations d’ordre supérieur, introduites par les avant-plans galactiques et par l’analyse jointe de données aux petites et aux grandes échelles, est étudié. Cette thèse démontre la nécessité d’observations des petites échelles dans plusieurs bandes de fréquences, ainsi que l’utilisation de techniques pour supprimer les avant-plans, afin d’obtenir une estimation sans biais du rapport tenseur-sur-scalaire
Next-generation cosmic microwave background (CMB) measurements will further establish the field of cosmology as a high-precision science and continue opening new frontiers of fundamental physics. Cosmic-variance limited measurements not only of the CMB temperature but also its polarization down to arcminute scales will allow for precise measurements of our cosmological model, which is sensitive to the elusive physics of dark matter, dark energy and neutrinos. Furthermore, a large-scale measurement of B-mode CMB polarization permits a determination of the power of primordial gravitational waves, generated by processes potentially happening in the very early universe at energies close to the scale of the Grand Unified Theory. Entering a new sensitivity regime entails the necessity to improve our physical understanding and analysis methods of astronomical and instrumental systematics.This thesis presents within this context several analyses of potential astronomical and instrumental systematics, primarily focusing on CMB measurements related to weak gravitational lensing. The latter distorts the path of the primary CMB's photons, such that the statistical properties of the measured signal deviate from the primary signal and, hence, has to be accounted for. This thesis describes the underlying physics, analysis methods and applications to current data sets of the POLARBEAR CMB experiment in the context of CMB lensing science.This thesis shows that future high-precision measurements of CMB lensing have to account for the high complexity of this effect, primarily caused by multiple deflections within an evolving, non-linear large-scale structure distribution. Furthermore, the impact of higher-order correlations introduced by galactic foregrounds and CMB lensing when jointly analyzing CMB data sets on both large and small scales is investigated, showing the need for small-scale multi-frequency observations and foreground removal techniques to obtain an unbiased estimate of the tensor-to-scalar ratio
APA, Harvard, Vancouver, ISO, and other styles
34

Al, shaer Ali. "Analyse des déformations permanentes des voies ferrées ballastées - Approche dynamique." Phd thesis, Ecole des Ponts ParisTech, 2005. http://pastel.archives-ouvertes.fr/pastel-00001592.

Full text
Abstract:
L'étude du comportement des voies ferrées ballastées sous les passages de trains à grandes vitesses est une des recherches les plus importantes dans le domaine des transports. À cause du passage répété de trains à grandes vitesses, des tassements verticaux différentiels sont observés tout au long de la voie ferrée. Ces tassements dépendent de la qualité de la plate-forme, de la vitesse de roulement ainsi que du comportement dynamique de la voie. Ils peuvent menacer le confort et la sécurité des passagers et nécessiter des coûts élevés de maintenance pour rendre la voie à sa géométrie initiale. Pour progresser dans la compréhension du phénomène de tassement, un essai à échelle réduite constitué de trois traverses est proposé. Les traverses sont mises en charge à l'aide de trois vérins hydrauliques fournissant des signaux ayant la forme de la lettre M qui simulent les passages de bogies. Cet essai permet de mesurer plusieurs paramètres tels que les déplacements, les accélérations et les contraintes dans l'éprouvette. Il est modélisé par la méthode des éléments finis avec des comportements élastiques linéaires et avec deux zones différentes de ballast (compactée et non compactée). Les résultats numériques déterminés grâce à un modèle tridimensionnel sont comparés à ceux de la mesure. Le but essentiel de cet essai est d'établir une loi de tassement vertical pour un grand nombre de cycles dépendant d'un paramètre dynamique qui peut être déterminé par le modèle numérique tridimensionnel.
APA, Harvard, Vancouver, ISO, and other styles
35

Gehan, Charlotte. "Évolution de la rotation du cœur des étoiles sur la branche des géantes rouges : des mesures à grande échelle vers une caractérisation du transport de moment cinétique." Thesis, Paris Sciences et Lettres, 2018. http://www.theses.fr/2018PSLEO021/document.

Full text
Abstract:
L’astérosismologie consiste à sonder les intérieurs stellaires en détectant les ondes sismiques qui s’y propagent. Les géantes rouges, des étoiles évoluées peu massives dont l’hydrogène du cœur est épuisé, sont des pulsateurs de type solaire présentant des modes mixtes qui nous permettent d’accéder directement aux propriétés physiques de leur cœur. Les mesures sismiques disponibles indiquent qu’un ou plusieurs mécanismes physiques encore mal compris contrebalancent l’accélération de la rotation du cœur sous l’effet de sa contraction, en transportant du moment cinétique. La majeure partie de cette thèse a été consacrée au développement d’une méthode permettant une mesure aussi automatisée que possible de la rotation moyenne du cœur des étoiles de la branche des géantes rouges observées par le satellite Kepler (NASA). Les mesures obtenues pour environ 900 étoiles mettent en évidence que la rotation du cœur est à peu près constante le long de la branche des géantes rouges,avec des valeurs indépendantes de la masse des étoiles. Le deuxième volet de cette thèse est consacré à l’interprétation de ces résultats basée sur la modélisation stellaire. L’enjeu consiste à utiliser les mesures à grande échelle obtenues durant la première partie pour caractériser la quantité de moment cinétique qui doit être extraite localement de chaque région du cœur, à différents instants sur la branche des géantes rouges, pour différentes masses stellaires
Asteroseismology consists in probing stellar interiors through the detection of seismic waves. Red giants are evolved low-mass stars that have exhausted hydrogen in their core. These stars are solar-type pulsators presenting mixed modes that allow us to have a direct access to the physical properties of their core. The available seismic measurements indicate that one or several mechanisms that remain poorly understood counterbalance the acceleration ofthe core rotation, resulting from its contraction, by transporting angularmomentum. The greatest part of this PhD thesis was devoted to the development of a method allowing a measurement as automated as possible of the mean core rotation of stars on the red giant branch that were observed by the Kepler satellite (NASA). The measurements that were derived for almost 900 stars highlight that the core rotation is almost constant along the red giant branch, with values largely independent of the stellar mass. The second part of this PhD thesis is devoted to the interpretation of these results based on stellar modelling. The challenge consists in using the large-scale measurements obtainedin the first part to characterise the quantity of angular momentum that has to be extracted from each layer of the core, at different timesteps on the red giant branch, for different stellar masses
APA, Harvard, Vancouver, ISO, and other styles
36

Lamarche-Perrin, Robin. "Analyse macroscopique des grands systèmes : émergence épistémique et agrégation spatio-temporelle." Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00933186.

Full text
Abstract:
L'analyse des systèmes de grande taille est confrontée à des difficultés d'ordre syntaxique et sémantique : comment observer un million d'entités distribuées et asynchrones ? Comment interpréter le désordre résultant de l'observation microscopique de ces entités ? Comment produire et manipuler des abstractions pertinentes pour l'analyse macroscopique des systèmes ? Face à l'échec de l'approche analytique, le concept d'émergence épistémique - relatif à la nature de la connaissance - nous permet de définir une stratégie d'analyse alternative, motivée par le constat suivant : l'activité scientifique repose sur des processus d'abstraction fournissant des éléments de description macroscopique pour aborder la complexité des systèmes. Cette thèse s'intéresse plus particulièrement à la production d'abstractions spatiales et temporelles par agrégation de données. Afin d'engendrer des représentations exploitables lors du passage à l'échelle, il apparaît nécessaire de contrôler deux aspects essentiels du processus d'abstraction. Premièrement, la complexité et le contenu informationnel des représentations macroscopiques doivent être conjointement optimisés afin de préserver les détails pertinents pour l'observateur, tout en minimisant le coût de l'analyse. Nous proposons des mesures de qualité (critères internes) permettant d'évaluer, de comparer et de sélectionner les représentations en fonction du contexte et des objectifs de l'analyse. Deuxièmement, afin de conserver leur pouvoir explicatif, les abstractions engendrées doivent être cohérentes avec les connaissances mobilisées par l'observateur lors de l'analyse. Nous proposons d'utiliser les propriétés organisationnelles, structurelles et topologiques du système (critères externes) pour contraindre le processus d'agrégation et pour engendrer des représentations viables sur les plans syntaxique et sémantique. Par conséquent, l'automatisation du processus d'agrégation nécessite de résoudre un problème d'optimisation sous contraintes. Nous proposons dans cette thèse un algorithme de résolution générique, s'adaptant aux critères formulés par l'observateur. De plus, nous montrons que la complexité de ce problème d'optimisation dépend directement de ces critères. L'approche macroscopique défendue dans cette thèse est évaluée sur deux classes de systèmes. Premièrement, le processus d'agrégation est appliqué à la visualisation d'applications parallèles de grande taille pour l'analyse de performance. Il permet de détecter les anomalies présentes à plusieurs niveaux de granularité dans les traces d'exécution et d'expliquer ces anomalies à partir des propriétés syntaxiques du système. Deuxièmement, le processus est appliqué à l'agrégation de données médiatiques pour l'analyse des relations internationales. L'agrégation géographique et temporelle de l'attention médiatique permet de définir des évènements macroscopiques pertinents sur le plan sémantique pour l'analyse du système international. Pour autant, nous pensons que l'approche et les outils présentés dans cette thèse peuvent être généralisés à de nombreux autres domaines d'application.
APA, Harvard, Vancouver, ISO, and other styles
37

Loko, Houdété Odilon. "Analyse de l'impact d'une intervention à grande échelle avec le modèle de risques proportionnels de Cox avec surplus de zéros : application au projet Avahan de lutte contre le VIH/SIDA en Inde." Thesis, Université Laval, 2014. http://www.theses.ulaval.ca/2014/30546/30546.pdf.

Full text
Abstract:
L’évaluation de l’impact des interventions à grande échelle est nécessaire dans un contexte de rareté des ressources. La rapidité de leur mise en oeuvre et certaines raisons éthiques font qu’on ne randomise pas les populations en groupes témoin et traitement. La non disponibilité de données fiables avant le démarrage des interventions ajoute aux difficultés. Certains ont proposé, dans ce cas, la reconstruction de l’historique des données à partir d’enquêtes. Dans le cas du projet Avahan pour lutter contre le VIH/SIDA, pour déterminer son effet sur l’utilisation du condom par les travailleuses du sexe, nous avons proposé une méthode qui est un mélange des modèles de régression logistique et de Cox. Nous comparons notre méthode à une basée sur les équations d’estimation généralisées en utilisant une simulation et les données d’Avahan. Les résultats montrent que notre méthode est plus puissante, mais moins robuste.
APA, Harvard, Vancouver, ISO, and other styles
38

Van, Den Beek Marius. "Piwi-dependent transcriptional silencing and Dicer-2-dependent post-transcriptional silencing limit transposon expression in adult heads of Drosophila Melanogaster." Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066153/document.

Full text
Abstract:
Les éléments transposables (ET) sont des constituants majeurs des génomes eucaryotes. Leur mobilisation joue un rôle important dans l'évolution et l'adaptation des organismes. Cependant, la transposition des ET peut conduire à des dommages irréversibles du génome et elle doit donc être étroitement contrôlé. Chez Drosophila melanogaster, la transposition des ET est contrôlée par les siRNA (small interfering RNAs) et les piRNA (Piwi-interacting RNAs) qui agissent en réprimant des cibles ARN de séquences complémentaires. Les siRNA et piRNA ont des modes distincts de biogenèse, de reconnaissance de cibles et d'activité repressive. Les piRNAs sont seulement présents en abondance dans les gonades, et transmis maternellement aux embryons. Par une approche de séquençage à haut débit, j'ai pu montrer que bien qu'ils induisent une répression transcriptionnelle des ET à ce stade du développement, ils sont pratiquement absents des têtes de drosophiles adultes. Cet état est cependant hérité et il est suffisant pour limiter l'expression des ET dans l'adulte, même en l'absence de siRNA. A l'inverse, si la répression transcriptionnelle précoce n'est pas établie, les siRNA agissent comme un système de sauvegarde en limitant l'expression des ET. En cas de perte conjointe des piRNA et siRNA, l'expression des ET augmente significativement et la durée de vie des mouches adultes se trouve réduite. Les analyses de sequences à grande échelle m'ont par ailleurs conduit à développer des outils logiciels intégrés dans Galaxy et à m'impliquer significativement dans la communauté qui développe ce système au niveau international
Transposable elements are major components of eukaryotic genomes and have been proposed as important drivers of gene network evolution, as they can move or “transpose” in their host genome, creating gene duplications, gene inactivations or altogether altering gene function. Nevertheless, uncontrolled high-rate transposition leads to DNA damage and genomic instabilities, and therefore needs to be kept at a low level. In the fruitfly Drosophila melanogaster, transposition is counteracted by multiple mechanisms, amongst which the generation of small interfering RNAs (siRNAs) and Piwi-interacting RNAs (piRNAs). siRNAs and piRNAs belong to the category of small RNAs, and these are involved in negative regulation of complementary target RNAs abundance, but siRNAs and piRNAs have distinct mechanisms of biogenesis, target recognition and mechanisms of target regulation. Notably, piRNAs are only abundant in gonads and are transmitted to the embryo. By sequencing small RNAs and normal transcripts in adult heads, I conclude that, while piRNAs are likely absent in adult heads, they induce a repressive state on TEs. If this repressive state is lost, the siRNA pathway can compensate and limit Transposable element levels. If siRNAs are lost, the repressive state induced by piRNAs suffices to limit Transposable element levels. If both piRNAs and siRNAs are lost, the expression level of Transposable elements increases, and flies have a shorter life span. The requirement to analyse large-scale sequencing data led to the development of multiple tools for the reproducible research platform Galaxy
APA, Harvard, Vancouver, ISO, and other styles
39

Conard, Didier. "Traitement d'images en analyse de défaillances de circuits intégrés par faisceau d'électrons." Grenoble INPG, 1991. http://tel.archives-ouvertes.fr/tel-00339510.

Full text
Abstract:
Cette thèse présente l'étude et la réalisation d'un système automatique et intégré d'analyse de défaillances de circuits VLSI par faisceau d'électrons. Le principe d'analyse consiste a comparer les images représentant en contraste de potentiel le fonctionnement interne du circuit défaillant a celles d'un circuit de référence. L'application de cette technique de test a des circuits dont la structure détaillée est inconnue, a nécessité le développement d'un outil automatique permettant d'extraire les différences de contraste sur la totalité du circuit. L'automatisation s'est heurtée aux problèmes d'alignement entre les images a comparer. Une technique de reconnaissance des formes, basée sur la détection des coins, a été mise en œuvre pour s'affranchir de ces problèmes. Ces travaux ont été valides par une étude expérimentale menée sur des microprocesseurs 68000
APA, Harvard, Vancouver, ISO, and other styles
40

Ferrigno, Julie. "Caractérisation de circuits intégrés par émission de lumière statique et dynamique." Thesis, Bordeaux 1, 2008. http://www.theses.fr/2008BOR13719/document.

Full text
Abstract:
Les circuits VLSI (”Very Large Scale Integration”) et ULSI (”Ultra Large Scale Integration”) occupent une grande place dans le monde des semi-conducteurs. Leur complexi?cation croissante est due à la demande de plus en plus fortes des grands domaines d’application, de la micro-informatique au spatial. Cependant, la complexité engendre de nombreux défauts que l’on doit prévoir ou détecter et analyser de manière à ne pas les voir se multiplier. De nombreuses techniques d’analyse de défaillance ont été développées et sont toujours largement utilisées dans les laboratoires. Cependant, nous nous sommes attachés à intégrer une nouvelle approche au processus de défaillance : la simulation de fautes dans les circuits VLSI et ULSI de technologie CMOS. Ce type d’approche permet d’aborder une analyse plus rapidement plus facilement, mais joue également un rôle prédictif de défaut dans les structures de transistors MOS
VLSI (”Very Large Scale Integration”) et ULSI (”Ultra Large Scale Integration”) take the most important place in semi-conductor domain. Their complexi?cation is growing and is due to the bigger and bigger request from the manufacturers such as automotive domain or space application. However, this complexicity generates a lot of defects inside the components. We need to predict or to detect and analyze these defects in order to stop these phenomena. Lot of failure analyzis techniques were developped inside the laboratories and are still used. Nevertheless, we developped a new approach for failure analysis process : the faults simulation for CMOS integrated circuits. This particular kind of approach allows us to reach the analysis in more e?ective and easier way than usual. But the simulations play a predictive role for structures of MOS transistors
APA, Harvard, Vancouver, ISO, and other styles
41

Calandriello, Daniele. "Efficient sequential learning in structured and constrained environments." Thesis, Lille 1, 2017. http://www.theses.fr/2017LIL10216/document.

Full text
Abstract:
L'avantage principal des méthodes d'apprentissage non-paramétriques réside dans le fait que la nombre de degrés de libertés du modèle appris s'adapte automatiquement au nombre d'échantillons. Ces méthodes sont cependant limitées par le "fléau de la kernelisation": apprendre le modèle requière dans un premier temps de construire une matrice de similitude entre tous les échantillons. La complexité est alors quadratique en temps et espace, ce qui s'avère rapidement trop coûteux pour les jeux de données de grande dimension. Cependant, la dimension "effective" d'un jeu de donnée est bien souvent beaucoup plus petite que le nombre d'échantillons lui-même. Il est alors possible de substituer le jeu de donnée réel par un jeu de données de taille réduite (appelé "dictionnaire") composé exclusivement d'échantillons informatifs. Malheureusement, les méthodes avec garanties théoriques utilisant des dictionnaires comme "Ridge Leverage Score" (RLS) ont aussi une complexité quadratique. Dans cette thèse nous présentons une nouvelle méthode d'échantillonage RLS qui met à jour le dictionnaire séquentiellement en ne comparant chaque nouvel échantillon qu'avec le dictionnaire actuel, et non avec l'ensemble des échantillons passés. Nous montrons que la taille de tous les dictionnaires ainsi construits est de l'ordre de la dimension effective du jeu de données final, garantissant ainsi une complexité en temps et espace à chaque étape indépendante du nombre total d'échantillons. Cette méthode présente l’avantage de pouvoir être parallélisée. Enfin, nous montrons que de nombreux problèmes d'apprentissage non-paramétriques peuvent être résolus de manière approchée grâce à notre méthode
The main advantage of non-parametric models is that the accuracy of the model (degrees of freedom) adapts to the number of samples. The main drawback is the so-called "curse of kernelization": to learn the model we must first compute a similarity matrix among all samples, which requires quadratic space and time and is unfeasible for large datasets. Nonetheless the underlying effective dimension (effective d.o.f.) of the dataset is often much smaller than its size, and we can replace the dataset with a subset (dictionary) of highly informative samples. Unfortunately, fast data-oblivious selection methods (e.g., uniform sampling) almost always discard useful information, while data-adaptive methods that provably construct an accurate dictionary, such as ridge leverage score (RLS) sampling, have a quadratic time/space cost. In this thesis we introduce a new single-pass streaming RLS sampling approach that sequentially construct the dictionary, where each step compares a new sample only with the current intermediate dictionary and not all past samples. We prove that the size of all intermediate dictionaries scales only with the effective dimension of the dataset, and therefore guarantee a per-step time and space complexity independent from the number of samples. This reduces the overall time required to construct provably accurate dictionaries from quadratic to near-linear, or even logarithmic when parallelized. Finally, for many non-parametric learning problems (e.g., K-PCA, graph SSL, online kernel learning) we we show that we can can use the generated dictionaries to compute approximate solutions in near-linear that are both provably accurate and empirically competitive
APA, Harvard, Vancouver, ISO, and other styles
42

Van, Den Beek Marius. "Piwi-dependent transcriptional silencing and Dicer-2-dependent post-transcriptional silencing limit transposon expression in adult heads of Drosophila Melanogaster." Electronic Thesis or Diss., Paris 6, 2015. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2015PA066153.pdf.

Full text
Abstract:
Les éléments transposables (ET) sont des constituants majeurs des génomes eucaryotes. Leur mobilisation joue un rôle important dans l'évolution et l'adaptation des organismes. Cependant, la transposition des ET peut conduire à des dommages irréversibles du génome et elle doit donc être étroitement contrôlé. Chez Drosophila melanogaster, la transposition des ET est contrôlée par les siRNA (small interfering RNAs) et les piRNA (Piwi-interacting RNAs) qui agissent en réprimant des cibles ARN de séquences complémentaires. Les siRNA et piRNA ont des modes distincts de biogenèse, de reconnaissance de cibles et d'activité repressive. Les piRNAs sont seulement présents en abondance dans les gonades, et transmis maternellement aux embryons. Par une approche de séquençage à haut débit, j'ai pu montrer que bien qu'ils induisent une répression transcriptionnelle des ET à ce stade du développement, ils sont pratiquement absents des têtes de drosophiles adultes. Cet état est cependant hérité et il est suffisant pour limiter l'expression des ET dans l'adulte, même en l'absence de siRNA. A l'inverse, si la répression transcriptionnelle précoce n'est pas établie, les siRNA agissent comme un système de sauvegarde en limitant l'expression des ET. En cas de perte conjointe des piRNA et siRNA, l'expression des ET augmente significativement et la durée de vie des mouches adultes se trouve réduite. Les analyses de sequences à grande échelle m'ont par ailleurs conduit à développer des outils logiciels intégrés dans Galaxy et à m'impliquer significativement dans la communauté qui développe ce système au niveau international
Transposable elements are major components of eukaryotic genomes and have been proposed as important drivers of gene network evolution, as they can move or “transpose” in their host genome, creating gene duplications, gene inactivations or altogether altering gene function. Nevertheless, uncontrolled high-rate transposition leads to DNA damage and genomic instabilities, and therefore needs to be kept at a low level. In the fruitfly Drosophila melanogaster, transposition is counteracted by multiple mechanisms, amongst which the generation of small interfering RNAs (siRNAs) and Piwi-interacting RNAs (piRNAs). siRNAs and piRNAs belong to the category of small RNAs, and these are involved in negative regulation of complementary target RNAs abundance, but siRNAs and piRNAs have distinct mechanisms of biogenesis, target recognition and mechanisms of target regulation. Notably, piRNAs are only abundant in gonads and are transmitted to the embryo. By sequencing small RNAs and normal transcripts in adult heads, I conclude that, while piRNAs are likely absent in adult heads, they induce a repressive state on TEs. If this repressive state is lost, the siRNA pathway can compensate and limit Transposable element levels. If siRNAs are lost, the repressive state induced by piRNAs suffices to limit Transposable element levels. If both piRNAs and siRNAs are lost, the expression level of Transposable elements increases, and flies have a shorter life span. The requirement to analyse large-scale sequencing data led to the development of multiple tools for the reproducible research platform Galaxy
APA, Harvard, Vancouver, ISO, and other styles
43

Ahmad, Ahmad. "Caractérisation globale et locale de l'écoulement à surface libre et en charge de systèmes liquide-liquide : application au procédé d’injection pariétale pour le transport des pétroles bruts." Brest, 2010. http://www.theses.fr/2010BRES2013.

Full text
Abstract:
Le travail de recherche décrit dans la présente thèse, considère l’écoulement à surface libre et en charge de systèmes liquide/liquide. La première partie du mémoire est consacrée à l’étude de la propagation d’un courant gravitaire à la surface d’un liquide ambiant plus dense et miscible, au repos. Nous avons relâché à la surface d’un bassin d’eau salée, un débit contrôlé d’eau douce, puis de solutions polymères afin de caractériser à l’aide d’une méthode basée sur l’analyse des images et l’exploitation des diagrammes spatio-temporels, l’effet de la rhéofluidification sur l’avancée, l’étalement et l’enfoncement du courant gravitaire dans le liquide ambiant. Une caractérisation locale consistant en la mise au point d’une PIV grande échelle, visant à décrire les champs hydrodynamiques dans l’un et l’autre fluides a complété l’étude globale précédente. La seconde partie présente quant à elle, considère un écoulement en-courant eau/huile dans une conduite, afin de simuler le procédé d’injection pariétale de transport de pétrole brut par pipeline, ce dernier étant représenté par une huile dôtée d’une très forte viscosité et d’un comportement viscoplastique. Nous avons notamment caractérisé l’effet de la pente et du rapport des débits sur les pertes de charge globales, afin de définir les conditions de fonctionnement de plus grande efficacité du procédé. Une caractérisation locale des instabilités interfaciales a complété l’étude globale précédente
The present dissertation reports on investigations on open-channel flows and Poiseuille flows of liquid/liquid systems. The first part of the dissertation considers the propagation of a gravity current over a denser ambient miscible liquid. A controlled flow rate of fresh water and of polymer solutions were released upon the free surface of an ambient salty water at rest in a basin, in order to characterize with te help of a method based on image analysis and the exploitation of spatio-temporal diagrams, the effect of polymer shear-thinning property on the temporal evolution of front progress and spreading of gravity current in ambient liquid and of mixing layer depth as well. A local study consisting in the development of a large scale PIV, aiming at describe to hydrodynamic fields existing in both fluids completed the previous global study. The second part of the dissertation considers a co-current water/oil flow in a duct, in order to simulate the lubricated pipelining of heavy crude oils which were being represented by oils gifted with high viscosity and a viscoplastic rheological behaviour. The effect of bed slope and flow rates ratio on global pressure drop were characterized in order to define the conditions of process optimal efficiency. A local characterization of the interfacial instabilities completed the previous global investigation
APA, Harvard, Vancouver, ISO, and other styles
44

Marteau, Julie. "Caractérisation multi-échelle et analyse par essai d'indentation instrumentée de matériaux à gradient générés par procédés mécaniques et thermochimiques de traitement de surface." Phd thesis, Université de Technologie de Compiègne, 2013. http://tel.archives-ouvertes.fr/tel-00937956.

Full text
Abstract:
Cette thèse est un travail prospectif sur la caractérisation multi-échelle de matériaux à gradient de propriétés générés par des traitements de surface de type mécanique (grenaillage à air comprimé ou par ultrasons) ou thermochimique (nitruration, implantation ionique, cémentation basse température). Les apports de plusieurs techniques de caractérisation (microscopie électronique à balayage, spectrométrie, indentation instrumentée, microscopie interférométrique), à différentes échelles, et l'existence possible d'une signature des traitements de surface étudiés sur le matériau ont été examinés. Une analyse multi-échelle des échantillons grenaillés par ultrasons a permis d'établir un lien entre les paramètres procédé et la rugosité du matériau. Une approche originale statistique a été proposée pour déterminer la dureté d'un matériau modifié par un traitement de surface donné sans altérer la surface par une rectification. Elle a permis d'établir un lien entre la rugosité des échantillons grenaillés par ultrasons et leur dureté. Une recherche bibliographique détaillée a été réalisée sur la simulation de l'essai d'indentation instrumentée par éléments finis en étudiant une centaine d'articles afin d'évaluer l'influence des hypothèses des modèles sur leurs résultats. A l'aide d'un modèle éléments finis, la sensibilité des courbes d'indentation à une variation des paramètres matériau a été examinée. Cela a permis de mettre en place une réflexion sur l'identification des propriétés d'un matériau à gradient à l'aide de l'essai d'indentation.
APA, Harvard, Vancouver, ISO, and other styles
45

Voon, Lew Yan, and Lew Fock Chong. "Contribution au test intégré déterministe : structures de génération de vecteurs de test." Montpellier 2, 1992. http://www.theses.fr/1992MON20035.

Full text
Abstract:
Ce memoire concerne la synthese de structures de generation de vecteurs de test (gvt) deterministes. Une etude empirique, basee sur des simulations exhaustives, des sequences generees par des registres a decalage a retroaction lineaire et non-lineaire montre que ces derniers sont inaptes a produire des sequences de vecteurs de test deterministes. Nous avons donc etendu notre recherche au cas general de machine d'etats finis lineaire et autonome (mefla) avec inversion. Apres avoir presente les principes fondamentaux d'une mefla avec inversion, nous proposons une methode de synthese de structures gvt deterministes et deterministe/pseudo-aleatoire
APA, Harvard, Vancouver, ISO, and other styles
46

Savart, Denis. "Analyse de défaillances de circuits VLSI par testeur à faisceau d'électrons." Phd thesis, Grenoble INPG, 1990. http://tel.archives-ouvertes.fr/tel-00337865.

Full text
Abstract:
Cette thèse concerne l'analyse de défaillances de circuits VLSI et plus particulièrement la localisation automatique de défauts sur des circuits a structure non connue a l'aide d'un testeur par faisceau d'électrons. La première partie décrit le problème du point de vue de l'analyste et conclut sur la nécessité de l'emploi des techniques de test sans contact et plus particulièrement du testeur par faisceau d'électrons. La seconde partie décrit la methode employée pour localiser une défaillance au sein d'un circuit intégré, fondée sur la comparaison de l'image en contraste de potentiel du circuit défaillant avec l'image d'un circuit identique réputé bon. Les problèmes lies a l'automatisation complète de la phase de comparaison sont ensuite détaillés et des solutions sont apportées. Les algorithmes de traitement des images sont décrits en détail; certains ayant été spécialement développés pour la nature spécifique des images de circuits intégrés (binarisation et corrélation par recherche des coins). La troisième partie décrit les deux phases expérimentales effectuées sur deux équipements différents et permet de montrer la faisabilité de la methode de comparaison et surtout la fiabilité du processus automatique. La dernière partie conclut par la nécessité de développer les applications informatisées autour de l'outil testeur par faisceau d'électrons
APA, Harvard, Vancouver, ISO, and other styles
47

Beaussier, Thomas. "Évaluation économique et environnementale du développement régional d’une filière en interaction multi-secteur et multi-échelle : le cas de la filière forêt-bois du Grand Est." Thesis, Université de Lorraine, 2020. http://www.theses.fr/2020LORR0138.

Full text
Abstract:
L’objectif de cette thèse est d’élaborer une méthode d’évaluation quantitative de la performance économique et environnementale de stratégies de développement régional, appliquée au secteur forestier dans le Grand Est. La démarche s’appuie sur le couplage d’outils de modélisation provenant des sciences économiques et des sciences de l’environnement. Dans le chapitre 1, nous analysons les couplages existants entre 5 modèle économique et 3 outils d’évaluation environnementale. Une grille de critère dédiée permet de comparer leur pertinence pour fournir des évaluations intégratives à l’échelle méso. Les couplages entre modèles d’équilibre d’une part, et Analyse du Cycle de Vie (ACV) d’autre part, répondent le mieux aux objectifs définis. Le chapitre 2 détaille le cadre méthodologique du couplage entre un modèle d’équilibre partiel du secteur forestier français et l’ACV. L’homogénéisation des flux de matières entre les deux modèles permet de produire des indicateurs économiques et environnementaux au périmètre cohérent, dont le ratio fournit deux indicateurs d’éco-efficience. Le premier combine le surplus économique de la filière forêt bois avec ses impacts environnementaux potentiels (Partial Eco-Efficiency, PEE), le second y ajoute les impacts environnementaux évités par la substitution entre le bois-énergie et des énergies fossiles, par rapport à un scénario de référence (Full Eco-Efficiency, FEE). Dans le chapitre 3, nous utilisons ce cadre pour analyser différentes stratégies de développement de la bioéconomie orientées vers le bois-énergie, à l’échelle nationale et au niveau régional dans le Grand Est. Nous comparons la FEE de scénarios construits par combinaisons de différentes politiques : subvention de la demande de bois-énergie, approvisionnement local, protection des forêts, crise énergétique. Les stratégies intégrant une stimulation de la demande de bois-énergie sont les plus éco-efficientes, au niveau régional et national. Cela repose notamment sur les impacts évités via la substitution du bois-énergie aux combustibles fossiles. La combinaison de la subvention avec des mesures de protection et/ou d’approvisionnement local augmente ou diminue légèrement son éco-efficience selon l’échelle de mise en œuvre. D’autres facteurs déterminant de l’éco-efficience d’une politique sont identifiés, comme les caractéristiques de la ressource forestière, l’importance de la filière bois locale, et les caractéristiques des régions voisines
The objective of this thesis is to develop a method for quantitative assessments of the economic and environmental performance of regional development strategies, applied to the forestry sector in the region Grand Est. To this end, we adopt an approach based on the coupling of modelling tools from economics and environmental sciences. In chapter 1, we analyse couplings between 5 economic models and 3 environmental assessment tools from the existing literature. A dedicated criteria grid allows to compare their relevance to provide integrative assessments at the meso scale. Couplings between equilibrium models on the one hand, and Life Cycle Assessment (LCA) on the other hand, best meet the defined objectives. Chapter 2 details the methodological framework of the coupling between a partial equilibrium model of the French forest sector and LCA. The homogenisation of material flows between the two models makes it possible to produce economic and environmental indicators with a coherent perimeter, the ratio of which provides two eco-efficiency indicators. The first combines the economic surplus of the forest-based sector with its potential environmental impacts (Partial Eco-Efficiency, PEE); the second adds the environmental impacts avoided by substitution between wood-energy and fossil fuels, compared to a reference scenario (Full Eco-Efficiency, FEE). In Chapter 3, we use this framework to analyse different wood energy oriented bio-economy development strategies at the national level and at the regional level in the region Grand Est. For this purpose, we compare the FEE of scenarios constructed by combinations of different policies: subsidising wood energy demand, local supply, forest protection, energy crisis. Strategies integrating a stimulation of wood energy demand are the most eco-efficient, at regional and national level. This is based in particular on the benefits of avoided impacts through the substitution of wood energy for fossil fuels. The combination of the subsidy with protection measures and/or local procurement slightly increases or decreases its eco-efficiency depending on the scale of implementation. In addition, we have identified other factors determining most the eco-efficiency of a policy, such as the characteristics of the forest resource, the importance of the local wood sector, and the characteristics of neighbouring regions
APA, Harvard, Vancouver, ISO, and other styles
48

Chen, Yuguang. "Modélisation du comportement mécanique des grands CFRD : Identification des caractéristiques des enrochements et comportement du masque d'étanchéité amont." Phd thesis, Ecole Centrale de Lyon, 2012. http://tel.archives-ouvertes.fr/tel-00855689.

Full text
Abstract:
Une modélisation numérique des grands barrages en enrochement à masque amont (CFRD) a été entreprise pour mieux comprendre les pathologies observées sur ces ouvrages récemment construits, principalement des fissures horizontales et verticales sur le masque amont en béton en phase de construction et de mise en eau. Le but de cette modélisation est ensuite de confirmer, préciser ou compléter les solutions proposées par les experts pour éviter ces désordres.D‟abord, une loi de comportement développée au sein d‟EDF-CIH appelée L&K-Enroch a été présentée. Il s'agit d'un modèle élastoplastique qui prend en compte les déformations irréversibles de l‟enrochement sous sollicitation déviatorique et isotrope dans les grands CFRD. Cette thèse propose aussi une méthode de calage des paramètres de ce modèle.Deux modélisations des barrages sont également présentées dans cette thèse afin de vérifier la fiabilité de la loi de comportement L&K-Enroch et de mieux comprendre les pathologies sur le masque amont en béton du CFRD. La modélisation en déformation plane (2D) est d‟abord entreprise et a comme support le barrage d‟Aguamilpa (180,5 m), au Mexique. Une modélisation plus poussée en 3D prenant en compte de l'effet de la vallée est ensuite entreprise. Elle a comme support le barrage de Mohale (145 m) au Lesotho.L'effet d‟échelle de l'enrochement est également étudié en comparant les résultats de simulation pour les matériaux de différentes tailles. L'impact de l‟effet d‟échelle sur le comportement du barrage est aussi analysé.Les simulations présentées en 2D et 3D sont une contribution à l'analyse du comportement mécanique des grands CFRD. Les résultats de la modélisation 2D montrent généralement une bonne correspondance avec les mesures in-situ. La modélisation 3D explique, d'une manière plus convaincante, l‟apparition des fissures sur le masque amont en béton des CFRD. Certaines mesures constructives sont finalement proposées afin de limiter ou d'éviter ces désordres dans le masque.
APA, Harvard, Vancouver, ISO, and other styles
49

Cui, Yanwei. "Kernel-based learning on hierarchical image representations : applications to remote sensing data classification." Thesis, Lorient, 2017. http://www.theses.fr/2017LORIS448/document.

Full text
Abstract:
La représentation d’image sous une forme hiérarchique a été largement utilisée dans un contexte de classification. Une telle représentation est capable de modéliser le contenu d’une image à travers une structure arborescente. Dans cette thèse, nous étudions les méthodes à noyaux qui permettent de prendre en entrée des données sous une forme structurée et de tenir compte des informations topologiques présentes dans chaque structure en concevant des noyaux structurés. Nous présentons un noyau structuré dédié aux structures telles que des arbres non ordonnés et des chemins (séquences de noeuds) équipés de caractéristiques numériques. Le noyau proposé, appelé Bag of Subpaths Kernel (BoSK), est formé en sommant les noyaux calculés sur les sous-chemins (un sac de tous les chemins et des noeuds simples) entre deux sacs. Le calcul direct de BoSK amène à une complexité quadratique par rapport à la taille de la structure (nombre de noeuds) et la quantité de données (taille de l’ensemble d’apprentissage). Nous proposons également une version rapide de notre algorithme, appelé Scalable BoSK (SBoSK), qui s’appuie sur la technique des Random Fourier Features pour projeter les données structurées dans un espace euclidien, où le produit scalaire du vecteur transformé est une approximation de BoSK. Cet algorithme bénéficie d’une complexité non plus linéaire mais quadratique par rapport aux tailles de la structure et de l’ensemble d’apprentissage, rendant ainsi le noyau adapté aux situations d’apprentissage à grande échelle. Grâce à (S)BoSK, nous sommes en mesure d’effectuer un apprentissage à partir d’informations présentes à plusieurs échelles dans les représentations hiérarchiques d’image. (S)BoSK fonctionne sur des chemins, permettant ainsi de tenir compte du contexte d’un pixel (feuille de la représentation hiérarchique) par l’intermédiaire de ses régions ancêtres à plusieurs échelles. Un tel modèle est utilisé dans la classification des images au niveau pixel. (S)BoSK fonctionne également sur les arbres, ce qui le rend capable de modéliser la composition d’un objet (racine de la représentation hiérarchique) et les relations topologiques entre ses sous-parties. Cette stratégie permet la classification des tuiles ou parties d’image. En poussant plus loin l’utilisation de (S)BoSK, nous introduisons une nouvelle approche de classification multi-source qui effectue la classification directement à partir d’une représentation hiérarchique construite à partir de deux images de la même scène prises à différentes résolutions, éventuellement selon différentes modalités. Les évaluations sur plusieurs jeux de données de télédétection disponibles dans la communauté illustrent la supériorité de (S)BoSK par rapport à l’état de l’art en termes de précision de classification, et les expériences menées sur une tâche de classification urbaine montrent la pertinence de l’approche de classification multi-source proposée
Hierarchical image representations have been widely used in the image classification context. Such representations are capable of modeling the content of an image through a tree structure. In this thesis, we investigate kernel-based strategies that make possible taking input data in a structured form and capturing the topological patterns inside each structure through designing structured kernels. We develop a structured kernel dedicated to unordered tree and path (sequence of nodes) structures equipped with numerical features, called Bag of Subpaths Kernel (BoSK). It is formed by summing up kernels computed on subpaths (a bag of all paths and single nodes) between two bags. The direct computation of BoSK yields a quadratic complexity w.r.t. both structure size (number of nodes) and amount of data (training size). We also propose a scalable version of BoSK (SBoSK for short), using Random Fourier Features technique to map the structured data in a randomized finite-dimensional Euclidean space, where inner product of the transformed feature vector approximates BoSK. It brings down the complexity from quadratic to linear w.r.t. structure size and amount of data, making the kernel compliant with the large-scale machine-learning context. Thanks to (S)BoSK, we are able to learn from cross-scale patterns in hierarchical image representations. (S)BoSK operates on paths, thus allowing modeling the context of a pixel (leaf of the hierarchical representation) through its ancestor regions at multiple scales. Such a model is used within pixel-based image classification. (S)BoSK also works on trees, making the kernel able to capture the composition of an object (top of the hierarchical representation) and the topological relationships among its subparts. This strategy allows tile/sub-image classification. Further relying on (S)BoSK, we introduce a novel multi-source classification approach that performs classification directly from a hierarchical image representation built from two images of the same scene taken at different resolutions, possibly with different modalities. Evaluations on several publicly available remote sensing datasets illustrate the superiority of (S)BoSK compared to state-of-the-art methods in terms of classification accuracy, and experiments on an urban classification task show the effectiveness of proposed multi-source classification approach
APA, Harvard, Vancouver, ISO, and other styles
50

Tauvel, Claire. "Optimisation stochastique à grande échelle." Phd thesis, Université Joseph Fourier (Grenoble), 2008. http://tel.archives-ouvertes.fr/tel-00364777.

Full text
Abstract:
L'objet de cette thèse est l'étude d'algorithmes itératifs permettant de résoudre des problèmes d'optimisation convexe avec ou sans contraintes fonctionnelles, des problèmes de résolutions d'inégalités variationnelles à opérateur monotone et des problèmes de recherche de point selle. Ces problèmes sont envisagés lorsque la dimension de l'espace de recherche est grande et lorsque les valeurs des différentes fonctions étudiées et leur sous/sur-gradients ne sont pas connues exactement et ne sont accessibles qu'au travers d'un oracle stochastique. Les algorithmes que nous étudions sont des adaptations au cas stochastique de deux algorithmes : le premier inspiré de la méthode de descente en miroir de Nemirovski et Yudin et le second, de l'algorithme d'extrapolation duale de Nesterov. Pour chacun de ces deux algorithmes, nous donnons des bornes pour l'espérance et pour les déviations modérées de l'erreur d'approximation sous différentes hypothèses de régularité pour tous les problèmes sans contraintes fonctionnelles envisagées et nous donnons des versions adaptatives de ces algorithmes qui permettent de s'affranchir de connaître certains paramètres de ces problèmes non accessibles en pratique. Enfin nous montrons comment, à l'aide d'un algorithme auxiliaire inspiré de la méthode de Newton et des résultats obtenus lors de la résolution des problèmes de recherche de point selle, il est possible de résoudre des problèmes d'optimisation sous contraintes fonctionnelles.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography