Rozprawy doktorskie na temat „Quantification à haute résolution”

Kliknij ten link, aby zobaczyć inne rodzaje publikacji na ten temat: Quantification à haute résolution.

Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych

Wybierz rodzaj źródła:

Sprawdź 50 najlepszych rozpraw doktorskich naukowych na temat „Quantification à haute résolution”.

Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.

Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.

Przeglądaj rozprawy doktorskie z różnych dziedzin i twórz odpowiednie bibliografie.

1

Devès, Guillaume. "Analyse chimique quantitative à haute résolution spatiale par microsonde et nanosonde nucléaires". Thesis, Bordeaux 1, 2010. http://www.theses.fr/2010BOR14084/document.

Pełny tekst źródła
Streszczenie:
Etudier le rôle des éléments traces à l’échelle cellulaire requiert des outils analytiques de pointe. Nous avons développé une nouvelle méthodologie précise de la répartition des éléments chimiques cellulaires à partir d’une combinaison des méthodes d’analyse par faisceaux d’ions PIXE, RBS et STIM. Cette méthodologie s’appuie fortement sur le développement d’un logiciel (Paparamborde) pour le traitement quantitatif des expériences STIM. La validité de cette méthode ainsi que ses limites sont discutées. La méthode STIM-PIXE-RBS permet de quantifier la composition en éléments traces (µg/g) avec une incertitude de mesure évaluée à 19,8% dans des compartiments cellulaires de masse inférieure à 0,1 ng.Une des limites de la méthode réside dans le faible nombre d’échantillons analysables en raison à la fois du temps minimum nécessaire pour réaliser une acquisition et de l’accès limité aux plateformes d’analyse par faisceaux d’ions. C’est pourquoi nous avons également développé une base de données pour la capitalisation des compositions chimiques cellulaires (BDC4). Cette base de données s’inscrit dans la logique de l’utilisation de la composition chimique cellulaire comme un traceur de l’activité biologique, et doit permettre à terme de définir des compositions chimiques de référence pour les différents types cellulaires analysés.L’application de la méthodologie STIM-PIXE-RBS à l’étude de la toxicologie nucléaire du cobalt permet d’illustrer son intérêt en pratique. En particulier, l’analyse STIM s’avère indispensable dans le cas d’échantillons présentant une perte de masse organique au cours de l’analyse PIXE-RBS
The study of the role of trace elements at cellular level requires the use of state-of-the-art analytical tools that could achieve enough sensitivity and spatial resolution. We developed a new methodology for the accurate quantification of chemical element distribution in single cells based on a combination of ion beam analysis techniques STIM, PIXE and RBS. The quantification procedure relies on the development of a STIM data analysis software (Paparamborde). Validity of this methodology and limits are discussed here. The method allows the quantification of trace elements (µg/g) with a 19.8 % uncertainty in cellular compartments with mass below 0.1 ng.The main limit of the method lies in the poor number of samples that can be analyzed, due to long irradiation times required and limited access to ion beam analysis facilities. This is the reason why we developed a database for cellular chemical composition capitalization (BDC4). BDC4 has been designed in order to use cellular chemical composition as a tracer for biological activities and is expected to provide in the future reference chemical compositions for any cellular type or compartment.Application of the STIM-PIXE-RBS methodology to the study of nuclear toxicology of cobalt compounds is presented here showing that STIM analysis is absolutely needed when organic mass loss appears during PIXE-RBS irradiation
Style APA, Harvard, Vancouver, ISO itp.
2

Quoineaud, Anne-Agathe. "Caractérisation et quantification de l'aluminium dans les zéolithes désaluminées par RMN haute-résolution à l'état solide". Caen, 2002. http://www.theses.fr/2002CAEN2049.

Pełny tekst źródła
Streszczenie:
Ce travail présente une méthode de caractérisation et de quantification, par RMN de l'27Al et du 1H, permettant d'obtenir la description la plus précise possible des zéolithes en terme de nature chimique, de localisation et de concentration des diverses espèces aluminiques tétra-, penta- et hexa-coordinées. Dans un premier temps, nous avons étudié les sites aluminium présents dans la zéolithe Y, choisie comme référence, par RMN MAS et MQMAS de l'27Al (étude directe) et par RMN 1H/27Al TRAPDOR via l'étude du proton (étude indirecte). La nature et la quantité des espèces aluminium présentes dans la zéolithe Y sont modifiées par plusieurs traitements : traitement hydrothermal, lavages acides et échanges ioniques. Les paramètres caractéristiques des sites Al (déplacement chimique, constante quadripolaire et concentration) sont calculés par décomposition des spectres MAS et MQMAS. La méthode d'identification et de quantification des espèces aluminiques par RMN MAS et MQMAS de l'27Al a ensuite été appliquée à l'étude d'autres systèmes zéolithiques : les zéolithes MOR, EU-1 et ZSM-22. Nous avons montré que deux types d'atomes d'aluminium sont présents dans les zéolithes désaluminées : les atomes de réseau tétra-coordinés et les espèces aluminiques extra-réseau (EFAL) penta- et hexa-coordinées. Les atomes d'aluminium de charpente tétra-coordinés peuvent apparaître sous deux formes en RMN de l'27Al : un pic fin associé aux Al compensés par des protons et une raie large fortement quadripolaire attribuée aux Al compensés par des EFAL ioniques. Les atomes d'aluminium penta- et hexa-coordinés présentant un caractère quadripolaire marqué sont associés aux EFAL de type amorphe alumine ou silice-alumine. Les Al hexa-coordinés peu quadripolaires sont attribués aux EFAL ioniques compensant une partie des charges négatives de la charpente. Les données quantitatives de la RMN de l'27Al permettent alors de calculer les rapports Si/Al global et de charpente dans les zéolithes désaluminées.
Style APA, Harvard, Vancouver, ISO itp.
3

Chesnel, Anne-Lise. "Quantification de dégâts sur le bâti liés aux catastrophes majeures par images satellite multimodales très haute résolution". Phd thesis, École Nationale Supérieure des Mines de Paris, 2008. http://pastel.archives-ouvertes.fr/pastel-00004211.

Pełny tekst źródła
Streszczenie:
Lors d'une catastrophe majeure, il est nécessaire de connaître rapidement l'importance des dégâts sur les bâtiments. Actuellement, cette quantification de dégâts se fait manuellement par comparaison visuelle d'images satellite. Les méthodes automatiques sont immatures ; leurs performances étant rarement évaluées, elles ne sont pas utilisées par les opérationnels. Nous proposons un protocole standard d'évaluation des performances de méthodes de quantification de dégâts. Il s'appuie sur des bases de données de référence obtenues pour cinq cas de catastrophes variées. Celles-ci contiennent pour chaque bâtiment l'emprise de son toit dans chaque image, ainsi qu'un degré de dégâts. Le protocole permet de quantifier les performances d'une méthode et de confronter ses résultats à d'autres. Disposant de ce protocole d'évaluation, nous proposons une méthode de quantification de dégâts à partir d'un couple d'images satellites panchromatiques de très haute résolution (THR) spatiale et d'un ensemble d'objets d'intérêt définis dans l'image de référence. La méthode développée doit pouvoir conduire à des résultats satisfaisants et reproductibles en utilisant des images de modalités différentes, et être automatisée au mieux. Les dégâts sur les bâtiments sont quantifiés par l'amplitude des changements sur leurs toits. Pour comparer ces derniers, ils doivent être alignés. Le recalage géométrique des données THR est un problème complexe non résolu ; une nouvelle méthode adaptée à notre problème est développée et évaluée. Elle aboutit à des résultats généralement satisfaisants pour notre application. Des indices de changements sont ensuite extraits. Deux coefficients de corrélation et des indices de texture obtenus par filtrage sont extraits, et un degré de dégâts est attribué à chacun des bâtiments par classification supervisée. L'impact des différences de modalité des images sur les performances de notre méthode est évalué. La méthode proposée est rapide, en grande partie généralisable et robuste à l'utilisation d'images THR de différentes résolutions ou issues de couples multicapteurs ; le paramètre influant est le B/H du couple.
Style APA, Harvard, Vancouver, ISO itp.
4

Belgacem, Moncef. "Caractérisation du spectromètre haute résolution à autocorrélation numérique de l'instrument HIFI sur le satellite Observatoire spatial Herschel (HSO)". Toulouse 3, 2003. http://www.theses.fr/2003TOU30149.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
5

Rousseau, Kathleen. "Développement de nouveaux outils pour l’analyse métabolomique par spectrométrie de masse haute résolution : de l’acquisition de spectres MS/MS pour l’identification large-spectre de métabolites au marquage isotopique pour la quantification". Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASF006.

Pełny tekst źródła
Streszczenie:
La métabolomique est une science relativement récente qui étudie les molécules de masses moléculaires inférieures à 1.5 kDa, présentes dans une matrice biologique donnée. Elle est le dernier maillon des sciences « omiques » et représente l’ultime réponse d’un organisme aux facteurs perturbant son fonctionnement. Aujourd’hui, de nombreux développements en spectrométrie de masse à haute résolution couplée à la chromatographie liquide (LC-HRMS), visent à améliorer la détection, l’identification et la quantification des métabolites mais également à augmenter la robustesse des analyses. C’est dans ce contexte que mon projet de thèse s’est intégré. L’un des objectifs de cette thèse a donc été de développer des méthodes permettant l’acquisition simultanée de spectres MS et MS/MS via des analyses en mode d’acquisitions dits « données dépendantes » et « données indépendantes ». Ces méthodes ont permis d’avoir la même sensibilité que les analyses classiquement réalisées en spectrométrie de masse à haute résolution, tout en acquérant des informations importantes pour l’identification des métabolites grâce aux spectres MS/MS. Ces développements ont pu être appliqués à une étude inter-laboratoires dans le cadre d’un projet européen. L’autre objectif majeur de ce doctorat a été la mise en place de stratégies pour la quantification de métabolites en matrice biologique. Pour ce faire, la production et la caractérisation de standards internes marqués aux isotopes stables ont été envisagées. Ainsi, des méthodes de synthèses chimiques par échanges H/D ont été évaluées et ont permis d’obtenir de nombreux composés marqués. L’exploitation des profils isotopiques obtenus pour ces composés a permis la mise en place d’une approche quantitative innovante par étalonnage interne multipoints. Cette méthode a pu être comparée aux approches classiques de dilution isotopique. Par ailleurs, l’étude de profils isotopiques a également pu être appliquée à des analyses préliminaires d’urines de souris métaboliquement marquées (in vivo) au carbone-13, à la fois pour du suivi cinétique d’incorporation du C-13 au sein de quelques métabolites ciblés mais aussi, à plus long terme, pour l’annotation et l’identification de nouveaux métabolites. In fine, l’ensemble des développements réalisés au cours de cette thèse ont permis d’atteindre un meilleur niveau d’identification des métabolites et d’améliorer leur quantification
Metabolomics is a relatively new science that studies molecules with a molecular weight below 1.5 kDa, present in a given biological matrix. It is the last link in the "omics" sciences and represents the ultimate response of an organism to factors that disrupt its functioning. Today, many developments in high-resolution mass spectrometry coupled to liquid chromatography (LC/HRMS) aim at improving the detection, identification and quantification of metabolites but also at increasing the robustness of the analyses. This PhD thesis took place in that context. One of its main objectives was to develop methods allowing the simultaneous acquisition of MS and MS/MS spectra via analyses in "Data Dependent Acquisition" and "Data Independent Acquisition" modes. These methods allowed the production of data with the same sensitivity as the traditional "Full Scan" analysis while providing more precise and relevant information for further metabolite identification. These methodological developments were applied to an inter-laboratory study as part of a European project. The other major objective of this PhD was to set-up strategies for the large-scale quantification of metabolites in biological samples. To do so, the production and characterization of isotopically labeled internal standards were investigated. Thus, chemical synthesis methods relying on H/D exchange was evaluated and enabled the production of a large panel of labeled compounds. Their isotopic pattern exploitation allowed the development of an innovative quantitative approach by multi-point internal calibration. This method was compared to the conventional isotope dilution approach. At last, isotope profiling was applied to the preliminary analysis of mouse urine samples obtained from mice that were in vivo labeled with carbone-13. The aims were to study the C-13 incorporation kinetics in targeted metabolites, but also to annotate and identify new metabolites. Overall, the set of developments carried out during this thesis have allowed to reach a better level of identification of metabolites and to improve their quantification
Style APA, Harvard, Vancouver, ISO itp.
6

Guillon, Hervé. "Origine et transport des sédiments dans un bassin versant alpin englacé (Glacier des Bossons, France) : une quantification couplant mesures hydro-sédimentaires haute-résolution, suivi radio-fréquence de galets, teneur en nucléides cosmogéniques et méthodes probabilistes". Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAU010/document.

Pełny tekst źródła
Streszczenie:
Agents érosifs parmi les plus efficaces, les glaciers réagissent dynamiquement aux variations climatiques et entraînent à l’aval des modifications importantes des flux de sédiments. Dans les Alpes, et dans le cadre du réchauffement climatique actuel, se pose la question de l’évolution de la charge sédimentaire provenant de bassins versants partiellement englacés. L’export détritique issu d’un tel environnement résulte de processus d’érosion affectant plusieurs domaines géomorphologiques : les parois supra glaciaires, le substratum couvert de glace et la zone pro glaciaire à l’aval du glacier. Aussi, l’intention de ce travail de recherche doctorale est de caractériser l’origine et le transport des sédiments dans les bassins versants de deux torrents issus du glacier des Bossons (massif du Mont-Blanc, France).Dans ce but, les composantes du flux de sédiment issu des domaines supra glaciaire, sous-glaciaire et proglaciaire sont séparées et quantifiées à partir de méthodes innovantes :i. L’utilisation de la concentration en nucléides cosmogéniques comme marqueur du trans-port à la surface du glacier ;ii. L’analyse combinée de données météorologiques et de mesures hydro-sédimentaire à haute résolution temporelle (2 min) complétées par des modèles linéaires multivariés ;iii. La mise en oeuvre d’une méthode probabiliste adjointe à une application à l’échelle pluri-annuelle de l’estimation des flux sédimentaires par source ;iv. Le traçage radio-fréquence de particules grossières dans la zone pro glaciaire associé à une analyse dans le cadre d’un modèle de transport stochastique.A travers des outils numériques, l’application des méthodologies présentées apporte une estimation des taux d’érosion des domaines supra glaciaire, sous-glaciaire et pro glaciaire, et contraint le transfert des sédiments dans le bassin versant.Ainsi, dans la partie terminale du glacier, 52±14 à 9±4% de la charge supra glaciaire est transférée vers le réseau de drainage sous-glaciaire. Par ailleurs, l’évolution de ce dernier au cours de la saison de fonte entraîne sur une courte période l’export de la production sédimentaire hivernale. De plus, la configuration du drainage sous le glacier et sa dynamique de retrait contrôlent la remobilisation d’un stock sédimentaire sous-glaciaire plus ancien. Ces processus expliquent le contraste entre les taux moyens d’érosion sous-glaciaire des deux torrents instrumentés, respectivement 0.63 ± 0.37 et 0.38 ± 0.22 mm/an . Ces valeurs sont inférieures à la création topographique tectonique, ∼1.5 mm/an , et du même ordre de grandeur que le taux moyen d’érosion des parois surplombants le glacier, évalué à 0.76 ± 0.34 mm/an.A l’aval du glacier, les versants ne sont pas efficacement connectés au torrent proglaciaire et le glacier reste la source principale de l’export sédimentaire. Ainsi, en l’absence d’événements extrêmes, l’apport du domaine pro glaciaire correspond à 13 ± 10% de l’export sédimentaire total du bassin versant. Par ailleurs, la zone proglaciaire agit comme un tampon sédimentaire fonctionnant d’une échelle quotidienne à annuelle pour les silts et les sables, et à une échelle décennale pour les particules plus grossières. Au total, malgré un retrait glaciaire récent et rapide, le bassin versant du glacier des Bossons présente actuellement une dynamique paraglaciaire limitée dont l’intensité correspond à un taux moyen d’érosion proglaciaire de 0.25±0.20 mm/an. Enfin, sur l’ensemble du bassin versant, la dynamique sédimentaire est multi-fréquentielle et amortie par des stockages intermédiaires
Among the most efficient agents of erosion, glaciers react dynamically to climate change, leading to a significant adjustment of downstream sediment flux. Present-day global warming raises the question regarding the evolution of the sediment load originating from partially glaciated catchment. The detrital export from such environment results from erosion processes operating within distinct geomorphological domains : supraglacial rockwalls, ice-covered substratum and the proglacial area, downstream from the glacier. The general intent of this doctoral research is therefore to characterize the origin and transport of sediments in the watersheds of two streams draining Bossons glacier (Mont-Blanc massif, France).For this purpose, the components of the sediment flux coming from supraglacial, subglacial and proglacial domains are separated and quantified by innovating methods:i. Using the terrestrial cosmogenic nuclides concentrations as evidence of a supraglacialtransport;ii. Combining meteorological data and hydro-sedimentary data acquired at a high timeresolution (2 min) and completed by multi-linear models;iii. Estimating sediment flux by source for 7 years and with a probabilistic method;iv. Associating radio-frequency identification of pebbles in the proglacial area with a stochas-tic transport analysis.Through numerical tools, applying the presented methodologies provides erosion rates of thesupraglacial, subglacial and proglacial domains, and determines the sediment transfer mecha-nisms within the catchment.Thus in the terminal part of the glacier, 52±14 to 9±4% of the supraglacial load is transferred to the subglacial drainage network. Moreover, its evolution throughout the melt season leads to the export of the winter sediment production during a limited period. Furthermore, the drainage configuration beneath the glacier and its retreat control the remobilization of a long-term sediment stock. These processes explain the contrast between the mean subglacial erosion rates of the two monitored streams, 0.63 ± 0.37 et 0.38 ± 0.22 mm/yr, respectively. This values are lower than the tectonic uplift, ∼1.5 mm/an, and of the same order of magnitude than the mean erosion rate of supraglacial rockwalls, evaluated at 0.76 ± 0.34 mm/an.Downstream from the glacier, hillslopes are not efficiently connected to the proglacial stream and the glacier is the main source of the sediment export. Hence, without extreme events, the input from proglacial domain corresponds to 13 ± 10% of the total sediment export from the catchment. Besides, the proglacial area acts as a buffer functioning from the daily to the year scales for fine particles, and at a decennial scale for coarser particles. In total, despite the rapid recent retreat of the glacier, the Bossons catchment exhibits a limited paraglacialdynamic whose intensity corresponds to a mean proglacial erosion rate of 0.25±0.20 mm/an. Finally, at the catchment scale, the sediment dynamic is multi-frequential and buffered by storage and release mechanisms
Style APA, Harvard, Vancouver, ISO itp.
7

Mathey, Marguerite. "Quantification haute résolution du champ de déformation 3D des Alpes occidentales : interprétations tectoniques et apports à l’aléa sismique Seismogenic potential of the High Durance Fault constrained by 20 yr of GNSS measurements in the Western European Alps". Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALU033.

Pełny tekst źródła
Streszczenie:
La chaîne alpine est l'une des premières à avoir été instrumentées au monde, à la fois par géodésie spatiale et par sismologie, principalement en raison de sa sismicité modérée mais régulière. A partir de la grande quantité de données de géodésie spatiale et de sismologie aujourd'hui disponibles, il est désormais possible d’établir un champ de déformation 3D haute résolution de la croûte supérieure dans les Alpes occidentales. Ce champ, constitué des mesures géodésiques de déformation de surface, et des caractéristiques de déformation sismique, doit permettre d'établir les liens entre déformations horizontale, verticale, et sismicité. Nous utilisons au cours de cette thèse une approche multidisciplinaire, basée sur 25 années d'enregistrements sismiques, 20 années de mesures GPS (Global Positioning System) de campagne et permanentes, et 4 années d'acquisitions satellitaires Sentinel-1 pour contraindre le champ de déformation 3D correspondant.L’analyse de la déformation sismique à partir de la base de données Sismalp a permis d’atteindre une résolution de la variabilité spatiale du style de déformation inégalée jusqu’ici dans les Alpes occidentales. Au centre de la chaîne, le calcul des mécanismes au foyer et leur inversion en termes de contraintes principales montrent pour la première fois une orientation de l'extension systématiquement défléchie par rapport à l'axe normal à la chaîne, apportant ainsi des éléments novateurs en termes d’implications géodynamiques. L'interpolation bayésienne du mode de déformation sismique en surface et en profondeur révèle un mode décrochant dextre prédominant sur le pourtour de l'arc alpin occidental, associé à un mode compressif uniquement localisé.Le traitement des données GPS de quatre campagnes de mesures (1996, 2006, 2011, 2016), conjointement aux solutions permanentes RENAG (Réseau National GPS permanent), a permis d’augmenter la résolution des champs de vitesses et de déformation de surface à l’échelle des Alpes occidentales. Il apparaît que le maximum de déformation horizontale est localisé dans le Briançonnais et est compatible avec de la déformation intersismique accommodée par au moins une faille (Faille de la Haute Durance). La comparaison des taux de sismicité issus des mesures GPS et de ceux issus des catalogues de sismicité confirme que, à l'échelle locale et en prenant en compte les incertitudes respectives, la déformation sismique peut être suffisante pour expliquer la déformation horizontale observée dans le Briançonnais. Toutefois à l'échelle de l'arc alpin occidental, les taux de déformation géodésiques demeurent un ordre de grandeur supérieurs aux taux de déformation sismique déduits à la fois des périodes instrumentale et historique.Le traitement en interférométrie satellitaire de quatre années consécutives de données Sentinel-1, quant à lui, a permis pour la première fois dans cette région de s’affranchir de la couverture neigeuse et végétale pour obtenir une carte de vitesses le long de la ligne de visée du satellite à l’échelle de l'arc alpin occidental. Cette dernière a révélé des variations spatiales de courte longueur d'onde de la surrection dans les Alpes occidentales, corrélées spatialement avec les massifs cristallins externes et avec les variations prédites par plusieurs modèles d'isostasie.Ces travaux ont permis d'augmenter la résolution spatiale des déformations de surface horizontale, verticale et sismique de manière inédite à l'échelle des Alpes occidentales. Le champ de déformation 3D correspondant permet de jeter un regard nouveau sur les processus pouvant être à l’origine de la déformation actuelle de la chaîne alpine, ainsi que d'apporter des contraintes inédites sur les paramètres d'entrée nécessaires au calcul d'aléa sismique
The Alpine range is one of the first monitored mountain belts worldwide, both by seismic networks and space geodesy (GNSS), in particular due to its moderate but steady seismicity. Permanent GNSS measurements demonstrated that uplift is the main signal characterizing the current deformation in the European western Alps, reaching up to 2 mm/yr, while no shortening is observed across the belt. Based on the incredible amount of geodetic and seismic data available today, it now appears possible to constrain a new high resolution crustal strain field in the western Alps. This 3D field, made of surface deformation measurements and of the seismic deformation characteristics, is of primary importance in order to decipher the links between horizontal, vertical and seismic deformations. We rely for the present work on a multidisciplinary approach that aims at integrating 25 years long seismic records, 20 years of GPS measurements, and 4 years of Sentinel-1 satellite acquisitions, in order to establish the corresponding 3D strain rate field.For the first time in the western Alps, the spatial variability of the style of seismic deformation is robustly assessed, thanks to the analysis of the Sismalp (ISTerre Grenoble) database. New focal mechanisms computation along with principal stresses inversions have led to establish new orientations for the extensive deformation component, which occurs mainly in the center of the belt. As for the highly resolved 3D field of style of deformation, provided by Bayesian interpolations of focal mechanisms both at the surface and at depth, it reveals a vast majority of dextral strike-slip deformation occurring at the periphery of the belt, associated, in one specific area, with compression. These results bring new insights in the dynamics of the western alpine belt.Four GPS surveys (conducted in 1996, 2006, 2011 and 2016), along with the data provided by the permanent RENAG network, allowed us to increase the spatial resolution of the surface velocity and strain rate fields at the scale of the western Alps. These high resolution geodetic fields reveal that the amplitude of the extensive signal is at the highest in the Briançonnais area, while its kinematics appear consistent with interseismic deformation accommodated on at least one fault (the High Durance Fault). Longer-term seismic records show that, at least at the local scale, seismic and geodetic deformation patterns seem consistent within their uncertainty bounds in terms of kinematics and amplitude. At the regional scale of the entire western Alps though, geodetic strain rates appear one order of magnitude higher than the seismic ones, the latter comprising both instrumental and historical seismicity.Finally, four years of Sentinel-1 acquisitions appear to be the minimum time span required in order to derive long-term velocity maps in the satellite line of sight at the scale of the western Alps. The interferometric processing of the corresponding data allowed for the first time to get rid of the effects of snow and vegetation in a consistent way. The results feature short scale spatial variations in the uplift pattern, which are spatially correlated to crystalline external Alpine massifs as well as to the uplift patterns predicted by several isostatic adjustment models.This multidisciplinary work enabled us to increase the spatial resolution both of horizontal and vertical surface deformations and of seismic crustal deformation. The related 3D strain rate field sheds new lights on the various processes from which seismicity and deformation can originate. This 3D strain rate field moreover brings new constraints on several primary inputs to seismic hazard assessment models
Style APA, Harvard, Vancouver, ISO itp.
8

Grégoire, Jean-Marc. "Echographie haute résolution". Tours, 2002. http://www.theses.fr/2002TOUR3315.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
9

Zou, Hang. "Goal oriented communications : the quantization problem". Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG021.

Pełny tekst źródła
Streszczenie:
Le paradigme classique pour concevoir un émetteur (codeur) et un récepteur (décodeur) est de concevoir ces éléments en assurant que l'information reconstruite par le récepteur soit suffisamment proche de l'information que l'émetteur a mis en forme pour l'envoyer sur le médium de communication. On parle de critère de fidélité ou de qualité de reconstruction (mesurée par exemple en termes de distorsion, de taux d'erreur binaire, de taux d'erreur paquet ou de probabilité de coupure de la communication).Le problème du paradigme classique est qu'il peut conduire à un investissement injustifié en termes de ressources de communication (surdimensionnement de l'espace de stockage de données, médium de communication à très haut débit et onéreux, composants très rapides, etc.) et même à rendre les échanges plus vulnérables aux attaques. La raison à cela est que l'exploitation de l'approche classique (fondée sur le critère de fidélité de l'information) dans les réseaux sans fil conduira typiquement à des échanges excessivement riches en information, trop riches au regard de la décision que devra prendre le destinataire de l'information. Il s'avère qu'actuellement, l'ingénieur n'a pas à sa disposition une méthodologie lui permettant de concevoir une telle paire émetteur-récepteur qui serait adaptée à l'utilisation (ou les utilisations) du destinataire.Par conséquent, un nouveau paradigme de communication appelé la communication orientée objectif est proposé pour résoudre le problème des communications classiques. Le but ultime des communications orientées objectifs est d'accomplir certaines tâches ou certains objectifs au lieu de viser un critère de reconstruction du signal source. Les tâches sont généralement caractérisées par des fonctions d'utilité ou des fonctions de coût à optimiser.Dans la présente thèse, nous nous concentrons sur le problème de quantification des communication orientées objectifs, c'est-à-dire la quantification orientée objectif. Nous formulons d'abord formellement le problème de quantification orientée objectif. Deuxièmement, nous proposons une approche pour résoudre le problème lorsque seules des réalisations de fonction d'utilité sont disponibles. Un scénario spécial avec quelques connaissances supplémentaires sur les propriétés de régularité des fonctions d'utilité est également traité. Troisièmement, nous étendons la théorie de la quantification à haute résolution à notre problème de quantification orientée objectif et proposons des schémas implémentables pour concevoir un quantificateur orienté objectif. Quatrièmement, le problème de quantification orientée but est développé dans un cadre de jeux sous forme stratégique. Il est montré que la quantification orientée objectif pourrait améliorer les performances globales du système si le fameux paradoxe de Braess existe. Enfin, l'équilibre de Nash d'un jeu de canaux d'accès multiples à entrées multiples et sorties multiples multi-utilisateurs avec l'efficacité énergétique étant l'utilité est étudié et réalisé selon différentes méthodes
The classic paradigm for designing a transmitter (encoder) and a receiver (decoder) is to design these elements by ensuring that the information reconstructed by the receiver is sufficiently close to the information that the transmitter has formatted to send it on the communication medium. This is referred to as a criterion of fidelity or of reconstruction quality (measured for example in terms of distortion, binary error rate, packet error rate or communication cut-off probability).The problem with the classic paradigm is that it can lead to an unjustified investment in terms of communication resources (oversizing of the data storage space, very high speed and expensive communication medium, very fast components, etc.) and even to make exchanges more vulnerable to attacks. The reason for this is that the use of the classic approach (based on the criterion of fidelity of information) in the wireless networks will typically lead to exchanges excessively rich in information, too rich regarding the decision which will have to be taken. the recipient of the information; in the simpler case, this decision may even be binary, indicating that in theory a single bit of information could be sufficient. As it turns out, the engineer does not currently have at his disposal a methodology to design such a transceiver pair that would be suitable for the intended use (or uses) of the recipient.Therefore, a new communication paradigm named the goal-oriented communication is proposed to solve the problem of classic communications. The ultimate objective of goal-oriented communications is to achieve some tasks or goals instead of improving the accuracy of reconstructed signal merely. Tasks are generally characterized by some utility functions or cost functions to be optimized.In the present thesis, we focus on the quantization problem of the goal-oriented communication, i.e., the goal-oriented quantization. We first formulate the goal-oriented quantization problem formally. Secondly, we propose an approach to solve the problem when only realizations of utility function are available. A special scenario with some extra knowledge about regularity properties of the utility functions is treated as well. Thirdly, we extend the high-resolution quantization theory to our goal-oriented quantization problem and propose implementable schemes to design a goal-oriented quantizer. Fourthly, the goal-oriented quantification problem is developed in a framework of games in strategic form. It is shown that goal-oriented quantization could improve the overall performance of the system if the famous Braess paradox exists. Finally, Nash equilibrium of a multi-user multiple-input and multiple output multiple access channel game with energy efficiency being the utility is studied and achieved in different methods
Style APA, Harvard, Vancouver, ISO itp.
10

Mugnier, Laurent. "Problèmes inverses en Haute Résolution Angulaire". Habilitation à diriger des recherches, Université Paris-Diderot - Paris VII, 2011. http://tel.archives-ouvertes.fr/tel-00654835.

Pełny tekst źródła
Streszczenie:
Les travaux exposés portent sur les techniques d'imagerie optique à haute résolution et plus particulièrement sur les méthodes, dites d'inversion, de traitement des données associées à ces techniques. Ils se situent donc à la croisée des chemins entre l'imagerie optique et le traitement du signal et des images. Ces travaux sont appliqués à l'astronomie depuis le sol ou l'espace, l'observation de la Terre, et l'imagerie de la rétine. Une partie introductive est dédiée au rappel de caractéristiques importantes de l'inversion de données et d'éléments essentiels sur la formation d'image (diffraction, turbulence, techniques d'imagerie) et sur la mesure des aberrations (analyse de front d'onde). La première partie des travaux exposés porte sur l'étalonnage d'instrument, c'est-à-dire l'estimation d'aberrations instrumentales ou turbulentes. Ils concernent essentiellement la technique de diversité de phase : travaux méthodologiques, travaux algorithmiques, et extensions à l'imagerie à haute dynamique en vue de la détection et la caractérisation d'exoplanètes. Ces travaux comprennent également des développements qui n'utilisent qu'une seule image au voisinage du plan focal, dans des cas particuliers présentant un intérêt pratique avéré. La seconde partie des travaux porte sur le développement de méthodes de traitement (recalage, restauration et reconstruction, détection) pour l'imagerie à haute résolution. Ces développements ont été menés pour des modalités d'imagerie très diverses : imagerie corrigée ou non par optique adaptative (OA), mono-télescope ou interférométrique, pour l'observation de l'espace ; imagerie coronographique d'exoplanètes par OA depuis le sol ou par interférométrie depuis l'espace ; et imagerie 2D ou 3D de la rétine humaine. Enfin, une dernière partie présente des perspectives de recherches.
Style APA, Harvard, Vancouver, ISO itp.
11

Contreras, Meca Carlos. "IRM de diffusion de haute résolution". Paris 11, 2004. http://www.theses.fr/2004PA112298.

Pełny tekst źródła
Streszczenie:
L'IRM de diffusion permet de caractériser la structure dynamique des tissus biologiques à l'échelon microscopique. L'objectif de cette thèse a été de développer des outils méthodologiques pour étudier les différences microstructurales du cortex " in vivo " chez l'homme. Un ajustement biexponentiel de la diffusion a été privilégié étant donnée sa sensibilité pour decrire le signal de diffusion. Une technique SENSE a été implémentée sur une séquence de diffusion à 1. 5T et nous avons conçu et développé une bobine parallèle basée sur le concept d'acquisition localisée. En parallèle, nous avons développé une méthode statistique pour déterminer la significativité du signal par rapport au bruit, ainsi que des ajustements du signal avec l'hypothèse de bruit ricien. Ces développements ont étés intégrés dans un logiciel présentant une plateforme graphique. Des différences subtiles, mais significatives, dans les paramètres de diffusion d'aires corticales, notamment dans les aires temporales et pariétales ont été observées. Si les résultats ont souligné la sensitivité au bruit à 1. 5T et 3T, l'IRM de diffusion se apparaît comme technique prometteuse pour l'étude de la cyto-architectonie corticale
Diffusion MRI allows characterizing the dynamical structure of biological tissue at the microscopic level. The purpose of this thesis was the development of methodological tools to study the micro-structural differences of cortex, in vivo in human. A bi-exponential fit was used for its sensibility to describe the diffusion signal. SENSE technique was implemented at 1. 5T and a phase array coil was designed for localized acquisition. We have also developed a statistical method to determine the significance of signal and correction schemes to fit rician distributed data. These developments were integrated on a graphical platform. Subtle, but significant, differences in diffusion parameters were found in cortical areas, namely between temporal and frontal and parietal areas. Although the results have shown important sensibility to noise at 1. 5 and 3\unit{T}, diffusion MRI appears as a promising technique for the study of cortical cyto-architecture
Style APA, Harvard, Vancouver, ISO itp.
12

Nguyen, Ba-Thao. "Conversion à haute résolution d'un signal entrelacé". Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1997. http://www.collectionscanada.ca/obj/s4/f2/dsk2/ftp03/MQ26599.pdf.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
13

Nguyen, Ba-Thao. "Conversion à haute résolution d'un signal entrelacé". Mémoire, Université de Sherbrooke, 1996. http://savoirs.usherbrooke.ca/handle/11143/1021.

Pełny tekst źródła
Streszczenie:
Le but de cette recherche appliquée est de trouver une méthode pratique pour augmenter la résolution des images de télévision entrelacées sans recourir à des changements radicaux dans la transmission des signaux. Il s'agit donc ici de faire passer le signal entrelacé à travers une série de filtres non linéaires et multidimensionnels. Ce processus, qualifié de "dé-entrelacement d'une séquence d'images entrelacées", produit des images progressives que l'on peut ensuite surconvertir en des formats de Télévision à Haute Définition (TVHD). Aussi faut-il concevoir un nouveau système de conversion efficace et fonctionnant parfaitement en temps réel. Après un rappel des techniques de conversion existant actuellement, on aborde en profondeur les principes et les caractéristiques du système proposé. Le système présenté est original en ce qu'il applique en plus de trois méthodes de conversion de signal, à savoir la méthode de détection de contour, celle de détection de mouvement et la méthode du filtrage adaptatif, les techniques des moyennes et surtout celles de renforcement de décisions séquentielles.
Style APA, Harvard, Vancouver, ISO itp.
14

Gardeazabal, Rodriguez Pedro Felipe. "Développement d'une technique d'imagerie 3D haute résolution". Paris 6, 2008. http://www.theses.fr/2008PA066594.

Pełny tekst źródła
Streszczenie:
En microscopie optique la limite classique de résolution, atteinte dès la fin du XIXème, est de l'ordre de 200nm. Actuellement, l'étude de nombreux problèmes biologiques nécessite d'un pouvoir de séparation plus important. Afin de contourner cette limite qui suppose une illumination uniforme de l'échantillon comme de l'objectif et une seule prise d'image (cf. Microscopie plein champ), de nouvelles méthodes d'illumination et d'acquisition ont été développées avec des résultats très encourageants. Ces nouvelles techniques s'appuient sur des illuminations non uniformes de l'échantillon et requièrent l'acquisition de plusieurs images. La technique développée au cours de ce travail de thèse s'appuie sur l'illumination structurée. Cette technique consiste à créer une illumination spatialement périodique au niveau de l'échantillon par l'interférence de deux faisceaux cohérents. La fréquence spatiale caractéristique du motif d'illumination se combine avec les fréquences spatiales de l'échantillon. De ce fait les hautes fréquences spatiales de l'objet, qui correspondent à l'information des petits détails, passeront à travers le système optique qui est défini comme un filtre passe-bas de fréquences spatiales. Ensuite, il suffit de récupérer cette information pour reconstruire une image plus résolue. De cette façon la résolution latérale d'un microscope est augmentée d'un facteur deux. A partir de ce système on propose l'illumination de l'objet avec l'interférence de trois faisceaux cohérents afin de créer au même temps une illumination structurée latérale et axiale. Pour éliminer les composants mécaniques du système d'illumination on propose l'introduction d'éléments optiques programmables. De ce fait, les déplacements des figures d'interférences sont plus précises et rapides. Avec ce système on a réussi à démontrer la localisation des particules le long de l'axe optique de l'objectif tout en conservant le gain en résolution latérale. De même on a réussi a réaliser des coupes optiques avec ce système.
Style APA, Harvard, Vancouver, ISO itp.
15

Meurer-Grob, Patricia. "Etude structurale des microtubules à haute résolution". Université Joseph Fourier (Grenoble), 2000. http://www.theses.fr/2000GRE10240.

Pełny tekst źródła
Streszczenie:
Les microtubules sont des elements du cytosquelette essentiels pour l'architecture et l'organisation du cytoplasme de la plupart des cellules eucaryotes. Ce sont des tubes creux de 250 a de diametre resultant de la polymerisation d'une proteine, l'heterodimere de tubuline. Les proprietes dynamiques et structurales des microtubules sont essentielles pour l'accomplissement de leur role in vivo. Nous avons observe en cryomicroscopie electronique deux types de microtubules, assembles en presence de deux ligands differents, un analogue non hydrolysable du gtp, le guanylyl-(,)-methylene-diphosphonate (gmpcpp), et une drogue antimitotique, le taxotere. Ces deux ligands ont la propriete de stabiliser les microtubules. Les techniques de reconstruction helicoidales ont ete utilisees pour obtenir deux cartes de densite tridimensionnelles de microtubules-gmpcpp et -taxotere a une resolution entre 13,4 et 14 a. Par ailleurs, des structures a haute resolution du dimere de tubuline ont recemment ete obtenues par des approches cristallographiques par differents groupes. Des modeles pseudo atomiques de microtubules ont ete realises en combinant la structure a haute resolution du dimere de tubuline et les cartes de densite des microtubules, afin de visualiser les interactions entre les molecules de tubuline formant ces complexes. Des changements conformationnels de la molecule de tubuline pourraient expliquer les proprietes stabilisatrices du gmpcpp et du taxotere. Enfin, les proprietes de l'assemblage de differentes formes de tubuline ont ete discutees en fonction des regions putatives d'interactions des dimeres de tubuline dans les microtubules.
Style APA, Harvard, Vancouver, ISO itp.
16

Hmida, Fadoua. "Spectroscopie FTIR à haute résolution de SO2F2". Thesis, Reims, 2017. http://www.theses.fr/2017REIMS042.

Pełny tekst źródła
Streszczenie:
Les travaux présentés dans ce manuscrit sont consacrés à l’étude de la spectroscopie FTIR à très haute résolution de la molécule de fluorure de sulfuryle SO2F2 qui est apparu récemment comme un polluant atmosphérique important. Une très bonne modélisation de son spectre d’absorption est donc essentielle pour les mesures de concentration atmosphérique.Ce manuscrit comporte cinq parties. La première partie de ce travail de thèse concerne les propriétés de la molécule du fluorure de sulfuryle. La deuxième partie décrit le modèle théorique (formalisme tensoriel, Hamiltonien et moment dipolaire effectifs) que nous avons utilisé pour effectuer les analyses. La troisième partie expose les conditions expérimentales des différents spectres que nous avons enregistré à la ligne AILES du synchrotron SOLEIL à Saint-Aubin (Paris). La quatrième partie décrit le logiciel C2vTDS et enfin dans la cinquième partie, nous présentons les résultats des différentes analyses.Cette thèse a été effectuée au sein du Groupe de Spectrométrie Moléculaire et Atmosphérique (GSMA) de l’Université de Reims Champagne-Ardenne et au Laboratoire Dynamique Moléculaire et Matériaux Photoniques (LDMMP) à l’Ecole Nationale Supérieure d’Ingénieurs de l’Université de Tunis
The work presented in this manuscript is devoted to the study of very high resolution FTIR spectroscopy of the molecule of sulfuryl fluoride, SO2F2, which recently appeared as an important atmospheric pollutant. However, a very good modeling of its absorption spectrum is essential for atmospheric concentration measurements.This manuscript has five parts. The first part deals with the properties of the molecule of sulfuryl fluoride. The second part describes the theoretical model (tensor formalism and effective Hamiltonian and dipole moment) that we used to perform the analyzes. The third part presents the experimental conditions of the different spectra that we recorded at the AILES line of the SOLEIL synchrotron at Saint-Aubin (Paris). The fourth part describes the software C2vTDS and finally in the fifth part we present the results of the different analyzes.This thesis was performed in the Molecular and Atmospheric Spectrometry Group (GSMA) of the University of Reims Champagne-Ardenne and the Laboratory of Molecular Dynamics and Photonic Materials (LDMMP - ENSIT) of the University of Tunis
Style APA, Harvard, Vancouver, ISO itp.
17

Mérand, Antoine. "Etude à haute résolution spatiale des Céphéides". Paris 7, 2005. http://www.theses.fr/2005PA077155.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
18

Briaudeau, Stephan. "Spectroscopie à haute résolution en vapeur confinée". Paris 13, 1998. http://www.theses.fr/1998PA132010.

Pełny tekst źródła
Streszczenie:
Cette these decrit l'etude de l'absorption lumineuse d'une vapeur resonnante contenue dans une enceinte de geometrie presque bidmensionnelle : la duree de vol libre des atomes est imposee par collision avec les parois et devient tres anisotrope. Pour un faisceau optique de diametre grand devant l'epaisseur (l) de vapeur, le temps d'interaction des atomes avec le champ lumineux, et depend seulement de la direction de propagation atomique : seuls ceux a incidence rasante des parois sont en regime stationnaire et si l'irradiation est a incidence normale il apparait de resonances sub doppler dans le spectre d'absorption. La partie theorique du premier chapitre modelise le regime transitoire du pompage optique (processus incoherent non lineaire) sur un systeme atomique a trois niveaux et etudie la distribution de vitesse des atomes ainsi selectionnes qui peut etre superlente. Sa partie experimentale caracterise les resonances sub doppler apparues dans le spectre d'absorption d'un faisceau laser de diametre grand (3mm) devant l'epaisseur (de 10 a 100m) de la vapeur de cs sondee (transition d#2 a =852nm). La partie theorique du second chapitre etudie le regime transitoire du dipole optique sur un systeme atomique a deux niveaux : des resonances sub doppler apparaissent egalement, mais associees a une echelle de temps plus courte. Le montage experimental est analogue a celui du premier chapitre, avec une intensite lumineuse incidente extremement faible (i<50nw/cm#2), ce qui generalise au domaine optique et a l>> les resultats de rh. Dicke dans le domaine micro-onde avec l=/2. Le troisieme chapitre relate une etude experimentale d'absorption saturee en cellule mince qui permet de sonder separement la reponse optique des differentes classes de vitesse atomiques. Le dernier chapitre presente une experience de spectroscopie raman dont le but est l'etude de la selection de vitesse en vapeur confinee.
Style APA, Harvard, Vancouver, ISO itp.
19

El, Kassis Carine. "Méthodes à haute résolution pour antennes non uniformes". Phd thesis, Université Paris Sud - Paris XI, 2009. http://tel.archives-ouvertes.fr/tel-00447488.

Pełny tekst źródła
Streszczenie:
Dans cette thèse, nous nous intéressons aux méthodes de traitement d'antennes pour la localisation de sources dans le cas des antennes linéaires non uniformes. Le travail porte principalement sur les méthodes à haute résolution qui sont particulièrement adaptées aux antennes linéaires non uniformes afin de s'affranchir des problématiques associées aux lobes secondaires. Nous démontrons que Root-MUSIC peut être directement appliquée dans le cas des antennes non uniformes lacunaires. De plus, nous montrons que la suppression d'un certain nombre de capteurs d'une antenne linéaire uniforme ne dégrade que très légèrement les performances grâce à l'utilisation des méthodes à haute résolution comme Root-MUSIC. Ensuite, nous proposons une nouvelle méthode EM-ESPRIT qui peut être utilisée pour n'importe quel type de géométrie d'antenne non uniforme. Cette méthode itérative est basée sur les deux algorithmes : Expectation-Maximization (EM) et ESPRIT. L'étude des performances de EM-ESPRIT montre qu'elle présente de meilleures performances que la plupart des méthodes, en particulier pour des niveaux de bruit importants. De plus, deux variantes : EM-ESPRIT stochastique et EMRoot- MUSIC sont proposées afin d'améliorer les aspects de convergence et de consistance de EM-ESPRIT. Finalement, nous considérons une application liée à la localisation de sources aéroacoustiques sur la carrosserie d'une voiture. La mise en oeuvre d'une méthode de type Zero-Forcing MUSIC a permis d'obtenir de bons résultats sur des données simulées et réelles, en particulier pour des sources proches et de puissance différente.
Style APA, Harvard, Vancouver, ISO itp.
20

Consonni, Marianne. "Lithographie haute résolution assistée par plasmons de surface". Phd thesis, Université de Technologie de Troyes, 2008. http://tel.archives-ouvertes.fr/tel-00373708.

Pełny tekst źródła
Streszczenie:
La réduction des dimensions des composants en microélectronique impose d'améliorer constamment la résolution ultime des dispositifs de lithographie. Cependant, ces évolutions deviennent de plus en plus difficiles et coûteuses à mettre en oeuvre et pourraient favoriser l'apparition de techniques de lithographie alternatives, comme la lithographie assistée par plasmons de surface. L'objectif de cette thèse a consisté à évaluer les performances, les contraintes et par conséquent les applications possibles et les conditions d'utilisation de cette nouvelle technique. En se focalisant sur les propriétés intrinsèques des films minces métalliques, deux approches complémentaires ont ainsi été développées. La génération d'un champ d'interférences plasmonique a tout d'abord conduit à l'impression, dans une couche de résine photosensible, de motifs relativement complexes mais de résolution limitée; La réalisation d'une lithographie haute résolution assistée par plasmons de surface a ensuite été abordée à travers la conception d'une nanosource optique compacte et efficace, la géométrie obtenue pouvant également être adaptée pour générer des motifs arbitraires ou réaliser une source accordable en longueur d'onde. Les différents résultats indiquent que cette technique de champ proche bas coût serait particulièrement bien appropriée à des besoins de lithographie ponctuels et/ou spécifiques, mais que les systèmes étudiés pourraient aussi être utilisés pour d'autres applications, comme le stockage optique par exemple.
Style APA, Harvard, Vancouver, ISO itp.
21

Vaucher, Christophe. "Le test haute résolution de circuits imprimés nus". Phd thesis, Grenoble INPG, 1993. http://tel.archives-ouvertes.fr/tel-00343737.

Pełny tekst źródła
Streszczenie:
La présente thèse traite du test des circuits imprimes nus en général et plus particulièrement de leur test électrique. L'apparition de la technologie de montage en surface, qui représenté aujourd'hui plus de 50% de la production électronique mondiale contre 10% en 1984, pose le probleme de l'augmentation de la densité des conducteurs sur les circuits imprimes et ce faisant, de leur testabilité. Certaines cartes électroniques sont aujourd'hui dessinées en classe 6 (100 m de largeur de piste pour les conducteurs, séparés par un isolement de 100 m). Leur densité en terme de nombre de composants au dm#2 s'est vue multipliée par 8 en moins de 10 ans. Une des nombreuses conséquences de ce bouleversement a été la difficulté croissante, pour aboutir a l'impossibilité de tester, avec les moyens usuels, les circuits imprimes nus les plus complexes mais aussi des circuits imprimes tout a fait standards, en dépit de la systématique de test a chaque étape de la fabrication d'un produit. A titre d'exemple, le marche demande aujourd'hui un accès haute resolution a 8 mil (0.200 mm) alors que les meilleurs systèmes ne peuvent offrir en standard que 25 mil (0.635 mm) et exceptionnellement 0.5 mm. L'auteur s'est donc penche sur ces problèmes, en concertation étroite avec les professionnels du domaine. Ses travaux l'ont conduit a proposer diverses solutions (définition théorique du point de test, accès haute resolution a 8 mil (par utilisation d'élastomères composites a conduction anisotrope)), développement de logiciels d'interfacage avec les équipements de production, diminution importante du cout du testeur lui-même, etc., qui ont été validées industriellement, la juxtaposition de ces solutions constituant une réponse globale au test des circuits imprimes nus d'aujourd'hui et de demain
Style APA, Harvard, Vancouver, ISO itp.
22

Schardong, Lewis. "Vers une tomographie haute résolution du manteau inférieur". Phd thesis, Université Paul Sabatier - Toulouse III, 2012. http://tel.archives-ouvertes.fr/tel-00776782.

Pełny tekst źródła
Streszczenie:
La couche D" est une des zones les plus hétérogène de la Terre, abritant des structures mal comprises, probablement à l'origine de la dynamique globale du manteau. Les méthodes actuelles de tomographie sismique ne résolvent pas correctement cette région. La résolution des images de la structure interne de la Terre est fortement liée à la localisation précise des séismes, ainsi qu'à la connaissance du contenu fréquentiel des ondes sismiques. Cette thèse a pour objectif la construction d'une base de données globale de temps de trajet des ondes, mesures utilisées pour l'élaboration des images tomographiques. Notre méthode utilise une détermination plus précise de la profondeur des séismes permettant d'améliorer la mesure des temps de trajet. Pour une meilleure évaluation du contenu fréquentiel, ces mesures sont réalisées dans plusieurs gammes de fréquence. Une nouvelle approche de calcul de corrections visant à éliminer la complexité de la croûte est également présentée. Enfin, une imagerie préliminaire est présentée aux échelles régionale et globale sous l'approximation de la théorie des rais, avant une description plus complète par l'approximation de Born.
Style APA, Harvard, Vancouver, ISO itp.
23

Wang, Xialong. "Gravimètres de haute résolution basés sur l'interférométrie atomique". Paris 6, 2011. http://www.theses.fr/2011PA066423.

Pełny tekst źródła
Streszczenie:
Cette thèse présente le développement de deux interféromètres atomiques pour des mesures ultra-sensibles de l’accélération de la pesanteur. Dans une première expérience, réalisée au SYRTE, à l’Observatoire de Paris, l’interféromètre est réalisé en utilisant des atomes de Rb confinés dans une onde stationnaire. Des faisceaux Raman sont utilisés pour placer les atomes dans une superposition d’état de Wannier-Stark localisés sur des puits adjacents, puis pour les recombiner, permettant ainsi de réaliser une mesure de la fréquence de Bloch, avec une sensibilité relative, encore préliminaire, de l’ordre de 3 10-4 sur une seconde. Dans une seconde expérience, menée à l’Université de Zhejiang, une géométrie plus classique basée sur l’utilisation d’atomes en chute libre est utilisée pour réaliser un gravimètre atomique, à l’aide d’une séquence de trois impulsions Raman. Les premiers résultats de cet instrument sont présentés. La sensibilité est actuellement limitée par le bruit de vibration résiduel au niveau de 1. 7 10-7 g sur une seconde
Style APA, Harvard, Vancouver, ISO itp.
24

Lemaire, Thierry. "La télédetection spatiale à haute résolution : aspects juridiques". Brest, 2003. http://www.theses.fr/2003BRES5002.

Pełny tekst źródła
Streszczenie:
Les récents lancements de satellites civils, capables de commercialiser des images spatiales avec une résolution numérique métrique, marquent une évolution importante dans le domaine de la télédétection spatiale à haute résolution, réservée traditionnellement aux Etats pour des usages stratégiques et militaires. L'intervention des sociétés privées et l'exploitation commerciale de ces images spatiales soulèvent de nombreuses questions juridiques liées à l'application des principes fondamentaux du droit de l'espace et de la résolution n°41/65 du 3 décembre 1986 (comme par exemple, la liberté de collecte et de diffusion des images spatiales) qui résultent d'un compromis entre les pays en voie de développement et les pays disposant des capacités d'observation de la Terre. En effet, la communauté internationale a admis la liberté de prise de vues sous réserve de la diffusion non discriminatoire des données. Il semble que ce principe vaut pour les systèmes privés à haute résolution mais l'usage des données à des fins civiles mais aussi militaires peut engager la responsabilité internationale des Etats pour les activités nationales menées depuis l'espace. Ainsi, un encadrement des activités privées est nécessaire au niveau national et international et certaines limites à la commercialisation des données de télédétection peuvent être adoptées par les Etats lorsque l'utilisation des images peut être préjudiciable aux intérêts publics. Cette intervention étatique doit être appréciée au regard des règles de la libre concurrence et de la diffusion non discrinatoire des données. Par ailleurs, la protection des données doit être harmonisée au niveau international afin de sécuriser les investissements des entreprises privées et favoriser le développement du marché commercial de l'imagerie spatiale. En outre, l'utilisation des images spatiales ne doit pas porter atteinte aux droits des personnes en matière de propriété privée sur les biens observées ou de respect à la vie privée
The recent launching of private satellites, able to deliver high resolution remote sensing data, point out an unprecedented evolution in the sector of remote sensing due to the usual utilisation of this accurate imagery only by States for strategic and military uses. The proliferation of private companies and the commercial utilisation of the remotely sensed data raise a lot of legal questions as regards the application of space law principles and those of the United Nations Resolution n°41/65 of 3rd december 1986 (as for example, the freedom to observe and to disclose the remote sensing data) which are issued from a compromise between developing States and those using Earth remote sensing satellites. Indeed, the international Community adopted the freedom of observation at the condition that data would be available for sensed States on a non-discriminatory basis. It seems that this principle is accepted for the private high resolution remote sensing systems but the use of imagery for civil and military needs may engage the international responsability of States for national activities carried out from space. Then, the private activities have to be controlled at national and international level and some commercialisation restrictions can be adopted by States when the use of space imagery can compromise public interests. This public intervention has to respect the freedom of competition and the access od sensed States to remote sensing data on a non-discriminatory basis. Besides, the data protection has to be harmonised a international level in order to secure private companies investments and facilitate the development of the commercial space imaging sector. Moreover, the use of remote sensing data has not to be prejudicial to individual rights related to the protection of private property, applicable to goods sensed from space, and the right to privacy
Style APA, Harvard, Vancouver, ISO itp.
25

Mahieux, Geoffroy. "Etude de l'enregistrement stratigraphique par sismique haute résolution". Lille 1, 2000. https://pepite-depot.univ-lille.fr/RESTREINT/Th_Num/2000/50376-2000-64.pdf.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
26

El, Kassis Carine. "Méthodes a haute résolution pour antennes non uniformes". Paris 11, 2009. http://www.theses.fr/2009PA112179.

Pełny tekst źródła
Streszczenie:
Dans cette thèse, nous nous intéressons aux méthodes de traitement d’antennes pour la localisation des sources dans le cas des antennes linéaires non uniformes. Le travail porte principalement sur les méthodes à haute résolution qui sont particulièrement adaptées aux antennes linéaires non uniformes afin de s’affranchir des problématiques associées aux lobes secondaires. Nous démontrons que root-music peut être directement appliquée dans le cas des antennes non uniformes lacunaires. De plus, nous montrons que la suppression d’un certain nombre de capteurs d’une antenne linéaire uniforme ne dégrade que légèrement les performances grâce à l’utilisation des méthodes à haute résolution comme root-music. Ensuite, nous proposons une nouvelle méthode em-esprit qui peut être utilisée pour n4importe quel type de géométrie d’antenne non uniforme. Cette méthode itérative est basée sur les deux algorithmes : expectation-maximization (em) et esprit. L’étude des performances de em-esprit montre qu’elle présente de meilleures performances que la plupart des méthodes, en particulier pour des niveaux de bruit importants. De plus, deux variantes : em-esprit stochastique et em-root-music sont proposées afin d’améliorer les aspects de convergence et de consistance de em-esprit. Finalement, nous considérons une application liée à la localisation de sources aéroacoustiques sur la carrosserie d’une voiture. La mise en œuvre d’une méthode de type zero-forcing music a permis d’obtenir de bons résultats sur des données simulées et réelles, en particulier pour des sources proches et de puissance différente
In this thesis, we are interested in the signal processing methods for source localization in the case of nonuniform arrays. The work concerns mainly the high resolution methods whiwh are particularly adapted to the nonlinear arrays because they reduce the effect of sidelobes. We show that root-music can be directly applies in the case of nonuniform arrays, particularly the arrays with missing sensors. Moreover, we show that the elimination of a certain number of sensors of a uniform array degrades only very slightly the performance thanks to the use of high-resolution methods like root-music. Furthermore, we propose a new method em-esprit that has the ability to deal with any type of nonuniform arrays. This iterative method is based on the two algorithms: expectation-maximization (em) and esprit. The study of performance of em-esprit shows that it presents better performance than most of the existing methods, in particular for high noise levels. In addition, rwo alternatives: stochastic em-esprit and em-root-music are proposed in order to improve the convergence and consistency aspects of em-esprit. Finally, we consider an application related to the localization of aeroacoustic sources on the body of a car. The implementation of a method of type zero-forcing music allows obtaining good performance on simulated and real data, in particular for closely spaced sources having different powers
Style APA, Harvard, Vancouver, ISO itp.
27

Escolle, Clément. "Optique active spatiale pour l'observation à haute résolution". Thesis, Aix-Marseille, 2015. http://www.theses.fr/2015AIXM4767/document.

Pełny tekst źródła
Streszczenie:
Pour relever les défis de l'observation de la Terre et de l'astronomie, les futurs observatoires spatiaux vont requérir des télescopes de plusieurs mètres de diamètre. Les différentes contraintes liées à l'environnement spatial vont induire des déformations et des désalignements des miroirs du télescope dégradant ainsi la qualité optique des observations. L'intégration de l'optique active, utilisée depuis la fin des années 80 pour l'alignement et le maintien de la qualité optique des télescopes au sol, devient donc nécessaire. Un tel système est constitué de trois éléments : un dispositif de mesure, une fonction de correction et une boucle de contrôle qui fait le lien entre les deux éléments précédents.Les travaux de recherche présentés dans ce mémoire de doctorat s'attachent, d'une part, au développement d'un estimateur des perturbations minimisant le front d'onde résiduel dans le champ du télescope. L'analyse de cet estimateur et plus généralement des performances ultimes d'un système d'optique active spatial nous a permis de mettre en évidence l'impact des hautes fréquences spatiales sur la qualité optique. La présence de telles hautes fréquences dues à l'empreinte des supports du miroir primaire nous a poussés, d'autre part, à évaluer les possibilités de leur réduction dans le cas d'un miroir de grande dimension. A l'aide d'une modélisation éléments finis d'un tel miroir nous avons réalisé des modifications locales de la structure du miroir pour adapter ses déformations aux capacités de correction de l'optique active
To meet the challenges of Earth observation and astronomy, future space observatories will require telescopes of several meters in diameter. The various space environment constraints will induce deformations and misalignments of the telescope mirrors, thus degrading the optical quality of observations. The integration of active optics, used since the late 80s for alignment and preservation of the optical quality of the ground telescopes, becomes mandatory. Such a system consists of three elements: a measuring device, a correction set-up and a control loop which links both previous elements.The research works presented in this PhD thesis focus, on one hand, on the development of a perturbations estimator minimizing the residual wave front in the telescope field of view. The analysis of this estimator and more generally of the ultimate performance of a space active optics system enabled us to highlight the impact of high spatial frequencies on optical quality. On the other hand, the presence of such high frequencies due to the primary mirror supports print through, urged us to evaluate the possibilities of their reduction in the case of large mirrors. Using a finite element model of such a mirror, we made local modifications of the mirror structure to adapt its deformation to the correcting capabilities of active optics
Style APA, Harvard, Vancouver, ISO itp.
28

Guellil, Imene. "Nano-fonctionnalisation par FIB haute résolution de silicium". Electronic Thesis or Diss., Aix-Marseille, 2022. http://www.theses.fr/2022AIXM0361.

Pełny tekst źródła
Streszczenie:
Le but de ce travail est de développer un processus d’élaboration de boîtes quantiques (QD) de silicium-germanium (SiGe) avec des compositions allant du Si au Ge pur, et permettant d’obtenir des QD semi-conductrices et de tailles suffisamment petites pour l’obtention de confinement quantique. Pour cela, nous avons utilisé une combinaison de différentes techniques : l’épitaxie par jets moléculaires, la lithographie ionique par faisceau d’ions focalisés (FIBL) et le démouillage solide hétérogène. Dans ce contexte, la finalité de cette recherche est d’une part de développer un FIB qui puisse être couplé à un bâti d’épitaxie par jets moléculaires sous ultra-vide et d’autre part de valider le FIB avec deux applications : des nanogravures pour l’auto-organisation des QD et des nano-implantations de Si et de Ge pour la création de défauts locaux émetteurs de lumière. Nous avons utilisé la FIBL avec des sources d’ions d’alliage métallique liquide (LMAIS) filtrées en énergie utilisant des ions non polluants (Si et Ge) dans des substrats issus de la microélectronique tels que des substrats de SiGe sur silicium-sur-isolant (SGOI). Les nano-gravures doivent être totalement dénuées de pollution et aux caractéristiques variables et parfaitement contrôlées (taille, densité, profondeur). La morphologie des nano-gravures obtenues est ensuite caractérisée in-situ par microscopie électronique à balayage (SEM), et la profondeur est déterminée par des caractérisations ex-situ par microscopie de force atomique (AFM). Les nano-gravures réalisées par FIBL ont été comparées d’une part aux gravures plasmas avec He et Ne et d’autre part aux gravures obtenues par lithographie électronique (EBL)
The goal of this work is to develop a process for the elaboration of silicon-germanium (SiGe) quantum dots (QDs) with compositions ranging from Si to pure Ge, and allowing to obtain semiconducting QDs with sufficiently small sizes to obtain quantum confinement. For this purpose, we have used a combination of different techniques: molecular beam epitaxy, focused ion beam lithography (FIBL) and heterogeneous solid state dewetting. In this context, the aim of this research is on the one hand to develop a new FIB that can be coupled to the ultra-high vacuum molecular beam epitaxy growth chamber, and on the other hand to realize two applications: (i) nanopatterns for the self-organisation of Si and Ge QDs and (ii) nano-implantations of Si and Ge. We used FIBL with energy-filtered liquid metal alloy ion sources (LMAIS) using non-polluting ions (Si and Ge) for the milling of conventional microelectronic substrates such as SiGe on silicon-on-insulator (SGOI). The nanopatterns must be totally free of pollution and with variable and perfectly controlled characteristics (size, density, depth). The morphology of the nanopatterns is then characterized in-situ by scanning electron microscopy (SEM), and the depth is determined ex-situ by atomic force microscopy (AFM). The nanopatterns made by FIBL were compared on the one hand to plasma etchings with He and Ne and on the other hand to the etchings obtained by electronic lithography (EBL). Nanoimplantations of Si and Ge ions were realised in diamond and in ultra-thin SGOI for the fabrication of local defects
Style APA, Harvard, Vancouver, ISO itp.
29

Courde, Clément. "Développement de télémètres laser de haute exactitude et de haute résolution pour applications spatiales". Phd thesis, Université de Nice Sophia-Antipolis, 2011. http://tel.archives-ouvertes.fr/tel-00586258.

Pełny tekst źródła
Streszczenie:
Si les performances des instruments d'exploration de l'Univers continuent de s'améliorer, c'est souvent au prix d'une augmentation de leurs dimensions. Pour le développement de nouveaux télescopes spatiaux, le vol en formation de satellites est une solution technique de plus en plus envisagée. La mesure absolue des distances entre satellites avec une exactitude de l'ordre de quelques dizaines de microns est alors une nécessité pour l'exploitation des données obtenues avec de tels systèmes. Elle est aussi au cœur d'expériences de physique fondamentale. Mon travail de thèse a porté sur le développement de deux télémètres, T2M et Iliade pouvant répondre à ces besoins. La difficulté dans le développement de ces deux systèmes est de concilier un grand intervalle de mesure de distances avec une grande sensibilité tout en gardant une certaine simplicité et ainsi permettre que ces instruments puissent être embarqués. La performance visée est une mesure de distance de l'ordre du kilomètre exacte à mieux d'un micron. La différence entre T2M et Iliade réside dans leurs conceptions mais aussi dans leurs complexités et les performances visées en termes de résolution. Le télémètre T2M exploite la différence de phase d'une onde modulée en amplitude séparée entre une voie de mesure et une voie de référence. La résolution visée avec ce système est la dizaine de nanomètres. Ce système est capable d'atteindre une grande exactitude du fait que la mesure de distance est déduite d'une mesure de fréquence. Les problèmes d'erreurs cycliques inhérentes à l'utilisation de ce type de techniques sont éliminés par un système d'aiguillage optique permettant d'échanger les faisceaux propres aux deux voies de télémétrie en regard des deux voies de détection. Après la stabilisation du battement de fréquences des deux lasers, mon travail a porté sur l'amélioration de la résolution et sur l'élimination des diverses sources d'erreurs affectant l'exactitude. Les objectifs fixés semblent être atteints et les résultats obtenus sont très encourageants pour les futurs tests et développements à réaliser. Le télémètre Iliade combine une mesure de temps de vol d'impulsions laser et une mesure interférométrique à deux longueurs d'onde. Au prix d'une sophistication un peu plus importante que T2M, la résolution visée est inférieure au nanomètre. La caractérisation de la source d'impulsions d'Iliade présentant un taux de répétition de 20 GHz, a permis de montrer que la gigue temporelle de 65 fs à sa sortie est principalement due au bruit de phase du battement initial de deux lasers monomodes. J'ai travaillé sur une cavité Fabry Perot fibrée pour pré-stabiliser le rayonnement d'un laser monomode. J'ai démontré une technique permettant d'obtenir un signal d'erreur de type dispersif, sans recourir à une modulation. Enfin j'ai étudié une méthode numérique basée sur l'analyse harmonique permettant d'assurer une mesure de différence de phase avec une exactitude de 10-5 radian. Le télémètre Iliade est actuellement en cours de développement.
Style APA, Harvard, Vancouver, ISO itp.
30

Dornier, Christophe. "Nouveau concept de collimation haute sensibilité pour une sonde d'imagerie radio-isotopique haute résolution". Besançon, 2000. http://www.theses.fr/2000BESA2031.

Pełny tekst źródła
Streszczenie:
La médecine nucléaire est une technique d'imagerie fonctionnelle puissante dont les possibilités diagnostiques sont limitées par la mauvaise résolution spatiale des images. L'apparition des tubes photomultiplicateurs à mesure de position a permis de concevoir une sonde d'imagerie gamma compacte, délivrant des images à haute résolution spatiale. Le collimateur à haute résolution limite la sensibilité et donc le nombre de photons détectés, ce qui conduit à des images d'un faible rapport signal sur bruit. Le but de ce travail est d'augmenter la sensibilité du détecteur tout en conservant une bonne résolution spatiale. Pour augmenter le rapport signal sur bruit, on utilise un collimateur plus sensible. Seul l'utilisation d'un collimateur en mouvement permet que la structure hexagonale des septa n'apparaisse pas sur l'image. Plusieurs mouvement ont été étudiés par similation déterministe et confirmés par stimulation de Monte Carlo du transport des photons gamma dans le détecteur. Les caractéristiques d'un mouvement optimal de translation circulaire, physiquement réalisable, ont été déterminées. . .
Style APA, Harvard, Vancouver, ISO itp.
31

Iturbe, Ion. "Tomographie acoustique haute résolution dans un guide d'onde océanique". Phd thesis, Grenoble, 2010. http://tel.archives-ouvertes.fr/tel-00521540.

Pełny tekst źródła
Streszczenie:
Cette thèse porte sur la Tomographie Acoustique Océanique qui permet d'estimer la température de l'eau dans une tranche d'océan à partir de mesures acoustiques. Les vitesse de propagation des ondes étant fortement liée à la température, la tomographie consiste à estimer la célérité à partir des mesures des temps de propagation des ondes acoustiques. Nous nous intéressons à des acquisitions réalisées avec deux antennes, une d'émetteurs et une de récepteurs, placées verticalement face à face, dans un guide d'ondes côtier. Dans ces guides peu profonds, la mesure des temps de propagation ainsi que leur identification sont difficiles à réaliser à cause de la propagation multi-trajets. Avec une acquisition à deux antennes, nous proposons un algorithme de Double Formation de Voies permettant de séparer les contributions des différents trajets, en fonction de leurs angles d'émission et de leurs angles de réception. En plus des mesures des temps de propagation, la tomographie a besoin d'un modèle physique reliant les temps de propagation à la célérité. Deux modèles ont été analysés pendant ces travaux: la théorie classique des rayons, et les Noyaux de Sensibilité du Temps de Propagation (NSTP) obtenus sous l'approximation de Born. Une adaptation des NSTP au cas des mesures obtenues par Double Formation de Voies (D-FV) a été réalisée. Les méthodes développées ont été validées sur des données synthétiques et sur des données "petites échelles" reproduisant la propagation des guides océaniques dans une cuve d'eau de dimensions réduites. L'étude des données ''petites échelles'' a par ailleurs permis d'étudier certains phénomènes physiques: la convection et les vagues de surface.
Style APA, Harvard, Vancouver, ISO itp.
32

Zumsteg, Cedric. "Spectroscopie ultra haute résolution d'un ion unique de calcium". Phd thesis, Université de Provence - Aix-Marseille I, 2010. http://tel.archives-ouvertes.fr/tel-00507487.

Pełny tekst źródła
Streszczenie:
Cette thèse s'inscrit dans un projet visant à réaliser un étalon de fréquence optique à ion unique de calcium confiné dans un piège de Paul. Après avoir passé en revue les différents types d'étalons de fréquence dans le domaine optique actuellement développés (atomes neutres en piège magnéto-optique, atomes neutres dans un réseau optique et ions piégés), l'accent est mis sur le concept d'horloge a ion unique confiné dans une piège radiofréquence. Les notions de piégeage des ions, de refroidissement laser, d'effet systématique et les techniques d'asservissement laser y sont étudiées en détail. Les aspect expérimentaux sont ensuite présentés, en insistant particulièrement sur les deux pièges utilisés au cours des expériences ainsi que sur le protocole expérimental qui détermine le cahier des charges du laser d'horloge. Afin de réaliser un étalon de fréquence optique il faut posséder une source laser dont les propriétés spectrales soient meilleures ou identiques à celle de la transition atomique afin de tirer pleinement profit du facteur de qualité de la transition atomique. L'ensemble des systèmes d'asservissement du laser, lui permettant d'atteindre ces performances, sont décrits. Dans une première partie, l'asservissement du laser sur une cavité Invar de pré-stabilisation est présenté. On peut ainsi atteindre une largeur de raie du laser de l'ordre de 1 kHz. Dans une seconde partie la réalisation et le montage de l'asservissement sur une cavité ULE de haute finesse est détaillé. En utilisant ce dernier étage nous avons estimé la largeur de raie du laser à 120 mHz. Enfin le dernier chapitre est consacré à l'utilisation d'une technique d'optique adaptative afin d'améliorer la qualité des faisceaux laser et ainsi réduire le bruit de fond du système de détection des ions, qui a pour conséquence de dégrader la stabilité du système.
Style APA, Harvard, Vancouver, ISO itp.
33

PETIT, David. "Extraction du « 3D » par interférométrie radar à haute résolution". Phd thesis, Université Paul Sabatier - Toulouse III, 2004. http://tel.archives-ouvertes.fr/tel-00009833.

Pełny tekst źródła
Streszczenie:
Depuis quelques années, l'interférométrie radar a largement démontré son aptitude à recréer des Modèles Numériques de Terrain (MNT). Cependant, son usage reste délicat aux hautes résolutions, notamment en milieu urbain. En effet, les caractéristiques géométriques d'acquisition et les propriétés de l'onde radar créent des ambiguïtés dans le signal interférométrique. Dans un premier temps, une approche par simulation a donc été retenue, afin d'étudier l'impact des phénomènes mis en jeu, et de tester les techniques susceptibles de lever les ambiguïtés. Ainsi, les travaux sur la haute résolution radar ont mis en évidence des cas de corrélation spatiale de la phase sur des données réelles et simulées. Une proposition de modélisation du phénomène a été effectuée, et nous en avons montré les implications dans le cadre des traitements interférométriques. Nous avons ensuite étudié la possibilité d'un traitement optimal des zones de repliement pour la reconstruction du 3D sur des données simulées, grâce à des techniques de filtrage fréquentiel. Enfin, nous avons souligné l'intérêt d'une reconstruction adaptée à l'objet traité, grâce à une classification floue obtenue à partir de l'ensemble des informations extraites de l'image.
Style APA, Harvard, Vancouver, ISO itp.
34

Zumsteg, Cédric. "Spectroscopie ultra haute résolution d’un ion unique de calcium". Aix-Marseille 1, 2010. https://tel.archives-ouvertes.fr/tel-00507487.

Pełny tekst źródła
Streszczenie:
Cette thèse s'inscrit dans un projet visant à réaliser un étalon de fréquence optique à ion unique de calcium confiné dans un piège de Paul. Après avoir passé en revue les différents types d'étalons de fréquence dans le domaine optique actuellement développés (atomes neutres en piège magnéto-optique, atomes neutres dans un réseau optique et ions piégés), l'accent est mis sur le concept d'horloge à ion unique confiné dans un piège radiofréquence. Les notions de piégeage des ions, de refroidissement laser, d'effet systématique et les techniques d'asservissement laser y sont étudiées en détail. Les aspects expérimentaux sont ensuite présentés, en insistant particulièrement sur les deux pièges utilisés au cours des expériences ainsi que sur le protocole expérimental qui détermine le cahier des charges du laser d'horloge. Afin de réaliser un étalon de fréquence optique il faut posséder une source laser dont les propriétés spectrales soient meilleures ou identiques à celle de la transition atomique afin de tirer pleinement profit du facteur de qualité de la transition atomique. L'ensemble des systèmes d'asservissement du laser, lui permettant d'atteindre ces performances, sont décrits. Dans une première partie, l'asservissement du laser sur une cavité Invar de pré-stabilisation est présenté. On peut ainsi atteindre une largeur de raie du laser de l'ordre de 1 kHz. Dans une seconde partie la réalisation et le montage de l'asservissement sur une cavité ULE de haute finesse est détaillé. En utilisant ce dernier étage nous avons estimé la largeur de raie du laser à 120 mHz. Enfin le dernier chapitre est consacré à l'utilisation d'une technique d'optique adaptative afin d'améliorer la qualité des faisceaux laser et ainsi réduire le bruit de fond du système de détection des ions, qui a pour conséquence de dégrader la stabilité du système.
Style APA, Harvard, Vancouver, ISO itp.
35

Caspary, Olivier. "Applicabilité des méthodes d'analyse spectrale à haute résolution fréquentielle". Nancy 1, 1995. http://www.theses.fr/1995NAN10004.

Pełny tekst źródła
Streszczenie:
Ce mémoire porte sur l'applicabilité des méthodes d'analyse spectrale à haute résolution fréquentielle. La première partie présente une unification des principales méthodes à partir de la résolution d'un problème de minimisation sous contraintes. La seconde partie, en s'appuyant sur des simulations multiples, étudie les problèmes de mise en œuvre associés d'une part aux méthodes et, d'autre part, aux signaux. Dans le premier cas, nous généralisons notamment les méthodes d'approximation du sous-espace signal afin qu'elles soient plus robustes vis-à-vis du choix du nombre de composantes, et proposons également une pondération qui évite ce choix. Dans le second cas, un prétraitement, consistant à former la matrice des données à l'aide des données et de leurs corrélations successives, est proposé. Dans le cas de signaux sinusoïdaux courts, il améliore le rapport signal sur bruit si celui-ci est faible. La troisième partie traite deux applications complémentaires, en l'occurrence des signaux de spectroscopie RMN et des fuseaux de sommeil de signaux EEG. Pour ces deux applications, nous proposons des méthodologies appropriées qui peuvent faire appel à la technique de filtrage-décimation afin de réduire la complexité numérique et d'améliorer la résolution. Le dernier chapitre fait le point sur les connaissances acquises et conduit à l'ébauche d'un guide utilisateur
Style APA, Harvard, Vancouver, ISO itp.
36

Paganin, Fabrice. "Imagerie de l'asthmatique : apport de la tomodensitométrie haute résolution". Montpellier 1, 1997. http://www.theses.fr/1997MON1T036.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
37

Gadhi, Jamal. "Spectroscopie millimétrique haute résolution de molécules linéaires ou symétriques". Lille 1, 1989. http://www.theses.fr/1989LIL10016.

Pełny tekst źródła
Streszczenie:
Étude des différentes étapes dans une étude d'estimation des paramètres moléculaires et apports nouveaux permettant son amélioration. Utilisation de nouvelles techniques dans l'expérimentation (spectroscopie doppler et sub doppler, spectroscopie millimétrique). Programmation de nouvelles méthodes statistiques dans l'estimation des paramètres (méthode des moindres carrés corrélés et méthode "jacknife"). Étude des spectres de rotation du fluorométhane, du trioxanne, de icn. Étude de l'effet stark dans le spectre millimétrique du bromure de méthyle, de l'iodure de méthyle, de l'iodure de méthyle-d::(3)
Style APA, Harvard, Vancouver, ISO itp.
38

Mear, Yann. "Outils pour l'acquisition de données sismiques, réflexion haute résolution". Perpignan, 1991. http://www.theses.fr/1991PERP0136.

Pełny tekst źródła
Streszczenie:
L'acquisition de donnees de sismique reflexion monotrace haute resolution est envisagee suivant le mode analogique et le mode numerique. A partir d'un bilan des materiels et des methodes mises en uvre, des outils et des processus sont proposes pour optimiser l'acquisition analogique. La premiere etape concerne la mise en forme des signaux. Le premier outil elabore permet d'adapter, de filtrer et d'amplifier les signaux sismiques. Dans une deuxieme etape une optimisation de l'enregistrement des donnees sur support magnetique est proposee. Le rejeu des donnees sur un terminal graphique dowty 3640 est rendu possible grace a l'elaboration d'une interface specifique. Plusieurs outils sont proposes aux geologues desirant mettre en uvre une chaine sismique numerique. Le programme numesis est plus specialement destine aux operateurs disposant de donnees sismiques analogiques enregistrees sur support magnetique. Ce programme, base sur une carte a numeriser 12 bits, permet d'obtenir des donnees numeriques et de leur appliquer des traitements de base (filtrage, addition de traces,. . . ). Le programme siren met en uvre une carte 16 bits incorporant un dsp. Plus specialement destine a une acquisition en temps reel des donnees sismiques, il propose aussi un module de rejeu analogique ou numerique. Le logiciel impresis permet d'obtenir des documents papier a partir d'un terminal graphique de terrain (dowty 3640) et d'une imprimante laser. Plusieurs modes d'impression sont disponibles (raster, galva, aire variable) ainsi qu'un traitement geometrique (dilatation ou compression horizontale, zoom,. . . )
Style APA, Harvard, Vancouver, ISO itp.
39

Charon, Yves. "Étude et développement d'un radio-imageur β⁻ haute résolution". Paris 11, 1988. http://www.theses.fr/1988PA112378.

Pełny tekst źródła
Streszczenie:
Charge Coupled Device (C. C. D. ), have already been used to track charged particle beams. We now present another application which combines this sensor with a Light-Amplifier to develop an imaging detector. This image sensor must detect various ß- emittors, at very low counting rates. Furthermore it must perform a 10 µm resolution in order to replace the autoradiographic films used for molecular hybridization. The first tests were performed on this first configuration (uncooled light amplifier, NE 102 sheets, 60 mm2 analysis surface). This tests brought forward the light yield and intrisic resolution for various plastic thickness, and for each of the three usual ß- emittors: 35S, 32P, 3H. We have then proceeded to modifications: increasing photocathode's sensibility, cooling L. A. , trying various scintillating plastics, using various software discrimination techniques. These modifications were gradually and succesfully introduced and the best results were obtained with the 35S emittor, for which the resolution and the efficiency are respectively 15 µm and 99 % (relative to the measured standard sources). Right now, the detector is good enough to produce images of biological slides with nearly the requested resolution and efficiency more than three thousand times greater than films. Nevertheless, in order to propose the most valuable product, it is necessary to trig the C. C. D. With a coincidence signal, to increase the photocathode sensibility down to the U. V. All that parameters have been integrated in a new prototype design and will be tested after this publication
Pour repérer au niveau cellulaire ou tissulaire des molécules biologiquement actives, on utilise des molécules radioactives et présentant une affinité chimique particulière avec les produits cherchés. Cette manipulation s'appelle l'hybridation in situ et est employée surtout en biologie moléculaire et en pharmacologie. La technique actuelle d'analyse de ces coupes, consiste exclusivement à exposer des émulsions photographiques. Ce procédé est lent et fournit un résultat non numérisé. Nous avons développé un détecteur capable d'établir une image d'une distribution de points émetteur ß- (3H, 35S ou 32p) de faible comptage (quelques bcqs), avec une grande résolution ; de l'ordre d'une dizaine de micron. Les améliorations apportées progressivement à l'appareil- augmentation de la sensibilité de la photocathode et refroidissement de l'amplificateur de brillance, changement de scintillateur, techniques informatiques de discrimination - nous ont permis d'atteindre une résolution de 15 µm avec une efficacité de 100 % pour l'émetteur 35S. D'autre part, les mesures réalisées à partir d'échantillons biologiques(coupe de testicules de drosophile)ont d'ores et déjà établi que le gain sur le temps d'exposition des émulsions photographiques s'élève à un facteur d'environ 300. Ce mémoire présente, outre une description complète de l'imageur et de son fonctionnement, une discussion liant le travail de développement effectué à l'évolution des performances. Les modifications futures du détecteur et les améliorations qu'elles doivent apporter sont exposées à la fin de cette publication
Style APA, Harvard, Vancouver, ISO itp.
40

Borghys, Dirk. "Interprétation et recalage d'images sar polarimétries de haute résolution". Paris, ENST, 2001. http://www.theses.fr/2001ENST0031.

Pełny tekst źródła
Streszczenie:
Le but de cette thèse est de chercher de nouveaux et meilleurs outils automatiques d'aide à l'interprétation d'images sar polarimetriques et de développer une stratégie permettant le recalage automatique de ces images avec d'autres images. D'abord sont présentées les notions fondamentales liées a l'imagerie sar polarimetrique, nécessaires a la compréhension des concepts utilises dans la suite, notamment les principes des radars imageurs a synthèse d'ouverture, les principaux phénomènes physiques déterminant l'apparence des images radar et la théorie de base de la polarimetrie. On analyse également les différentes statistiques présentes au sein d'une image sar, c. A. D. Les lois statistiques de distribution du speckle dans des régions uniformes ainsi que les corrélations spatiales et inter-canaux. Les chapitres suivants présentent le corps principal du travail effectue. On construit deux nouveaux détecteurs de contours pour les images sar multicanaux en se basant sur des méthodes empruntées à la statistique multivariée. On étudie l'influence des corrélations spatiales sur les détecteurs, on propose une stratégie de fusion des résultats et on construit un détecteur de lignes à partir des détecteurs de contours. Ensuite on aborde la segmentation et la classification de régions homogènes. Pour la segmentation on utilise des méthodes de statistique multivariée. Pour la classification on met en place différents théorèmes de décomposition polarimetrique. Ces méthodes ne permettant pas de distinguer les villages des forets, un détecteur spécifiquement dédié a la détection de zones bâties, est proposé. Finalement on étudie le recalage d'images. Une approche hiérarchique utilisant de cartes topographiques est proposée. L'idée est que pour chaque type d'image on peut trouver des objets disponibles sur une carte, dont la détection dans l'image est facile. On cherche d'abord le recalage image/carte, puis le recalage entre les différentes images.
Style APA, Harvard, Vancouver, ISO itp.
41

Henrion, Stéphane. "Traitements SAR (Synthetic Aperture Radar) spatial très haute résolution". Toulouse, INPT, 2001. http://www.theses.fr/2001INPT050H.

Pełny tekst źródła
Streszczenie:
Le Radar à Synthèse d'Ouverture (RSO) est un instrument embarqué, utilisé en télédétection pour obtenir des images tout temps, toute heure de la surface terrestre. Les utilisations actuelles de ces images requièrent des résolutions métriques à sub-métriques. Alors que la résolution en site (transversale au déplacement du radar) est essentiellement limitée par la technologie (principe de compression d'impulsion), la réelle difficulté algorithmique de l'imagerie RSO tient dans l'obtention de la résolution azimutale, parallèle au déplacement du support, qui exploite les contributions successives des cibles élémentaires dans les échos reçus. Le recensement et la formalisation analytique unifiée des traitements Haute Résolution proposés dans la littérature permet dans un premier temps de mettre en évidence les spécificités du traitement de Synthèse d'Ouverture, qui doit s'accommoder de la dispersion temporelle, donc spatiale, des échos d'une même cible au cours de la prise de vue. Ensuite, la prise en compte d'une configuration spatiale Très Haute Résolution (THR), qui nécessite notamment l'utilisation de modes opératoires évolués (spotlight pur ou glissant), nous conduit à proposer des traitements qui répondent efficacement à la modélisation plus complète des signaux obtenus dans ce contexte. Ces solutions proposent un "principe d'extension" applicable aux traitements recensés et qui permet de s'accommoder de la non stationnarité du traitement sur la profondeur fauchée. Le repliement des données brutes acquises dans les modes opératoires abordés est traité par une étape de "mise en forme". La validation de ces solutions est enfin effectuée par un ensemble de simulations numériques.
Style APA, Harvard, Vancouver, ISO itp.
42

Petit, David. "Extraction du "3D" par interferométrie radar à haute résolution". Toulouse 3, 2004. http://www.theses.fr/2004TOU30025.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
43

Quiquerez, Laurent. "Étude de convertisseurs de données Sigma-Delta haute résolution". Lille 1, 1999. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/1999/50376-1999-27.pdf.

Pełny tekst źródła
Streszczenie:
Ce travail porte sur la conversion de données analogique-numérique à très haute résolution (supérieure à 16 bits). L'objectif est de permettre, à terme, la co-intégration du codeur et de fonctions de traitement numérique complexes. Deux approches utilisant la modulation Sigma-Delta ont été étudiées. La première est basée sur une structure nouvelle présentant une symétrie analogique-numérique et visant une réalisation par la technique des courants commutes. La seconde combine des intégrateurs en temps-continu et en temps-discret, au sein du même modulateur. Ainsi les intégrateurs les plus performants peuvent être réalisés en composants discrets, alors que l'essentiel du codeur est intégré à l'aide de la technique des capacités commutées. Une méthode originale a été mise au point, basée sur la transformation exacte de la partie continue en son équivalent temps-discret, permettant la synthèse d'un tel modulateur. La deuxième de ces approches, paraissant être la plus prometteuse, a été retenue pour la réalisation d'un prototype. Il s'agit d'un modulateur d'ordre 4, dont les deux premiers étages sont réalisés en temps continu. La partie intégrée du modulateur a été fabriquée en technologie CMOS 0,8 micron.
Style APA, Harvard, Vancouver, ISO itp.
44

Blondet, Pascal. "Spectroscopie RMN localisée haute résolution du proton "in vivo"". Grenoble 1, 1988. http://www.theses.fr/1988GRE10002.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
45

Le, Bras Julien. "Le microclimat urbain à haute résolution : mesures et modélisation". Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30078/document.

Pełny tekst źródła
Streszczenie:
Le confort thermique des habitants d'une ville est principalement affecté par l'îlot de chaleur urbain. Ce phénomène se traduit par des températures plus chaudes en ville que dans sa périphérique, principalement la nuit. Il est causé par les relâchements de chaleur stockée dans les bâtiments et la route le jour mais aussi par des sources anthropiques comme le chauffage ou le trafic routier. L'îlot de chaleur urbain peut atteindre jusqu'à 10°C la nuit pour les plus grandes mégapoles. Mais au cœur d'un quartier, la variabilité de la température, en fonction des ombrages ou de la présence d'eau et de parcs peut aussi atteindre quelques degrés. Elle peut donc être de la même amplitude que l'îlot de chaleur urbain. L'objectif de cette thèse est d'étudier la variabilité de la température à l'échelle de la ville et à l'échelle de la rue. Le but est de mettre en place une chaîne de modélisation de la température à l'échelle de rue à partir de données de stations météorologiques opérationnelles en périphérie d'une ville. Cette chaîne de modélisation doit être rapide et faire appel à des données accessibles au plus grand nombre afin de pouvoir simuler des scénarios d'aménagement urbains sur le long terme en dehors des laboratoires de recherche. La première partie de la chaîne de modélisation s'appuie sur un modèle numérique physique, le générateur de climat urbain spatialisé, permettant de calculer l'îlot de chaleur à l'échelle du quartier à partir de données se situant en dehors d'une ville et d'un modèle de surface de ville comme le modèle TEB. La deuxième partie permet de modéliser statistiquement la variabilité de température à l'échelle de la rue à partir des conditions météorologiques simulées par le générateur au sein d'un quartier et d'une cartographie précise du tissu urbain du quartier considéré. Cette modélisation statistique s'appuie sur des campagnes de mesures effectuées en 2013 et 2014 dans des quartiers des villes de Marseille, Paris et Toulouse
The thermal comfort of the inhabitants of a city is mainly affected by the urban heat island (difference in air temperature between urban and surrounding area. This effect is caused by anthropogenic sources, low vegetated areas and heat stored in buildings and roads during the night. The urban heat island can reach 10°C at night for the biggest cities. But inside a neighborhood, the temperature variability can reach a few degrees with the effect of the shadow of the trees or the presence of lake or parks. This variability may have the same magnitude than the urban heat island. The objective of this thesis is to study the temperature variability at the city-scale and at the street-scale. The aim of this PhD work is to develop a modeling chain of the temperature at the street-scale from data from operational weather stations located in airports.The modeling chain has to be fast in order to simulate long term urban planning scenarios and have a low computational cost in order to be run outside of atmospheric sciences laboratories. The first step of the modeling chain is the spatialized urban weather generator, a numerical physical scheme which calculated the urban heat island at the neighborhood scale from data of an operational weather station located outside of the city and with sur urban surface model TEB. The second part is a statistical model of temperature variability at the street scale calculated with meteorological data coming from the generator and a mapping of the urban tissue. The statistical model relies on field campaigns achieved in 2013 and 2014 in the neighborhoods of Marseille, Paris and Toulouse
Style APA, Harvard, Vancouver, ISO itp.
46

Liu, Hui. "Microscopie tomographique diffractive et profilométrie multivue à haute résolution". Thesis, Mulhouse, 2014. http://www.theses.fr/2014MULH9558/document.

Pełny tekst źródła
Streszczenie:
Nous avons développé un microscope tomographique diffractif en réflexion, qui permet d’observer la surface d’un échantillon avec une résolution latérale améliorée comparée à un microscope holographique conventionnel. À partir des même données expérimentales (les hologrammes acquis sous différents angles d’illumination), des mesures à haute précision longitudinale peuvent être réalisées sur la surface d’un échantillon purement réfléchissant, par reconstruction du profil de hauteur à partir de la phase. Cette méthode d’imagerie multimodale présente plusieurs avantages comparée aux mesures en holographie interférométrique classique : amélioration de la résolution latérale sur la partie diffractive, déroulement de phase facilité, réduction du bruit cohérent, l’ensemble étant associé à la grande précision longitudinale fournie par les mesures de phase. Nous montrons ces possibilités en imageant divers échantillons minces
We have developed a tomographic diffractive microscope in reflection, which permits observation of sample surfaces with an improved lateral resolution, compared to a conventional holographic microscope. From the same set of data, high-precision measurements can be performed on the shape of the reflective surface by reconstructing the phase of the diffracted field. doing so allows for several advantages compared to classical holographic interferometric measurements: improvement in lateral resolution, easier phase unwrapping, reduction of the coherent noise, combined with the high-longitudinal precision provided by interferometric phase measurements. We demonstrate these capabilities by imaging various test samples
Style APA, Harvard, Vancouver, ISO itp.
47

Schardong, Lewis. "Vers une tomographie haute résolution du manteau inférieur terrestre". Toulouse 3, 2012. http://thesesups.ups-tlse.fr/1935/.

Pełny tekst źródła
Streszczenie:
La couche D" est une des zones les plus hétérogène de la Terre, abritant des structures mal comprises, probablement à l'origine de la dynamique globale du manteau. Les méthodes actuelles de tomographie sismique ne résolvent pas correctement cette région. La résolution des images de la structure interne de la Terre est fortement liée à la localisation précise des séismes, ainsi qu'à la connaissance du contenu fréquentiel des ondes sismiques. Cette thèse a pour objectif la construction d'une base de données globale de temps de trajet des ondes, mesures utilisées pour l'élaboration des images tomographiques. Notre méthode utilise une détermination plus précise de la profondeur des séismes permettant d'améliorer la mesure des temps de trajet. Pour une meilleure évaluation du contenu fréquentiel, ces mesures sont réalisées dans plusieurs gammes de fréquence. Une nouvelle approche de calcul de corrections visant à éliminer la complexité de la croûte est également présentée. Enfin, une imagerie préliminaire est présentée aux échelles régionale et globale sous l'approximation de la théorie des rais, avant une description plus complète par l'approximation de Born
The D" layer is one of Earth's most heterogeneous location, hosting poorly understood features, which are most likely linked to the global dynamics of the mantle. Present days tomographic approaches cannot resolve correctly this area. The resolution of images from Earth's inner structure is strongly linked to precisely localizing earthquakes, and to have a good knowlegde of the frequency content of seismic waves. This thesis aims at building a global database of seismic travel times, data used for the development of tomographic images. Our method uses a more precise determination of the depths of earthquakes, allowing an improvement in measuring travel times. To a better evaluation of the frequency content, these measurements are performed in several frequency bands. A new approach for the computation of corrections to the complexity of the crust is presented as well. Finally, a preliminary imaging is presented, at regional and global scale, under the approximation of the ray theory, before a more complete description under Born approximation
Style APA, Harvard, Vancouver, ISO itp.
48

Etchanchu, Jordi. "Apport des données de télédétection haute résolution et haute répétitivité dans la modélisation hydro-météorologique". Thesis, Toulouse 3, 2019. http://www.theses.fr/2019TOU30205/document.

Pełny tekst źródła
Streszczenie:
Les agrosystèmes sont soumis à de fortes hétérogénéités spatiales et temporelles, notamment du fait des pratiques agricoles. Les modèles de surface, qui servent à quantifier les échanges d'eau et d'énergie entre le sol, la végétation et la basse atmosphère, dits flux hydrométéorologiques, utilisent la plupart du temps des résolutions spatiales trop larges et une description des pratiques agricoles trop simple pour caractériser ces hétérogénéités, faute d'information spatialisée fiable et à fréquence temporelle suffisante pour paramétrer les simulations. Pourtant, réussir à simuler de manière plus réaliste les agrosystèmes à l'échelle du paysage, comme un bassin versant par exemple, est d'importance cruciale que ce soit pour gérer la répartition des ressources en eau ou évaluer les interactions entre pratiques agricoles et évolution climatique. La télédétection à haute résolution spatiale et temporelle, à l'image de la mission spatiale Sentinel-2 de l'ESA, permet de fournir des informations sur la surface terrestre à des résolutions inégalées (10 m, 5 jours) et sur l'ensemble du globe. Cette thèse visait donc à exploiter ce type de données dans un modèle de surface, le modèle SURFEX-ISBA développé par le CNRM, afin d'améliorer la représentation des pratiques agricoles et évaluer son impact sur les flux hydrométéorologiques à l'échelle du paysage. Le premier volet de la thèse avait pour objectif de représenter l'hétérogénéité spatio-temporelle des cultures, du fait des choix des dates de semis et de récolte ainsi que des rotations de culture, dans le modèle. Pour ce faire, j'ai exploité les produits issus des données du satellite optique Formosat-2 (8m, acquisitions programmées), sous la forme de cartes d'occupation des sols et de cartes multi-temporelles d'indice de surface foliaire (LAI) afin de simuler un agrosystème du Sud-Ouest de la France sur une zone de 576 km2. Afin de simuler de telles étendues en exploitant la haute résolution des produits satellite tout en limitant le temps de calcul, une approche de simulation par parcelle a été mise en place
Agricultural practices generate strong spatial and temporal heterogeneities of the vegetation in agrosystems. Land Surface Models (LSMs), which simulate water and energy fluxes between soil, vegetation and atmosphere, use coarse spatial resolutions and very simplified agricultural practices representations. Therefore, they cannot characterize such heterogeneities. However, simulating agrosystems in a realistic way is of great interest to manage water resources at landscape scale, like a river basin, or study the interactions between climate evolution and agriculture. High resolution remote sensing, like the ESA's Sentinel-2 space mission, allows monitoring the Earth surface globally with unprecedented spatio-temporal resolution of 10 meters and 5 days. This Ph. D. thesis aimed to exploit such data in the SURFEX-ISBA LSM, developed by the CNRM, to represent agricultural practices in the hydrometeorological fluxes estimation at landscape scale. The first part of the thesis aimed at representing the spatial and temporal heterogeneities of the vegetation due to the choice of sewing and harvesting dates and crop rotations in the model. I used multi-temporal Leaf Area Index and annual land cover maps derived from the Formosat-2 remote sensing date (8m, tasking acquisitions). Simulations were performed on a 576 km2 agricultural plain in southwestern France. In order to keep the interest of high resolution while saving computation time, a plot scale simulation approach was used
Style APA, Harvard, Vancouver, ISO itp.
49

Abily, Morgan. "Modélisation hydraulique à surface libre haute-résolution : utilisation de données topographiques haute-résolution pour la caractérisation du risque inondation en milieux urbains et industriels". Thesis, Nice, 2015. http://www.theses.fr/2015NICE4121/document.

Pełny tekst źródła
Streszczenie:
Pour l'évaluation du risque inondation, l’emploi de modèles numériques 2D d’hydraulique à surface libre reposant sur la résolution des équations de Saint-Venant est courant. Ces modèles nécessitent entre autre la description de la topographie de la zone d’étude. Sur des secteurs urbains denses ou des sites industriels, cette topographie complexe peut être appréhendée de plus en plus finement via des technologies dédiées telles que le LiDAR et la photogrammétrie. Les Modèles Numériques d'Elévation Haute Résolution (HR MNE) générés à partir de ces technologies, deviennent employés dans les études d’évaluation du risque inondation. Cette thèse étudie les possibilités, les avantages et les limites, liées à l'intégration des données topographiques HR en modélisation 2D du risque inondation en milieux urbains et industriels. Des modélisations HR de scénarios d'inondation d'origines pluviale ou fluviale sont testés en utilisant des HR MNE crées à partir de données LiDAR et photo-interprétées. Des codes de calculs (Mike 21, Mike 21 FM, TELEMAC-2D, FullSWOF_2D) offrant des moyens différent d'intégration de la donnée HR et basés sur des méthodes numériques variées sont utilisés. La valeur ajoutée de l'intégration des éléments fins du sur-sol impactant les écoulements est démontrée. Des outils pour appréhender les incertitudes liées à l'emploi de ces données HR sont développés et une analyse globale de sensibilité est effectuée. Les cartes d'indices de sensibilité (Sobol) produites soulignent et quantifient l'importance des choix du modélisateur dans la variance des résultats des modèles d'inondation HR ainsi que la variabilité spatiale de l'impact des paramètres incertains testés
High Resolution (infra-metric) topographic data, including LiDAR photo-interpreted datasets, are becoming commonly available at large range of spatial extent, such as municipality or industrial site scale. These datasets are promising for High-Resolution (HR) Digital Elevation Model (DEM) generation, allowing inclusion of fine aboveground structures that influence overland flow hydrodynamic in urban environment. DEMs are one key input data in Hydroinformatics to perform free surface hydraulic modelling using standard 2D Shallow Water Equations (SWEs) based numerical codes. Nonetheless, several categories of technical and numerical challenges arise from this type of data use with standard 2D SWEs numerical codes. Objective of this thesis is to tackle possibilities, advantages and limits of High-Resolution (HR) topographic data use within standard categories of 2D hydraulic numerical modelling tools for flood hazard assessment purpose. Concepts of HR topographic data and 2D SWE based numerical modelling are recalled. HR modelling is performed for : (i) intense runoff and (ii) river flood event using LiDAR and photo-interpreted datasets. Tests to encompass HR surface elevation data in standard modelling tools ranges from industrial site scale to a megacity district scale (Nice, France). Several standard 2D SWEs based codes are tested (Mike 21, Mike 21 FM, TELEMAC-2D, FullSWOF_2D). Tools and methods for assessing uncertainties aspects with 2D SWE based models are developed to perform a spatial Global Sensitivity Analysis related to HR topographic data use. Results show the importance of modeller choices regarding ways to integrate the HR topographic information in models
Style APA, Harvard, Vancouver, ISO itp.
50

Le, Men Camille. "Segmentation Spatio-temporelle d'une séquence d'images satellitaires à haute résolution". Phd thesis, Ecole nationale supérieure des telecommunications - ENST, 2009. http://pastel.archives-ouvertes.fr/pastel-00658159.

Pełny tekst źródła
Streszczenie:
Les séquences temporelles d'images présentent une quantité d'information bien plus importante que des images individuelles. En effet, la prise en compte du temps accroit considérablement le nombre d'états possibles ce qui se traduit par une quantité d'information plus importante (au sens entropie). Grâce à l'agilité des satellites de nouvelle génération et à leur utilisation dans des constellations, des séquences temporelles d'images satellitaires, STIS, vont maintenant être accessibles à haute résolution. Ces données sont extrêmement riches, mais en contrepartie, elles sont complexes et difficiles à interpréter manuellement. Des méthodes d'analyse automatique sont donc requises. Les STIS à haute résolution (STISHR) se distinguent des autres types de séquences existantes par la nature des changements qu'elles présentent. En effet, contrairement aux STIS à basse résolution, les STISHR contiennent des objets. Afin de tenir compte de cette particularité, une méthode d'analyse orientée objet doit donc être utilisée. De telles méthodes existent dans le domaine de la vidéo. Cependant, les objets des STISHR peuvent subir des changements radiométriques, par exemple liés à la croissance des plantes, alors que la radiométrie des objets de vidéo est généralement supposée invariante. Nous devons donc concevoir une méthode d'analyse orientée objet adaptée à la STISHR. Par ailleurs, l'échantillonnage temporel des STISHR est irrégulier et généralement sous-échantillonné par rapport aux phénomènes observables à ces résolutions spatiales. De plus, du point de vue du satellite, aux évolutions radiométriques propres aux objets de la scène se rajoutent les évolutions radiométriques liées à l'épaisseur atmosphérique. Néanmoins, hormis de faibles erreurs de recalage géométrique, la STISHR présente une redondance temporelle dans la forme des objets. Ainsi, une construction est généralement pérenne et une zone cultivable est rarement modifiée. Nous proposons donc une méthode d'analyse de la STISHR basée objet de façon à exploiter d'une part la redondance radiométrique intra objets spatiaux, et d'autre part, la redondance temporelle de forme entre ces objets. Une étude phénoménologique de la dynamique de la scène et de la STISHR nous permet d'identifier les caractéristiques d'une représentation adaptée à la description de ses changements : il s'agit d'un graphe dont les noeuds sont des objets spatiaux reliés par des arcs exprimant leur dépendance temporelle. Le calcul de ce graphe est cependant un problème difficile, et nous proposons d'en calculer une approximation. Cette approximation est calculée en deux temps. Dans un premier temps, on considère une approximation forte sur les dépendances temporelles afin de faciliter la détermination des régions spatiales. Celles-ci sont extraites grâce à un algorithme de segmentation exploitant conjointement les deux types de redondances disponibles : l'homogénéité radiométrique spatiale, et la redondance géométrique temporelle. Les noeuds du graphe ainsi déterminés, on relaxe l'approximation sur les dépendances temporelles de façon à obtenir une estimation plus fine du graphe. Nous proposons ensuite deux utilisations de ce graphe. L'une exploite ses caractéristiques structurelles telles que la valence des noeuds afin de détecter les changements géométriques. L'autre, utilise une version attribuée par des propriétés radiométriques du graphe pour mettre en évidence des comportements fréquents.
Style APA, Harvard, Vancouver, ISO itp.
Oferujemy zniżki na wszystkie plany premium dla autorów, których prace zostały uwzględnione w tematycznych zestawieniach literatury. Skontaktuj się z nami, aby uzyskać unikalny kod promocyjny!

Do bibliografii