Kliknij ten link, aby zobaczyć inne rodzaje publikacji na ten temat: Modèles numériques de surface (MNS).

Rozprawy doktorskie na temat „Modèles numériques de surface (MNS)”

Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych

Wybierz rodzaj źródła:

Sprawdź 32 najlepszych rozpraw doktorskich naukowych na temat „Modèles numériques de surface (MNS)”.

Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.

Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.

Przeglądaj rozprawy doktorskie z różnych dziedzin i twórz odpowiednie bibliografie.

1

Guérin, Cyrielle. "Génération de modèles numériques de surface et détection de changements 3D à partir d'imagerie satellite stéréoscopique très haute résolution". Phd thesis, Université René Descartes - Paris V, 2014. http://tel.archives-ouvertes.fr/tel-00953485.

Pełny tekst źródła
Streszczenie:
L'imagerie satellite permet aujourd'hui l'acquisition d'un nombre croissant de données dont l'augmentation des résolutions spatiale et temporelle permet de caractériser de plus en plus finement une scène et son évolution. Dans ce contexte, les méthodes de détection des changements apparus entre deux scènes sont particulièrement étudiées. Elles sont généralement basées sur les différences radiométriques entre les images. Cependant, ces méthodes s'avèrent souvent peu robustes à des changements radiométriques non pertinents tels que ceux induits par la variation des conditions d'acquisition des images. L'objectif de cette thèse est ainsi de développer une méthode alternative, basée sur la recherche des changements d'élévation de la scène. L'élévation représente en effet une information pertinente et adaptée, notamment dans un contexte de détection des changements de type urbain (construction, destruction ou modification d'infrastructures). Pour répondre à des besoins en analyse d'image qui nécessitent des résultats rapides et fiables, la méthode que nous proposons est une chaîne de traitements complète et automatique basée sur l'exploitation de couples d'image satellites stéréoscopiques très haute résolution permettant la génération et la comparaison de Modèles Numériques de Surface (MNS). Afin de limiter les fausses alarmes de changements dues aux erreurs liées à la génération des MNS, une étape clé de cette thèse a consisté à augmenter la précision des MNS, notamment à travers la prise en compte des zones d'occlusions et de mauvaise corrélation. La méthode de génération des MNS à ainsi été améliorée et une technique innovante de fusion des deux MNS provenant du même couple d'images a été développée. La comparaison des MNS générés avec un MNS LiDAR montre que notre approche permet une nette augmentation de la qualité des MNS, les erreurs de corrélation sont réduites tandis que les zones d'occlusion sont précisément localisées.La méthode de détection des changements d'élévation est, quant à elle, basée sur une labellisation par optimisation des pixels du MNS différentiel calculé à partir des MNS produits à chaque date. Cette étape permet de mettre en évidence les vrais changements de la scène parmi le bruit résiduel des MNS. Les résultats obtenus sur différents sites testés montrent que plus de 80% des changements de taille supérieure à 15 pixels x 15 pixels (ou 100 m² avec des images très haute résolution) sont détectés par notre méthode, avec moins de 20% d'erreurs. Nous montrons cependant que ces résultats dépendent principalement du paramètre de régularisation de la détection des changements, qui contrôle le taux de fausses alarmes par rapport au taux de bonnes détections du résultat.
Style APA, Harvard, Vancouver, ISO itp.
2

Guérin, Cyrielle. "Génération de modèles numériques de surface et détection de changements 3D à partir d'imagerie satellite stéréoscopique très haute résolution". Electronic Thesis or Diss., Paris 5, 2014. http://www.theses.fr/2014PA05S003.

Pełny tekst źródła
Streszczenie:
L'imagerie satellite permet aujourd'hui l'acquisition d'un nombre croissant de données dont l'augmentation des résolutions spatiale et temporelle permet de caractériser de plus en plus finement une scène et son évolution. Dans ce contexte, les méthodes de détection des changements apparus entre deux scènes sont particulièrement étudiées. Elles sont généralement basées sur les différences radiométriques entre les images. Cependant, ces méthodes s'avèrent souvent peu robustes à des changements radiométriques non pertinents tels que ceux induits par la variation des conditions d'acquisition des images. L'objectif de cette thèse est ainsi de développer une méthode alternative, basée sur la recherche des changements d'élévation de la scène. L'élévation représente en effet une information pertinente et adaptée, notamment dans un contexte de détection des changements de type urbain (construction, destruction ou modification d'infrastructures). Pour répondre à des besoins en analyse d'image qui nécessitent des résultats rapides et fiables, la méthode que nous proposons est une chaîne de traitements complète et automatique basée sur l'exploitation de couples d'image satellites stéréoscopiques très haute résolution permettant la génération et la comparaison de Modèles Numériques de Surface (MNS). Afin de limiter les fausses alarmes de changements dues aux erreurs liées à la génération des MNS, une étape clé de cette thèse a consisté à augmenter la précision des MNS, notamment à travers la prise en compte des zones d'occlusions et de mauvaise corrélation. La méthode de génération des MNS à ainsi été améliorée et une technique innovante de fusion des deux MNS provenant du même couple d'images a été développée. La comparaison des MNS générés avec un MNS LiDAR montre que notre approche permet une nette augmentation de la qualité des MNS, les erreurs de corrélation sont réduites tandis que les zones d'occlusion sont précisément localisées.La méthode de détection des changements d'élévation est, quant à elle, basée sur une labellisation par optimisation des pixels du MNS différentiel calculé à partir des MNS produits à chaque date. Cette étape permet de mettre en évidence les vrais changements de la scène parmi le bruit résiduel des MNS. Les résultats obtenus sur différents sites testés montrent que plus de 80% des changements de taille supérieure à 15 pixels x 15 pixels (ou 100 m² avec des images très haute résolution) sont détectés par notre méthode, avec moins de 20% d'erreurs. Nous montrons cependant que ces résultats dépendent principalement du paramètre de régularisation de la détection des changements, qui contrôle le taux de fausses alarmes par rapport au taux de bonnes détections du résultat
The growing amount of satellite data, increasingly resolved spatially and temporally, represents a high potential of information allowing the accurate characterization of the evolution of an area of interest. For this reason, automatic analysis techniques such as change detection methods are widely investigated. Most of them are based on radiometric changes between remote sensed optical images. These methods are however very sensitive to a significant number of irrelevant changes such as those due to the variation of the geometrical conditions between two different acquisitionsThe objective of this work is then to develop an alternative method based on the elevation change detection. The advantage of using the elevation is that this information is particularly relevant and well adapted in a context of urban monitoring where the elements of interest correspond to buildings that can be constructed, modified or destroyed between two dates.In order to satisfy new needs in image analysis which require quick and reliable results, our method is a complete and automatic processing flow based on the analysis of high resolution satellite stereoscopic couples and the generation of Digital Surface Models (DSM). Stereoscopic DSMs, however, generally suffer from a high number of correlation errors leading to false alarms in the final change detection map. One of the main contribution of this work consisted in increasing the DSM accuracy, especially through a better handling of the occlusion and miss-correlation areas. For this purpose, the image matching technique has been improved and all DSMs computed from the same stereoscopic couple are then fusioned through a new approach, based on an optimization method.The comparison between our DSM with a LiDAR-based DSM indicates that our method largely improves the DSM quality, the amount of correlation errors is decreased while the occlusion areas are accurately localized. The change detection method itself is based on the labelization of the pixels of the differential DSM computed from the DSMs generated at each date of interest. This step, performed through another optimization process, enables to bring forward the relevant changes among the residual noise of the DSMs. The results, obtained for several experimental areas, show that more than 80% of the changes larger than 15 pixels x 15 pixels (100 m² with high resolution images) are detected with our method, with less than 20% of false alarms. We also show that these results mainly depend on the regularization parameter which controls the balance between the amount of false alarms towards the amount of true detections in the final results
Style APA, Harvard, Vancouver, ISO itp.
3

Ennafii, Oussama. "Qualification géométrique de modèles 3D de bâtiments". Thesis, Paris Est, 2020. http://www.theses.fr/2020PESC2001.

Pełny tekst źródła
Streszczenie:
La génération automatique de modèles de construction 3D à partir de données géospatiales est maintenant une procédure standard. Une littérature abondante couvre les deux dernières décennies et plusieurs solutions logicielles sont maintenant disponibles. Cependant, les zones urbaines sont des environnements très complexes. Inévitablement, les producteurs de données doivent encore évaluer visuellement, à l'échelle de villes, l'exactitude de ces modèles et détecter les erreurs fréquentes de reconstruction. Un tel processus fait appel à des experts et prend beaucoup de temps, soit environ deux heures/km² par expert. Cette thèse propose une approche d'évaluation automatique de la qualité des modèles de bâtiments 3D. Les erreurs potentielles sont compilées dans une nouvelle taxonomie hiérarchique et modulaire. Cela permet, pour la première fois, de séparer erreurs de fidélité et de modélisation, quelque soit le niveau de détail des bâtiments modélisés. La qualité des modèles est estimée à l'aide des propriétés géométriques des bâtiments et, lorsqu'elles sont disponibles, d'images géospatiales à très haute résolution et des modèles numériques de surface. Une base de référence de caractéristiques ad hoc génériques est utilisée en entrée d'un classificateur par Random Forest ou par Séparateurs à Vaste Marge. Des attributs plus riches, s'appuyant sur des noyaux de graphes ainsi que sur des réseaux de type Scattering ont été proposées pour mieux prendre en compte la structure dans la donnée 3D. Les cas multi-classes et multi-étiquettes sont étudiés séparément: de par l'interdépendance entre les classes d'erreurs, il est possible de détecter toutes les erreurs en même temps tout en prédisant au niveau sémantique le plus simple des bâtiments corrects et erronés. Le cadre proposé dans cette thèse a été testé sur trois zones urbaines distinctes en France avec plus de 3 000 bâtiments étiquetés manuellement. Des valeurs de F-score élevées sont atteintes pour les erreurs les plus fréquentes (80%-99%). Pour une problématique de passage à l’échelle, l'impact de la composition de la zone urbaine sur la prédiction des erreurs a également été étudié, en termes de (i) transférabilité, de (ii) généralisation et de (iii) représentativité des classificateurs. Cette étude montre la nécessité de disposer de données de télédétection multimodale et de mélanger des échantillons d'entraînement provenant de différentes villes pour assurer une stabilité des taux de détection, même avec des tailles d'ensembles d'entraînement très limitées
The automatic generation of 3D building models from geospatial data is now a standard procedure. An abundant literature covers the last two decades and several softwares are now available. However, urban areas are very complex environments. Inevitably, practitioners still have to visually assess, at city-scale, the correctness of these models and detect frequent reconstruction errors. Such a process relies on experts, and is highly time-consuming with approximately two hours/km² per expert. This work proposes an approach for automatically evaluating the quality of 3D building models. Potential errors are compiled in a novel hierarchical and modular taxonomy. This allows, for the first time, to disentangle fidelity and modeling errors, whatever the level of details of the modeled buildings. The quality of models is predicted using the geometric properties of buildings and, when available, Very High Resolution images and Digital Surface Models. A baseline of handcrafted, yet generic, features is fed into a Random Forest or Support Vector Machine classifiers. Richer features, relying on graph kernels as well as Scattering Networks, were proposed to better take into consideration structure. Both multi-class and multi-label cases are studied: due to the interdependence between classes of errors, it is possible to retrieve all errors at the same time while simply predicting correct and erroneous buildings. The proposed framework was tested on three distinct urban areas in France with more than 3,000 buildings. 80%-99% F-score values are attained for the most frequent errors. For scalability purposes, the impact of the urban area composition on the error prediction was also studied, in terms of transferability, generalization, and representativeness of the classifiers. It shows the necessity of multi-modal remote sensing data and mixing training samples from various cities to ensure a stability of the detection ratios, even with very limited training set sizes
Style APA, Harvard, Vancouver, ISO itp.
4

Malinowski, Roman. "Uncertainty characterisation in stereophotogrammetry using satellite images". Electronic Thesis or Diss., Compiègne, 2024. http://www.theses.fr/2024COMP2842.

Pełny tekst źródła
Streszczenie:
Actuellement, les Modèles Numériques de Surface (MNS) sont nécessaires pour de nombreuses applications, telles que la gestion des ressources en eau, le suivi de la biomasse, l’évaluation des dommages causés par les catastrophes naturelles ou la planification urbaine. Les MNS peuvent principalement être produits par interférométrie Radar, photogrammétrie ou en utilisant des instruments LiDAR. Dans ce contexte, le CNES et Airbus préparent le lancement de la constellation de satellites CO3D afin d’assurer la production massive de MNS à haute résolution par photogrammétrie. Fournie avec le MNS, une carte de performance permettra de caractériser les erreurs liées aux incertitudes dans les données d’entrée ainsi qu’aux incertitudes des méthodes utilisées. L’objectif de cette thèse et de caractériser l’incertitude associée à la production de MNS par photogrammétrie. Nous utilisons des modèles d’incertitude spécifiques, à savoir des probabilités imprécises, et plus particulièrement des distributions de possibilité, afin de caractériser l’incertitude résultant du traitement des images stéréo. Ces modèles définissent des “ensembles crédaux”, qui sont des ensembles convexes de distributions de probabilité. L’intérêt de ces ensembles crédaux est d’être mieux adaptés pour représenter l’incertitude résultant de connaissances incomplètes ou imparfaites, par rapport aux simples distributions de probabilité. En présence de plusieurs sources d’incertitudes, il est également nécessaire de considérer leurs relations de dépendance. Pour cela, il est courant d’utiliser des copules, qui sont des modèles représentant la dépendance entre plusieurs variables aléatoires. Dans cette thèse, trois méthodes distinctes sont introduites afin de joindre des ensembles crédaux marginaux en des ensembles crédaux multivariés à l’aide de copules. Les relations entre ces méthodes sont ensuite étudiées pour des copules spécifiques ainsi que pour différents modèles de probabilités imprécises. Une application de ces ensembles crédaux multivariés est ensuite proposée, afin de propager l’incertitude d’images stéréo dans un problème d’appariement. Différentes optimisations et façons de faciliter la propagation de l’incertitude sont présentées. La propagation correcte de l’incertitude est enfin validée à l’aide de méthodes de Monte-Carlo. Une seconde contribution de cette thèse concerne la modélisation de l’incertitude intrinsèque de l’algorithme d’appariement en utilisant des distributions de possibilité. Une méthode est proposée pour générer des intervalles de confiance associés aux résultats de l’étape d’appariement, et ces intervalles sont propagés jusqu’à la fin du pipeline stéréo, produisant ainsi des intervalles de confiance d’élévation pour les MNS. La taille et la précision de ces intervalles est évaluée en utilisant des images satellites réelles et des MNS pour lesquels une vérité terrain est disponible. Les intervalles ainsi créés contiennent correctement la vérité terrain au moins 90 % du temps
Currently, Digital Surface Models (DSMs) are required in many applications, such as for managing water resources, monitoring biomass, evaluating damages caused by natural catastrophes, or for urban planning. DSMs can mainly be produced by Radar interferometry, photogrammetry or LiDAR scanning. In this context, CNES and Airbus are planning the launch of the CO3D constellation of satellites to massively provide highly accurate DSMs using photogrammetry. A performance map will also be provided alongside the DSM to characterize potential errors resulting from the uncertainty on input data or on its processing. The objective of this thesis is to characterize the uncertainty associated with the production of DSMs using photogrammetry. To do so, special uncertainty models, namelyimprecise probabilities, and more specifically possibility distributions, are employed to characterize the uncertainty arising from stereo images processing. Those models define credal sets, which are convex sets of probability distributions. Credal sets are well-suited to represent uncertainty resulting from incomplete or imperfect knowledge, which can be a limitation for a single probability distribution. In the presence of multiple sources of uncertainty, their dependency must also be considered. For this purpose, it is possible to consider copulas, which are models used to represent the dependency between multiple random variables. In this thesis, three different methods are introduced to join marginal credal sets into multivariate credal sets using copulas. The relationships between those methods are then investigated, for specific copulas and different models of imprecise probabilities. An application of those multivariate credal sets is then proposed, for propagating the uncertainty of stereo images in a dense stereo-matching problem. Different optimizations and ways to facilitate the uncertainty propagation are presented. The correct uncertainty propagation is validated using Monte Carlo sampling. A second contribution of this thesis concerns the uncertainty modeling of the dense matching algorithm itself using possibility distributions. A method is presented for generating confidence intervals associated with the results of the dense-matching step. Those intervals are then propagated to the end of the stereo pipeline, therefore producing elevation confidence intervals for the DSMs. The size and accuracy of intervals are then evaluated, using real satellites images and DSMs for which a ground truth is available. Elevation intervals correctly contain the ground truth at least 90% of the time
Style APA, Harvard, Vancouver, ISO itp.
5

Tison, Céline. "Interférométrie RSO à haute résolution en milieu urbain : application au calcul de MNS urbain". Phd thesis, Télécom ParisTech, 2004. http://pastel.archives-ouvertes.fr/pastel-00000999.

Pełny tekst źródła
Streszczenie:
Les villes regroupent la moitié de la population mondiale. Le suivi de leur croissance est devenu un enjeu majeur en aménagement du territoire, en écologie ou pour la défense. Ce suivi nécessite une connaissance fine de l'occupation du sol et de la géométrie tridimensionnelle du bâti. L'interférométrie par radar à synthèse d'ouverture (RSO) a fait ses preuves pour mesurer l'élévation du milieu naturel à basse résolution, mais il n'est pas certain que les progrès récents en imagerie RSO à haute résolution offrent des capacités suffisantes pour rendre compte de la complexité du milieu urbain. L'objectif de cette thèse était de répondre à cette question. En raison des réflexions multiples, des discontinuités et de la grande diversité des matériaux du milieu urbain, les images RSO et, a fortiori les interférogrammes, sont difficiles à interpréter. Une inversion classique de l'interférogramme ne fournit pas un Modèle Numérique de Surface exploitable. Nous avons donc proposé un ensemble de traitements de plus haut niveau qui prend en compte toute l'information disponible, aussi bien dans les images que dans leur interférogramme. Notre travail comporte une étape d'analyse du signal RSO et une chaîne de reconstruction 3D. L'analyse est faite à trois échelles: au niveau de la cellule de résolution par simulation électromagnétique, au niveau de l'objet par un découpage en sous-bandes et au niveau de la texture par modélisation statistique. Elle aboutit à l'identification de plusieurs caractéristiques de la scène et au calcul joint de l'élévation en chaque pixel et d'une classification.
Style APA, Harvard, Vancouver, ISO itp.
6

Fochesato, Christophe. "Modèles numériques pour les vagues et les ondes internes". Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2004. http://tel.archives-ouvertes.fr/tel-00132969.

Pełny tekst źródła
Streszczenie:
La première partie de la thèse concerne le calcul numérique des ondes de gravité en 3D. Le modèle résout les équations d'Euler incompressibles avec surface libre pour un écoulement potentiel. L'association de l'Algorithme des Multipôles Rapides avec la Méthode des Eléments aux Frontières permet d'améliorer significativement l'efficacité du modèle. Deux applications sont alors considérées : le déferlement d'une onde solitaire sur un fond tridimensionnel et la focalisation spatiale générée par un batteur à houle. Dans la seconde partie, une étude plus en amont est effectuée dans le contexte des ondes internes en deux dimensions. A l'aide d'un système de type Korteweg de Vries, des ondes solitaires généralisées sont discutées dans le cas où la vitesse approche la valeur critique correspondant à l'apparition des fronts. Ces solutions résultent de la résonance entre une onde solitaire large ayant une amplitude limite et une onde courte, qui se propagent à la même vitesse de phase.
Style APA, Harvard, Vancouver, ISO itp.
7

Sainte-Marie, Jacques. "Modèles et méthodes numériques pour l'hydraulique à surface libre. Au delà du système de Saint-Venant". Habilitation à diriger des recherches, Université Pierre et Marie Curie - Paris VI, 2010. http://tel.archives-ouvertes.fr/tel-00551488.

Pełny tekst źródła
Streszczenie:
Ce document est une synthèse des travaux de recherche menés par l'auteur dans le domaine des écoulements géophysiques et de la biomécanique. Pour des raisons associées aux dimensions caractéristiques des problèmes étudiés, les écoulements géophysiques sont généralement représentés par des modèles plus simples que les équations de Navier-Stokes. Ainsi le système de Saint-Venant rend bien compte de phénomènes complexes telles les ruptures de barrage, les inondations, les avalanches. Dans ce document on propose plusieurs modèles de complexité réduite mais permettant de s'affranchir des limitations du système de Saint-Venant. Outre la dérivation, on propose pour chaque modèle, un schéma numérique ainsi qu'une confrontation avec des solutions analytiques et/ou des mesures expérimentales dans le cas d'écoulements complexes. Les discrétisations sont basées sur une interprétation cinétique des modèles, cette description permettant d'assurer les principales propriétés de stabilité des schémas. Certains des modèles proposés ont été implémentés dans des codes industriels. Dans la seconde partie du document, d'autres travaux concernant la modélisation en biomécanique et plus particulièrement l'activité électro-mécanique du muscle cardiaque sont également présentés.
Style APA, Harvard, Vancouver, ISO itp.
8

Tang, Hao, i Jean Devillers. "Modélisation des interactions pointe-surface en microscopie à force atomique : calcul et interprétation d'images". Toulouse 3, 1995. http://www.theses.fr/1995TOU30194.

Pełny tekst źródła
Streszczenie:
Les experiences de microscopie a force atomique (afm) sont encore mal comprises, aussi bien pour l'origine des rugosites et l'ordre de grandeur des forces mesurees que pour l'interpretation structurale des images. Pour mieux comprendre les phenomenes lors d'une imagerie, nous avons commence par une classification des differentes methodes de modelisation existantes, avant de porter notre choix sur la mecanique moleculaire qui permet une description par des potentiels chimiques de la jonction pointe-surface en la considerant comme une supermolecule. La prise en compte des deformations a permis de reproduire les images de trois substrats de nature tres differente: le graphite, le mica (muscovite) et le chlorure de sodium. Cependant, cette methode reste insuffisante pour une evaluation correcte de la rugosite et des forces mesurees malgre ses possibilites tant pour l'etude des surfaces planes que pour l'etude des defauts comme les marches ou les lacunes. Un nouveau modele est donc propose, base sur le concept dit de jellium deformable dans lequel les interactions pointe-surface de la jonction sont decrites par les lois du milieu continu pour les parties loin de la zone de contact et par la mecanique moleculaire pour les parties dans la zone de contact. Une premiere application de ce modele montre un bon accord de la rugosite et l'ordre de grandeur des forces calculees avec les valeurs experimentales. Par quelques exemples il est montre que l'on peut envisager desormais d'utiliser cette approche pour des etudes plus avancees comme la manipulation d'atomes, l'imagerie de molecules adsorbees, la reconnaissance d'un site actif d'une proteine ou le calcul simultane d'une image afm et stm
Style APA, Harvard, Vancouver, ISO itp.
9

Zelasco, José Francisco. "Gestion des données : contrôle de qualité des modèles numériques des bases de données géographiques". Thesis, Montpellier 2, 2010. http://www.theses.fr/2010MON20232.

Pełny tekst źródła
Streszczenie:
Les modèles numériques de terrain, cas particulier de modèles numériques de surfaces, n'ont pas la même erreur quadratique moyenne en planimétrie qu'en altimétrie. Différentes solutions ont été envisagées pour déterminer séparément l'erreur en altimétrie et l'erreur planimétrique, disposant, bien entendu, d'un modèle numérique plus précis comme référence. La démarche envisagée consiste à déterminer les paramètres des ellipsoïdes d'erreur, centrées dans la surface de référence. Dans un premier temps, l'étude a été limitée aux profils de référence avec l'ellipse d'erreur correspondante. Les paramètres de cette ellipse sont déterminés à partir des distances qui séparent les tangentes à l'ellipse du centre de cette même ellipse. Remarquons que cette distance est la moyenne quadratique des distances qui séparent le profil de référence des points du modèle numérique à évaluer, c'est à dire la racine de la variance marginale dans la direction normale à la tangente. Nous généralisons à l'ellipsoïde de révolution. C'est le cas ou l'erreur planimétrique est la même dans toutes les directions du plan horizontal (ce n'est pas le cas des MNT obtenus, par exemple, par interférométrie radar). Dans ce cas nous montrons que le problème de simulation se réduit à l'ellipse génératrice et la pente du profil correspondant à la droite de pente maximale du plan appartenant à la surface de référence. Finalement, pour évaluer les trois paramètres d'un ellipsoïde, cas où les erreurs dans les directions des trois axes sont différentes (MNT obtenus par Interférométrie SAR), la quantité des points nécessaires pour la simulation doit être importante et la surface tr ès accidentée. Le cas échéant, il est difficile d'estimer les erreurs en x et en y. Néanmoins, nous avons remarqué, qu'il s'agisse de l'ellipsoïde de révolution ou non, que dans tous les cas, l'estimation de l'erreur en z (altimétrie) donne des résultats tout à fait satisfaisants
A Digital Surface Model (DSM) is a numerical surface model which is formed by a set of points, arranged as a grid, to study some physical surface, Digital Elevation Models (DEM), or other possible applications, such as a face, or some anatomical organ, etc. The study of the precision of these models, which is of particular interest for DEMs, has been the object of several studies in the last decades. The measurement of the precision of a DSM model, in relation to another model of the same physical surface, consists in estimating the expectancy of the squares of differences between pairs of points, called homologous points, one in each model which corresponds to the same feature of the physical surface. But these pairs are not easily discernable, the grids may not be coincident, and the differences between the homologous points, corresponding to benchmarks in the physical surface, might be subject to special conditions such as more careful measurements than on ordinary points, which imply a different precision. The generally used procedure to avoid these inconveniences has been to use the squares of vertical distances between the models, which only address the vertical component of the error, thus giving a biased estimate when the surface is not horizontal. The Perpendicular Distance Evaluation Method (PDEM) which avoids this bias, provides estimates for vertical and horizontal components of errors, and is thus a useful tool for detection of discrepancies in Digital Surface Models (DSM) like DEMs. The solution includes a special reference to the simplification which arises when the error does not vary in all horizontal directions. The PDEM is also assessed with DEM's obtained by means of the Interferometry SAR Technique
Style APA, Harvard, Vancouver, ISO itp.
10

Pan, Yi. "Modélisation couplée des écoulements de surface et de sub-surface dans un bassin versant par approches numériques à dimensions euclidiennes réduites". Thesis, Strasbourg, 2015. http://www.theses.fr/2015STRAH012/document.

Pełny tekst źródła
Streszczenie:
Les interactions entre les processus de surface et de sub-surface sont des composantes clés du cycle hydrologique que les modèles hydrologiques doivent représenter pour obtenir des prédictions cohérentes et précises dans un contexte de gestion durable de la ressource en eau. Les modèles hydrologiques intégrés qui décrivent de façon physique les processus et leurs interactions sont de conception récente. La plupart de ces modèles s‘appuient sur l’équation de Richards 3D pour décrire les processus d’écoulement souterrain. Cette approche peut être problématique compte tenu de contraintes importantes sur le maillage et sur la résolution numérique. Ce travail de thèse propose un modèle hydrologique intégré qui s’appuie sur approche innovante à dimension réduite pour simplifier les écoulements de surface et souterrains d'un bassin versant. Les différents compartiments du modèle sont d’abord testés indépendamment puis couplés. Les résultats montrent que l’approche proposée décrit précisément les processus hydrologiques considérés tout en améliorant de façon significative l’efficacité générale du modèle
Interactions between surface and subsurface flow processes are key components of the hydrological water cycle. Accounting for these interactions in hydrological modelsis mandatory to provide relevant and accurate predictions for water quality and water resources management. Fully-integrated hydrological models that describe with aphysical meaning the hydrological processes and their interactions are recent. Most of these models rely upon the resolution of a 3D Richards equation to describe subsurface flow processes. This approach may become intractable because of the heavy constrains on both meshing and numerical resolution. This PhD proposes a new integrated hydrological model on the idea of dealing with dimensionally reduced flow in both the surface and sub-surface compartments of a watershed. The different compartments of the model are first tested independently and then coupled. The results show that the proposed approach allows for a proper and precise depiction ofthe hydrological processes enclosed in the model while providing significant gain incomputational efficiency
Style APA, Harvard, Vancouver, ISO itp.
11

Olivi, Emmanuel. "Couplage de méthodes numériques pour le problème direct en Magnéto- et Électro-Encéphalographie". Phd thesis, Université de Nice Sophia-Antipolis, 2011. http://tel.archives-ouvertes.fr/tel-00838707.

Pełny tekst źródła
Streszczenie:
L'électro- et la magnéto-encéphalographie sont deux techniques très utiles pour observer l'activité électrique du cerveau de par leur résolution temporelle et leur caractère non invasif. Les mesures sont faites sur la surface extérieure de la tête (électrodes pour l'EEG et magnétomètres pour la MEG); afin de retrouver les sources responsables du signal mesuré, un problème inverse de localisation doit être résolu. Celui-ci requiert une bonne résolution du problème direct, ce qui demande une bonne modélisation des tissus de la tête, ainsi qu'une représentation fidèle de ce modèle électro-physiologique par une méthode numérique comme la FEM ou la BEM. Dans cette thèse, nous nous intéressons au choix critique d'un modèle et de sa représentation par une méthode numérique notamment pour prendre en compte l'inhomogénéité de la conductivité du crâne et celle de la matière blanche qui est proche des sources. Après avoir mis en évidence les avantages et inconvénients des méthodes courantes, nous exposons une méthode duale de résolution du problème direct: c'est la méthode adjointe applicable quel que soit la méthode numérique choisie. Puis en utilisant une approche de décomposition de domaine nous formulons plusieurs méthodes de couplage de méthodes numériques visant à tirer parti de leurs avantages dans des sous domaines. Cela permet de coupler la BEM avec la FEM, et implique de nombreux aspects intéressants notamment pour une bonne prise en compte du crâne. Finalement, nous proposons une nouvelle méthode permettant de traiter des conductivités localement anisotropes ou inhomogènes avec la BEM.
Style APA, Harvard, Vancouver, ISO itp.
12

Bachalany, Yara. "Estimation du mouvement 3D d’une sphère de surface réfléchissante". Thesis, Lille 1, 2009. http://www.theses.fr/2009LIL10142/document.

Pełny tekst źródła
Streszczenie:
Dans le cadre de cette thèse, nous proposons une solution au problème de l'estimation du mouvement 3D d'objets dont la surface est réfléchissante, lequel est très complexe quand leurs caractéristiques géométriques à elles seules ne permettent pas de définir des indices caractéristiques d'un mouvement. Nous avons focalisé notre étude sur le cas particulier de la sphère, dont la parfaite symétrie complique au maximum le problème d'estimation du mouvement.En effet, lorsqu'une sphère est affectée d'un mouvement de rotation pure autour d'un de ses axes, ses contours extérieurs apparaissent statiques. Ces derniersn'apportent donc pas d'information utilisable par le système pour estimer le mouvement. Nous proposons donc une approche se basant sur la texture dans un schéma de mise en correspondance 3D/2D modifié. Ici, cette information est exploitée différemment si elle provient d'une composante spéculaire ou diffuse.Enfin, nous démontrons que la propriété réfléchissante de la surface n'est plus considérée comme un obstacle mais que au contraire, cette propriété procure une information supplémentaire sur le mouvement recherché
Recovering 3D motion of reflective objects in image sequences is still a cumbersome problem for computer vision. One common approach is to track geometric features of the object such as contours and edges since they are rather insensitive to light reflections. However, such basic features fail to recover the actual 3D motion in some cases. For example, the external contour of a sphere rotating about one of its axes remains static in the image. In thisthesis, we propose a new approach to 3D motion recovery of a reflective sphere visible in an image sequence.Instead of tracking only geometric features, our technique makes use of texture information in a slightly modified image alignment method. Unlike in classical image alignment methods, texture information is processed differently whether it comes from a diffuse or a specular light component.Using this technique, we show that motion estimation is not only possible when dealing with reflective objects, but also that specular components can offer information about the 3D motion. Finally, we present some results obtained from the analysis of image sequences
Style APA, Harvard, Vancouver, ISO itp.
13

Politis, Konstantinos. "Développement de modèles numériques de tension superficielle pour la simulation d'écoulements avec interface à l'aide d'une formulation multi-fluides". Thesis, Ecole centrale de Nantes, 2016. http://www.theses.fr/2016ECDN0021.

Pełny tekst źródła
Streszczenie:
Les méthodes de lubrification par injection d'air sont considérées par la communauté scientifique comme la principale percée technologique à venir pour la réduction de la trainée des navires de commerce. A cette fin, il est impératif de modéliser finement les phénomènes physiques en jeu dans la lubrification par injection d'air, qui intègrent la représentation précise de la tension superficielle, des instabilités d'interface et des écoulements avec entraînement d'air. Au cours de ce travail, nous nous sommes attachés au développement d'outils de programmation, de schémas de reconstruction d'interface et de modélisations de tension superficielle dans le code de calcul ISIS-CFD. Deux nouvelles méthodes de calcul de la tension superficielle sont présentées. Elles utilisent un schéma de reconstruction globale de l'interface et sont couplées avec les schémas de discrétisation compressifs de la fraction volumique utilisés dans la formulation volumes finis non structurés sur laquelle est basé le code ISIS-CFD. Les résultats démontrent que des interactions dynamiques complexes, d'une ou plusieurs interfaces, peuvent être modélisées de façon précise. Ce travail permet d'envisager la réalisation ultérieure de calcul d'écoulements sur des navires lubrifiés par injection d'air, d’améliorer la compréhension physique et de contribuer à la modélisation macroscopique de modèles d'entraînement
Air Lubrication methods are regarded by the scientific community as the next major technological breakthrough in Naval Engineering to achieve the reduction of drag in commercial vessels. The accurate modeling of the physical phenomena governing the drag reduction mechanisms of Air Lubrication methods, namely, the dynamics of surface tension, the instabilities of the air-water interfaces and air entrainment, are imperative for the design of air-lubricated hulls. To that end, we have implemented to ISIS-CFD several programming tools, interface reconstruction schemes and surface tension modeling. Two new surface tension methods were developed. Both use a global interface reconstruction scheme and are coupled with the compressive discretization volume fraction schemes for the unstructured finite volume formulation that the flow solver ISIS-CFD is based on. The results demonstrate that complicated dynamic interactions of either a single or multiple interfaces can be accurately captured. In the context of a future research study, the proposed approaches could lead to the further enhancement of the modeling capabilities of ISISCFD by introducing a macroscopic air entrainment model and eventually the assessment of different physical effects encountered in lubricated naval vessels using ISIS-CFD
Style APA, Harvard, Vancouver, ISO itp.
14

Al, Bitar Ahmad. "Modélisation des écoulements en milieu poreux hétérogènes 2D / 3D, avec couplages surface / souterrain et densitaires". Phd thesis, Toulouse, INPT, 2007. http://oatao.univ-toulouse.fr/7712/1/al_bitar.pdf.

Pełny tekst źródła
Streszczenie:
Dans ce travail, on considère la modélisation des écoulements dans des hydro-systèmes comprenant des sols et des aquifères géologiquement complexes et hétérogènes. On considèrera par exemple le cas d’un aquifère côtier soumis à l’intrusion saline, avec couplage densitaire (eau douce / eau salée), phénomène auquel peuvent se greffer d’autres couplages (écoulements à saturation variable, couplages surface / souterrain). On choisit une approche ayant les caractéristiques suivantes : - le modèle est spatialement distribué afin de représenter l’hétérogénéité du milieu ; - le modèle est fortement couplé afin d’appréhender les écoulements dans leur complexité physique. On utilise dans ce but un modèle fortement intégré, à une seule équation générique de type EDP, basée sur une loi de Darcy généralisée permettant de décrire différents "régimes" d’écoulements la co-existant dans un même domaine, tout en conservant robustesse et efficacité. Le travail est divisé en trois parties : dans une première partie on élabore un nouveau modèle numérique 3D, pour la modélisation des écoulements en milieux poreux à densité variable dans l’hypothèse d’une interface abrupte. Ce nouveau modèle est basé sur des relations ‘effectives’ non linéaires de saturation et de perméabilité, dans une équation d’écoulement de type Richards modifiée. La seconde partie correspond à l’élaboration et l’implémentation d’un modèle verticalement intégré d’intrusion saline en aquifère côtier, permettant d’étudier l’effet de l’hétérogénéité stochastique de l’aquifère. Le modèle, basé sur l’hypothèse ‘interface abrupte’, est implémenté comme un module ‘2D’ dans le code volumes finis BigFlow2D/3D. Le nouveau module 2D est utilisé pour analyser la variabilité de l’interface eau douce / eau salée par simulations stochastiques de type Monte Carlo à échantillonnage spatial (réalisation unique). Ces résultats sont comparés à nouvelle théorie, où l’interface aléatoire auto-corrélée est analysée par transformation de variable, combinée à une méthode de perturbation et à une représentation spectrale (Fourier / Wiener-Khinchine). Dans la troisième et dernière partie, on présente un modèle de couplage fortement "intégré" pour la modélisation des écoulements de surface et souterrain en hypothèses d’écoulement plan, verticalement hydrostatique. On s‘intéresse au cas d’une vallée fluviale avec cours d’eau, plaine d’inondation, et nappe d’accompagnement. L’écoulement en surface est modélisé par l’équation d’onde diffusante et l’écoulement souterrain par l’équation de Dupuit-Boussinesq. Ce modèle couplé est appliqué à la vallée fluviale de la Garonne dans la région de Toulouse - Moissac (France). Cette application a nécessité l’élaboration d’une méthode d’interpolation géostatistique adaptée à l’élaboration d’un Modèle Intégré Numérique de Terrain (‘MINT’), de façon à inclure le fond de la rivière au MNT topographique en haute résolution. Enfin, au-delà de cette application particulière, le modèle d’écoulement couplé surface / souterrain est généralisé au cas d’un couplage densitaire eau douce / eau salée, lorsque la nappe est sujette à l’intrusion saline au voisinage d’une embouchure ou d’un estuaire.
Style APA, Harvard, Vancouver, ISO itp.
15

Isel, Sandra. "Développement de méthodologies et d'outils numériques pour l'évaluation du débit en réseau hydraulique à surface libre". Thesis, Strasbourg, 2014. http://www.theses.fr/2014STRAD008/document.

Pełny tekst źródła
Streszczenie:
L’évaluation du débit en réseaux hydrauliques à surface libre est une problématique actuelle sur le plan scientifique, à forts enjeux technologiques, économiques et écologiques. Dans cette thèse, de nouvelles méthodologies d’instrumentation, basées sur une synergie entre mesures non intrusives de hauteur d’eau et modélisation numérique ont été développées. Celles-ci s’appliquent d’une part à des collecteurs dont le fonctionnement hydraulique est complexe et, d’autre part, à des ouvrages non-standard (Venturi, déversoirs d’orage). Ce travail de thèse multidisciplinaire vise une meilleure compréhension de l’écoulement pour en déduire des relations Q=f(hi) plus robustes, spécifiques à chaque site et associées à leurs incertitudes; mais également l’identification de possibles modifications du site de mesure afin d’améliorer l’estimation du débit. Au final, l’applicabilité des méthodologies développées a été éprouvée au travers de plusieurs études sur sites réels
The evaluation of the flow rate in free surface water systems is a current scientific problem, related to high technological, economical and ecological issues. In this study, new methods of instrumentation based on a synergy between non-intrusive water level measurements and numerical modeling have been developed. These methods are applied first to sewer pipes with complex hydraulic conditions then to non-standard hydraulic structures (Venturi flumes, Combined Sewer Overflows). This multidisciplinary work aims at a better understanding of the flow to identify more robust site-specific Q=f(hi) relationships related to their uncertainties. It also aims at the identification of possible modification of the measurement site in order to improve the flow rate evaluation. Finally, the applicability of the developed methodologies has been tested through several real site studies
Style APA, Harvard, Vancouver, ISO itp.
16

Peter, Anne-Charlotte. "Variabilité de la température de la couche de mélange océanique en Atlantique équatorial aux échelles saisonnières à interannuelles, à l'aide de simulations numériques". Phd thesis, Université Paul Sabatier - Toulouse III, 2007. http://tel.archives-ouvertes.fr/tel-00157983.

Pełny tekst źródła
Streszczenie:
L'objectif de cette thèse est l'étude de la variabilité de la température de la couche de mélange océanique dans l'Atlantique équatorial, à l'aide de simulations numériques.
Les résultats obtenus montrent la prédominance des processus verticaux et des ondes tropicales d'instabilité (<35jours, ~500km) pour expliquer la variabilité de la température de la couche de surface à l'échelle annuelle.
L'étude d'évènements interannuels a permis de distinguer deux processus distincts responsables de la variabilité interannuelle de la température de surface : l'un dynamique et distant crée par les anomalies de vent dans l'ouest du bassin et agissant par l'intermédiaire de la propagation d'ondes de Kelvin équatoriales et le second, thermodynamique et local à l'échelle du Golfe de Guinée, créé par les anomalies interannuelles de flux de chaleur.
Style APA, Harvard, Vancouver, ISO itp.
17

Sarti, Francesco. "Potentiel de la télédétection optique-radar pour le suivi des changements et déformations de la surface terrestre : application à la gestion des risques naturels". Toulouse 3, 2004. http://www.theses.fr/2004TOU30289.

Pełny tekst źródła
Streszczenie:
L'étude, l'application et, dans une certaine mesure, l'amélioration des techniques de télédétection pour la cartographie des variations de l'état de surface et pour la mesure des déformations du sol grâce aux données spatiales optiques/radar constituent l'objet de cette thèse. Les variations et déformations considérées ici sont celles associées à des évènements tels que les tremblements de terre, les subsidences, les éruptions volcaniques et les inondations, d'où l'intérêt de ces techniques du point de vue de la modélisation scientifique ainsi que pour l'application à la gestion opérationnelle des urgences et la mise en œuvre de procédures pour la livraison de produits issus de données spatiales en temps quasi-réel aux organismes chargés de la gestion des urgences (Protections Civiles)
The study, the application and (to a certain extent) the improvement of techniques based on spaceborne radar and optical data for surface change detection and displacement measurement have been investigated in this PhD thesis. Under specific conditions, these data can allow mapping and measuring surface changes and ground deformations associated to events such as earthquakes, subsidence, volcanic eruptions and floods. Therefore, these techniques deserve a particular interest both in a scientific context (support for the improvement of seismic and geo-hydrological models) as well as for natural risk management in an operational context (delivery of products issued from Earth Observation for the support to emergency operations and rescue organizations)
Style APA, Harvard, Vancouver, ISO itp.
18

Romdhane, Hela. "Etude expérimentale et modélisation d'écoulement à surface libre en présence de végétation, et transport sédimentaire associé". Thesis, Toulouse, INPT, 2019. http://www.theses.fr/2019INPT0032/document.

Pełny tekst źródła
Streszczenie:
Les rivières forment un système dynamique complexe soumis à des variations de grande ampleur, en effet les précipitations sont jugées comme la cause fondamentale de ces fluctuations. Au cours du temps, la morphologie des rivières évolue sous l’influence de plusieurs paramètres, en particulier les crues, les ouvrages hydrauliques, le transport sédimentaire. Le développement de la végétation dans le lit de la rivière et sur les berges peut affecter les conditions hydrodynamiques et le comportement des cours d'eau, ainsi l'impact de la végétation est une question cruciale pour la gestion des réseaux d'irrigation et des flux naturels. En réduisant la vitesse, la présence de végétation peut augmenter les dépôts de sédiments et modifier le risque d'inondation du fait des effets combinés de l'augmentation de la rugosité et de la diminution de la zone d'écoulement du chenal principal du fleuve. Ces aspects sont mis en avant par l’application de simulations numériques à des cas réels : cas de la Medjerda et du Canal Medjerda Cap Bon en Tunisie. La végétation est une caractéristique commune des eaux côtières et fluviales naturelles, interagissant à la fois avec le débit d'eau et le transport de sédiments. Cependant, les processus physiques qui régissent ces interactions sont encore mal compris, ce qui rend difficile la prévision du transport des sédiments et de la morpho dynamique. L’enjeu de cette thèse est d’améliorer la connaissance des processus physiques régissant les interactions entre végétation, écoulement et transport sédimentaire. Le but final est de pouvoir améliorer la gestion des hydro-systèmes artificiels ou naturels. Ce travail impliquera deux approches complémentaires d’expériences et de modélisation analytique et numérique. Dans un premier temps, on s’attachera à mieux caractériser les processus physiques d’interaction entre végétation et écoulement. Pour cela des expériences sur différents canaux fourniront l’hydrodynamique au-dessus de végétations modèles. On mettra l’accent sur le développement des méthodes expérimentales spécifiques à l’étude de couche limite au-dessus de macro-rugosités. Ces résultats seront dans un second temps analysés à partir de modèles analytiques qui permettent d’avoir les relations hauteur-débits nécessaires pour la gestion. Les caractéristiques et les performances de plusieurs modèles seront évaluées en regard des différents types de végétations. Dans un troisième temps, des expériences avec des sédiments préciseront l’influence de la végétation sur la modification du transport solide. La réduction des contraintes sur les lits engendre une adaptation nécessaire des lois de transport classique. Un modèle d’ajustement de ces lois sera proposé
Rivers form a complex dynamic system subject to wide variations, in fact precipitation is considered as the fundamental cause of these fluctuations. Over time, the morphology of rivers evolves under the influence of several parameters, especially floods, hydraulic structures, sediment transport. The development of vegetation in the river bed and on the banks can affect the hydrodynamic conditions and the behavior of a watercourse, so the impact of vegetation on sediment transport is a crucial issue for the management of irrigation networks and natural flows. By reducing velocity, the presence of vegetation can increase sediment deposition and modify the risk of flooding due to the combined effects of increasing roughness and decreasing of flowing area of the river main channel. These aspects are highlighted by the application of numerical simulations to real cases: the case of the Medjerda River and the Channel of Medjerda Cap Bon in Tunisia. Vegetation is a common feature of natural coastal and riverine waters, interacting with both water flow and sediment transport. However, the physical processes governing these interactions are still poorly understood, making it difficult to predict sediment transport and morpho dynamics. The aim of this thesis is to improve the knowledge of the physical processes governing the interactions between vegetation, flow and sediment transport on the one hand, and to select the appropriate model that will be applied in the real case of rivers. The ultimate purpose is to improve the management of artificial or natural hydro-systems. This work will involve two complementary approaches to experiments and analytical and numerical modeling. At first, we will focus on better characterizing the physical processes of interaction between vegetation and flow. For this, experiments on different channels will provide hydrodynamics over model vegetation’s. Emphasis will be placed on the development of experimental methods specific to boundary layer studies over macro-roughness. These results will be analyzed in a second time from analytical models that allow the stage-discharge relationships required for management. The characteristics and performances of several models will be evaluated with regard to different types of vegetation. Thirdly, experiments with sediments will specify the influence of vegetation on the modification of solid transport. The reduction of the constraints on the beds generates a necessary adaptation of the classical transport laws. An adjustment model for these laws will be proposed
Style APA, Harvard, Vancouver, ISO itp.
19

Kessentini, Sameh. "Modélisation et optimisation de nanostructures plasmoniques : applications biomédicales". Troyes, 2012. http://www.theses.fr/2012TROY0024.

Pełny tekst źródła
Streszczenie:
Cette thèse porte sur la modélisation et l’optimisation des structures plasmoniques : les biocapteurs nanostructurés dédiés à un diagnostic précoce de maladie et les nanoparticules utilisées en thérapie photothermique. Le mode opératoire de ces structures se base sur l’interaction avec la lumière. Pour les modéliser, le problème de diffusion électromagnétique est résolu en utilisant la théorie de Mie ou l’approximation discrétisation de dipôles. Le modèle numérique a été développé pour décrire l’effet de plusieurs paramètres des biocapteurs. Ensuite, le modèle est validé par comparaison à des résultats expérimentaux. Pour l’optimisation de ce type de problèmes à variables continues, l’optimisation par essaims particulaires est choisie. Certaines faiblesses des algorithmes ont été décryptées en introduisant un jeu d’essai plasmonique et des développements algorithmiques ont été proposés et validées sur un jeu d’essai de référence et celui plasmonique. L’optimisation du biocapteur montre que sa sensibilité (donnée par le gain en spectroscopie Raman) peut être augmentée de six fois par rapport au meilleur résultat expérimental. L’optimisation des nanoparticules (maximisation de leur absorption de la lumière) donne aussi des résultats nettement meilleurs que ceux reportés en littérature. De plus ces nanoparticules optimisées sont comparées entre elles. Enfin, la tolérance de la conception des structures optimisées est discutée
The present work deals with the modelling and optimization of the plasmonic structures: nanostructured biosensor for early disease diagnosis, and gold nanoparticles for photothermal therapy. Both structures are based on interaction with light. For modelling, the electromagnetic scattering problem is therefore solved using Mie theory and discrete dipole approximation (DDA). The numerical model is extended to take into account many parameters of biosensors. Then, the validity of the model is checked through comparison to experimental results. To optimize such problems of continuous variables, the particle swarm optimisation (PSO) is chosen. A plasmonic benchmark is introduced to test a set of algorithms and reveals some limitations. For this, we introduce a new memetic adaptive PSO (AMPSO) algorithm. The AMPSO is tested on a set of reference benchmark as well as the plasmonic benchmark and demonstrates its ability to find the global optimum solution rapidly. The optimization of biosensor shows that its sensitivity (given by the surface enhanced Raman spectroscopy gain) can be improved six times compared with the best experimental results. The optimization of nanoparticules (maximization of light absorption) reveals, as well, improved results compared to previous studies. Moreover, the optimized nanoparticles are compared to each other. Finally, the design tolerance of these nanostructures is also discussed
Style APA, Harvard, Vancouver, ISO itp.
20

Yu, Mulin. "Reconstruction et correction de modèles urbains à l'aide de structures de données cinétiques". Thesis, Université Côte d'Azur, 2022. http://www.theses.fr/2022COAZ4077.

Pełny tekst źródła
Streszczenie:
Les modèles numériques 3D compacts et précis de bâtiments sont couramment utilisés par les praticiens pour la visualisation d'environnements existants ou imaginaires, les simulations physiques ou la fabrication d'objets urbains. La génération de tels modèles prêts à l'emploi est cependant un problème difficile. Lorsqu'ils sont créés par des designers, les modèles 3D contiennent généralement des erreurs géométriques dont la correction automatique est un défi scientifique. Lorsqu'ils sont créés à partir de mesures de données, généralement des balayages laser ou des images multivues, la précision et la complexité des modèles produits par les algorithmes de reconstruction existants n'atteignent souvent pas les exigences des praticiens. Dans cette thèse, j'aborde ce problème en proposant deux algorithmes : l'un pour réparer les erreurs géométriques contenues dans les formats spécifiques de modèles de bâtiments, et l'autre pour reconstruire des modèles compacts et précis à partir de nuages ​​de points générés à partir d'un balayage laser ou d'images stéréo multivues. Le composant clé de ces algorithmes repose sur une structure de données de partitionnement d'espace capable de décomposer l'espace en cellules polyédriques de manière naturelle et efficace. Cette structure de données permet à la fois de corriger les erreurs géométriques en réassemblant les facettes de modèles 3D chargés de défauts, et de reconstruire des modèles 3D à partir de nuages ​​de points avec une précision et complexité proche de celles générées par les outils interactifs de Conception Assistée par Ordinateur.Ma première contribution est un algorithme pour réparer différents types de modèles urbains. Les travaux antérieurs, qui reposent traditionnellement sur une analyse locale et des heuristiques géométriques sur des maillages, sont généralement conçus sur-mesure pour des formats 3D et des objets urbains spécifiques. Nous proposons une méthode plus générale pour traiter différents types de modèles urbains sans réglage fastidieux des paramètres. L'idée clé repose sur la construction d'une structure de données cinétiques qui décompose l'espace 3D en polyèdres en étendant les facettes du modèle d'entrée imparfait. Une telle structure de données permet de reconstruire toutes les relations entre les facettes de manière efficace et robuste. Une fois construites, les cellules de la partition polyédrique sont regroupées par classes sémantiques pour reconstruire le modèle de sortie corrigé. Je démontre la robustesse et l'efficacité de l'algorithme sur une variété de modèles réels chargés de défauts et montre sa compétitivité par rapport aux techniques traditionnelles de réparation de maillage à partir de données de modélisation des informations du bâtiment (BIM) et de systèmes d'information géographique (SIG). Ma deuxième contribution est un algorithme de reconstruction inspiré de la méthode Kinetic Shape Reconstruction, qui améliore cette dernière de différentes manières. En particulier, je propose une technique pour détecter des primitives planaires à partir de nuages ​​de points 3D non organisés. Partant d'une configuration initiale, la technique affine à la fois les paramètres du plan continu et l'affectation discrète de points d'entrée à ceux-ci en recherchant une haute fidélité, une grande simplicité et une grande complétude. La solution est trouvée par un mécanisme d'exploration guidé par une fonction énergétique à objectifs multiples. Les transitions dans le grand espace des solutions sont gérées par cinq opérateurs géométriques qui créent, suppriment et modifient les primitives. Je démontre son potentiel, non seulement sur des bâtiments, mais sur une variété de scènes, des formes organiques aux objets fabriqués par l'homme
Compact and accurate digital 3D models of buildings are commonly used by practitioners for the visualization of existing or imaginary environments, the physical simulations or the fabrication of urban objects. Generating such ready-to-use models is however a difficult problem. When created by designers, 3D models usually contain geometric errors whose automatic correction is a scientific challenge. When created from data measurements, typically laser scans or multiview images, the accuracy and complexity of the models produced by existing reconstruction algorithms often do not reach the requirements of the practitioners. In this thesis, I address this problem by proposing two algorithms: one for repairing the geometric errors contained in urban-specific formats of 3D models, and one for reconstructing compact and accurate models from input point clouds generated from laser scanning or multiview stereo imagery. The key component of these algorithms relies upon a space-partitioning data structure able to decompose the space into polyhedral cells in a natural and efficient manner. This data structure is used to both correct geometric errors by reassembling the facets of defect-laden 3D models, and reconstruct concise 3D models from point clouds with a quality that approaches those generated by Computer-Aided-Design interactive tools.My first contribution is an algorithm to repair different types of urban models. Prior work, which traditionally relies on local analysis and heuristic-based geometric operations on mesh data structures, is typically tailored-made for specific 3D formats and urban objects. We propose a more general method to process different types of urban models without tedious parameter tuning. The key idea lies on the construction of a kinetic data structure that decomposes the 3D space into polyhedra by extending the facets of the imperfect input model. Such a data structure allows us to re-build all the relations between the facets in an efficient and robust manner. Once built, the cells of the polyhedral partition are regrouped by semantic classes to reconstruct the corrected output model. I demonstrate the robustness and efficiency of the algorithm on a variety of real-world defect-laden models and show its competitiveness with respect to traditional mesh repairing techniques from both Building Information Modeling (BIM) and Geographic Information Systems (GIS) data.My second contribution is a reconstruction algorithm inspired by the Kinetic Shape Reconstruction method, that improves the later in different ways. In particular, I propose a data fitting technique for detecting planar primitives from unorganized 3D point clouds. Departing from an initial configuration, the technique refines both the continuous plane parameters and the discrete assignment of input points to them by seeking high fidelity, high simplicity and high completeness. The solution is found by an exploration mechanism guided by a multi-objective energy function. The transitions within the large solution space are handled by five geometric operators that create, remove and modify primitives. I demonstrate its potential, not on buildings only, but on a variety of scenes, from organic shapes to man-made objects
Style APA, Harvard, Vancouver, ISO itp.
21

Tannoury, Elias. "Contribution à la prévision du bruit tonal des machines tournantes subsoniques : couplage des simulations numériques et des modèles analytiques avec les analogies acoustiques". Phd thesis, Paris, ENSAM, 2013. http://pastel.archives-ouvertes.fr/pastel-00935537.

Pełny tekst źródła
Streszczenie:
La conception des groupes moto-ventilateurs au sein de Valeo Systèmes Thermiques et la prédiction de leurs performances aérauliques reposent majoritairement sur les méthodes de développement virtuel, i.e. la conception assistée par ordinateur et la simulation numérique de la mécanique des fluides. Dans ce cadre, le présent travail propose une méthodologie de prédiction et de minimisation de la composante tonale du bruit d'un groupe moto-ventilateur. L'approche adoptée est hybride et dissocie la génération et la propagation du bruit. La propagation en champ libre est calculée avec une formulation intégrale de l'analogie de Ffowcs-Williams et Hawkings. Dans un premier temps, les termes-sources à la surface du rotor et du stator sont calculés par une simulation numérique instationnaire. La compacité de la pale ainsi que l'influence du maillage acoustique sur la prédiction sont ensuite investiguées. Finalement, les résultats sont comparés aux mesures expérimentales. Dans un deuxième temps, les sources acoustiques à la surface du stator sont calculées avec le modèle de Sears enrichi avec des données extraites d'une simulation stationnaire du rotor complet. Avant de procéder à la prédiction acoustique, l'influence du modèle de turbulence sur les résultats finaux est évaluée à travers une comparaison entre LES et RANS pour l'écoulement autour de profils extrudés. Enfin, la problématique de minimisation du bruit tonal est traitée en tant que problème d'optimisation où la géométrie d'une aube est paramétrée et où la recherche de l'optimum est conduite par un algorithme génétique. Cette optimisation a permis de concevoir un stator moins bruyant et adapté à l'écoulement en aval du rotor étudié.
Style APA, Harvard, Vancouver, ISO itp.
22

Ibargüen, becerra César. "Effet des forces de van der Waals sur la dynamique de l'azote et de l'hydrogène en interaction avec la surface de W(100)". Thesis, Bordeaux, 2019. http://www.theses.fr/2019BORD0261.

Pełny tekst źródła
Streszczenie:
Une littérature scientifique nourrie est consacrée aux processus élémentaires hétérogènes se produisant à l’interface gaz-solide en raison de leur rôle clé dans de nombreux domaines. Ainsi, l’interaction d’atomes et de molécules avec les surfaces revêt une importance primordiale dans l’étude de la catalyse hétérogène, la combustion, la corrosion, le stockage de l’hydrogène, l’industrie automobile et pétrolière, les interactions plasma/paroi dans le contexte du réacteur expérimental thermonucléaire (ITER), les technologies du spatial, la chimie atmosphérique et l’astrochimie, pour citer quelques exemples. Lorsqu'un atome ou une molécule entre en collision avec une surface, de nombreux processus élémentaires peuvent avoir lieu. Ils dépendent de nombreux facteurs tels que : l'énergie de collision du projectile, l'angle d'incidence sur la surface, la température de surface, l'état initial le des molécules, le transfert d'énergie entre la surface des projectiles, etc… Tous ces facteurs influencent fortement les mécanismes réactionnels et la dynamique de ces processus. Les expériences de faisceaux moléculaires permettent un contrôle toujours plus précis de l'état initial des réactifs associé à un caractérisation fine des produits de réactions. Cependant, dans la plupart des cas, ces observations expérimentales ne fournissent pas tous les détails qui nous permettent de décrire finement les mécanismes gouvernant les processus élémentaires étudiés. Par conséquent, l'élaboration de modèles théoriques devient essentielle pour en rationaliser la description. L'objectif principal de ce travail de thèse est de proposer une analyse de la dynamique de plusieurs processus élémentaires pouvant se produire sur une surface de W(100) en contact avec de l'hydrogène et de l'azote (diffusion inélastique de N2 et H2, l'adsorption dissociative et non dissociative de H2 et l'adsorption et l'absorption de H et N). Par rapport aux études antérieures, la nouveauté de ce travail réside dans la prise en compte des interactions à longue distance de type van der Waals, qui s’avèrent essentielles lorsqu'on souhaite atteindre un bon accord théorie expérience dans le régime des faibles énergies de collision. Les résultats sont comparés aux données expérimentales disponibles et aux résultats théoriques antérieurs. Des simulations de dynamique moléculaire quasi-classique sont réalisés à l'aide de surfaces d'énergie potentielle (PES) basées sur la théorie de la fonctionnelle de la densité, tenant compte d’interactions non locales, telles que les forces de van der Waals. La dissipation de l’énergie aux vibrations du réseau et aux excitations électroniques est prise en compte au moyen de modèles effectifs
An important part of scientific literature is devoted to the heterogeneous elementary processes occurring at gas-solid interface due to their great importance and key role in many different domains and applications. Thus, interaction of gas atoms/molecules with surface reactions are of primary importance in the study of: heterogeneous catalysis, combustion of solid fuel and coal gasification, processes of corrosion, hydrogen storage in solid material, automotive and oil industry, plasma-wall interactions in the context of thermonuclear experimental reactor (ITER), atmospheric re-entries technologies and astrochemistry, to name some examples. When an atom or molecule impinges on a surface many different elementary processes can take place, which depends on factors such as: the collision energy of the projectile, the angle of incidence to the surface, the surface temperature, the initial state of the molecules, the transference of energy projectiles-surface, etc. All these factors determines the mechanisms of reaction and the dynamics of the processes. Experimental molecular beams (MB) and other experimental techniques are able to accurately control the initial state of the reactive and characterizing products of gas-surface reactions. However, in most of the case experimental techniques do not provide enough details about the mechanisms through which elementary processes occur. Consequently, theoretical models becomes essential to rationalize the description that in certain cases the experiments do not reach.The main goal of this thesis work is to propose an analyze of the dynamics of several elementary processes occurring on a W(100) surface, such as: the inelastic scattering of N2 and H2, the dissociative and non-dissociative adsorption of of H2 and the adsorption and absorption of H and N. Compared to previous studies, the novelty of this work resides in the taking into account of van der Waals long-distance interactions, which are essential to reach a good agreement between theoretical and experiment results, especially at low collision energy regime. To rationalize the non-adiabatic effects, the energy dissipation to lattice vibrations and electronic excitation are taken in to account by means of GLO and LDFA models respectively
Style APA, Harvard, Vancouver, ISO itp.
23

Petremand, Matthieu. "Détection des galaxies à faible brillance de surface et segmentation hyperspectrale dans le cadre de l'observatoire virtuel". Phd thesis, Université Louis Pasteur (Strasbourg) (1971-2008), 2006. https://publication-theses.unistra.fr/public/theses_doctorat/2006/PETREMAND_Matthieu_2006.pdf.

Pełny tekst źródła
Streszczenie:
Les progrès technologiques de l'instrumentation astronomique soulèvent des problématiques variées. En particulier, le développement des capteurs multispectraux permet l'acquisition de masses de données porteuses d'une information très riche. Néanmoins, l'interprétation et le traitement de tels volumes de données restent délicats pour la communauté astronomique. Dans le cadre de cette thèse nous proposons une méthode de détection de galaxies à faible brillance de surface basée sur l'utilisation d'une segmentation markovienne par quadarbre. Puis, nous étudions une nouvelle méthode de segmentation de cubes de données hyperspectraux basée sur une approche spectrale puis sur une régularisation spatiale de la carte de segmentation. Enfin, nous proposons deux méthodes de visualisation d’images multibandes, ainsi qu’une méthode de segmentation floue par champs de Markov. Ces méthodes sont validées sur des images astronomiques et ont fait l'objet d'une interaction particulièrement riche entre communauté STIC et communauté astronomique
Technological progress in astronomical instrumentation raise various issues. The development of multispectral sensors yields extremely valuable data. Nevertheless interpretation and processing of such images remain tricky for the astronomical community. Within the framework of this thesis we propose a new method for the detection of low surface brightness galaxy based on a quadtree Markovian segmentation. We then introduce a new segmentation method of hyperspectral data cubes based on a spectral discrimination and on a spatial regularization of the segmentation map. We then propose two multispectral images visualization methods and a new fuzzy segmentation method based on Markov fields. These methods are validated on astronomical images and led to a fruitful cooperation between STIC and astronomical community
Style APA, Harvard, Vancouver, ISO itp.
24

Ardilouze, Constantin. "Impact de l'humidité du sol sur la prévisibilité du climat estival aux moyennes latitudes". Thesis, Toulouse, INPT, 2019. http://www.theses.fr/2019INPT0048/document.

Pełny tekst źródła
Streszczenie:
Les épisodes de sécheresse et de canicule qui frappent épisodiquement les régions tempérées ont des conséquences préjudiciables sur les plans sanitaire, économique, social et écologique. Afin de pouvoir enclencher des stratégies de préparation et de prévention avec quelques semaines ou mois d'anticipation, les attentes sociétales en matière de prévision sont élevées, et ce d'autant plus que les projections climatiques font craindre la multiplication de ces épisodes au cours du 21ème siècle. Néanmoins, la saison d'été est la plus difficile à prévoir aux moyennes latitudes. Les sources connues de prévisibilité sont plus ténues qu'en hiver et les systèmes de prévision climatique actuels peinent à représenter correctement les mécanismes de téléconnexion associés. Un nombre croissant d'études a mis en évidence un lien statistique dans certaines régions entre l'humidité du sol au printemps et les températures et précipitations de l'été qui suit. Ce lien a été partiellement confirmé dans des modèles numériques de climat mais de nombreuses interrogations subsistent. L'objectif de cette thèse est donc de mieux comprendre le rôle joué par l'humidité du sol sur les caractéristiques et la prévisibilité du climat de l'été dans les régions tempérées. Grâce notamment au modèle couplé de circulation générale CNRM-CM, nous avons mis en œuvre des ensembles de simulations numériques qui nous ont permis d'évaluer le degré de persistance des anomalies d'humidité du sol printanière. En effet, une longue persistance est une condition nécessaire pour que ces anomalies influencent le climat à l'échelle de la saison, via le processus d'évapotranspiration de la surface. En imposant dans notre modèle des conditions initiales et aux limitées idéalisées d'humidité du sol, nous avons mis en évidence des régions du globe pour lesquelles l'état moyen et la variabilité des températures et des précipitations en été sont particulièrement sensibles à ces conditions. C'est notamment le cas sur une grande partie de l'Europe et de l'Amérique du nord, y compris à des latitudes élevées. Pour toutes ces régions, l'humidité du sol est une source prometteuse de prévisibilité potentielle du climat à l'horizon saisonnier, bien que de fortes incertitudes demeurent localement sur le degré de persistance de ses anomalies. Une expérience de prévisibilité effective coordonnée avec plusieurs systèmes de prévision montre qu'une initialisation réaliste de l'humidité du sol améliore la prévision de températures estivales principalement dans le sud-est de l'Europe. Dans d'autres régions, comme l'Europe du Nord, le désaccord des modèles provient de l'incertitude sur la persistance des anomalies d'humidité du sol. En revanche, sur les Grandes Plaines américaines, aucun modèle n'améliore ses prévisions qui restent donc très médiocres. La littérature ainsi que nos évaluations de sensibilité du climat à l'humidité du sol ont pourtant identifié cette région comme un "hotspot" du couplage entre l'humidité du sol et l'atmosphère. Nous supposons que l'échec de ces prévisions est une conséquence des forts biais chauds et secs présents dans tous les modèles sur cette région en été, qui conduisent à un dessèchement excessif des sols. Pour le vérifier, nous avons développé une méthode qui corrige ces biais au cours de l'intégration des prévisions avec CNRM-CM6. Les prévisions qui en résultent sont nettement améliorées sur les Grandes Plaines. La compréhension de l'origine des biais continentaux en été et leur réduction dans les prochaines générations de modèles de climat sont des étapes essentielles pour tirer le meilleur parti de l'humidité du sol comme source de prévisibilité saisonnière dans les régions tempérées
Severe heat waves and droughts that episodically hit temperate regions have detrimental consequences on health, economy and society. The design and deployment of efficient preparedness strategies foster high expectations for the prediction of such events a few weeks or months ahead. Their likely increased frequency throughout the 21st century, as envisaged by climate projections, further emphasizes these expectations. Nevertheless, the summer season is the most difficult to predict over mid-latitudes. Well-known sources of predictability are weaker than in winter and current climate prediction systems struggle to adequately represent associated teleconnection mechanisms. An increasing number of studies have shown a statistical link over some regions between spring soil moisture and subsequent summer temperature and precipitation. This link has been partly confirmed in climate numerical models, but many questions remain. The purpose of this PhD thesis is to better understand the role played by soil moisture onthe characteristics and predictability of the summer climate in temperate regions. By means of the CNRM-CM coupled general circulation model, we have designed a range of numerical simulations which help us evaluate the persistence level of spring soil moisture anomalies. Indeed, a long persistence is a necessary condition for these anomalies to influence the climate at the seasonal scale, through the process of evapotranspiration. By imposing in our model idealized initial and boundary soil moisture conditions, we have highlighted areas of the globe for which the average state and the variability of temperatures and precipitation in summer is particularly sensitive to these conditions. This is the case in particular for Europe and North America, including over high latitudes. Soil moisture is therefore a promising source of potential seasonal climate predictability for these regions, although the persistence of soil moisture anomalies remains locally very uncertain. An effective predictability coordinated experiment, bringing together several prediction systems, shows that a realistic soil moisture initialization improves the forecast skill of summer temperatures mainly over southeast Europe. In other regions, such as Northern Europe, the disagreement between models comes from uncertainty about the persistence of soil moisture anomalies. On the other hand, over the American Great Plains, even the forecasts with improved soil moisture initialization remain unsuccessful. Yet, the literature as well as our assessment of climate sensitivity to soil moisture have identified this region as a "hotspot" of soil moisture - atmosphere coupling. We assume that the failure of these predictions relates to the strong hot and dry bias present in all models over this region in summer, which leads to excessive soil drying. To verify this assumption, we developed a method that corrects these biases during the forecast integration based on the CNRM-CM6 model. The resulting forecasts are significantly improved over the Great Plains. Understanding the origin of continental biases in the summer and reducing them in future generations of climate models are essential steps to making the most of soil moisture as a source of seasonal predictability in temperate regions
Style APA, Harvard, Vancouver, ISO itp.
25

Loua, René Tato. "Variabilité et tendances des paramètres météorologiques en Guinée : analyse des forçages par méthodes numériques Climatology of Guinea: Study of Climate Variability in N’zerekore Climatological analysis of temperature and pluviometry in Guinea 1960-2016 Study on Temporal Variations of Surface Temperature and Rainfall at Conakry Airport, Guinea: 1960–2016 Surface Temperature Trend Estimation over 12 Sites in Guinea Using 57 Years of Ground-Based Data". Thesis, La Réunion, 2020. http://www.theses.fr/2020LARE0003.

Pełny tekst źródła
Streszczenie:
Dans un contexte de changement climatique, la variabilité des paramètres météorologiques demeure très sensible à notre environnement. Ce travail s’inscrit dans une perspective globale de l’analyse de la variabilité annuelle, interannuelle et spatiale des paramètres météorologiques en Guinée. Il est basé sur l’exploitation de longues séries d’observations (57ans) mesurées par 12 stations météorologiques réparties sur l’ensemble des régions de la Guinée. L’objectif de cette thèse est d’exploiter ces séries originales, afin d’améliorer la compréhension de la variabilité des paramètres météorologiques et contribuer à augmenter la documentation des processus géophysiques associés. La démarche développée est basée sur une analyse climatologique, puis l’estimation des tendances, en utilisant des méthodes numériques adaptées. Il ressort de cette étude que la variabilité de la température est dominée par les cycles saisonniers annuel et semi-annuel, tandis que celle de la pluviométrie se caractérise par un cycle annuel prépondérant. Les résultats ont montré une tendance à la hausse de la température et une tendance à la baisse des précipitations depuis la fin des années 1960. Il a été constaté par ailleurs que les distributions spatiales de température et pluviométrie présentent, respectivement, un gradient latitudinal négatif et positif, dans le sens nord-sud. La pluviométrie reste cependant très élevée dans la région côtière et dans le sud-est du pays. En plus des oscillations semi-annuelle et annuelle, les forçages analysés contribuent à la variabilité de la température et de la pluviométrie à des échelles spatiales et temporelles différentes. Parmi ces forçages, nous avons examiné et quantifié, pour l’ensemble des 12 stations, les contributions de l’Atlantique Niño, l’indice Niño 3.4, de l’indice AMM, de l’indice TNA et le Flux Solaire. En ce qui concerne l’analyse des tendances à long-terme, les résultats montrent que les températures ont globalement augmenté de +0,04 à +0,21 °C/décade. La moitié nord et la région sud de la Guinée enregistrent le plus fort réchauffement, suivies par la région côtière influencée par les effets de côte, de topographie et d'urbanisation
In a context of climate change, the variability of meteorological parameters remains very sensitive to our environment. This work is part of a global perspective of the analysis of annual, inter-annual and spatial variability of meteorological parameters in Guinea. It is based on the exploitation of long series of observations (57 years) measured by 12 meteorological stations spread over all regions of Guinea. The objective of this thesis is to investigate these original series in order to improve our understanding of climate variability and associated geophysical processes. The approach developed in this PhD is based on a climatological analysis, followed by decanal trend assessment by the use of very recent and adapted numerical methods. The study shows that temperature variability is dominated by annual and semi-annual seasonal cycles, while rainfall variability is characterized by a predominantly annual cycle. The results have shown a significant increase in temperature trends and a decrease in precipitations since late 1960s. It was also found that the spatial distributions of temperature and rainfall have negative and positive latitudinal gradients equatorward, respectively. However, rainfall records remain very high in the coastal region and in the south-eastern part of the country. In addition to the semi-annual and annual oscillations, the investigated forcings do contribute to temperature and rainfall variability on different spatial and temporal scales. Among these forcings, we examined and quantified, for all regions, the contributions of Atlantic Niño, the Niño 3.4 Index, the AMM Index, the TNA Index and the Solar Flux. As for the long-term trend analysis, our results show that temperatures have globally increased from +0.04 to +0.21°C/decade. The northern half and the southern region of Guinea recorded the highest warming, followed by the coastal region which is under coastal, topographical and urbanization effects
Style APA, Harvard, Vancouver, ISO itp.
26

Aydinlilar, Melike. "Implicit modeling for additive manufacturing". Electronic Thesis or Diss., Université de Lorraine, 2023. http://www.theses.fr/2023LORR0336.

Pełny tekst źródła
Streszczenie:
Les surfaces implicites offrent de nombreuses solutions utiles pour les tâches d'infographie, telles que des requêtes simples d'intérieur/extérieur, une représentation indépendante de la résolution et une définition compacte. Cependant, les visualiser de manière robuste et efficace représente un défi, en particulier pour les surfaces définies avec des fonctions complexes. Dans la partie I, nous présentons une méthode de rendu en temps réel pour les surfaces intégrales définies par squelettes. Elle s'appuie sur l'utilisation d'un A-Buffer construits dynamiquement sur le GPU pour éviter le traitement des espaces vides et réduire le nombre de primitives de squelettes à traiter localement. La recherche des racines est effectuée à l'aide d'une interpolation quadratique rationnelle pour limiter le nombre d'évaluations de potentiel. La partie II introduit une arithmétique d'intervalle basé sur les primitives pour le traitement efficace des surfaces intégrales pour le rendu et le tranchage en temps réel. Enfin, dans la partie III, nous présentons une famille de méthodes d'inclusion robustes pour le rendu d'une large famille de représentation implicites. Les intersections rayon-surface sont calculées de manière fiable et efficace à l'aide de fonctions d'inclusion linéaires et quadratiques calculées soit en bornant les dérivées de premier et de second ordre, soit en construisant les bornes à partir des opérations algébriques de base définissant la fonction de potentiel. Le problème de la génération de bornes infinies ou non valides est éliminé en réduisant dynamiquement la taille des intervalles. Des exemples pour le rendu en temps réel et le tranchage pour la fabrication additive sont donnés pour des surfaces implicites à squelette, des surfaces de convolution et des fonctions de bases radial
Implicit surfaces provide many useful solutions for computer graphics tasks such as simple in/out queries, resolution independent representation and compact definition. However, rendering them robustly and efficiently provides a challenge especially for surfaces defined with complex field functions. In Part I, we introduce a real-time rendering method for skeleton-based integral surfaces. It relies on dynamically built A-buffers on GPU to discard empty spaces and reduce the number of skeleton primitives evaluation. The root finding is performed using rational quadratic interpolation to limit the number of field evaluations. Part II introduces a per-primitive interval arithmetic for skeleton-based integral surfaces for real-time rendering and slicing, and finally in Part III we introduce a family of robust forward inclusion methods for rendering a wide family of implicits. Using linear and quadratic inclusion functions calculated either by bounding the first and second order derivatives, or building the bounds up from the basic algebraic operations that constitute the field function definitions, ray-surface intersections are calculated reliably and efficiently. The problem of creating infinite or invalid bounds are eliminated by reducing the interval sizes and bounding piece-wise defined functions. Example surfaces are given with skeleton-based implicits, convolution surfaces, Hermite radial basis implicits for real-time rendering and slicing for additive manufacturing
Style APA, Harvard, Vancouver, ISO itp.
27

El, Habachi Aimad Abdeslam. "Propagation de la variabilité de la morphologie humaine sur le débit d'absorption spécifique en dosimétrie numérique". Phd thesis, Supélec, 2011. http://tel.archives-ouvertes.fr/tel-00583723.

Pełny tekst źródła
Streszczenie:
Dans ce mémoire, nous étudions l'exposition aux ondes électromagnétiques l'échelle d'une population. Cette étude est réalisée pour une exposition à une onde plane orientée frontalement sur des modèles anatomiques du corps humains (fantômes) avec une puissance incidente de 1W/m2 et une fréquence de 2.1 GHz. Pour ce faire, l'idée est de construire un modèle du WBSAR (Whole Body averaged Specific Absorption Rate) en fonction de lamorphologie. Les facteurs morphologiques influençant le WBSAR ont été identifiés à l'aide des fantômes existant dont le nombre se limite à 18 et des modèles de régressions. Cette analyse préliminaire montre que les facteurs morphologiques externes (taille, poids ...) seuls ne suffisent pas pour construire un tel modèle, mais l'introduction des facteurs morphologiques internes (muscles, graisse ...) est nécessaire. L'absence de données statistiques sur les facteurs morphologiques internes de populations nous a conduits à intégrer des connaissances apriori sur ces facteursafin d'étudier l'exposition d'une population donnée. Des lois paramétriques usuelles et des mélanges de gaussiennes sont utilisés pour modéliser ces facteurs internes afin d'étudier leur influence sur le quantile du WBSAR à 95 %.L'utilisation des fantômes homogènes où le fantôme homogène est obtenu en remplaçant tous les tissus internes par un unique tissu équivalent. Ces fantômes homogènes permettent de s'affranchir de l'influence de la morphologie interne dans un modèle du WBSAR et facilitent également leur déformation par une technique de morphing. Ainsi nous avons pu enrichir la base de fantômes existant. Pour donner une estimation du quantile du WBSAR à 95 %, nous avons mis en place un plan d'expériences séquentiel qui repose sur un modèle paramétrique du WBSAR et l'inférence bayésienne et qui permet de raffiner la région à 95 %. Cette approche nous a permis de trouver le quantile à 95 % pour une population et un exemple de fantôme correspondant. Cependant, cette approche ne permet pas d'obtenir une estimation de toute la distribution du WBSAR. Afin d'obtenir une estimation de toute cette distribution, nous avons construit une surface de réponse en utilisant les polynômes de chaos. Dans l'objectif d'obtenirdes résultats cohérents nous avons effectué un changement de variables permettant de traduire les connaissances physiques dans cette surface de réponse.
Style APA, Harvard, Vancouver, ISO itp.
28

Yeo, Zié. "Modèle numérique de conduction surfacique dans les dispositifs bidimensionnels - Prise en compte de non-linéarités". Phd thesis, Ecole Centrale de Lyon, 1997. http://tel.archives-ouvertes.fr/tel-00140119.

Pełny tekst źródła
Streszczenie:
Certains dispositifs électrotechniques présentent une couche de faible conductivité et de faible épaisseur qui modifie considérablement les répartitions des potentiels et des champs électriques. Cette situation se rencontre, par exemple, dans l'étude des isolateurs pollués ou des traversées comportant un revêtement semi-conducteur. La zone conductrice a une épaisseur très faible devant les autres dimensions du système et il est difficile d'en tenir compte, telle quelle, dans une méthode numérique. Ce travail est consacré à la modélisation (2D et 3D axisymétrique) d'une couche conductrice présente à l'interface de deux diélectriques. Celle-ci est simulée par une surface munie d'une conductivité surfacique qui peut dépendre ou non du champ électrique. Les équations qui caractérisent le modèle ont été implantées dans un logiciel de calcul de champ basé sur la méthode des équations intégrales de frontière. Le premier chapitre décrit les divers phénomènes physiques liés à la présence d'une couche conductrice entre deux isolants. Le second chapitre rappelle d'abord les résultats très classiques sur les équations de Maxwell. Ensuite, il établit une équation de conservation de l'électricité au niveau de la zone conductrice. Le troisième chapitre passe en revue les différentes méthodes numériques généralement utilisées en électrotechnique. Le quatrième chapitre est consacré à la résolution numérique. Le cinquième chapitre présente les résultats et la validation du nouveau module logiciel. Les résultats obtenus, dans le cas d'une configuration simplifiée, sont en accord avec la solution analytique (problème linéaire) et la solution numérique (problème non linéaire).
Style APA, Harvard, Vancouver, ISO itp.
29

Leguebe, Michael. "Modélisation de l'électroperméabilisation à l'échelle cellulaire". Thesis, Bordeaux, 2014. http://www.theses.fr/2014BORD0169/document.

Pełny tekst źródła
Streszczenie:
La perméabilisation des cellules à l’aide d’impulsions électriques intenses, appelée électroperméabilisation, est un phénomène biologique impliqué dans des thérapies anticancéreuses récentes. Elle permet, par exemple, d’améliorer l’efficacité d’une chimiothérapie en diminuant les effets secondaires, d’effectuer des transferts de gènes, ou encore de procéder à l’ablation de tumeurs. Les mécanismes de l’électroperméabilisation restent cependant encore méconnus, et l’hypothèse majoritairement admise par la communauté de formation de pores à la surface des membranes cellulaires est en contradiction avec certains résultats expérimentaux.Le travail de modélisation proposé dans cette thèse est basé sur une approche différente des modèles d’électroporation existants. Au lieu de proposer des lois sur les propriétés des membranes à partir d’hypothèses à l’échelle moléculaire, nous établissons des lois ad hoc pour les décrire, en se basant uniquement sur les informations expérimentales disponibles. Aussi, afin de rester au plus prèsde ces dernières et faciliter la phase de calibration à venir, nous avons ajouté un modèle de transport et de diffusion de molécules dans la cellule. Une autre spécificité de notre modèle est que nous faisons la distinction entre l’état conducteur et l’état perméable des membranes.Des méthodes numériques spécifiques ainsi qu’un code en 3D et parallèle en C++ ont été écrits et validés pour résoudre les équations aux dérivées partielles de ces différents modèles. Nous validons le travail de modélisation en montrant que les simulations reproduisent qualitativement les comportements observés in vitro
Cell permeabilization by intense electric pulses, called electropermeabilization, is a biological phenomenon involved in recent anticancer therapies. It allows, for example, to increase the efficacy of chemotherapies still reducing their side effects, to improve gene transfer, or to proceed tumor ablation. However, mechanisms of electropermeabilization are not clearly explained yet, and the mostly adopted hypothesis of the formation of pores at the membrane surface is in contradiction with several experimental results.This thesis modeling work is based on a different approach than existing electroporation models. Instead of deriving equations on membranes properties from hypothesis at the molecular scale, we prefer to write ad hoc laws to describe them, based on available experimental data only. Moreover, to be as close as possible to these data, and to ease the forthcoming work of parameter calibration, we added to our model equations of transport and diffusion of molecules in the cell. Another important feature of our model is that we differentiate the conductive state of membranes from their permeable state.Numerical methods, as well as a 3D parallel C++ code were written and validated in order to solve the partial differential equations of our models. The modeling work was validated by showing qualitative match between our simulations and the behaviours that are observed in vitro
Style APA, Harvard, Vancouver, ISO itp.
30

Simon, Nataline. "Développement des méthodes actives de mesures distribuées de température par fibre optique pour la quantification des écoulements souterrains : apports et limites pour la caractérisation des échanges nappe/rivière". Thesis, Rennes 1, 2020. http://www.theses.fr/2020REN1B028.

Pełny tekst źródła
Streszczenie:
Les échanges entre les rivières et les nappes d’eau souterraine jouent un rôle essentiel dans le maintien des écosystèmes aquatiques. Or, leur caractérisation demeure difficile du fait de leur forte variabilité dans l’espace et dans le temps. Dans ce contexte, l’objectif de ce travail de thèse est de développer des méthodes actives de mesures distribuées de température pour quantifier la dynamique des interactions nappe/rivière. Après avoir établi une nouvelle approche pour évaluer la résolution spatiale des mesures de température, nous avons validé deux nouvelles méthodes d’interprétation permettant d’estimer de manière distribuée les flux d’eau et la conductivité thermique du milieu poreux. Les travaux, associant modélisations numériques et mesures expérimentales en laboratoire, montrent que les méthodes d’interprétation développées permettent d’estimer avec une excellente précision les écoulements et que la gamme de flux pouvant être investiguée est particulièrement large. Pour tester cette approche prometteuse, des expériences actives ont ensuite été réalisées sur le terrain dans deux environnements différents : d’abord dans un petit cours d’eau d’ordre 1 de tête de bassin versant, puis dans un fleuve s’écoulant le long d’une plaine alluviale. Ces applications ont démontré le fort potentiel des méthodes actives pour quantifier les écoulements à l’interface nappe/rivière et décrire leur variabilité spatiale et temporelle. La comparaison des résultats obtenus sur les deux sites a permis finalement de discuter la faisabilité, les apports mais aussi les limites de la méthode dans différents contextes hydrologiques
Groundwater/surface water interactions play a fundamental role in the functioning of aquatic ecosystems. However, their quantification is challenging because exchange processes vary both in time and space. Here, we propose an active distributed heat transport experiment in order to quantify the spatial and temporal variability of groundwater/surface water interactions. As a first step, we proposed a new approach to evaluate the spatial resolution of temperature measurements. Then, two interpretation methods of active-DTS experiments were developed and fully validated to estimate the distribution of porous media thermal conductivity and the groundwater fluxes in sediments. Based on numerical simulations and sandbox experiments, results demonstrated the potentiality of these methods for quantifying distributed groundwater fluxes with high accuracy. The large range of groundwater fluxes that can be investigated with the method makes specially promising the application of active experiments for many subsurface applications. Secondly, we conducted heat transport experiments within the streambed sediments of two different streams: in a first-order stream, then in a large flow-system located along an alluvial plain. These applications demonstrated the relevance of using active experiments to characterize the spatial complexity of stream exchanges. Finally, the comparison of results obtained for each experimental site allowed discussing the capabilities and limitations of using active-DTS field experiments to characterize groundwater/surface water interactions in different hydrological contexts
Style APA, Harvard, Vancouver, ISO itp.
31

Badia, Ismaïl. "Couplage par décomposition de domaine optimisée de formulations intégrales et éléments finis d’ordre élevé pour l’électromagnétisme". Electronic Thesis or Diss., Université de Lorraine, 2022. http://www.theses.fr/2022LORR0058.

Pełny tekst źródła
Streszczenie:
La résolution numérique d’un problème de diffraction électromagnétique tridimensionnel en régime harmonique est connue pour être difficile, notamment en haute fréquence et pour des objets diffractants diélectriques et inhomogènes. En effet, elle nécessite de discrétiser un système d’équations aux dérivées partielles posé sur un domaine infini. De plus, le fait de considérer une petite longueur d’onde λ dans ce cas, nécessite naturellement un maillage très fin, ce qui conduit par conséquent à un très grand nombre de degrés de liberté. Une approche standard consiste à combiner une méthode d’équations intégrales pour le domaine extérieur et une formulation variationnelle volumique pour le domaine intérieur (objet diffractant), conduisant à une formulation couplant la méthode des éléments de frontière (BEM) et la méthode des éléments finis (FEM). Bien que naturelle, cette approche présente quelques inconvénients majeurs. Tout d’abord, cette méthode de couplage mène à un système linéaire de très grande taille caractérisé par une matrice composée à la fois de parties creuses et denses. Un tel système est généralement difficile à résoudre et n’est pas directement adapté aux méthodes de compression. Ajouté à cela, il n’est pas possible de combiner facilement deux solveurs pré-existants, à savoir un solveur FEM pour le domaine intérieur et un solveur BEM pour le domaine extérieur, afin de construire un solveur global du problème original. Dans cette thèse, nous présentons un couplage faible bien conditionné entre la méthode des éléments de frontière et celle des éléments finis d’ordre élevé, permettant une simple construction d’un tel solveur. L’approche est basée sur l’utilisation d’une méthode de décomposition de domaine sans recouvrement impliquant des opérateurs de transmission optimaux. Ces derniers sont construits par le biais d’un processus de localisation basé sur des approximations rationnelles complexes de Padé des opérateurs Magnetic-to-Electric non locaux. Le nombre d’itérations nécessaires à la résolution du couplage faible ne dépend que faiblement de la configuration géométrique, de la fréquence, du contraste entre les sous-domaines et du raffinement de maillage
In terms of computational methods, solving three-dimensional time-harmonic electromagnetic scattering problems is known to be a challenging task, most particularly in the high frequency regime and for dielectric and inhomogeneous scatterers. Indeed, it requires to discretize a system of partial differential equations set in an unbounded domain. In addition, considering a small wavelength λ in this case, naturally requires very fine meshes, and therefore leads to very large number of degrees of freedom. A standard approach consists in combining integral equations for the exterior domain and a weak formulation for the interior domain (the scatterer) resulting in a formulation coupling the Boundary Element Method (BEM) and the Finite Element Method (FEM). Although natural, this approach has some major drawbacks. First, this standard coupling method yields a very large system having a matrix with sparse and dense blocks, which is therefore generally hard to solve and not directly adapted to compression methods. Moreover, it is not possible to easily combine two pre-existing solvers, one FEM solver for the interior domain and one BEM solver for the exterior domain, to construct a global solver for the original problem. In this thesis, we present a well-conditioned weak coupling formulation between the boundary element method and the high-order finite element method, allowing the construction of such a solver. The approach is based on the use of a non-overlapping domain decomposition method involving optimal transmission operators. The associated transmission conditions are constructed through a localization process based on complex rational Padé approximants of the nonlocal Magnetic-to-Electric operators. The number of iterations required to solve this weak coupling is only slightly dependent on the geometry configuration, the frequency, the contrast between the subdomains and the mesh refinement
Style APA, Harvard, Vancouver, ISO itp.
32

Monnier, Jerome. "Modèles numériques directs et inverses d'écoulements de fluides". Habilitation à diriger des recherches, 2007. http://tel.archives-ouvertes.fr/tel-00259450.

Pełny tekst źródła
Streszczenie:
Ce mémoire d'Habilitation à Diriger des Recherches (HDR) retrace dix années de recherche en tant que maître de conférences, autour de modèles d'EDP appliqués à des écoulements de fluides. On y trouve aussi bien des aspects analyse mathématique, qu'analyse numérique, algorithmique ou encore calcul et mise en oeuvre informatique. Les principaux modèles d'EDP abordés sont les équations de Navier-Stokes ou Stokes surface libre (micro-fluidique, glaciologie), les équations de St-Venant ou asymptotique "shallow" (hydraulique fluviale, glaciologie). L'orientation de ces études vers les thématiques applicatives a conduit à élaborer des modèles numériques potentiellement applicables aux problèmes réels posés. Ainsi, les aspects calibration de modèles, optimisation, identification, analyse de sensibilité et assimilation de données (via le contrôle optimal) y sont largement représentés. En termes de réalisation de logiciels prototypes, sont présentés un code d'hydraulique fluviale (inondations) dédié à l'analyse de sensibilité, l'assimilation variationnelle de données et le couplage, un code surface libre d'impact de gouttelettes (2D axisymétrique ALE) et un code d'optimisation de forme appliqué à l'électro-capillarité.
Le premier chapitre présente des analyses mathématiques et analyse de schémas éléments finis basées sur des troncatures. Un second chapitre décrit un cadre mathématique et algorithmique pour l'optimisation de forme, avec applications à un modèle Navier-Stokes - thermique radiative et à une gouttelette électrifiée (électro-capillarité). Un troisième chapitre traite de la modélisation numérique de la dynamique d'une gouttelette sur un substrat solide. La dynamique de la ligne triple y est décrite à l'aide du modèle de Shikhmurzaev. Dans un quatrième chapitre sont présentés plusieurs travaux autour d'écoulements fluviaux et zones d'inondations (St-Venant 1.5D-2D, schémas volumes finis). Les processus de calibrage de modèles, de couplage et d'assimilation variationnelle de données constituent une grand part des travaux. Des applications à des écoulements réels avec données non standards (trajectoires lagrangiennes, image satellite) démontrent la potentialité des méthodes développées. Le dernier chapitre traite des travaux récemment initiés et tout particulièrement ceux relatifs aux calottes polaires (Stokes non-Newtonien et équations asymptotiques). Parmi les difficultés mathématiques soulevées figurent la réduction de modèles (asymptotique, réduction d'ordre), le couplage, la sensibilité des modèles aux erreurs et aux paramètres, et enfin l'assimilation de données et le calibrage.
Style APA, Harvard, Vancouver, ISO itp.
Oferujemy zniżki na wszystkie plany premium dla autorów, których prace zostały uwzględnione w tematycznych zestawieniach literatury. Skontaktuj się z nami, aby uzyskać unikalny kod promocyjny!

Do bibliografii