Siga este enlace para ver otros tipos de publicaciones sobre el tema: Applications sur GPUs.

Tesis sobre el tema "Applications sur GPUs"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 21 mejores tesis para su investigación sobre el tema "Applications sur GPUs".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Nguyen, Dinh Quoc Dang. "Representation of few-group homogenized cross sections by polynomials and tensor decomposition". Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASP142.

Texto completo
Resumen
Cette thèse se concentre sur l'étude de la modélisation mathématique des sections efficaces homogénéisées à peu de groupes, un élément essentiel du schéma à deux étapes, qui est largement utilisé dans les simulations de réacteurs nucléaires. À mesure que les demandes industrielles nécessitent de plus en plus des maillages spatiaux et énergétiques fins pour améliorer la précision des calculs cœur, la taille de la bibliothèque des sections efficaces peut devenir excessive, entravant ainsi les performances des calculs cœur. Il est donc essentiel de développer une représentation qui minimise l'utilisation de la mémoire tout en permettant une interpolation des données efficace.Deux approches, la représentation polynomiale et la décomposition "Canonical Polyadic" des tenseurs, sont présentées et appliquées aux données de sections efficaces homogénéisées à peu de groupes. Les données sont préparées à l'aide d'APOLLO3 sur la géométrie de deux assemblages dans le benchmark X2 VVER-1000. Le taux de compression et la précision sont évalués et discutés pour chaque approche afin de déterminer leur applicabilité au schéma standard en deux étapes.De plus, des implémentations sur GPUs des deux approches sont testées pour évaluer la scalabilité des algorithmes en fonction du nombre de threads impliqués. Ces implémentations sont encapsulées dans une bibliothèque appelée Merlin, destinée à la recherche future et aux applications industrielles utilisant ces approches.Les deux approches, en particulier la méthode de décomposition des tenseurs, montrent des résultats prometteurs en termes de compression des données et de précision de reconstruction. L'intégration de ces méthodes dans le schéma standard en deux étapes permettrait non seulement de réduire considérablement l'utilisation de la mémoire pour le stockage des sections efficaces, mais aussi de diminuer significativement l'effort de calcul requis pour l'interpolation des sections efficaces lors des calculs cœur, réduisant donc le temps de calcul global pour les simulations de réacteurs industriels
This thesis focuses on studying the mathematical modeling of few-group homogenized cross sections, a critical element in the two-step scheme widely used in nuclear reactor simulations. As industrial demands increasingly require finer spatial and energy meshes to improve the accuracy of core calculations, the size of the cross section library can become excessive, hampering the performance of core calculations. Therefore, it is essential to develop a representation that minimizes memory usage while still enabling efficient data interpolation.Two approaches, polynomial representation and Canonical Polyadic decomposition of tensors, are presented and applied to few-group homogenized cross section data. The data is prepared using APOLLO3 on the geometry of two assemblies in the X2 VVER-1000 benchmark. The compression rate and accuracy are evaluated and discussed for each approach to determine their applicability to the standard two-step scheme.Additionally, GPU implementations of both approaches are tested to assess the scalability of the algorithms based on the number of threads involved. These implementations are encapsulated in a library called Merlin, intended for future research and industrial applications that involve these approaches.Both approaches, particularly the method of tensor decomposition, demonstrate promising results in terms of data compression and reconstruction accuracy. Integrating these methods into the standard two-step scheme would not only substantially reduce memory usage for storing cross sections, but also significantly decrease the computational effort required for interpolating cross sections during core calculations, thereby reducing overall calculation time for industrial reactor simulations
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Degurse, Jean-François. "Traitement STAP en environnement hétérogène. Application à la détection radar et implémentation sur GPU". Phd thesis, Université Paris Sud - Paris XI, 2014. http://tel.archives-ouvertes.fr/tel-00958460.

Texto completo
Resumen
Les traitements spatio-temporels adaptatifs (STAP) sont des traitements qui exploitent conjointement les deux dimensions spatiale et temporelle des signaux reçus sur un réseau d'antennes, contrairement au traitement d'antenne classique qui n'exploite que la dimension spatiale, pour leur filtrage. Ces traitements sont particulièrement intéressants dans le cadre du filtrage des échos reçus par un radar aéroporté en provenance du sol pour lesquels il existe un lien direct entre direction d'arrivée et fréquence Doppler. Cependant, si les principes des traitements STAP sont maintenant bien acquis, leur mise en œuvre pratique face à un environnement réel se heurte à des points durs non encore résolus dans le contexte du radar opérationnel. Le premier verrou, adressé par la thèse dans une première phase, est d'ordre théorique, et consiste en la définition de procédures d'estimation de la matrice de covariance du fouillis sur la base d'une sélection des données d'apprentissage représentatives, dans un contexte à la fois de fouillis non homogène et de densité parfois importante des cibles d'intérêts. Le second verrou est d'ordre technologique, et réside dans l'implémentation physique des algorithmes, lié à la grande charge de calcul nécessaire. Ce point, crucial en aéroporté, est exploré par la thèse dans une deuxième phase, avec l'analyse de la faisabilité d'une implémentation sur GPU des étapes les plus lourdes d'un algorithme de traitement STAP.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Boulay, Thomas. "Développement d'algorithmes pour la fonction NCTR - Application des calculs parallèles sur les processeurs GPU". Phd thesis, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00907979.

Texto completo
Resumen
Le thème principal de cette thèse est l'étude d'algorithmes de reconnaissance de cibles non coopératives (NCTR). Il s'agit de faire de la reconnaissance au sein de la classe "chasseur" en utilisant le profil distance. Nous proposons l'étude de quatre algorithmes : un basé sur l'algorithme des KPPV, un sur les méthodes probabilistes et deux sur la logique floue. Une contrainte majeure des algorithmes NCTR est le contrôle du taux d'erreur tout en maximisant le taux de succès. Nous avons pu montrer que les deux premiers algorithmes ne permettait pas de respecter cette contrainte. Nous avons en revanche proposé deux algorithmes basés sur la logique floue qui permettent de respecter cette contrainte. Ceci se fait au détriment du taux de succès (notamment sur les données réelles) pour le premier des deux algorithmes. Cependant la deuxième version de l'algorithme a permis d'augmenter considérablement le taux de succès tout en gardant le contrôle du taux d'erreur. Le principe de cet algorithme est de caractériser, case distance par case distance, l'appartenance à une classe en introduisant notamment des données acquises en chambre sourde. Nous avons également proposé une procédure permettant d'adapter les données acquises en chambre sourde pour une classe donnée à d'autres classes de cibles. La deuxième contrainte forte des algorithmes NCTR est la contrainte du temps réel. Une étude poussée d'une parallélisation de l'algorithme basé sur les KPPV a été réalisée en début de thèse. Cette étude a permis de faire ressortir les points à prendre en compte lors d'une parallélisation sur GPU d'algorithmes NCTR. Les conclusions tirées de cette étude permettront par la suite de paralléliser de manière efficace sur GPU les futurs algorithmes NCTR et notamment ceux proposés dans le cadre de cette thèse.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Wang, Ke. "Exploiting Presence". Thesis, KTH, Kommunikationssystem, CoS, 2008. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-91663.

Texto completo
Resumen
By exploiting context awareness, traditional applications can be extended to offer better quality or new functions. Utilizing a context-aware infrastructure, a variety of context information is merged and processed to produce information that is useful to applications. Applications exploiting such context can provide more intelligent and creative services to end users. This thesis examines two ways to make use of a user’s location along with room occupancy information in context aware applications: a Context Agent and a Call Secretary. In the former case, the application subscribes to room occupancy information via a context server, and provides a Meeting Room Booking System with “real-time” information about the utilization of the rooms which the room booking system is to manage. The Call Secretary acquires both location and room occupancy information from a server. When the user is in one of the meeting rooms and multiple people are present, then this is interpreted as the user being in a meeting -- therefore it triggers a CPL module in a SIP proxy to redirect the user’s incoming call to their voice mail box. A description of the implementation of these two applications will be presented along with an evaluation of these applications’ performance. The evaluation of the Context Agent showed that it was straightforward to integrate information from a presence source and to extend the meeting room booking system to use this information. The Call Secretary needs a more reliable source for the user's location. However, given this location the Call Secretary provides the service which the user expects.
Genom att utnyttja sammanhang medvetenhet, traditionella tillämpningar kan utvidgas till att erbjuda bättre kvalitet eller nya funktioner. Använda en kontextmedvetna infrastruktur, en rad olika kontextuppgifter är sammanslagna och bearbetas för att producera information som är användbar för tillämpningar. Tillämpningar som utnyttjar sådana sammanhang kan ge mer intelligenta och kreativa tjänster till slutanvändare. Denna avhandling undersöker två sätt att använda sig av ett användaren befinner sig längs med rummet beläggningen information i samband medveten program: ett sammanhang av ombud och en uppmaning Sekreterare. I det förra fallet skall ansökan under på rumspris information via ett sammanhang server, och ger ett mötesrum bokningssystem med "realtid" information om användningen av de rum som lokalbokning system är att hantera. Ring sekreterare förvärvar både plats och rumspris information från en server. När användaren är i en av konferenslokaler och flera människor är närvarande, så är det tolkas som att användarna är i ett möte - därför det utlöser en CPL-modul i en SIP-proxy för att dirigera om användarens inkommande samtal till deras telefonsvarare fält. En beskrivning av genomförandet av dessa två program kommer att presenteras tillsammans med en utvärdering av dessa ansökningar resultat. Utvärderingen av det sammanhang ombud visade att det var enkelt att integrera information från en närvaro källa och att utvidga mötesrum bokningssystem att använda denna information. Ring sekreterare behöver en mer tillförlitlig källa för användarens plats. Med tanke på denna plats för samtal sekreterare tillhandahåller tjänster som användaren förväntar sig.
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Recur, Benoît. "Précision et qualité en reconstruction tomographique : algorithmes et applications". Thesis, Bordeaux 1, 2010. http://www.theses.fr/2010BOR14113/document.

Texto completo
Resumen
Il existe un grand nombre de modalités permettant l'acquisition d'un objet de manière non destructrice (Scanner à Rayons X, micro-scanner, Ondes Térahertz, Microscopie Électronique de Transmission, etc). Ces outils acquièrent un ensemble de projections autour de l'objet et une étape de reconstruction aboutit à une représentation de l'espace acquis. La principale limitation de ces méthodes est qu'elles s'appuient sur une modélisation continue de l'espace alors qu'elles sont exploitées dans un domaine fini. L'étape de discrétisation qui en résulte est une source d'erreurs sur les images produites. De plus, la phase d'acquisition ne s'effectue pas de manière idéale et peut donc être entachée d'artéfacts et de bruits. Un grand nombre de méthodes, directes ou itératives, ont été développées pour tenter de réduire les erreurs et reproduire une image la plus représentative possible de la réalité. Un panorama de ces reconstructions est proposé ici et est coloré par une étude de la qualité, de la précision et de la résistances aux bruits d'acquisition.Puisque la discrétisation constitue l'une des principales limitations, nous cherchons ensuite à adapter des méthodes discrètes pour la reconstruction de données réelles. Ces méthodes sont exactes dans un domaine fini mais ne sont pas adaptées à une acquisition réelle, notamment à cause de leur sensibilité aux erreurs. Nous proposons donc un lien entre les deux mondes et développons de nouvelles méthodes discrètes plus robustes aux bruits. Enfin, nous nous intéressons au problème des données manquantes, i.e. lorsque l'acquisition n'est pas uniforme autour de l'objet, à l'origine de déformations dans les images reconstruites. Comme les méthodes discrètes sont insensibles à cet effet nous proposons une amorce de solution utilisant les outils développés dans nos travaux
A large kind of methods are available now to acquire an object in a non-destructive way (X-Ray scanner, micro-scanner, Tera-hertz waves, Transmission Electron Microscopy, etc). These tools acquire a projection set around the object and a reconstruction step leads to a representation of the acquired domain. The main limitation of these methods is that they rely on a continuous domain modeling wheareas they compute in a finite domain. The resulting discretization step sparks off errors in obtained images. Moreover, the acquisition step is not performed ideally and may be corrupted by artifacts and noises. Many direct or iterative methods have been developped to try to reduce errors and to give a better representative image of reality. An overview of these reconstructions is proposed and it is enriched with a study on quality, precision and noise robustness.\\Since the discretization is one of the major limitations, we try to adjust discrete methods for the reconstruction of real data. These methods are accurate in a finite domain but are not suitable for real acquisition, especially because of their error sensitivity. Therefore, we propose a link between the two worlds and we develop new discrete and noise robust methods. Finally, we are interesting in the missing data problem, i.e. when the acquisition is not uniform around the object, giving deformations into reconstructed images. Since discrete reconstructions are insensitive to this effect, we propose a primer solution using the tools developed previously
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Claustre, Jonathan. "Modèle particulaire 2D et 3D sur GPU pour plasma froid magnétisé : Application à un filtre magnétique". Phd thesis, Université Paul Sabatier - Toulouse III, 2012. http://tel.archives-ouvertes.fr/tel-00796690.

Texto completo
Resumen
La méthode PIC MCC (Particle-In-Cell Monte-Carlo Collision) est un outils très performant et efficace en ce qui concerne l'étude des plasmas (dans notre cas, pour des plasmas froids) car il permet de décrire l'évolution dans le temps et dans l'espace, des particules chargées sous l'effet des champs auto-consistants et des collisions. Dans un cas purement électrostatique, la méthode consiste à suivre les trajectoires d'un nombre représentatif de particules chargées, des électrons et des ions, dans l'espace des phases, et de décrire l'interaction collective de ces particules par la résolution de l'équation de Poisson. Dans le cas de plasmas froid, les trajectoires dans l'espace des phase sont déterminées par le champ électrique auto-consistant et par les collisions avec les atomes neutres ou les molécules et, pour des densités relativement importantes, par les collisions entre les particules chargées. Le coût des simulations pour ce type de méthode est très élevé en termes de ressources (CPU et mémoire). Ceci est dû aux fortes contraintes (dans les simulations PIC explicites) sur le pas de temps (plus petit qu'une fraction de la période plasma et inverse à la fréquence de giration électronique), sur le pas d'espace (de l'ordre de la longueur de Debye), et sur le nombre de particules par longueur de Debye dans la simulation (généralement de l'ordre de plusieurs dizaines). L'algorithme PIC MCC peut être parallélisé sur des fermes de calculs de CPU (le traitement de la trajectoires des particules est facilement parallélisable, mais la parallélisation de Poisson l'est beaucoup moins). L'émergence du GPGPU (General Purpose on Graphics Processing Unit) dans la recherche en informatique a ouvert la voie aux simulations massivement parallèle à faible coût et ceci par l'utilisation d'un très grand nombre de processeurs disponible sur les cartes graphiques permettant d'effectuer des opérations élémentaires (e.g. calcul de la trajectoires des particules) en parallèle. Un certain nombre d'outils numérique pour le calcul sur GPU ont été développés lors de ces 10 dernières années. De plus, le constructeur de cartes graphiques NVIDIA a développé un environnement de programmation appelé CUDA (Compute Unified Device Architecture) qui permet une parallélisation efficace des codes sur GPU. La simulation PIC avec l'utilisation des cartes graphiques ou de la combinaison des GPU et des CPU a été reporté par plusieurs auteurs, cependant les modèles PIC avec les collisions Monte-Carlo sur GPU sont encore en pleine étude. A l'heure actuelle, de ce que nous pouvons savoir, ce travail est le premier a montrer des résultats d'un code PIC MCC 2D et 3D entièrement parallélisé sur GPU et dans le cas de l'étude de plasma froid magnétisé. Dans les simulation PIC, il est relativement facile de suivre les particules lorsqu'il n'y a ni pertes ni création (e.g. limites périodiques ou pas d'ionisation) de particules au cours du temps. Cependant il devient nécessaire de réordonner les particules à chaque pas en temps dans le cas contraire (ionisation, recombinaison, absorption, etc). Cette Thèse met en lumière les stratégies qui peuvent être utilisées dans les modèles PIC MCC sur GPU permettant d'outre passer les difficultés rencontrées lors du réarrangement des particules après chaque pas de temps lors de la création et/ou des pertes. L'intérêt principal de ce travail est de proposer un algorithme implémenté sur GPU du modèle PIC MCC, de mesurer l'efficacité de celui-ci (parallélisation) et de le comparer avec les calculs effectués sur GPU et enfin d'illustrer les résultats de ce modèle par la simulation de plasma froid magnétisé. L'objectif est de présenter en détail le code utilisé en de montrer les contraintes et les avantages liées à la programmation de code PIC MCC sur GPU. La discussion est largement ciblé sur le cas en 2D, cependant un algorithme 3D a également été développé et testé comme il est montré à la fin de cette thèse.
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Bachmann, Etienne. "Imagerie ultrasonore 2D et 3D sur GPU : application au temps réel et à l'inversion de forme d'onde complète". Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30133/document.

Texto completo
Resumen
Si les avancées majeures en imagerie ultrasonore ont longtemps été liées à la qualité de l'instrumentation, l'avènement de l'informatique a incontestablement changé la donne en introduisant des possibilités croissantes de traitement des données pour obtenir une meilleure image. Par ailleurs, les GPUs, composants principaux des cartes graphiques, offrent de par leur architecture des vitesses de calcul bien supérieures aux processeurs, y compris à des fins de calcul scientifique. Le but de cette thèse a été de tirer parti de ce nouvel outil de calcul, en ciblant deux applications complémentaires. La première est d'autoriser une imagerie en temps réel de meilleure qualité que les autres techniques d'imagerie échographique, en parallélisant le procédé d'imagerie FTIM (Fast Topological IMaging). La seconde est d'introduire l'imagerie quantitative et en particulier la reconstruction de la carte de vitesse du milieu inconnu, en utilisant l'inversion de la forme d'onde complète
If the most important progresses in ultrasound imaging have been closely linked to the instrumentation's quality, the advent of computing science revolutionized this discipline by introducing growing possibilities in data processing to obtain a better picture. In addition, GPUs, which are the main components of the graphics cards deliver thanks to their architecture a significantly higher processing speed compared with processors, and also for scientific calculation purpose. The goal of this work is to take the best benefit of this new computing tool, by aiming two complementary applications. The first one is to enable real-time imaging with a better quality than other sonographic imaging techniques, thanks to the parallelization of the FTIM (Fast Tpological IMaging) imaging process. The second one is to introduce quantitative imaging and more particularly reconstructing the wavespeed map of an unknown medium, using Full Waveform Inversion
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Roussel, Nicolas. "Application de la réflectométrie GNSS à l'étude des redistributions des masses d'eau à la surface de la terre". Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30327/document.

Texto completo
Resumen
La réflectométrie GNSS (ou GNSS-R) est une technique de télédétection originale et pportuniste qui consiste à analyser les ondes électromagnétiques émises en continu par la soixantaine de satellites des systèmes de positionnement GNSS (GPS, GLONASS, etc.), qui sont captées par une antenne après réflexion sur la surface terrestre. Ces signaux interagissent avec la surface réfléchissante et contiennent donc des informations sur ses propriétés. Au niveau de l'antenne, les ondes réfléchies interfèrent avec celles arrivant directement des satellites. Ces interférences sont particulièrement visibles dans le rapport signal-sur-bruit (SNR, i.e., Signal-to-Noise Ratio), paramètre enregistré par une station GNSS classique. Il est ainsi possible d'inverser les séries temporelles du SNR pour estimer des caractéristiques du milieu réfléchissant. Si la faisabilité et l'intérêt de cette méthode ne sont plus à démontrer, la mise en oeuvre de cette technique pose un certain nombre de problèmes, à savoir quelles précisions et résolutions spatio-temporelles peuvent être atteintes, et par conséquent, quels sont les observables géophysiques accessibles. Mon travail de thèse a pour objectif d'apporter des éléments de réponse sur ce point, et est axé sur le développement méthodologique et l'exploitation géophysique des mesures de SNR réalisées par des stations GNSS classiques. Je me suis focalisé sur l'estimation des variations de hauteur de l'antenne par rapport à la surface réfléchissante (altimétrie) et de l'humidité du sol en domaine continental. La méthode d'inversion des mesures SNR que je propose a été appliquée avec succès pour déterminer les variations locales de : (1) la hauteur de la mer au voisinage du phare de Cordouan du 3 mars au 31 mai 2013 où les ondes de marées et la houle ont pu être parfaitement identifiées ; et (2) l'humidité du sol dans un champ agricole à proximité de Toulouse, du 5 février au 15 mars 2014. Ma méthode permet de s'affranchir de certaines restrictions imposées jusqu'à présent dans les travaux antérieurs, où la vitesse de variation verticale de la surface de réflexion était supposée négligeable. De plus, j'ai développé un simulateur qui m'a permis de tester l'influence de nombreux paramètres (troposphère, angle d'élévation du satellite, hauteur d'antenne, relief local, etc.) sur la trajectoire des ondes réfléchies et donc sur la position des points de réflexion. Mon travail de thèse montre que le GNSS-R est une alternative performante et un complément non négligeable aux techniques de mesure actuelles, en faisant le lien entre les différentes résolutions temporelles et spatiales actuellement atteintes par les outils classiques (sondes, radar, diffusiomètres, etc.). Cette technique offre l'avantage majeur d'être basé sur un réseau de satellites déjà en place et pérenne, et est applicable à n'importe quelle station GNSS géodésique, notamment celles des réseaux permanents (e.g., le RGP français). Ainsi, en installant une chaîne de traitement de ces acquisitions de SNR en domaine côtier, il serait possible d'utiliser les mesures continues des centaines de stations pré-existantes, et d'envisager de réaliser des mesures altimétriques à l'échelle locale, ou de mesurer l'humidité du sol pour les antennes situées à l'intérieur des terres
GNSS reflectometry (or GNSS-R) is an original and opportunistic remote sensing technique based on the analysis of the electromagnetic waves continuously emitted by GNSS positioning systems satellites (GPS, GLONASS, etc.) that are captured by an antenna after reflection on the Earth's surface. These signals interact with the reflective surface and hence contain information about its properties. When they reach the antenna, the reflected waves interfere with those coming directly from the satellites. This interference is particularly visible in the signal-to-noise ratio (SNR) parameter recorded by conventional GNSS stations. It is thus possible to reverse the SNR time series to estimate the reflective surface characteristics. If the feasibility and usefulness of thismethod are well established, the implementation of this technique poses a number of issues. Namely the spatio-temporal accuracies and resolutions that can be achieved and thus what geophysical observables are accessible.The aim of my PhD research work is to provide some answers on this point, focusing on the methodological development and geophysical exploitation of the SNR measurements performed by conventional GNSS stations. I focused on the estimation of variations in the antenna height relative to the reflecting surface (altimetry) and on the soil moisture in continental areas. The SNR data inversion method that I propose has been successfully applied to determine local variations of : (1) the sea level near the Cordouan lighthouse (not far from Bordeaux, France) from March 3 to May 31, 2013, where the main tidal periods and waves have been clearly identified ; and (2) the soil moisture in an agricultural plot near Toulouse, France, from February 5 to March 15, 2014. My method eliminates some restrictions imposed in earlier work, where the velocity of the vertical variation of the reflective surface was assumed to be negligible. Furthermore, I developed a simulator that allowed me to assess the influence of several parameters (troposphere, satellite elevation angle, antenna height, local relief, etc.) on the path of the reflected waves and hence on the position of the reflection points. My work shows that GNSS-R is a powerful alternative and a significant complement to the current measurement techniques, establishing a link between the different temporal and spatial resolutions currently achieved by conventional tools (sensors, radar, scatterometer, etc.). This technique offers the major advantage of being based on already-developed and sustainable satellites networks, and can be applied to any GNSS geodetic station, including permanent networks (e.g., the French RGP). Therefore, by installing a processing chain of these SNR acquisitions, data from hundreds of pre-existing stations could be used to make local altimetry measurements in coastal areas or to estimate soil moisture for inland antennas
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Doris-Blais, Delphine. "Modélisation de récepteurs GPS : application à l'étude de l'influence des multitrajets sur les performances du récepteur L1". Toulouse, INPT, 1997. http://www.theses.fr/1997INPT068H.

Texto completo
Resumen
Le systeme gps, certifie comme moyen secondaire de navigation par la faa depuis decembre 1993, est generalement considere comme etant l'un des elements cles du futur systeme mondial de navigation par satellites devant remplacer, a plus ou moins long terme, les systemes actuels d'approche de precision et d'aide a l'atterrissage, tels que l'ils et le mls. Avec la mise en place de systemes de type gps differentiel - completes, certes, par l'utilisation des techniques de poursuite de la phase de la porteuse, - on arrive regulierement a obtenir une precision sur l'information de position inferieure au metre, repondant ainsi - en terme de precision, seulement - aux exigences de l'atterrissage en categorie iii. Cependant, meme l'usage des corrections differentielles ne permet pas de garantir en permanence cette precision, a cause d'un probleme majeur non encore resolu : 2la propagation par trajets multiples1. Les objectifs et l'originalite de ce travail de these sont en fait double puisqu'il s'agissait de 2modeliser1, dans un premier temps, 2la chaine complete de poursuite du signal l1 gps1 sur l'outil de simulation de chaines de transmission numerique cossap, puis d'2etudier les erreurs induites par la propagation par multitrajets1 sur les performances du recepteur. Nous presenterons donc, et argumenterons en premier lieu les modelisations des differentes architectures de recepteur gps que nous avons construites sur l'outil de simulation cossap. Les modelisations effectuees seront validees par la caracterisation de la reponse des diverses boucles mises en jeu a differents perturbateurs (saut de phase, de frequence, rampe de frequence, bruit thermique). Les problemes sous-jacents a la simulation numerique seront alors soulignes. Puis, nous realiserons une analyse generale des performances du recepteur l1 gps en presence de multitrajets et etudierons les differentes solutions de traitement du signal permettant de reduire les effets des multitrajets sur les observations de la pseudodistance gps. Des calculs symboliques des erreurs induites tant au niveau de la boucle de phase que de la boucle de code seront developpes et valides grace aux simulations logicielles des differentes architectures de recepteur gps que nous avons effectuees. Ces developpements theoriques seront en fait a la base de nos discussions concernant les solutions de traitement du signal permettant de reduire les effets des multitrajets sur les performances des boucles de poursuite. Ainsi, apres avoir detaille les principes de fonctionnement des solutions classiques presentees dans la litterature et en avoir souligne les limitations, nous introduirons differentes structures de discriminateur de code, qui - basees sur des calculs de correlations multiples - permettent de reduire, de maniere tres significative, tant l'amplitude des erreurs de code observees que la plage des retards relatifs des signaux multitrajets ayant une influence sur le processus de determination de l'information de pseudodistance. Nous montrerons, qu'en utilisant ces techniques de correlation, nous approchons les performances du recepteur code p en utilisant des techniques de reception en code c/a. Elles s'avereront de plus tout a fait competitives par rapport aux techniques reposant sur les principes de la diversite d'espace, qui permettent certes d'identifier chacune des composantes recues, mais seulement au prix de la mise en place d'increments materiels et calculatoires importants.
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Aranzulla, Massimo. "Atmospheric water vapour tomography for DInSAR application and effect of volcanic plume on the microwaves". Doctoral thesis, Università di Catania, 2014. http://hdl.handle.net/10761/1543.

Texto completo
Resumen
A particular synergy among GPS and SAR techniques, to improve the precision of the current ground deformation monitoring techniques,is investigated. The study of atmospheric anomalies in the GPS EM waves propagation is useful to extrapolate information about the wet refractivity ?eld. Because of its height and the quite variable weather conditions, the estimation of Mount Etna atmospheric anomalies using GPS measurements have noticeable importance to calibrate the SAR interferograms and to establish the effective ground deformation of the volcanic edifice. In this study we presented a method to obtain a 3D electromagnetic waves velocity tomography, starting from the GPS output data analysis. Thanks to the agreement between the University of Catania and the INGV-OE, the GPS data used in this work come from Etnanet framework. The GPS processing has been carried out by using the GAMIT software, by adopting appropriate processing parameters. A new software was developed for deriving the tropospheric tomography from the GPS data. The code was validated by using synthetic tests which assume different structure of atmospheric anomalies and with random noise about twice severe than the typical errors of the GPS. The results of the tests proved that the tomography software is able to reconstruct the simulated anomalies faithfully. The code was applied to study the structure of the atmosphere in an actual case: the period of August 12, 2011 at 10.00 am. The results of the tomography indicate clearly important features of the refractivity field of the studied day. In conclusion, the synthetic tests and the application on actual data sets of the new software demonstrate that it is able to reveal the tropospheric anomalies and thus it is an useful tool to improve the results of the SAR interferometry. An indirect outcome of the use of the GPS for the atmospheric sounding on an active volcanic area is that concerning the detection of volcanic products in the atmosphere. Due to the Mt. Etna persistent activity occurred during the last two years, the capability of GPS to detect the volcanic plume was investigated. The Etna volcano is particularly suited for an in-depth investigation into the aptitude of GPS observations to detect volcanic plumes, owing to both the high frequency of explosive episodes and also the well-developed GPS network. Two di?erent approaches were tested, in order to examine the capability of the GPS network to detect volcanic plumes at Etna. The ?rst approach is applied on the signal strength of the GPS L2 carrier phase data, the second approach, instead, is statistical, and analyzes the single di?erence post ?t residual of elaboration signals to assert the hypothesis that the plume a?ects the GPS data. The proposed method has been tested for the September 4 5, 2007 activity of Mt. Etna. Results from nineteen GPS permanent stations show that during this explosive activity, the GPS residuals definitely include the contribution of the volcanic plume. In the future, data derived from the GPS stations located on Etna's flanks could be used to improve the alerting system of volcanic ash, already operating at the Istituto Nazionale di Geofisica e Vulcanologia, Osservatorio Etneo.
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Rahman, Anis. "La perception des visages en vidéos: Contributions à un modèle saillance visuelle et son application sur les GPU". Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00923796.

Texto completo
Resumen
Les études menées dans cette thèse portent sur le rôle des visages dans l'attention visuelle. Nous avons cherché à mieux comprendre l'influence des visages dans les vidéos sur les mouvements oculaires, afin de proposer un modèle de saillance visuelle pour la prédiction de la direction du regard. Pour cela, nous avons analysé l'effet des visages sur les fixations oculaires d'observateurs regardant librement (sans consigne ni tâche particulière) des vidéos. Nous avons étudié l'impact du nombre de visages, de leur emplacement et de leur taille. Il est apparu clairement que les visages dans une scène dynamique (à l'instar de ce qui se passe sur les images fixes) modifie fortement les mouvements oculaires. En nous appuyant sur ces résultats, nous avons proposé un modèle de saillance visuelle, qui combine des caractéristiques classiques de bas-niveau (orientations et fréquences spatiales, amplitude du mouvement des objets) avec cette caractéristique importante de plus haut-niveau que constitue les visages. Enfin, afin de permettre des traitements plus proches du temps réel, nous avons développé une implémentation parallèle de ce modèle de saillance visuelle sur une plateforme multi-GPU. Le gain en vitesse est d'environ 130x par rapport à une implémentation sur un processeur multithread.
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Valty, Pierre. "Apport de la géodésie à l'étude des transferts de masse d'origine climatique. Application au Sud de l'Europe". Paris, Institut de physique du globe, 2013. http://www.theses.fr/2013GLOB1102.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Martelli, Maxime. "Approche haut niveau pour l’accélération d’algorithmes sur des architectures hétérogènes CPU/GPU/FPGA. Application à la qualification des radars et des systèmes d’écoute électromagnétique". Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS581/document.

Texto completo
Resumen
A l'heure où l'industrie des semi-conducteurs fait face à des difficultés majeures pour entretenir une croissance en berne, les nouveaux outils de synthèse de haut niveau repositionnent les FPGAs comme une technologie de premier plan pour l'accélération matérielle d'algorithmes face aux clusters à base de CPUs et GPUs. Mais en l’état, pour un ingénieur logiciel, ces outils ne garantissent pas, sans expertise du matériel sous-jacent, l’utilisation de ces technologies à leur plein potentiel. Cette particularité peut alors constituer un frein à leur démocratisation. C'est pourquoi nous proposons une méthodologie d'accélération d'algorithmes sur FPGA. Après avoir présenté un modèle d'architecture haut niveau de cette cible, nous détaillons différentes optimisations possibles en OpenCL, pour finalement définir une stratégie d'exploration pertinente pour l'accélération d'algorithmes sur FPGA. Appliquée sur différents cas d'étude, de la reconstruction tomographique à la modélisation d'un brouillage aéroporté radar, nous évaluons notre méthodologie suivant trois principaux critères de performance : le temps de développement, le temps d'exécution, et l'efficacité énergétique
As the semiconductor industry faces major challenges in sustaining its growth, new High-Level Synthesis tools are repositioning FPGAs as a leading technology for algorithm acceleration in the face of CPU and GPU-based clusters. But as it stands, for a software engineer, these tools do not guarantee, without expertise of the underlying hardware, that these technologies will be harnessed to their full potential. This can be a game breaker for their democratization. From this observation, we propose a methodology for algorithm acceleration on FPGAs. After presenting a high-level model of this architecture, we detail possible optimizations in OpenCL, and finally define a relevant exploration strategy for accelerating algorithms on FPGA. Applied to different case studies, from tomographic reconstruction to the modelling of an airborne radar jammer, we evaluate our methodology according to three main performance criteria: development time, execution time, and energy efficiency
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Weber, Bruno. "Optimisation de code Galerkin discontinu sur ordinateur hybride : application à la simulation numérique en électromagnétisme". Thesis, Strasbourg, 2018. http://www.theses.fr/2018STRAD046/document.

Texto completo
Resumen
Nous présentons dans cette thèse les évolutions apportées au solveur Galerkin Discontinu Teta-CLAC, issu de la collaboration IRMA-AxesSim, au cours du projet HOROCH (2015-2018). Ce solveur permet de résoudre les équations de Maxwell en 3D, en parallèle sur un grand nombre d'accélérateurs OpenCL. L'objectif du projet HOROCH était d'effectuer des simulations de grande envergure sur un modèle numérique complet de corps humain. Ce modèle comporte 24 millions de mailles hexaédriques pour des calculs dans la bande de fréquences des objets connectés allant de 1 à 3 GHz (Bluetooth). Les applications sont nombreuses : téléphonie et accessoires, sport (maillots connectés), médecine (sondes : gélules, patchs), etc. Les évolutions ainsi apportées comprennent, entre autres : l'optimisation des kernels OpenCL à destination des CPU dans le but d'utiliser au mieux les architectures hybrides ; l'expérimentation du runtime StarPU ; le design d'un schéma d'intégration à pas de temps local ; et bon nombre d'optimisations permettant au solveur de traiter des simulations de plusieurs millions de mailles
In this thesis, we present the evolutions made to the Discontinuous Galerkin solver Teta-CLAC – resulting from the IRMA-AxesSim collaboration – during the HOROCH project (2015-2018). This solver allows to solve the Maxwell equations in 3D and in parallel on a large amount of OpenCL accelerators. The goal of the HOROCH project was to perform large-scale simulations on a complete digital human body model. This model is composed of 24 million hexahedral cells in order to perform calculations in the frequency band of connected objects going from 1 to 3 GHz (Bluetooth). The applications are numerous: telephony and accessories, sport (connected shirts), medicine (probes: capsules, patches), etc. The changes thus made include, among others: optimization of OpenCL kernels for CPUs in order to make the best use of hybrid architectures; StarPU runtime experimentation; the design of an integration scheme using local time steps; and many optimizations allowing the solver to process simulations of several millions of cells
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Courilleau, Nicolas. "Visualisation et traitements interactifs de grilles régulières 3D haute-résolution virtualisées sur GPU. Application aux données biomédicales pour la microscopie virtuelle en environnement HPC". Thesis, Reims, 2019. http://www.theses.fr/2019REIMS013.

Texto completo
Resumen
La visualisation de données est un aspect important de la recherche scientifique dans de nombreux domaines.Elle permet d'aider à comprendre les phénomènes observés voire simulés et d'en extraire des informations à des fins notamment de validations expérimentales ou tout simplement pour de la revue de projet.Nous nous intéressons dans le cadre de cette étude doctorale à la visualisation de données volumiques en imagerie médicale et biomédicale, obtenues grâce à des appareils d'acquisition générant des champs scalaires ou vectoriels représentés sous forme de grilles régulières 3D.La taille croissante des données, due à la précision grandissante des appareils d'acquisition, impose d'adapter les algorithmes de visualisation afin de pouvoir gérer de telles volumétries.De plus, les GPUs utilisés en visualisation de données volumiques, se trouvant être particulièrement adaptés à ces problématiques, disposent d'une quantité de mémoire très limitée comparée aux données à visualiser.La question se pose alors de savoir comment dissocier les unités de calculs, permettant la visualisation, de celles de stockage.Les algorithmes se basant sur le principe dit "out-of-core" sont les solutions permettant de gérer de larges ensembles de données volumiques.Dans cette thèse, nous proposons un pipeline complet permettant de visualiser et de traiter, en temps réel sur GPU, des volumes de données dépassant très largement les capacités mémoires des CPU et GPU.L'intérêt de notre pipeline provient de son approche de gestion de données "out-of-core" permettant de virtualiser la mémoire qui se trouve être particulièrement adaptée aux données volumiques.De plus, cette approche repose sur une structure d'adressage virtuel entièrement gérée et maintenue sur GPU.Nous validons notre modèle grâce à plusieurs applications de visualisation et de traitement en temps réel.Tout d'abord, nous proposons un microscope virtuel interactif permettant la visualisation 3D auto-stéréoscopique de piles d'images haute résolution.Puis nous validons l'adaptabilité de notre structure à tous types de données grâce à un microscope virtuel multimodale.Enfin, nous démontrons les capacités multi-rôles de notre structure grâce à une application de visualisation et de traitement concourant en temps réel
Data visualisation is an essential aspect of scientific research in many fields.It helps to understand observed or even simulated phenomena and to extract information from them for purposes such as experimental validations or solely for project review.The focus given in this thesis is on the visualisation of volume data in medical and biomedical imaging.The acquisition devices used to acquire the data generate scalar or vector fields represented in the form of regular 3D grids.The increasing accuracy of the acquisition devices implies an increasing size of the volume data.Therefore, it requires to adapt the visualisation algorithms in order to be able to manage such volumes.Moreover, visualisation mostly relies on the use of GPUs because they suit well to such problematics.However, they possess a very limited amount of memory compared to the generated volume data.The question then arises as to how to dissociate the calculation units, allowing visualisation, from those of storage.Algorithms based on the so-called "out-of-core" principle are the solutions for managing large volume data sets.In this thesis, we propose a complete GPU-based pipeline allowing real-time visualisation and processing of volume data that are significantly larger than the CPU and GPU memory capacities.The pipeline interest comes from its GPU-based approach of an out-of-core addressing structure, allowing the data virtualisation, which is adequate for volume data management.We validate our approach using different real-time applications of visualisation and processing.First, we propose an interactive virtual microscope allowing 3D auto-stereoscopic visualisation of stacks of high-resolution images.Then, we verify the adaptability of our structure to all data types with a multimodal virtual microscope.Finally, we demonstrate the multi-role capabilities of our structure through a concurrent real-time visualisation and processing application
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Ducic, Vesna. "Tomographie de l'ionosphère et de la troposphère à partir des données GPS denses : applications aux risques naturels et amélioration de l'interférométrie SAR". Paris 7, 2004. http://www.theses.fr/2004PA077057.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Crestetto, Anaïs. "Optimisation de méthodes numériques pour la physique des plasmas : application aux faisceaux de particules chargées". Phd thesis, Université de Strasbourg, 2012. http://tel.archives-ouvertes.fr/tel-00735569.

Texto completo
Resumen
Cette thèse propose différentes méthodes numériques permettant de simuler le comportement des plasmas ou des faisceaux de particules chargées à coût réduit. Le mouvement de particules chargées soumises à un champ électromagnétique est régi par l'équation de Vlasov. Celle-ci est couplée aux équations de Maxwell pour le champ électromagnétique ou à l'équation de Poisson dans un cas simplifié. Plusieurs types de modèles existent pour résoudre ce système. Dans les modèles cinétiques, les particules sont représentées par une fonction de distribution f(x,v,t) qui vérifie l'équation de Vlasov. Dans le cas général tridimensionnel (3D), le système fait apparaître 7 variables. Les calculs sur ordinateur deviennent rapidement très lourds. Les modèles fluides de plasma s'intéressent quant à eux à des quantités macroscopiques déduites de f par des intégrales en vitesse, telles que la densité, la vitesse moyenne et la température. Ces quantités ne dépendent que de la position x et du temps t. Le coût numérique est ainsi réduit, mais la précision s'en trouve altérée. Dans la première partie de cette thèse, une méthode multi-fluides est utilisée pour la résolution du système de Vlasov-Poisson 1D. Elle est basée sur la connaissance a priori de la forme prise par la fonction de distribution f. Deux possibilités sont étudiées : une somme de masse de Dirac et le modèle multi-water-bag. Ce type de méthodes est plutôt adapté aux systèmes restant proches de l'état d'équilibre. La deuxième partie propose de décomposer f en une partie d'équilibre et une perturbation. L'équilibre est résolu par une méthode fluide alors que la perturbation est résolue par une méthode cinétique. On construit notamment un schéma préservant l'asymptotique pour le système de Vlasov-Poisson-BGK, basé sur une telle décomposition. On étudie dans la troisième partie la méthode Particle-In-Cell (PIC) en géométrie 2D axisymétrique. Un travail basé sur l'analyse isogéométrique est présenté, ainsi qu'un code PIC - Galerkin Discontinu parallélisé sur carte graphique (GPU). Cette architecture permet de réduire de manière significative les temps de calculs.
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Cassidy, Scott L. "Millimetre-wave FMCW radar for remote sensing and security applications". Thesis, University of St Andrews, 2015. http://hdl.handle.net/10023/7856.

Texto completo
Resumen
This thesis presents a body of work on the theme of millimetre-wave FMCW radar, for the purposes of security screening and remote sensing. First, the development of an optimised software radar signal processor will be outlined. Through use of threading and GPU acceleration, high data processing rates were achieved using standard PC hardware. The flexibility of this approach, compared to specialised hardware (e.g. DSP, FPGA etc…), allowed the processor to be rapidly adapted and has produced a significant performance increase in a number of advanced real-time radar systems. An efficient tracker was developed and was successfully deployed in live trials for the purpose of real-time wave detection in an autonomous boat control system. Automated radar operation and remote data telemetry functions were implemented in a terrain mapping radar to allow continuous monitoring of the Soufrière Hills volcano on the Caribbean island of Montserrat. This work concluded with the installation of the system 3 km from the volcano. Hardware modifications were made to enable coherent measurement in a number of existing radar systems, allowing phase sensitive measurements, including range-Doppler, to be performed. Sensitivity to displacements of less than 200 nm was demonstrated, which is limited by the phase noise of the system. Efficient compensation techniques are presented which correct for quadrature mixer imbalance, FMCW chirp non-linearity, and scanner drive distortions. In collaboration with the Home Office, two radar systems were evaluated for the stand-off detection of concealed objects. Automatic detection capability, based on polarimetric signatures, was developed using data gathered under controlled conditions. Algorithm performance was assessed through blind testing across a statistically significant number of subjects. A detailed analysis is presented, which evaluates the effect of clothing and object type on detection efficiency.
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Drevelle, Vincent. "Étude de méthodes ensemblistes robustes pour une localisation multi-sensorielle intègre : application à la navigation des véhicules en milieu urbain". Compiègne, 2011. http://www.theses.fr/2011COMP1986.

Texto completo
Resumen
On cherche dans cette thèse à caractériser un domaine de confiance pour la localisation d’un véhicule, en utilisant des méthodes ensemblistes robustes par intervalles. La localisation est essentielle à la navigation en robotique mobile, en particulier pour les véhicules intelligents. Lorsque la position est utilisée dans un contexte pouvant mettre en jeu la sécurité des personnes, tel que la navigation autonome, on doit avoir recours à un mécanisme d’intégrité vérifiant que l’erreur commise reste inférieure à l’erreur maximale tolérable pour la mission. Dans le domaine aéronautique, on définit ainsi un niveau de protection associé à un risque d’intégrité. Dans un esprit similaire aux niveaux de protections utilisés en aéronautique, ce travail vise à déterminer un domaine de confiance, dans lequel l’utilisateur est garanti de se trouver avec un risque d’intégrité donné. L’utilisation de méthodes ensemblistes robustes permet de calculer un domaine de localisation tenant compte de l’éventuelle présence de mesures aberrantes. Les mesures provenant de capteurs ainsi que les paramètres des modèles sont entachés d’erreurs, souvent modélisées par leur distribution de probabilité. Dans le cadre ensembliste, on peut représenter ces erreurs par des intervalles. Quand les bornes ne sont pas spécifiées ou trop pessimistes, on peut déterminer des bornes associées à un risque, et propager ce risque au domaine de confiance calculé. Les systèmes de navigation par satellites permettent un positionnement absolu avec une bonne précision en milieu ouvert. Cependant, les mesures de pseudodistance GPS sont sujettes aux problèmes de trajets multiples ou réfléchis en zone urbaine. Une robustesse aux valeurs aberrantes est donc nécessaire. Pour compenser le manque de satellites en milieu à visibilité satellitaire réduite, des contraintes sur la position sont apportées par la cartographie 3D de l’espace roulable et l’intégration des capteurs proprioceptifs présents sur les véhicules modernes. Trois méthodes de localisation, basées sur un algorithme robuste d’inversion ensembliste par intervalles associé aux mesures GPS sont présentées dans ce document. La première consiste en un calcul époque par époque, fusionnant les mesures de pseudodistance d’un récepteur GPS avec l’information d’un modèle numérique de terrain. La seconde s’appuie sur une carte surfacique précise de « l’espace roulable » en trois dimensions, ainsi que l’observation de la dérive de l’horloge du récepteur. Enfin, la troisième méthode concerne l’estimation de la pose du véhicule à partir d’un historique fini de positions et de mesures proprioceptives. Ces trois méthodes ont été implémentées en temps-réel, et testées sur des données réelles acquises dans des environnements difficiles pour la localisation par satellites
In this thesis, confidence domains for vehicle localization are characterized by using robust interval methods. Positioning is of prime importance in mobile robotics and more specifically for intelligent vehicle applications. When position information is used in a safety-critical context, like autonomous vehicle navigation, an integrity method is needed to check that the positioning error stays within the limits specified for the mission. In aeronautical navigation, protection levels are defined as bounds on the position error associated to a given integrity risk. This work aims to compute a confidence domain in which the user in guaranteed to be located with a given integrity risk. The possible presence of outliers is handled by the use of robust set-membership methods. Sensor measurements and model parameters are prone to errors, which are often modeled by their probability distribution. In the set-membership working frame,errors can be represented by intervals, thus making the assumption of bounded errors. When guaranteed error bounds are unknown or too pessimistic, error bounds associated with a risk can be used. The risk taken on measurements is then propagated to the computed confidence domain. Global navigation satellite systems enable high precision absolute positioning in open sky environments, but measurements suffer from multipath and non-line-ofsight propagation in urban areas. Robustness to outliers is thus needed. To counter the lack of visible satellites in urban canyons, position is constrained by a 3D map of the drivable space and by using the proprioceptive sensors embedded in recent vehicles. This document presents three positioning methods based on a robust set inversion via interval analysis with GPS pseudorange measurements : Snapshot computation of a position confidence domain, with GPS measurements and altitude constraint from a digital elevation model. Use of a precise 3D model of the drivable space as a positioning constraint, and observation of the GPS receiver’s clock drift. Robust pose estimation from a sliding horizon of positions and proprioceptive measurements, constrained by a 3D map. These positioning methods have been implemented in real-time and tested with real data in difficult environments for satellite positioning
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Obrecht, Christian. "High performance lattice Boltzmann solvers on massively parallel architectures with applications to building aeraulics". Phd thesis, INSA de Lyon, 2012. http://tel.archives-ouvertes.fr/tel-00776986.

Texto completo
Resumen
With the advent of low-energy buildings, the need for accurate building performance simulations has significantly increased. However, for the time being, the thermo-aeraulic effects are often taken into account through simplified or even empirical models, which fail to provide the expected accuracy. Resorting to computational fluid dynamics seems therefore unavoidable, but the required computational effort is in general prohibitive. The joint use of innovative approaches such as the lattice Boltzmann method (LBM) and massively parallel computing devices such as graphics processing units (GPUs) could help to overcome these limits. The present research work is devoted to explore the potential of such a strategy. The lattice Boltzmann method, which is based on a discretised version of the Boltzmann equation, is an explicit approach offering numerous attractive features: accuracy, stability, ability to handle complex geometries, etc. It is therefore an interesting alternative to the direct solving of the Navier-Stokes equations using classic numerical analysis. From an algorithmic standpoint, the LBM is well-suited for parallel implementations. The use of graphics processors to perform general purpose computations is increasingly widespread in high performance computing. These massively parallel circuits provide up to now unrivalled performance at a rather moderate cost. Yet, due to numerous hardware induced constraints, GPU programming is quite complex and the possible benefits in performance depend strongly on the algorithmic nature of the targeted application. For LBM, GPU implementations currently provide performance two orders of magnitude higher than a weakly optimised sequential CPU implementation. The present thesis consists of a collection of nine articles published in international journals and proceedings of international conferences (the last one being under review). These contributions address the issues related to single-GPU implementations of the LBM and the optimisation of memory accesses, as well as multi-GPU implementations and the modelling of inter-GPU and internode communication. In addition, we outline several extensions to the LBM, which appear essential to perform actual building thermo-aeraulic simulations. The test cases we used to validate our codes account for the strong potential of GPU LBM solvers in practice.
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

HERNANDEZ, Bruno. "Apport des mouvements forts et de la géodésie à l'étude de la physique de la rupture sismique : application à l'analyse de l'aléa sismique". Phd thesis, 2000. http://tel.archives-ouvertes.fr/tel-00007600.

Texto completo
Resumen
Ce travail est consacré à l'étude de la source sismique en utilisant des données de champ proche. Selon la quantité et la qualité des données disponibles, nous avons appliqué différentes méthodes pour caractériser la rupture sismique. Nous avons, tout d'abord, validé des méthodes macrosismiques sur des séismes français récents. Ces données permettent d'estimer la localisation et la taille des séismes historiques et sont utilisées pour caractériser les séismes à prendre en compte lors de l'évaluation de l'aléa dans des régions à sismicité modérée. Les données géodésiques (SAR, GPS) nous ont permis d'estimer la distribution du glissement sur la faille lors du séisme californien de Landers (1992). Ces données nous ont permis de préciser la localisation et la géométrie des failles ayant joué lors des principaux événements de la séquence sismique italienne de Colfiorito (1997). Enfin les données de mouvement fort nous ont permis d'estimer le pendage de la faille ayant rompu lors du séisme indien de Chamoli (1999). Nous avons utilisé des données de mouvement fort pour contraindre le développement de la rupture lors du séisme mexicain de Oaxaca (1999). Les données de mouvement fort ont été utilisées en association avec des données géodésiques pour remonter au développement temporel de la rupture lors du séisme de Landers et de la séquence sismique de Colfiorito. En ce qui concerne le séisme de Landers, la qualité et la complémentarité des données nous ont permis d'obtenir un véritable film du glissement. La rupture est hétérogène. On note la présence de zones où le glissement est plus important qu'ailleurs. Ces zones sont séparées par des régions qui correspondent aux zones de relais entre les segments de faille où le glissement est moindre et où la vitesse de rupture diminue.
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía