To see the other types of publications on this topic, follow the link: Traitement des données en temps réel.

Dissertations / Theses on the topic 'Traitement des données en temps réel'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Traitement des données en temps réel.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Al, Chami Zahi. "Estimation de la qualité des données multimedia en temps réel." Thesis, Pau, 2021. http://www.theses.fr/2021PAUU3066.

Full text
Abstract:
Au cours de la dernière décennie, les fournisseurs de données ont généré et diffusé une grande quantité de données, notamment des images, des vidéos, de l'audio, etc. Dans cette thèse, nous nous concentrerons sur le traitement des images puisqu'elles sont les plus communément partagées entre les utilisateurs sur l'inter-réseau mondial. En particulier, le traitement des images contenant des visages a reçu une grande attention en raison de ses nombreuses applications, telles que les applications de divertissement et de médias sociaux. Cependant, plusieurs défis pourraient survenir au cours de la phase de traitement et de transmission : d'une part, le nombre énorme d'images partagées et produites à un rythme rapide nécessite un temps de traitement et de livraison considérable; d’autre part, les images sont soumises à un très grand nombre de distorsions lors du traitement, de la transmission ou de la combinaison de nombreux facteurs qui pourraient endommager le contenu des images. Deux contributions principales sont développées. Tout d'abord, nous présentons un framework d'évaluation de la qualité d'image ayant une référence complète en temps réel, capable de : 1) préserver le contenu des images en s'assurant que certaines informations visuelles utiles peuvent toujours être extraites de l'image résultante, et 2) fournir un moyen de traiter les images en temps réel afin de faire face à l'énorme quantité d'images reçues à un rythme rapide. Le framework décrit ici est limité au traitement des images qui ont accès à leur image de référence (connu sous le nom référence complète). Dans notre second chapitre, nous présentons un framework d'évaluation de la qualité d'image sans référence en temps réel. Il a les capacités suivantes : a) évaluer l'image déformée sans avoir recours à son image originale, b) préserver les informations visuelles les plus utiles dans les images avant de les publier, et c) traiter les images en temps réel, bien que les modèles d'évaluation de la qualité des images sans référence sont considérés très complexes. Notre framework offre plusieurs avantages par rapport aux approches existantes, en particulier : i. il localise la distorsion dans une image afin d'évaluer directement les parties déformées au lieu de traiter l'image entière, ii. il a un compromis acceptable entre la précision de la prédiction de qualité et le temps d’exécution, et iii. il pourrait être utilisé dans plusieurs applications, en particulier celles qui fonctionnent en temps réel. L'architecture de chaque framework est présentée dans les chapitres tout en détaillant les modules et composants du framework. Ensuite, un certain nombre de simulations sont faites pour montrer l'efficacité de nos approches pour résoudre nos défis par rapport aux approches existantes
Over the past decade, data providers have been generating and streaming a large amount of data, including images, videos, audio, etc. In this thesis, we will be focusing on processing images since they are the most commonly shared between the users on the global inter-network. In particular, treating images containing faces has received great attention due to its numerous applications, such as entertainment and social media apps. However, several challenges could arise during the processing and transmission phase: firstly, the enormous number of images shared and produced at a rapid pace requires a significant amount of time to be processed and delivered; secondly, images are subject to a wide range of distortions during the processing, transmission, or combination of many factors that could damage the images’content. Two main contributions are developed. First, we introduce a Full-Reference Image Quality Assessment Framework in Real-Time, capable of:1) preserving the images’content by ensuring that some useful visual information can still be extracted from the output, and 2) providing a way to process the images in real-time in order to cope with the huge amount of images that are being received at a rapid pace. The framework described here is limited to processing those images that have access to their reference version (a.k.a Full-Reference). Secondly, we present a No-Reference Image Quality Assessment Framework in Real-Time. It has the following abilities: a) assessing the distorted image without having its distortion-free image, b) preserving the most useful visual information in the images before publishing, and c) processing the images in real-time, even though the No-Reference image quality assessment models are considered very complex. Our framework offers several advantages over the existing approaches, in particular: i. it locates the distortion in an image in order to directly assess the distorted parts instead of processing the whole image, ii. it has an acceptable trade-off between quality prediction accuracy and execution latency, andiii. it could be used in several applications, especially these that work in real-time. The architecture of each framework is presented in the chapters while detailing the modules and components of the framework. Then, a number of simulations are made to show the effectiveness of our approaches to solve our challenges in relation to the existing approaches
APA, Harvard, Vancouver, ISO, and other styles
2

Puthon, Anne-Sophie. "Détermination de la vitesse limite par fusion de données vision et cartographiques temps-réel embarquées." Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2013. http://pastel.archives-ouvertes.fr/pastel-00957392.

Full text
Abstract:
Les systèmes d'aide à la conduite sont de plus en plus présents dans nos véhicules et nous garantissent un meilleur confort et plus de sécurité. Dans cette thèse, nous nous sommes particulièrement intéressés aux systèmes d'adaptation automatique de la vitesse limite. Nous avons proposé une approche alliant vision et navigation pour gérer de façon optimale l'environnement routier.Panneaux, panonceaux et marquages sont autant d'informations visuelles utiles au conducteur pour connaître les limitations temporaires en vigueur sur la route. La reconnaissance des premiers ont fait l'objet ces dernières années d'un grand nombre d'études et sont même commercialisés, contrairement aux seconds. Nous avons donc proposé un module de détection et classification de panonceaux sur des images à niveaux de gris. Un algorithme de reconstruction morphologique associé à une croissance de régions nous ont permis de concentrer la segmentation sur les zones fortement contrastées de l'image entourées d'un ensemble de pixels d'intensité similaire. Les rectangles ainsi détectés ont ensuite fait l'objet d'une classification au moyen de descripteurs globaux de type PHOG et d'une structure hiérarchique de SVMs. Afin d'éliminer en dernier lieu les panonceaux ne s'appliquant pas à la voie sur laquelle circule le véhicule, nous avons pris en compte les informations de marquages à l'aide d'une machine d'états.Après avoir élaboré un module de vision intégrant au mieux toutes les informations disponibles, nous avons amélioré le système de navigation. Son objectif est d'extraire d'une base de données embarquée, le contexte de conduite lié à la position du véhicule. Ville ou non, classe fonctionnelle et type de la route, vitesse limite sont extraits et modélisés sous forme d'attributs. La fiabilité du capteur est ensuite calculée en fonction du nombre de satellites visibles et de la qualité de numérisation du réseau. La confiance en chaque vitesse limite sera alors fonction de ces deux ensembles.La fusion des deux sources au moyen de Demspter-Shafer a conduit à de très bonnes performances sur nos bases de données et démontré l'intérêt de tous ces éléments.
APA, Harvard, Vancouver, ISO, and other styles
3

Hautot, Félix. "Cartographie topographique et radiologique 3D en temps réel : acquisition, traitement, fusion des données et gestion des incertitudes." Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS141.

Full text
Abstract:
Dans le cadre des activités de maintenance, de décontamination et de démantèlement d’installations nucléaires, il est nécessaire d’effectuer un état des lieux précis des structures potentiellement contaminées ou activées, préalablement à toute intervention. Pour des raisons économiques, cet état des lieux doit être le plus souvent réalisé dans un temps court. Par ailleurs, il est généralement effectué par un opérateur, dont le temps d’exposition aux rayonnements doit être minimisé. Une des difficultés récurrentes réside dans l’éventuelle obsolescence ou de l’inexistence des plans, et dans le cas d’investigations en intérieur, de la perte de signaux GPS, et de la difficulté d’employer des systèmes de localisations externes et pré-calibrés. En effet, l’état des lieux est obtenu en couplant une cartographie de l’environnement avec des mesures nucléaires destinées à évaluer le niveau de radiations dans les lieux étudiés. Dans ce cadre, il est nécessaire de disposer d’un instrument portatif permettant de délivrer une cartographie radiologique et topographique la plus exhaustive possible des locaux afin d’établir des scénarii d’intervention. Afin de minimiser le temps d’exposition de l’opérateur, il est essentiel que les données acquises soient exploitables en temps réel. Ce type d’instrument doit permettre de procéder à des interventions complexes et doit fournir les meilleures prévisions dosimétriques afin d’optimiser les temps d’intervention lors du démantèlement ainsi que la gestion des éventuels déchets. À ces fins, Areva STMI a développé un système autonome de positionnement et de calcul de déplacement de sondes de mesures nucléaires en temps-réel basé sur les techniques de SLAM (Simultaneous Localization And Mapping). Ces développements ont conduit au dépôt d’un brevet. Ce travail de thèse a consisté à poursuive cette étude, et en particulier à décomposer l’ensemble des sous-systèmes, à poursuivre les développements inhérents à la fusion de données topographiques et radiologiques, à proposer des moyens d’optimisation, et à poser les bases d’une technique d’analyse, en temps réel, des incertitudes associées. Les méthodes SLAM utilisent l’odométrie visuelle qui peut reposer sur la capture d’images à l’aide de caméras RGB-D (caméras de type Microsoft Kinect®). Le processus d’acquisition délivre une carte tridimensionnelle contenant la position et l’orientation en 3D des appareils de mesure ainsi que les mesures elles-mêmes (débit de dose et spectrométrie gamma CZT) sans implication d’infrastructure préexistante. Par ailleurs, des méthodes de détections de sources basées sur les techniques d’interpolation spatiale et de rétroprojection de signal en « proche temps-réel » ont été développées. Ainsi, il est possible d’évaluer la position des sources radioactives dans l’environnement acquis. Il est ainsi possible de calculer rapidement des cartes de son état radiologique sans délai après l’acquisition. La dernière partie de ce travail a consisté à poser les bases d’une méthode originale pour l’estimation, en proche temps réel, de la précision des résultats issus de la chaîne d’acquisition et de traitement. Cette première approche nous a permis de formuler l’évaluation et la propagation des incertitudes tout au long de cette chaîne d’acquisition en temps réel, afin d’évaluer les méthodes que nous avons employées en termes de précision et de fiabilité de chaque acquisition réalisée. Enfin, une phase de benchmark permet d’estimer les résultats par rapport à des méthodes de référence
In the field of nuclear related activities such as maintenance, decontamination and dismantling status reports of potentially contaminated or activated elements are required beforehand. For economic reasons, this status report must be quickly performed. So as to be done quickly, the operation is realized by an operator, and his exposure time must be reduced as much as possible. Concerning indoor environments, it can be hard to make such investigations due to out-of-date plans or maps, loose of GPS signal, pre-positioning of underlying or precalibrated systems. Indeed, the premises status report is obtained by coupling nuclear measurements and topographical mapping. In such kind of situation it is necessary to have a portative instrument that delivers an exhaustive radiological and topographical mapping in order to deliver a decision support concerning the best intervention scenario to set up as fast as possible. Furthermore, and so as to reduce operator’s exposure time, such kind of method must be usable in real time. This method enables to proceed to complex intervention within the best radiological previsions for optimizing operator’s exposition time and waste management. In this goal, Areva STMI then developed a nuclear measurement probes autonomous positioning and motion estimation system based on visual SLAM (Simultaneous Localization And Mapping). These developments led to apply a patent. This thesis consisted in pursuing this survey, especially decomposing all the underlying systems, continuing the data fusion developments, proposing optimisations, and setting the basis of a real-time associated uncertainties analysis. SLAM based on visual odometry can be performed with RGB-D sensor (Microsoft Kinect®-like sensors). The acquisition process delivers a 3D map containing radiological sensors poses (positions and orientations in 3D) and measurements (dose rate and CZT gamma spectrometry) without any external signal or device. Moreover, a few radioactive sources localization algorithms based on geostatistics and back projection of measurements can also be performed in near real-time. It is then possible to evaluate the position of radioactive sources in the scene and compute fast radiological mappings of premises close to the acquisition. The last part of this work consisted in developing an original method for real-time evaluation of the process chain and results accuracies. The evaluation of uncertainties and their propagation along the acquisition and process chain in real-time provide feedbacks on employed methods for investigations or intervention processes and enable to evaluate the reliability of acquired data. Finally, a set of benchmarks has been performed in order to estimate the results quality by comparing them to reference methods
APA, Harvard, Vancouver, ISO, and other styles
4

Marsit, Nadhem. "Traitement des requêtes dépendant de la localisation avec des contraintes de temps réel." Toulouse 3, 2007. http://thesesups.ups-tlse.fr/106/.

Full text
Abstract:
La mobilité des unités a connu un fort essor depuis quelques années. Une des conséquences directes dans le domaine des bases de données est l'apparition de nouveaux types de requêtes tels que les Requêtes Dépendant de la Localisation (RDL) (e. G. Un ambulancier demande l'hôpital le plus proche de sa position). Ces requêtes soulèvent des problèmes qui font depuis quelques années l'objet de plusieurs recherches. En dépit de l'abondance des travaux liés à ce domaine, les différents types de requêtes étudiés jusqu'ici ne répondent pas à tous les besoins applicatifs. En effet, des nouveaux besoins donnent naissance à des requêtes mobiles avec des contraintes de temps réel. La prise en compte à la fois des contraintes de temps réel et de mobilité lors du traitement des requêtes est un problème important à résoudre. Ainsi, notre principal objectif est de proposer une solution pour le traitement des requêtes RDL avec des contraintes de temps réel. D'abord, nous proposons un langage permettant d'exprimer différents types de requêtes RDL. Ensuite, nous concevons une architecture permettant de traiter des requêtes RDL avec des contraintes de temps réel. Les modules conçus sont destinés à être implantés au-dessus de SGBD existants (e. G. Oracle). Dans le cadre de cette architecture, nous proposons des méthodes permettant de tenir compte de la localisation du client et de son déplacement après l'envoi de la requête. Nous proposons aussi des méthodes permettant de maximiser le taux de requêtes respectant leurs échéances. Enfin, nous validons nos propositions par une mise en œuvre et des évaluations des performances des méthodes proposées
In last years, the mobility of units achieved an increasing development. One of the direct consequences in the database field is the appearance of new types of queries such as Location Dependent Queries (LDQ) (e. G. An ambulance driver asks for the closest hospital). These queries raise problems which have been considered by several researches. Despite the intensive work related to this field, the different types of queries studied so far do not meet all the needs of location based applications. In fact these works don’t take into account the real time aspect required by certain location based applications. These new requirements generate new types of queries such as mobile queries with real time constraints. Taking into account mobility and real time constraints is an important problem to deal with. Hence, our main objective is to propose a solution for considering real time constraints while location dependent query processing. First, we propose a language for expressing different type of queries. Then, we design a software architecture allowing to process location dependent queries with real time constraints. The modules of this architecture are designed to be implemented on top of existent DBMS (e. G. Oracle). We propose methods to take into account location of mobile client and his displacement after sending the query. We also propose methods in order to maximise the percentage of queries respecting their deadlines. Finally we validate our proposal by implementing the proposed methods and evaluating their performance
APA, Harvard, Vancouver, ISO, and other styles
5

Martin, Patrick. "Conception et réalisation d'un système multiprocesseur, cadencé par les données, pour le traitement d'images linéaires en temps réel." Rouen, 1991. http://www.theses.fr/1991ROUE5046.

Full text
Abstract:
Nous présentons un opérateur programmable capable d'analyser à la cadence de l'acquisition les informations issues d'une caméra linéaire 2 MHz. Ses applications sont orientées vers le contrôle de qualité. L'unité de traitement de l'opérateur est formée de huit processeurs NEC cadencés par les données. Il présente l'intérêt d'être flexible, de remplir des tâches complexes en ayant un bon rapport coût/performance. Dans un premier temps nous abordons les solutions adoptées dans les systèmes multiprocesseurs conventionnels ainsi que la détection et l'exploitation du parallélisme par ces architectures. Puis en opposition, nous présentons le concept data flow suivi de la description de deux machines en cours de développement. Ensuite nous proposons une étude du processeur NEC µPD7281, complétée par une méthode d'évaluation des temps d'exécution des programmes écrits sous forme de graphes. Puis nous développons les solutions adoptées dans l'architecture de l'opérateur. Et en dernier lieu nous présentons deux applications mettant en évidence les performances de l'opérateur. La première porte sur le contrôle de 7000 gélules pharmaceutiques par heure; les principales caractéristiques à vérifier sont la couleur de la gélule, l'aspect géométrique et la présence du produit pharmaceutique. La seconde concerne la qualité d'impression de flacons
APA, Harvard, Vancouver, ISO, and other styles
6

Gagnon-Turcotte, Gabriel. "Algorithmes et processeurs temps réel de traitement de signaux neuronaux pour une plateforme optogénétique sans fil." Master's thesis, Université Laval, 2015. http://hdl.handle.net/20.500.11794/26339.

Full text
Abstract:
Tableau d'honneur de la Faculté des études supérieures et postdorales, 2015-2016
L’acquisition des signaux électriques provenant des neurones du cerveau permet aux neurobiologistes de mieux comprendre son fonctionnement. Dans le cadre de ce travail, de nouveaux algorithmes de compression des signaux neuronaux sont conçus et présentés. Ces nouveaux algorithmes sont incorporés dans trois nouveaux dispositifs optogénétiques sans fil miniature capable de stimuler optiquement l’activité neuronale et de transmettre sans fil les biopotentiels captés par plusieurs microélectrodes. Deux de ces systèmes sont capables de compresser les signaux provenant de deux microélectrodes ainsi que de stimuler optiquement via deux diodes électroluminescentes (DEL) haute puissance. Afin de réduire la bande passante des transmetteurs sans fil utilisés, ces deux systèmes sont dotés d’un nouvel algorithme de détection des potentiels d’actions qui génère de meilleurs taux de détection que les algorithmes existants, tout en nécessitant moins de ressources matérielles et de temps de processeur. Un troisième dispositif incorporant les algorithmes de détection et de compression fût conçu. Ce dispositif est le seul système optogénétique sans fil comportant 32 canaux de stimulation optique et 32 canaux d’enregistrement électrophysiologiques en parallèle. Il utilise une nouvelle technique de compression par ondelettes permettant d’augmenter significativement le nombre de canaux sous observation sans augmenter la consommation de l’émetteurrécepteur. Cette nouvelle méthode de compression se distingue des méthodes existantes en atteignant de meilleurs taux de compression tout en permettant de reconstruire les signaux compressés avec une meilleure qualité. Au moment de la rédaction de ce mémoire, il s’agit des premiers dispositifs optogénétiques sans fil à offrir simultanément de la stimulation optique multicanal, de l’enregistrement électrophysiologique multicanal ainsi que de la détection/compression in situ des potentiels d’actions. Grâce à leur design novateur et aux innovations apportées par les nouveaux algorithmes de traitement des signaux, les systèmes conçus sont plus légers et plus compacts que les systèmes précédents, rendant ces dispositifs indispensables afin de mener des expériences sur le cerveau de petits animaux libres de leurs mouvements. Les trois systèmes ont été validés avec grand succès par des expériences in vivo sur des souris transgéniques au Centre de Recherche de l’Institut Universitaire en Santé Mentale de Québec (CRIUSMQ).
The electrical signals acquisition from the brain’s neurons allows neuroscientists to better understand its functioning. In this work, new neural signals compression algorithms are designed and presented. These new algorithms are incorporated into three new miniature optogenetic wireless devices. These devices are capable to optically stimulate neural activity and to wirelessly transmit the biopotentials captured by several microelectrodes. Two of these systems are able to compress the signals from two microelectrodes and to stimulate optically via two high-power LED. Both systems feature a new spike detection algorithm to reduce the bandwidth used by the wireless transceiver. This new spike detection algorithm differs from existing algorithms by achieving better detection rate while using less material resources and processing time. A third device incorporating the detection and compression algorithms was designed. This device is the only optogenetic wireless system including 32 optical stimulation channels and 32 electrophysiological recording channels in parallel. This new system has the ability to compress the neural signals using a new wavelet compression technique that significantly increase the number of channels under observation without increasing the consumption of the wireless transceiver. In particular, this new compression technique differs from the existing wavelet based compression methods by achieving better compression ratio while allowing to reconstruct the compressed signals with better quality. At the time of writing this thesis, these are the first three devices that offer simultaneous multichannel optical stimulation, multichannel electrophysiological signals recording and on-the-fly spike detection. The resulting systems are more compact and lightweight than previous systems, making these devices essentials to conduct long term experiments on the brains of small freely moving animals. The three systems were validated within in vivo experiments using transgenic mice at the Centre de Recherche de l’Institut Universitaire en Santé Mentale de Québec (CRIUSMQ).
APA, Harvard, Vancouver, ISO, and other styles
7

Cotton, Julien. "Analyse et traitement de données sismiques 4D en continu et en temps réel pour la surveillance du sous-sol." Electronic Thesis or Diss., Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLEM023.

Full text
Abstract:
La sismique réflexion 3D est largement utilisée dans l'industrie pétrolière. Cette méthode d’auscultation du sous-sol fournit des informations sur les structures géologiques et peut être utilisée pour construire des modèles de réservoir. Cependant, les propriétés dérivées des données sismiques 3D (et 2D) ne sont que statiques: elles ne permettent pas d’évaluer ce qui change avec le temps. L'ajout d'une dimension temporelle aux données 3D est obtenue par la répétition des mesures à plusieurs dates séparées de plusieurs mois voire même de plusieurs années. Ainsi, la sismique4D (time-lapse) permet d’appréhender les modifications du sous-sol sur le long terme. Depuis les années 90, cette méthode est utilisée dans le monde entier en mer et à terre. Pour réaliser une surveillance beaucoup plus fréquente (quotidienne), voire continue (quelques heures) du sous-sol, CGG a développé, en collaboration avec Gaz de France (désormais ENGIE) et l’Institut Français du Pétrole (maintenant IFPEN), une solution basée sur des sources et des récepteurs enterrés: SeisMovie. SeisMovie a été initialement conçu pour suivre et cartographier en temps-réel le front de gaz lors des opérations de stockage en couche géologique. Il est aussi utilisé pour observer l’injection de vapeur nécessaire à la production d’huile lourde. Dans cette thèse, nous apportons des contributions à trois défis qui apparaissent lors du traitement des données sismiques issues de ce système. Le premier concerne l'atténuation des variations de proche surface causées par les ondes « fantômes » qui interfèrent avec les ondes primaires. Le second concerne la quantification des modifications du sous-sol en termes de variation de vitesse de propagation et d’impédance acoustique.Le troisième concerne le temps-réel : le traitement doit être au moins aussi rapide que le cycle d’acquisition (quelques heures). En effet l’analyse des données doit permettre aux ingénieurs réservoirs de prendre rapidement des décisions (arrêt de l’injection, diminution de la production). Dans un cadre plus général, il existe des similitudes conceptuelles entre la 3D et la 4D. En 4D, ce sont les acquisitions répétées qui sont comparées entre elles (ou avec une référence). En3D, pendant l’acquisition, les géophysiciens de terrain comparent les points de tir unitaires entre eux afin d’évaluer la qualité des données pour prendre des décisions (reprendre le point de tir, continuer). Dès lors, certains outils 4D temps réel développés pendant cette thèse peuvent être appliqués. Ainsi une toute nouvelle approche appelée TeraMig pour le contrôle qualité automatisé sur le terrain sera également présentée
3D seismic reflection is widely used in the oil industry. This standard subsoil auscultation method provides information on geological structures and can be used to build reservoir models. However, the properties derived from3D (and 2D) seismic data are only static: 3D does not allow to evaluate the changes with calendar time. The addition of a temporal dimension to 3D data is obtained by repeating the measurements at several dates separated by several months or even several years. Thus, 4D seismic (time-lapse) makes it possible to measure and to analyze the changes of the subsoil in the long term. Since the 90s, this method is used worldwide at sea and on land. To carry out a much more frequent monitoring (daily), even continuous (a few hours) of the subsoil, CGG developed, in collaboration with Gazde France (now ENGIE) and Institut Français du Pétrole (now IFPEN), a solution based on buried sources and receptors: SeisMovie. SeisMovie was originally designed to monitor and map the gas front in real time during geological disposal operations. It is also used to observe the steam injection required for heavy oil production. In this thesis, we bring contributions to three challenges arising in the processing of seismic data from this system. The first one concerns the attenuation of near-surface variations caused by "ghost" waves that interfere with primary waves. The second one concerns the quantification of subsurface changes in terms of propagation velocity variation and acoustic impedance.The third one concerns real-time: the data processing must be at least as fast as the acquisition cycle (a few hours). Infact, the analysis of the data must enable the reservoir engineers to make quick decisions (stop of the injection, decreaseof the production). In a more general context, there are conceptual similarities between 3D and 4D. In 4D, the repeated acquisitions are compared with each other (or with a reference). In 3D, during acquisition, field geophysicists compare unitary shot points with each other to assess the quality of the data for decision-making (reshooting, skipping orcontinuing). Therefore, some 4D real-time tools developed during this thesis can be applied. A new approach called TeraMig for automated quality control in the field will also be presented
APA, Harvard, Vancouver, ISO, and other styles
8

Sasportas, Raphaël. "Etude d'architectures dédiées aux applications temps réel d'analyse d'images par morphologie mathématique." Paris, ENMP, 2002. http://www.theses.fr/2002ENMP1082.

Full text
APA, Harvard, Vancouver, ISO, and other styles
9

Picard, Quentin. "Proposition de mécanismes d'optimisation des données pour la perception temps-réel dans un système embarqué hétérogène." Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG039.

Full text
Abstract:
Le développement des systèmes autonomes engendre des besoins en perception de l'environnement de plus en plus élevés dans les systèmes électroniques embarqués. Les voitures autonomes, les drones, ou encore les casques à réalité mixte présentent des facteurs de forme limités et un budget de puissance énergétique restreint pour les performances en temps-réel. Par exemple, les cas applicatifs cités ont un budget compris entre 300W-10W, 15W-10W et 10W-10mW respectivement. La thèse se place dans le domaine des systèmes autonomes et mobiles ayant un budget de consommation de 10mW à 15W avec l'utilisation de capteurs d'images et de la centrale inertielle (IMU). La méthode Simultaneous Localization And Mapping (SLAM) fournit aux systèmes autonomes et mobiles une perception précise et robuste de l'environnement en temps-réel et sans connaissances préalables. La thèse a pour objectif de répondre à la problématique de l'exécution temps-réel du système SLAM dans son ensemble composé de fonctions de perception avancées allant de la localisation à la reconstruction 3D sur du matériel à ressources restreintes. Dans ce cadre, deux principales questions sont posées pour répondre aux défis de l'état de l'art. Comment réduire les besoins en ressources de ces fonctions de perception ? Quel est le partitionnement de la chaîne de traitement SLAM pour le système hétérogène intégrant plusieurs unités de calcul allant du circuit intégré au capteur d'image, au traitement proche capteur (FPGA) et dans la plateforme embarquée (ARM, GPU embarqué) ?. La première question abordée dans la thèse concerne le besoin de réduire les ressources utilisées par la chaîne de traitement SLAM, de la sortie du capteur à la reconstruction 3D. Dans ce sens, les travaux détaillés dans le manuscrit apportent deux principales contributions. La première présente le traitement dans le circuit intégré au capteur en impactant les caractéristiques de l'image grâce à la réduction de la dynamique. La seconde impacte le pilotage du flux d'image envoyé dans la chaîne de traitement SLAM avec un traitement proche capteur. La première contribution vise à réduire l'empreinte mémoire des algorithmes SLAM en évaluant l'impact de la réduction de la dynamique du pixel sur la précision et la robustesse de la localisation et la reconstruction 3D temps-réel. Les expérimentations menées ont montré que l'on peut réduire la donnée d'entrée jusqu'à 75% correspondant à moins de 2 bits par pixel tout en obtenant une précision similaire à la référence 8 bits par pixel. Ces résultats ont été obtenus en évaluant la précision et la robustesse de quatre algorithmes SLAM différents sur deux bases de données. La seconde contribution vise à réduire la quantité de données injectée dans le SLAM par le filtrage adaptatif qui est la stratégie de décimation pour contrôler le flux d'entrée des images. Le déclenchement des images provenant du capteur est initialement à un flux constant (20 images par seconde). Cela implique une consommation d'énergie, de mémoire, de bande passante et augmente la complexité calculatoire. Pouvons-nous réduire cette quantité de données à traiter ? Dans le cadre du SLAM, la précision et le nombre de calculs à effectuer dépendent fortement du mouvement du système. Grâce à l'IMU qui fournit les accélérations linéaires et angulaires, les données sont injectées en fonction du mouvement du système. Ces images clés sont obtenues grâce à la méthode de filtrage adaptatif (AF). Bien que les résultats dépendent de la difficulté des bases de données choisies, les expérimentations menées ont montré que l'AF permet de décimer jusqu'à 80% des images tout en assurant une erreur de localisation faible et similaire à la référence. L'étude de l'impact mémoire dans le contexte embarqué montre que le pic de consommation est réduit jusqu'à 92%
The development of autonomous systems has an increasing need for perception of the environment in embedded systems. Autonomous cars, drones, mixed reality devices have limited form factor and a restricted budget of power consumption for real-time performances. For instance, those use cases have a budget in the range of 300W-10W, 15W-10W and 10W-10mW respectively. This thesis is focused on autonomous and mobile systems with a budget of 10mW to 15W with the use of imager sensors and the inertial measurement unit (IMU). Simultaneous Localization And Mapping (SLAM) provides accurate and robust perception of the environment in real-time without prior knowledge for autonomous and mobile systems. The thesis aims at the real-time execution of the whole SLAM system composed of advanced perception functions, from localization to 3D reconstruction, with restricted hardware resources. In this context, two main questions are raised to answer the challenges of the literature. How to reduce the resource requirements of advanced perception functions? What is the SLAM pipeline partitioning for the heterogeneous system that integrates several computing units, from the embedded chip in the imager, to the near-sensor processing (FPGA) and in the embedded platform (ARM, embedded GPU)?. The first issue addressed in the thesis is about the need to reduce the hardware resources used by the SLAM pipeline, from the sensor output to the 3D reconstruction. In this regard, the work described in the manuscript provides two main contributions. The first one presents the processing in the embedded chip with an impact on the image characteristics by reducing the dynamic range. The second has an impact on the management of the image flow injected in the SLAM pipeline with a near-sensor processing. The first contribution aims at reducing the memory footprint of the SLAM algorithms with the evaluation of the pixel dynamic reduction on the accuracy and robustness of real-time localization and 3D reconstruction. The experiments show that we can reduce the input data up to 75% corresponding to 2 bits per pixel while maintaining a similar accuracy than the baseline 8 bits per pixel. Those results have been obtained with the evaluation of the accuracy and robustness of four SLAM algorithms on two databases. The second contribution aims at reducing the amount of data injected in SLAM with a decimation strategy to control the input frame rate, called the adaptive filtering. Data are initially injected in constant rate (20 frames per second). This implies a consumption of energy, memory, bandwidth and increases the complexity of calculation. Can we reduce this amount of data ? In SLAM, the accuracy and the number of operations depend on the movement of the system. With the linear and angular accelerations from the IMU, data are injected based on the movement of the system. Those key images are injected with the adaptive filtering approach (AF). Although the results depend on the difficulty of the chosen database, the experiments describe that the AF allows the decimation of up to 80% of the images while maintaining low localization and reconstruction errors similar to the baseline. This study shows that in the embedded context, the peak memory consumption is reduced up to 92%
APA, Harvard, Vancouver, ISO, and other styles
10

Ouerhani, Yousri. "Contribution à la définition, à l'optimisation et à l'implantation d'IP de traitement du signal et des données en temps réel sur des cibles programmables." Phd thesis, Université de Bretagne occidentale - Brest, 2012. http://tel.archives-ouvertes.fr/tel-00840866.

Full text
Abstract:
En dépit du succès que les implantations optiques des applications de traitement d'images ont connu, le traitement optique de l'information suscite aujourd'hui moins d'intérêt que dans les années 80-90. Ceci est dû à l'encombrement des réalisations optiques, la qualité des images traitées et le coût des composants optiques. De plus, les réalisations optiques ont eu du mal à s'affranchir de l'avènement des circuits numériques. C'est dans ce cadre que s'inscrivent les travaux de cette thèse dont l'objectif est de proposer une implantation numérique des méthodes optiques de traitement d'images. Pour réaliser cette implantation nous avons choisi d'utiliser les FPGA et les GPU grâce aux bonnes performances de ces circuits en termes de rapidité. En outre, pour améliorer la productivité nous nous sommes focalisés à la réutilisation des blocs préconçus ou IP " Intellectual Properties ". Malgré que les IP commerciales existantes soient optimisées, ces dernières sont souvent payantes et dépendent de la famille de la carte utilisée. La première contribution est de proposer une implantation optimisée des IP pour le calcul de la transformée de Fourier FFT et de la DCT. En effet, le choix de ces deux transformations est justifié par l'utilisation massive de ces deux transformées (FFT et DCT), dans les algorithmes de reconnaissance de formes et de compression, respectivement. La deuxième contribution est de valider le fonctionnement des IP proposées par un banc de test et de mesure. Enfin, la troisième contribution est de concevoir sur FPGA et GPU des implantations numériques des applications de reconnaissance de formes et de compression. Un des résultats probant obtenu dans cette thèse consiste à avoir une rapidité de l'IP FFT proposée 3 fois meilleure que celle de l'IP FFT Xilinx et de pouvoir réaliser 4700 corrélations par seconde.
APA, Harvard, Vancouver, ISO, and other styles
11

Salmon, Loïc. "Une approche holistique combinant flux temps-réel et données archivées pour la gestion et le traitement d'objets mobiles : application au trafic maritime." Thesis, Brest, 2019. http://www.theses.fr/2019BRES0006/document.

Full text
Abstract:
La numérisation de nos espaces de vie et de mobilités s’est largement accentuée durant la dernière décennie. La multiplication des capteurs de toute nature permettant de percevoir et de mesurer notre espace physique en est le levier principal. L’ensemble de ces systèmes produit aujourd’hui de grands volumes de données hétérogènes sans cesse croissants, ce qui soulève de nombreux enjeux scientifiques et d'ingénierie en termes de stockage et de traitement pour la gestion et l’analyse de mobilités. Les travaux dans le domaine d’analyse des données spatio-temporelles ont largement été orientés soit vers la fouille de données historiques archivées, soit vers le traitement continu. Afin d’éviter les écueils de plus en plus prégnants dus à l’augmentation de ces volumes de données et de leur vélocité (temps de traitement trop long, modèles conceptuellement plus adaptés, analyse approximative des données), nous proposons la conception d’une approche hybride distribuée permettant le traitement combiné de flux temps-réel et de données archivées. L’objectif de cette thèse est donc de développer un nouveau système de gestion et de traitement distribué pour l’analyse des mobilités en particulier maritimes. La solution proposée répond principalement à des contraintes de temps-réel, les données archivées et les informations qui en sont extraites permettant d'améliorer la qualité de réponse. Une proposition de paradigme d'événements est également développée pour permettre ce traitement hybride mais aussi pour caractériser et identifier plus facilement des comportements types d'objets mobiles. Enfin, une requête appliquée sur des zones de couverture de signal pour des objets mobiles a été étudiée et testée sur des données maritimes mettant en exergue le besoin d'une approche hybride pour le traitement de trajectoires
Over the past few years, the rapid prolifération of sensors and devices recording positioning information regularly produces very large volumes of heterogeneous data. This leads to many research challenges as the storage, distribution, management,Processing and analysis of the large mobility data generated still needs to be solved. Current works related to the manipulation of mobility data have been directed towards either mining archived historical data or continuous processing of incoming data streams.The aim of this research is to design a holistic System whose objective is to provide a combined processing of real time data streams and archived data positions. The proposed solution is real-time oriented, historical data and informations extracted from them allowing to enhance quality of the answers to queries. A event paradigm is discussed to facilitate the hybrid approach and to identify typical moving objects behaviors. Finally, a query concerning signal coverage of moving objects has been studied and applied to maritime data showing the relevance of a hybrid approach to deal with moving object data processing
APA, Harvard, Vancouver, ISO, and other styles
12

Park, Young-Hwan. "Etude en vue de la réalisation d'un noyau temps réel multiprocesseur et l'environnement de développement intégré." Compiègne, 1997. http://www.theses.fr/1997COMP0992.

Full text
Abstract:
L'objectif de ce travail est la réalisation d'un noyau temps réel multiprocesseur basé d'une part sur le concept de Linda, et d'autre part sur le concept de Gidor. Linda est un modèle de programmation parallèle. Ce modèle se compose de deux notions spécifiques : l'espace de tuples et le tuple ; et de quatre primitives d'accès : out(), eval(), in() et read(). Avec le concept de Linda, nous pouvons développer des applications parallèles sans considération le lieu de données et le moment de synchronisation des processus. Gidor (Gestion Intégrée D'objets Intelligents Repartis) est un nouveau concept dans le domaine de traitement parallèle temps réel embarqué. Le concept de Gidor se compose de deux parties, une partie matérielle qui s'appelle or (objet intelligent reparti) et l'autre partie logicielle qui s'appelle noyaux d'or. Un or est une puce de silicium qui a presque la même taille que celle d'un processeur classique. Mais, dans un or, il y a trois ressources, une unité de traitement, une mémoire locale et des ports de communication. Si l'on n'a pas assez de mémoire pour une grande application temps réel, on utilise plusieurs ors. Par conséquent, le concept de Gidor contient le traitement parallèle temps réel. Pour gérer la communication inter-processus (cip), des processus temps réel et des ressources de système, un petit noyau temps réel multiprocesseur, baptisé noyau d'or, est situé sur chaque or. Nous avons réalisé un noyau d'or, qui s'appelle Mlinda, sur l'adsp2106x de chez Analog devices adsp2106x est une sorte d'or. Nous avons également implanté un environnement de développement qui a un outil de programmation parallèle temps réel, un détecteur de l'interblocage de cip dans Mlinda et un outil d'évaluation de performance. Nous avons teste la fiabilité et efficacité du noyau Mlinda avec deux systèmes de vision en robotique mobile sur Gidor : détection de mouvement et suivi de cible et échange d'images venant de différentes caméras
The purpose of my thesis is to realize a real-time multiprocessor kernel, called MLINDA, over the LINDA concept and the GIDOR concept. LINDA is a parallel programming model. It consists the tuple-space, the tuple and four simple tuple-space operations, out(), eval(), in() and read(). Through the LINDA concept, we can develope a parallel program without consideration of information's addresss and of process's synchronisation. The GIDOR (Gestion Integre D'Objets intelligents Repartis : Integrated Management of Distributed intelligent Objects) is a new concept in the domain of embadded real-time parallel processing. This concept consists OR (Objet intelligent Repartis : Distributed intelligent Object) in the material level and Noyau d'OR (OR Kernel) in the software level. An OR is a chip that has the nearly same size with the conventional processors. But it contains a processing unit, a local memory, and several communication ports. If we have not enough memory for a large real-time application, we utilize several ORs. As a consequence, the GIDOR concept contains the real-time parallel processing. For the management of Inter Process Communications (IPC), of the real-time process, and of the system resources, a small real-time multiprocessor kernel, Noyau d'OR, is located in each OR. We have realized a Noyau d'OR, which is called MLINDA, over the ADSP2106x of Analog Deviees. ADSP2106x is a kind of OR. We have also implemented a real-time parallel program developement environment. In this environment, there are a real-time parallel programming tool, a deadlock detection tool, and a performance evaluation tool. And we have evaluated the stability and the efficiency of MLINDA with two mobil robot vision systems, a real-time movement detection and tracking system and a real-time image fusion system
APA, Harvard, Vancouver, ISO, and other styles
13

Maguer, Alain. "Transmission d'images sous-marines par ultrasons : étude théorique et implantation temps réel de la portée codage-décodage de la chaîne de transmission." Lyon, INSA, 1985. http://www.theses.fr/1985ISAL0047.

Full text
Abstract:
La transmission de données dans le milieu sous-marin et plus précisément une transmission d'images qui nécessite un grand débit d'information se fait généralement par l'intermédiaire d'un câble électrique. Cependant, au cours des deux dernières décennies de nombreux chercheurs et utilisateurs potentiels se sont beaucoup intéresses aux moyens de s'affranchir de celui-ci, qui présente certaines contraintes techniques et opérationnelles non négligeables, dans les transmissions sous-marines. L'examen comparatif des techniques ou moyens physiques susceptibles d'être appliqués dans le domaine sous-marin pour cette utilisation est incontestablement en faveur des ondes sonores, de préférence aux ondes électromagnétiques et optiques, trop limitées en portée par l'absorption et la diffusion du milieu. Cependant, la liaison acoustique présente comme principal inconvénient d'avoir une onde passante limitée. Les considérations, objets de cette étude portent donc principalement sur l'optimisation du système de transmission au niveau de la quantité minimale d'informations à transmettre sans dégradation notable de l'image. Avant de passer en revue les procédés de codage d'images les plus représentatifs et les mieux adaptés à notre problème, nous avons été amenés à examiner le système sous l'aspect purement acoustique afin de définir en particulier la valeur optimale de la fréquence porteuse (au niveau rapport signal à bruit) dont dépend en premier lieu la bande passante disponible. Nous avons ensuite étudié l'influence des erreurs de transmission ,(dues en grande partie aux trajets multiples) sur le format du message codé et développé en temps réel (sur microprocesseur Motorola 68 000) la partie codage décodage de la chaîne de transmission. Les cadences d'images obtenues sont d'une image toutes les 1,4 secondes.
APA, Harvard, Vancouver, ISO, and other styles
14

Goavec-Merou, Gwenhael. "Générateur de coprocesseur pour le traitement de données en flux (vidéo ou similaire) sur FPGA." Thesis, Besançon, 2014. http://www.theses.fr/2014BESA2056/document.

Full text
Abstract:
L’utilisation de matrice de portes logiques reconfigurables (FPGA) est une des seules solutionspour traiter des flux de plusieurs 100 MÉchantillons/seconde en temps-réel. Toutefois, ce typede composant présente une grande difficulté de mise en oeuvre : au delà d’un type langage spécifique,c’est tout un environnement matériel et une certaine expérience qui sont requis pourobtenir les traitements les plus efficaces. Afin de contourner cette difficulté, de nombreux travauxont été réalisés dans le but de proposer des solutions qui, partant d’un code écrit dans unlangage de haut-niveau, vont produire un code dans un langage dédié aux FPGAs. Nos travaux,suivant l’approche d’assemblage de blocs et en suivant la méthode du skeleton, ont visé à mettreen place un logiciel, nommé CoGen, permettant, à partir de codes déjà développés et validés,de construire des chaînes de traitements en tenant compte des caractéristiques du FPGA cible,du débit entrant et sortant de chaque bloc pour garantir l’obtention d’une solution la plus adaptéepossible aux besoins et contraintes. Les implémentations des blocs de traitements sont soitgénérés automatiquement soit manuellement. Les entrées-sorties de chaque bloc doivent respecterune norme pour être exploitable dans l’outil. Le développeur doit fournir une descriptionconcernant les ressources nécessaires et les limitations du débit de données pouvant être traitées.CoGen fournit à l’utilisateur moins expérimenté une méthode d’assemblage de ces blocsgarantissant le synchronisme et cohérence des flux de données ainsi que la capacité à synthétiserle code sur les ressources matérielles accessibles. Cette méthodologie de travail est appliquéeà des traitements sur des flux vidéos (seuillage, détection de contours et analyse des modespropres d’un diapason) et sur des flux radio-fréquences (interrogation d’un capteur sans-fils parméthode RADAR, réception d’un flux modulé en fréquence, et finalement implémentation deblocs de bases pour déporter le maximum de traitements en numérique)
Using Field Programmable Gate Arrays (FPGA) is one of the very few solution for real time processingdata flows of several hundreds of Msamples/second. However, using such componentsis technically challenging beyond the need to become familiar with a new kind of dedicateddescription language and ways of describing algorithms, understanding the hardware behaviouris mandatory for implementing efficient processing solutions. In order to circumvent these difficulties,past researches have focused on providing solutions which, starting from a description ofan algorithm in a high-abstraction level language, generetes a description appropriate for FPGAconfiguration. Our contribution, following the strategy of block assembly based on the skeletonmethod, aimed at providing a software environment called CoGen for assembling various implementationsof readily available and validated processing blocks. The resulting processing chainis optimized by including FPGA hardware characteristics, and input and output bandwidths ofeach block in order to provide solution fitting best the requirements and constraints. Each processingblock implementation is either generated automatically or manually, but must complywith some constraints in order to be usable by our tool. In addition, each block developer mustprovide a standardized description of the block including required resources and data processingbandwidth limitations. CoGen then provides to the less experienced user the means to assemblethese blocks ensuring synchronism and consistency of data flow as well as the ability to synthesizethe processing chain in the available hardware resources. This working method has beenapplied to video data flow processing (threshold, contour detection and tuning fork eigenmodesanalysis) and on radiofrequency data flow (wireless interrogation of sensors through a RADARsystem, software processing of a frequency modulated stream, software defined radio)
APA, Harvard, Vancouver, ISO, and other styles
15

Ahmed, Sameer. "Application d'un langage de programmation de type flot de données à la synthèse haut-niveau de système de vision en temps-réel sur matériel reconfigurable." Phd thesis, Université Blaise Pascal - Clermont-Ferrand II, 2013. http://tel.archives-ouvertes.fr/tel-00844399.

Full text
Abstract:
Les circuits reconfigurables de type FPGA (Field Programmable Gate Arrays) peuvent désormais surpasser les processeurs généralistes pour certaines applications offrant un fort degré de parallélisme intrinsèque. Ces circuits sont traditionnellement programmés en utilisant des langages de type HDL (Hardware Description Languages), comme Verilog et VHDL. L'usage de ces langages permet d'exploiter au mieux les performances offertes par ces circuits mais requiert des programmeurs une très bonne connaissance des techniques de conception numérique. Ce pré-requis limite fortement l'utilisation des FPGA par la communauté des concepteurs de logiciel en général. Afin de pallier cette limitation, un certain nombre d'outils de plus haut niveau ont été développés, tant dans le monde industriel qu'académique. Parmi les approches proposées, celles fondées sur une transformation plus ou moins automatique de langages de type C ou équivalent, largement utilisés dans le domaine logiciel, ont été les plus explorées. Malheureusement, ces approches ne permettent pas, en général, d'obtenir des performances comparables à celles issues d'une formulation directe avec un langage de type HDL, en raison, essentiellement, de l'incapacité de ces langages à exprimer le parallélisme intrinsèque des applications. Une solution possible à ce problème passe par un changement du modèle de programmation même. Dans le contexte qui est le notre, le modèle flot de données apparaît comme un bon candidat. Cette thèse explore donc l'adoption d'un modèle de programmation flot de données pour la programmation de circuits de type FPGA. Plus précisément, nous évaluons l'adéquation de CAPH, un langage orienté domaine (Domain Specific Language) à la description et à l'implantation sur FPGA d'application opérant à la volée des capteurs (stream processing applications). L'expressivité du langage et l'efficacité du code généré sont évaluées expérimentalement en utilisant un large spectre d'applications, allant du traitement d'images bas niveau (filtrage, convolution) à des applications de complexité réaliste telles que la détection de mouvement, l'étiquetage en composantes connexes ou l'encodage JPEG.
APA, Harvard, Vancouver, ISO, and other styles
16

Choquel, Jean-Bernard. "Contribution à l'étude de la méthodologie de conception d'architectures parallèles par flot de données pour le traitement temps réel de la représentation d'objets en trois dimensions." Lille 1, 1994. http://www.theses.fr/1994LIL10034.

Full text
Abstract:
Dans le cadre de l'etude de la conception d'une machine de traitement temps reel de la representation surfacique d'objets en trois dimensions, nous avons mis au point une methodologie d'adequation algorithme architecture qui fait le lien entre les algorithmes valides sous forme logicielle et l'architecture de traitement temps reel parallelisee, realisable sous forme d'un circuit vlsi. Apres avoir rappele la description de la chaine de representation tridimensionnelle et decrit l'evolution des processeurs vers des structures paralleles, nous montrons comment il est necessaire de s'imposer le concept flot de donnees dans lequel le parallelisme est implicite. Nous appliquons le concept flot de donnees au traitement temps reel de la representation d'objets en 3d en etablissant le lien entre le langage synchrone signal et la description des circuits a l'aide de vhdl, ce qui constitue une des originalites de notre travail. Ce travail debouche sur une proposition d'evolution du langage signal, la conception possible d'un editeur graphique et la methode de realisation du processus de representation 3d en temps reel. L'ensemble de la methodologie est experimente et valide par des simulations sur des exemples de fonctions de la chaine de representation 3d utilisant une logique a multiplexage.
APA, Harvard, Vancouver, ISO, and other styles
17

Toss, Julio. "Algorithmes et structures de données parallèles pour applications interactives." Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAM056/document.

Full text
Abstract:
La quête de performance a été une constante à travers l'histoire des systèmes informatiques.Il y a plus d'une décennie maintenant, le modèle de traitement séquentiel montrait ses premiers signes d'épuisement pour satisfaire les exigences de performance.Les barrières du calcul séquentiel ont poussé à un changement de paradigme et ont établi le traitement parallèle comme standard dans les systèmes informatiques modernes.Avec l'adoption généralisée d'ordinateurs parallèles, de nombreux algorithmes et applications ont été développés pour s'adapter à ces nouvelles architectures.Cependant, dans des applications non conventionnelles, avec des exigences d'interactivité et de temps réel, la parallélisation efficace est encore un défi majeur.L'exigence de performance en temps réel apparaît, par exemple, dans les simulations interactives où le système doit prendre en compte l'entrée de l'utilisateur dans une itération de calcul de la boucle de simulation.Le même type de contrainte apparaît dans les applications d'analyse de données en continu.Par exemple, lorsque des donnes issues de capteurs de trafic ou de messages de réseaux sociaux sont produites en flux continu, le système d'analyse doit être capable de traiter ces données à la volée rapidement sur ce flux tout en conservant un budget de mémoire contrôlé.La caractéristique dynamique des données soulève plusieurs problèmes de performance tel que la décomposition du problème pour le traitement en parallèle et la maintenance de la localité mémoire pour une utilisation efficace du cache.Les optimisations classiques qui reposent sur des modèles pré-calculés ou sur l'indexation statique des données ne conduisent pas aux performances souhaitées.Dans cette thèse, nous abordons les problèmes dépendants de données sur deux applications différentes: la première dans le domaine de la simulation physique interactive et la seconde sur l'analyse des données en continu.Pour le problème de simulation, nous présentons un algorithme GPU parallèle pour calculer les multiples plus courts chemins et des diagrammes de Voronoi sur un graphe en forme de grille.Pour le problème d'analyse de données en continu, nous présentons une structure de données parallélisable, basée sur des Packed Memory Arrays, pour indexer des données dynamiques géo-référencées tout en conservant une bonne localité de mémoire
The quest for performance has been a constant through the history of computing systems. It has been more than a decade now since the sequential processing model had shown its first signs of exhaustion to keep performance improvements.Walls to the sequential computation pushed a paradigm shift and established the parallel processing as the standard in modern computing systems. With the widespread adoption of parallel computers, many algorithms and applications have been ported to fit these new architectures. However, in unconventional applications, with interactivity and real-time requirements, achieving efficient parallelizations is still a major challenge.Real-time performance requirement shows-up, for instance, in user-interactive simulations where the system must be able to react to the user's input within a computation time-step of the simulation loop. The same kind of constraint appears in streaming data monitoring applications. For instance, when an external source of data, such as traffic sensors or social media posts, provides a continuous flow of information to be consumed by an on-line analysis system. The consumer system has to keep a controlled memory budget and delivery fast processed information about the stream.Common optimizations relying on pre-computed models or static index of data are not possible in these highly dynamic scenarios. The dynamic nature of the data brings up several performance issues originated from the problem decomposition for parallel processing and from the data locality maintenance for efficient cache utilization.In this thesis we address data-dependent problems on two different application: one in physics-based simulation and other on streaming data analysis. To the simulation problem, we present a parallel GPU algorithm for computing multiple shortest paths and Voronoi diagrams on a grid-like graph. To the streaming data analysis problem we present a parallelizable data structure, based on packed memory arrays, for indexing dynamic geo-located data while keeping good memory locality
APA, Harvard, Vancouver, ISO, and other styles
18

Belabbess, Badre. "Automatisation de détections d'anomalies en temps réel par combinaison de traitements numériques et sémantiques." Thesis, Paris Est, 2018. http://www.theses.fr/2018PESC2180/document.

Full text
Abstract:
Les systèmes informatiques impliquant la détection d’anomalies émergent aussi bien dans le domaine de la recherche que dans l'industrie. Ainsi, des domaines aussi variés que la médecine (identification de tumeurs malignes), la finance (détection de transactions frauduleuses), les technologies de l’information (détection d’intrusion réseau) et l'environnement (détection de situation de pollution) sont largement impactés. L’apprentissage automatique propose un ensemble puissant d'approches qui peuvent aider à résoudre ces cas d'utilisation de manière efficace. Cependant, il représente un processus lourd avec des règles strictes qui supposent une longue liste de tâches telles que l'analyse et le nettoyage de données, la réduction des dimensions, l'échantillonnage, la sélection des algorithmes, l'optimisation des hyper-paramètres, etc. Il implique également plusieurs experts qui travailleront ensemble pour trouver les bonnes approches. De plus, les possibilités ouvertes aujourd'hui par le monde de la sémantique montrent qu'il est possible de tirer parti des technologies du web afin de raisonner intelligemment sur les données brutes pour en extraire de l'information à forte valeur ajoutée. L'absence de systèmes combinant les approches numériques d'apprentissage automatique et les techniques sémantiques du web des données constitue la motivation principale derrière les différents travaux proposés dans cette thèse. Enfin, les anomalies détectées ne signifient pas nécessairement des situations de réalité anormales. En effet, la présence d'informations externes pourrait aider à la prise de décision en contextualisant l'environnement dans sa globalité. Exploiter le domaine spatial et les réseaux sociaux permet de construire des contextes enrichis sur les données des capteurs. Ces contextes spatio-temporels deviennent ainsi une partie intégrante de la détection des anomalies et doivent être traités en utilisant une approche Big Data. Dans cette thèse, nous présentons trois systèmes aux architectures variées, chacun ayant porté sur un élément essentiel des écosystèmes big data, temps-réel, web sémantique et apprentissage automatique : WAVES : Plateforme Big Data d'analyse en temps réel des flux de données RDF capturées à partir de réseaux denses de capteurs IoT. Son originalité tient dans sa capacité à raisonner intelligemment sur des données brutes afin d'inférer des informations implicites à partir d'informations explicites et d'aider dans la prise de décision. Cette plateforme a été développée dans le cadre d'un projet FUI dont le principal cas d'usage est la détection d'anomalies dans un réseau d'eau potable. RAMSSES : Système hybride d'apprentissage automatique dont l'originalité est de combiner des approches numériques avancées ainsi que des techniques sémantiques éprouvées. Il a été spécifiquement conçu pour supprimer le lourd fardeau de l'apprentissage automatique qui est chronophage, complexe, source d'erreurs et impose souvent de disposer d'une équipe pluridisciplinaire. SCOUTER : Système intelligent de "scrapping web" permettant la contextualisation des singularités liées à l'Internet des Objets en exploitant aussi bien des informations spatiales que le web des données
Computer systems involving anomaly detection are emerging in both research and industry. Thus, fields as varied as medicine (identification of malignant tumors), finance (detection of fraudulent transactions), information technologies (network intrusion detection) and environment (pollution situation detection) are widely impacted. Machine learning offers a powerful set of approaches that can help solve these use cases effectively. However, it is a cumbersome process with strict rules that involve a long list of tasks such as data analysis and cleaning, dimension reduction, sampling, algorithm selection, optimization of hyper-parameters. etc. It also involves several experts who will work together to find the right approaches. In addition, the possibilities opened today by the world of semantics show that it is possible to take advantage of web technologies to reason intelligently on raw data to extract information with high added value. The lack of systems combining numeric approaches to machine learning and semantic techniques of the web of data is the main motivation behind the various works proposed in this thesis. Finally, the anomalies detected do not necessarily mean abnormal situations in reality. Indeed, the presence of external information could help decision-making by contextualizing the environment as a whole. Exploiting the space domain and social networks makes it possible to build contexts enriched with sensor data. These spatio-temporal contexts thus become an integral part of anomaly detection and must be processed using a Big Data approach.In this thesis, we present three systems with different architectures, each focused on an essential element of big data, real-time, semantic web and machine learning ecosystems:WAVES: Big Data platform for real-time analysis of RDF data streams captured from dense networks of IoT sensors. Its originality lies in its ability to reason intelligently on raw data in order to infer implicit information from explicit information and assist in decision-making. This platform was developed as part of a FUI project whose main use case is the detection of anomalies in a drinking water network. RAMSSES: Hybrid machine learning system whose originality is to combine advanced numerical approaches as well as proven semantic techniques. It has been specifically designed to remove the heavy burden of machine learning that is time-consuming, complex, error-prone, and often requires a multi-disciplinary team. SCOUTER: Intelligent system of "web scrapping" allowing the contextualization of singularities related to the Internet of Things by exploiting both spatial information and the web of data
APA, Harvard, Vancouver, ISO, and other styles
19

Wladdimiro, Cottet Daniel. "Dynamic adaptation in Stream Processing Systems." Electronic Thesis or Diss., Sorbonne université, 2024. http://www.theses.fr/2024SORUS028.

Full text
Abstract:
Le nombre de données produites par les systèmes ou applications Web actuels augmente rapidement en raison des nombreuses interactions avec les utilisateurs (dans le cadre par exemple, transactions boursières en temps réel, des jeux multijoueurs, des données en continu produits par Twitter, etc.). Ainsi, il existe une demande croissante, notamment dans les domaines du commerce, de la sécurité et de la recherche, pour des systèmes capables de traiter ces données en temps réel et de fournir des informations utiles dans un court laps de temps. Les systèmes de traitement des flux (SPS) répondent à ces besoins et ont été largement utilisés à cette fin. L’objectif des SPS est de traiter de grands volumes de données en temps réel en endentent un ensemble d’opérateurs dans des applications structurée en DAG. Le plupart des SPS existants, tels que Flink ou Storm, sont configurés avant leur déploiement, définissant généralement à l’avance le DAG et le nombre de répliques opérateurs. Une surestimation du nombre de répliques entraîne alors un gaspillage des ressources allouées. D’autre part, en fonction de l’interaction avec l’environnement, le taux de données en entrée peut fluctuer de manière dynamique et, par conséquent, les opérateurs peuvent être surchargés, ce qui entraîne une dégradation des performances du système. Ces SPS ne sont pas capables de s’adapter dynamiquement à la charge de travail de l’opérateur et aux variations du taux d’entrée. Pour résoudre ce problème, une solution consiste à augmenter dynamiquement le nombre de ressources, physiques ou logiques, allouées au SPS lorsque la demande de traitement d’un ou plusieurs opérateurs augmente. Nous présentons dans cette thèse deux approches, RA-SPS et PA-SPS, pour modifier dynamiquement le nombre de répliques d’un opérateur. L’approche réactive repose sur l’état courant des opérateurs calculé sur de multiples métriques. Tandis que le modèle prédictif se base sur la variation du taux d’entrée, le temps d’exécution des opérateurs et les événements en file d’attente. Nous avons également étendu Storm pour reconfigurer dynamiquement le nombre de copies sans avoir à geler l’application. Notre SPS met aussi en œuvre un équilibreur de charge qui distribue les événements entrants de manière équitable entre les répliques d’un opérateur. Des expériences sur la Google Cloud Platform (GCP) ont été menées avec des applications qui traitent le flux Twitter, le trafic DNS ou les traces de flux du journal système. Nous avons évalué différentes configurations et les avons comparées avec l’implémentation originale de Storm ainsi qu’avec des travaux de pointe tels que SPS DABS-Storm qui adapte également le nombre de répliques. Les résultat montrent que notre approche permet d’améliorer de manière conséquente le nombre d’événement traité tout en réduisant les coûts
The amount of data produced by today’s web-based systems and applications increases rapidly, due to the many interactions with users (e.g. real-time stock market transactions, multiplayer games, streaming data produced by Twitter, etc.). As a result, there is a growing demand, particularly in the fields of commerce, security and research, for systems capable of processing this data in real time and providing useful information in a short space of time. Stream processing systems (SPS) meet these needs and have been widely used for this purpose. The aim of SPSs is to process large volumes of data in real time by housing a set of operators in applications based on Directed acyclic graphs (DAG). Most existing SPSs, such as Flink or Storm, are configured prior to deployment, usually defining the DAG and the number of operator replicas in advance. Overestimating the number of replicas can lead to a waste of allocated resources. On the other hand, depending on interaction with the environment, the rate of input data can fluctuate dynamically and, as a result, operators can become overloaded, leading to a degradation in system performance. These SPSs are not capable of dynamically adapting to operator workload and input rate variations. One solution to this problem is to dynamically increase the number of resources, physical or logical, allocated to the SPS when the processing demand of one or more operators increases. This thesis presents two SPSs, RA-SPS and PA-SPS, reactive and predictive approach respectively, for dynamically modifying the number of operator replicas. The reactive approach relies on the current state of operators computed on multiple metrics, while the predictive model is based on input rate variation, operator execution time, and queued events. The two SPSs extend Storm SPS to dynamically reconfigure the number of copies without having to downtime the application. They also implement a load balancer that distributes incoming events fairly among operator replicas. Experiments on the Google Cloud Platform (GCP) were carried out with applications that process Twitter data, DNS traffic, or logs traces. Performance was evaluated with different configurations and the results were compared with those of running the same applications on the original Storm as well as with state-of-the-art work such as SPS DABS-Storm, which also adapt the number of replicas. The comparison shows that both RA-SPS and PA-SPS can significantly improve the number of events processed, while reducing costs
APA, Harvard, Vancouver, ISO, and other styles
20

Cron, Geneviève. "Diagnostic par reconnaissance des formes floue d'un système dynamique et réparti : Application à la gestion en temps réel du trafic téléphonique français." Compiègne, 1999. http://www.theses.fr/1999COMP1231.

Full text
Abstract:
Ces travaux sont lies à l'étude du trafic du réseau téléphonique français. Pour réaliser le diagnostic du réseau, nous utilisons des méthodes de reconnaissance des formes floue. En reconnaissance des formes floue, un état du système est représenté par un ensemble flou. Ainsi, pour apprendre une classe, il est nécessaire d'utiliser une méthode permettant d'apprendre un ensemble flou. La méthode sur laquelle nous nous basons a été proposée par Mandal en 1992. Cette méthode encadre les données par un hypercube qui est ensuite fuzzyfié. Lorsque les états sont dépendants du temps, il est alors possible de les représenter par des ensembles flous dépendants du temps. Notons que cette notion permet aussi d'étudier les changements d'état, le temps représentant alors la proportion de chemin parcourue entre l'état de départ et l'état d'arrivée. L'ensemble de ces deux notions peut être appelé état non stationnaire. L'apprentissage de ce type d'état nous amène à une problématique de type régression floue. La méthode que nous proposons est une régression floue qui généralise la méthode de Mandal dans le cas non stationnaire. A partir de cet apprentissage, il suffit d'utiliser une méthode de décision classique pour réaliser un diagnostic et prendre une décision. Le chapitre suivant s'intéresse à la fusion ou l'agrégation pondérée de degrés d'appartenance, la pondération devant pouvoir être appliquée a tout operateur d'agrégation, car il est parfois imposé par le contexte. A partir de conditions limites connues, nous avons obtenu une solution unique pour ce problème. Cette solution vérifie des conditions qui ont été définies par d'autres auteurs. Le seconde partie de ce manuscrit est dédiée à l'application des méthodes précédemment décrites dans l'optique de réaliser un diagnostic en temps réel du réseau téléphonique français. Ainsi, la méthode de régression floue est appliquée au diagnostic local du réseau, aussi bien dans le cas d'état dépendants du temps que dans le cas du changement d'état. La méthode de fusion pondérée est appliquée au diagnostic global du réseau téléphonique français.
APA, Harvard, Vancouver, ISO, and other styles
21

Carbillet, Thomas. "Monitoring en temps réel de la vitesse de déplacement sur dispositif connecté : modélisation mathématique sur plateforme mobile interfacée avec une base de données d'entraînement et d'audit physiologique." Thesis, Université Grenoble Alpes (ComUE), 2019. http://www.theses.fr/2019GREAM013/document.

Full text
Abstract:
L'amélioration de la performance en course à pied, lors de courses sur du plat, raisonne avec l'actualité et l'objectif de voir un athlète descendre en dessous des deux heures sur Marathon. Cependant, il existe peu d'équipes travaillant de façon transverse sur les sujets de préparation et de stratégie de course à destination du grand public. Les programmes d'entraînement, fondés sur l'expérience des entraîneurs, ne sont pas, ou peu, personnalisés ce qui conduit à des risques de blessures et une perte de la motivation. Une limite de l'analyse actuelle des programmes d'entraînement semble avoir été atteinte et l'entreprise BillaTraining® a pour objectif de construire un pont entre la recherche scientifique et les coureurs amateurs.L'objectif principal de ce travail de thèse est double. Premièrement, nous avons essayé d'apporter une contribution à la recherche dans le domaine de la course à pied. Après avoir accumulé et formaté des données d'entraînements et de courses provenant de différentes sources, nous avons cherché à décrire des phénomènes tels que l'accélération humaine ou encore les différentes stratégies de course employées sur Marathon pour des coureurs dont les performances de durée de course sont comprises entre 2h30 et 4 heures.Deuxièmement, nous avons développé une application web intégrant les trois phases de la méthode BillaTraining®. La première étape est un audit énergétique qui n'est autre qu'un entraînement de trente minutes à la sensation, permettant de connaitre les capacités physiques d'un coureur. La second étape, le radar énergétique, est le bilan de l'audit et agit comme point d'entrée de l'entraînement sur-mesure qui est la troisième et dernière étape.Afin de répondre à ces deux objectifs, nous avons intégré des notions de physiologie, de mathématiques et d'informatique.Les connaissances en physiologie sont basées sur l'état de l'art ainsi que les recherches passées et présentes du professeur Véronique Billat. Par extension, il s'agit du coeur de métier de l'entreprise BillaTraining®. Les idées de recherche présentent dans cette thèse émanent de la physiologie.Les mathématiques, quand à elles, nous ont permis de décrire certains phénomènes physiologiques grâce notamment aux statistiques. Nous avons eu l'occasion d'utiliser le modèle d'Ornstein-Uhlenbeck de retour à la moyenne ou encore la méthode PELT (Pruned Exact Linear Time) pour la détection d'instants de ruptures dans une série temporelle.Finalement, l'informatique permet de faire communiquer les mathématiques et la physiologie à des fins de recherche scientifique et commerciales
The improvement running performance has become a major topic lately. We are getting closer to running a marathon in under 2 hours. However, there are not so many professionals working transversally regarding pre-race and in-race preparation concerning the general public. Training plans are based on trainers' experience and are often not custom-made. This exposes the runners to injury risk and motivation loss. It seems that the current analysis of training plans has reached a limit. The aim for BillaTraining® is to go beyond this limit by connecting the research with the general public of runners.This PhD has two main goals. The first one is trying to contribute to the research about running. After gathering and formatting trainings and races data from different origins, we tried to isolate and describe how humans run marathons including 2.5 to 4-hour performances. We studied acceleration, speed and heart rate time series among other things, with the idea of understanding the different running strategies.The second one is the development of a web application embracing the three steps of the BillaTraining® method. The first step is an energetic audit which is a 30-minute running session guided by the runner's sensations. The second step is the energetic radar which is the results of the audit. The last step is a tailor-made training plan built depending on the runner's objectives.In order to come up with a solution, we had to bring together Physiology, Mathematics and Computer Science.The knowledge we had in Physiology was based on professor Véronique Billat's past and current researches. These researches are now part of BillaTraining® and are central for the growth of the company.We used Mathematics to try to describe physiological phenomenons thanks to Statistics. By applying the Ornstein-Uhlenbeck model, we found that humans are able to run at an even acceleration. By using the PELT (Pruned Exact Linear Time) method we automated changepoints detection in time series.Finally, Computer Science allowed a communication between Physiology and Mathematics for research, as well as marketing training tools at the forefront of innovation
APA, Harvard, Vancouver, ISO, and other styles
22

Goeller, Adrien. "Contribution à la perception augmentée de scènes dynamiques : schémas temps réels d’assimilation de données pour la mécanique du solide et des structures." Thesis, Université Paris-Saclay (ComUE), 2018. http://www.theses.fr/2018SACLC013/document.

Full text
Abstract:
Dans le monde industriel comme dans le monde scientifique, le développement de capteurs a toujours répondu à la volonté d’observer l’inobservable. La caméra rapide fait partie de ceux-là puisqu’elle permet de dévoiler des dynamiques invisibles, de la formation de fissure au vol du moustique. Dans un environnement extrêmement concurrentiel, ces caméras sont principalement limitées par le nombre d’images acquises par seconde. Le but de cette thèse est d’augmenter la capacité de dévoiler la dynamique invisible en enrichissant l’acquisition initiale par des modèles dynamiques. La problématique consiste alors à élaborer des méthodes permettant de relier en temps réel un modèle et la perception d’un système réel. Les bénéfices de cette utilisation offrent ainsi la possibilité de faire de l’interpolation, de la prédiction et de l’identification. Cette thèse est composée de trois parties. La première est axée sur la philosophie du traitement vidéo et propose d’utiliser des modèles élémentaires et génériques. Un algorithme d’estimation de grands mouvements est proposé mais l’approche actuellement proposée n’est pas assez générique pour être exploitée dans un contexte industriel. La deuxième partie propose d’utiliser des méthodes d’assimilation de données séquentielle basées sur la famille des filtres de Kalman afin d’associer un modèle avec des observations par caméras rapides pour des systèmes mécaniques. La troisième partie est une application à l’analyse modale expérimentale non linéaire. Deux schémas d’assimilation temps réel multicapteurs sont présentés et leur mise en œuvre est illustrée pour de la reconstruction 3D et de la magnification
The development of sensors has always followed the ambition of industrial and scientific people to observe the unobservable. High speed cameras are part of this adventure, revealing invisible dynamics such as cracks formation or subtle mosquito flight. Industrial high speed vision is a very competitive domain in which cameras stand out through their acquisition speed. This thesis aims to broaden their capacity by augmenting the initial acquisition with dynamic models. This work proposes to develop methods linking in real time a model with a real system. Aimed benefits are interpolation, prediction and identification. Three parts are developed. The first one is based on video processing and submits to use kinematic elementary and generic models. An algorithm of motion estimation for large movements is proposed but the generic nature does not allow a sufficient knowledge to be conclusive. The second part proposes using sequential data assimilation methods known as Kalman filters. A scheme to assimilate video data with a mechanical model is successfully implemented. An application of data assimilation in modal analysis is developed. Two multi sensors real time assimilation schemes for nonlinear modal identification are proposed. These schemes are integrated in two applications on 3D reconstruction and motion magnification
APA, Harvard, Vancouver, ISO, and other styles
23

Vissière, David. "Solution de guidage-navigation-pilotage pour véhicules autonomes hétérogènes en vue d'une mission collaborative." Phd thesis, École Nationale Supérieure des Mines de Paris, 2008. http://pastel.archives-ouvertes.fr/pastel-00004492.

Full text
Abstract:
Le thème de la « navigation bas-coût », caractérisé par le transfert de performance des capteurs vers les algorithmes de fusion de données et de commande, est un thème central dans de nombreuses applications militaires liées en particulier aux besoins nouveaux des troupes légères. L'utilisation de capteurs inertiels ou magnétométriques type MEMS et de GPS civils (notamment), optimise les critères d'encombrement, de masse et de consommation. Mais elle requiert, en compensation des performances relativement médiocres des capteurs, des algorithmes de guidage-navigation-pilotage spécifiques aux applications considérées. Dans ce mémoire, nous considérons trois scénarios d'utilisation et exposons des techniques innovantes pour la localisation et le contrôle. Nous considérons d'abord le cas d'un robot terrestre équipé de capteurs de proximité, d'un gyroscope, d'odomètres et d'un GPS. Nous implémentons expérimentalement avec succès un algorithme d'évitement d'obstacles dont nous établissons une preuve de convergence, ainsi qu'un algorithme de planification de trajectoires hors ligne dont nous utilisons les résultats en temps réel pour réaliser, via un estimateur non linéaire, un bouclage par retour dynamique. Nous étudions ensuite le cas du vol autonome d'une plate-forme aérienne instable de type hélicoptère. Nous développons et implémentons, à bord sur un système de mesure et de calcul temps-réel de notre conception, un estimateur d'état incluant un modèle de la dynamique du vol de l'engin, recalé par les capteurs inertiels, barométriques, et GPS ainsi qu'un bouclage par retour d'état. En utilisant les résultats de filtrage sur les vols effectués, les paramètres du modèle sont précisément identifiés : la qualité et la robustesse de l'estimation obtenues grâce au modèle permettent de réaliser un vol stationnaire autonome en extérieur. Enfin nous considérons le problème d'un piéton évoluant à l'intérieur de bâtiments. Les erreurs d'estimation du cap lors de l'utilisation des différentes plate-formes (terrestre comme aérienne) nous guident vers une utilisation nouvelle du champ magnétique par l'inspection de ses gradients. Par une technique que nous exposons, nous montrons comment utiliser les perturbations (inconnues) du champ magnétique pour améliorer considérablement l'estimation de position d'une centrale inertielle bas-coût au point qu'elle devienne un instrument de localisation.
APA, Harvard, Vancouver, ISO, and other styles
24

Toss, Julio. "Parallel algorithms and data structures for interactive applications." reponame:Biblioteca Digital de Teses e Dissertações da UFRGS, 2017. http://hdl.handle.net/10183/172043.

Full text
Abstract:
La quête de performance a été une constante à travers l’histoire des systèmes informatiques. Il y a plus d’une décennie maintenant, le modèle de traitement séquentiel montrait ses premiers signes d’épuisement pour satisfaire les exigences de performance. Les barrières du calcul séquentiel ont poussé à un changement de paradigme et ont établi le traitement parallèle comme standard dans les systèmes informatiques modernes. Avec l’adoption généralisée d’ordinateurs parallèles, de nombreux algorithmes et applications ont été développés pour s’adapter à ces nouvelles architectures. Cependant, dans des applications non conventionnelles, avec des exigences d’interactivité et de temps réel, la parallélisation efficace est encore un défi majeur. L’exigence de performance en temps réel apparaît, par exemple, dans les simulations interactives où le système doit prendre en compte l’entrée de l’utilisateur dans une itération de calcul de la boucle de simulation. Le même type de contrainte apparaît dans les applications d’analyse de données en continu. Par exemple, lorsque des donnes issues de capteurs de trafic ou de messages de réseaux sociaux sont produites en flux continu, le système d’analyse doit être capable de traiter ces données à la volée rapidement sur ce flux tout en conservant un budget de mémoire contrôlé La caractéristique dynamique des données soulève plusieurs problèmes de performance tel que la décomposition du problème pour le traitement en parallèle et la maintenance de la localité mémoire pour une utilisation efficace du cache. Les optimisations classiques qui reposent sur des modèles pré-calculés ou sur l’indexation statique des données ne conduisent pas aux performances souhaitées. Dans cette thèse, nous abordons les problèmes dépendants de données sur deux applications différentes : la première dans le domaine de la simulation physique interactive et la seconde sur l’analyse des données en continu. Pour le problème de simulation, nous présentons un algorithme GPU parallèle pour calculer les multiples plus courts chemins et des diagrammes de Voronoi sur un graphe en forme de grille. Pour le problème d’analyse de données en continu, nous présentons une structure de données parallélisable, basée sur des Packed Memory Arrays, pour indexer des données dynamiques géo-référencées tout en conservant une bonne localité de mémoire.
A busca por desempenho tem sido uma constante na história dos sistemas computacionais. Ha mais de uma década, o modelo de processamento sequencial já mostrava seus primeiro sinais de exaustão pare suprir a crescente exigência por performance. Houveram "barreiras"para a computação sequencial que levaram a uma mudança de paradigma e estabeleceram o processamento paralelo como padrão nos sistemas computacionais modernos. Com a adoção generalizada de computadores paralelos, novos algoritmos foram desenvolvidos e aplicações reprojetadas para se adequar às características dessas novas arquiteturas. No entanto, em aplicações menos convencionais, com características de interatividade e tempo real, alcançar paralelizações eficientes ainda representa um grande desafio. O requisito por desempenho de tempo real apresenta-se, por exemplo, em simulações interativas onde o sistema deve ser capaz de reagir às entradas do usuário dentro do tempo de uma iteração da simulação. O mesmo tipo de exigência aparece em aplicações de monitoramento de fluxos contínuos de dados (streams). Por exemplo, quando dados provenientes de sensores de tráfego ou postagens em redes sociais são produzidos em fluxo contínuo, o sistema de análise on-line deve ser capaz de processar essas informações em tempo real e ao mesmo tempo manter um consumo de memória controlada A natureza dinâmica desses dados traz diversos problemas de performance, tais como a decomposição do problema para processamento em paralelo e a manutenção da localidade de dados para uma utilização eficiente da memória cache. As estratégias de otimização tradicionais, que dependem de modelos pré-computados ou de índices estáticos sobre os dados, não atendem às exigências de performance necessárias nesses cenários. Nesta tese, abordamos os problemas dependentes de dados em dois contextos diferentes: um na área de simulações baseada em física e outro em análise de dados em fluxo contínuo. Para o problema de simulação, apresentamos um algoritmo paralelo, em GPU, para computar múltiplos caminhos mínimos e diagramas de Voronoi em um grafo com topologia de grade. Para o problema de análise de fluxos de dados, apresentamos uma estrutura de dados paralelizável, baseada em Packed Memory Arrays, para indexar dados dinâmicos geo-localizados ao passo que mantém uma boa localidade de memória.
The quest for performance has been a constant through the history of computing systems. It has been more than a decade now since the sequential processing model had shown its first signs of exhaustion to keep performance improvements. Walls to the sequential computation pushed a paradigm shift and established the parallel processing as the standard in modern computing systems. With the widespread adoption of parallel computers, many algorithms and applications have been ported to fit these new architectures. However, in unconventional applications, with interactivity and real-time requirements, achieving efficient parallelizations is still a major challenge. Real-time performance requirement shows up, for instance, in user-interactive simulations where the system must be able to react to the user’s input within a computation time-step of the simulation loop. The same kind of constraint appears in streaming data monitoring applications. For instance, when an external source of data, such as traffic sensors or social media posts, provides a continuous flow of information to be consumed by an online analysis system. The consumer system has to keep a controlled memory budget and deliver a fast processed information about the stream Common optimizations relying on pre-computed models or static index of data are not possible in these highly dynamic scenarios. The dynamic nature of the data brings up several performance issues originated from the problem decomposition for parallel processing and from the data locality maintenance for efficient cache utilization. In this thesis we address data-dependent problems on two different applications: one on physically based simulations and another on streaming data analysis. To deal with the simulation problem, we present a parallel GPU algorithm for computing multiple shortest paths and Voronoi diagrams on a grid-like graph. Our contribution to the streaming data analysis problem is a parallelizable data structure, based on packed memory arrays, for indexing dynamic geo-located data while keeping good memory locality.
APA, Harvard, Vancouver, ISO, and other styles
25

Antoine, Maeva. "Amélioration de la dissémination de données biaisées dans les réseaux structurés." Thesis, Nice, 2015. http://www.theses.fr/2015NICE4054/document.

Full text
Abstract:
De nombreux systèmes distribués sont confrontés au problème du déséquilibre de charge entre machines. Avec l'émergence du Big Data, de larges volumes de données aux valeurs souvent biaisées sont produits par des sources hétérogènes pour être souvent traités en temps réel. Il faut donc être capable de s'adapter aux variations de volume/contenu/provenance de ces données. Nous nous intéressons ici aux données RDF, un format du Web Sémantique. Nous proposons une nouvelle approche pour améliorer la répartition des données, basée sur l'utilisation de plusieurs fonctions de hachage préservant l'ordre naturel des données dans le réseau. Cela permet à chaque pair de pouvoir indépendamment modifier la fonction de hachage qu'il applique sur les données afin de réduire l'intervalle de valeurs dont il est responsable. Plus généralement, pour résoudre le problème du déséquilibre de charge, il existe presque autant de stratégies qu'il y a de systèmes différents. Nous montrons que de nombreux dispositifs d'équilibrage de charge sont constitués des mêmes éléments de base, et que seules la mise en œuvre et l'interconnexion de ces éléments varient. Partant de ce constat, nous décrivons les concepts derrière la construction d'une API générique pour appliquer une stratégie d'équilibrage de charge qui est indépendante du reste du code. Mise en place sur notre système, l'API a un impact minimal sur le code métier et permet de changer une partie d'une stratégie sans modifier d'autres composants. Nous montrons aussi que la variation de certains paramètres peut influer sur les résultats obtenus
Many distributed systems face the problem of load imbalance between machines. With the advent of Big Data, large datasets whose values are often highly skewed are produced by heterogeneous sources to be often processed in real time. Thus, it is necessary to be able to adapt to the variations of size/content/source of the incoming data. In this thesis, we focus on RDF data, a format of the Semantic Web. We propose a novel approach to improve data distribution, based on the use of several order-preserving hash functions. This allows an overloaded peer to independently modify its hash function in order to reduce the interval of values it is responsible for. More generally, to address the load imbalance issue, there exist almost as many load balancing strategies as there are different systems. We show that many load balancing schemes are comprised of the same basic elements, and only the implementation and interconnection of these elements vary. Based on this observation, we describe the concepts behind the building of a common API to implement any load balancing strategy independently from the rest of the code. Implemented on our distributed storage system, the API has a minimal impact on the business code and allows the developer to change only a part of a strategy without modifying the other components. We also show how modifying some parameters can lead to significant improvements in terms of results
APA, Harvard, Vancouver, ISO, and other styles
26

Aussel, Nicolas. "Real-time anomaly detection with in-flight data : streaming anomaly detection with heterogeneous communicating agents." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLL007/document.

Full text
Abstract:
Avec l'augmentation du nombre de capteurs et d'actuateurs dans les avions et le développement de liaisons de données fiables entre les avions et le sol, il est devenu possible d'améliorer la sécurité et la fiabilité des systèmes à bord en appliquant des techniques d'analyse en temps réel. Cependant, étant donné la disponibilité limité des ressources de calcul embarquées et le coût élevé des liaisons de données, les solutions architecturelles actuelles ne peuvent pas exploiter pleinement toutes les ressources disponibles, limitant leur précision.Notre but est de proposer un algorithme distribué de prédiction de panne qui pourrait être exécuté à la fois à bord de l'avion et dans une station au sol tout en respectant un budget de communication. Dans cette approche, la station au sol disposerait de ressources de calcul rapides et de données historiques et l'avion disposerait de ressources de calcul limitées et des données de vol actuelles.Dans cette thèse, nous étudierons les spécificités des données aéronautiques et les méthodes déjà existantes pour produire des prédictions de pannes à partir de ces dernières et nous proposerons une solution au problème posé. Notre contribution sera détaillé en trois parties.Premièrement, nous étudierons le problème de prédiction d'événements rares créé par la haute fiabilité des systèmes aéronautiques. Beaucoup de méthodes d'apprentissage en classification reposent sur des jeux de données équilibrés. Plusieurs approches existent pour corriger le déséquilibre d'un jeu de donnée et nous étudierons leur efficacité sur des jeux de données extrêmement déséquilibrés.Deuxièmement, nous étudierons le problème d'analyse textuelle de journaux car de nombreux systèmes aéronautiques ne produisent pas d'étiquettes ou de valeurs numériques faciles à interpréter mais des messages de journaux textuels. Nous étudierons les méthodes existantes basées sur une approche statistique et sur l'apprentissage profond pour convertir des messages de journaux textuels en une forme utilisable en entrée d'algorithmes d'apprentissage pour classification. Nous proposerons notre propre méthode basée sur le traitement du langage naturel et montrerons comment ses performances dépassent celles des autres méthodes sur un jeu de donnée public standard.Enfin, nous offrirons une solution au problème posé en proposant un nouvel algorithme d'apprentissage distribué s'appuyant sur deux paradigmes d'apprentissage existant, l'apprentissage actif et l'apprentissage fédéré. Nous détaillerons notre algorithme, son implémentation et fournirons une comparaison de ses performances avec les méthodes existantes
With the rise of the number of sensors and actuators in an aircraft and the development of reliable data links from the aircraft to the ground, it becomes possible to improve aircraft security and maintainability by applying real-time analysis techniques. However, given the limited availability of on-board computing and the high cost of the data links, current architectural solutions cannot fully leverage all the available resources limiting their accuracy.Our goal is to provide a distributed algorithm for failure prediction that could be executed both on-board of the aircraft and on a ground station and that would produce on-board failure predictions in near real-time under a communication budget. In this approach, the ground station would hold fast computation resources and historical data and the aircraft would hold limited computational resources and current flight's data.In this thesis, we will study the specificities of aeronautical data and what methods already exist to produce failure prediction from them and propose a solution to the problem stated. Our contribution will be detailed in three main parts.First, we will study the problem of rare event prediction created by the high reliability of aeronautical systems. Many learning methods for classifiers rely on balanced datasets. Several approaches exist to correct a dataset imbalance and we will study their efficiency on extremely imbalanced datasets.Second, we study the problem of log parsing as many aeronautical systems do not produce easy to classify labels or numerical values but log messages in full text. We will study existing methods based on a statistical approach and on Deep Learning to convert full text log messages into a form usable as an input by learning algorithms for classifiers. We will then propose our own method based on Natural Language Processing and show how it outperforms the other approaches on a public benchmark.Last, we offer a solution to the stated problem by proposing a new distributed learning algorithm that relies on two existing learning paradigms Active Learning and Federated Learning. We detail our algorithm, its implementation and provide a comparison of its performance with existing methods
APA, Harvard, Vancouver, ISO, and other styles
27

Belfkih, Abderrahmen. "Contraintes temporelles dans les bases de données de capteurs sans fil." Thesis, Le Havre, 2016. http://www.theses.fr/2016LEHA0014/document.

Full text
Abstract:
Dans ce travail, nous nous focalisons sur l’ajout de contraintes temporelles dans les Bases de Données de Capteurs Sans Fil (BDCSF). La cohérence temporelle d’une BDCSF doit être assurée en respectant les contraintes temporelles des transactions et la validité temporelle des données, pour que les données prélevées par les capteurs reflètent fidèlement l’état réel de l’environnement. Cependant, les retards de transmission et/ou de réception pendant la collecte des données peuvent conduire au non-respect de la validité temporelle des données. Une solution de type bases de données s'avère la plus adéquate. Il faudrait pour cela faire coïncider les aspects BD traditionnelles avec les capteurs et leur environnement. À cette fin, les capteurs déployés au sein d'un réseau sans fils sont considérés comme une table d'une base de données distribuée, à laquelle sont appliquées des transactions (interrogations, mises à jour, etc.). Les transactions sur une BD de capteurs nécessitent des modifications pour prendre en compte l'aspect continu des données et l'aspect temps réel. Les travaux réalisés dans cette thèse portent principalement sur trois contributions : (i) une étude comparative des propriétés temporelles entre une collecte périodique des données avec une base de données classique et une approche de traitement des requêtes avec une BDCSF, (ii) la proposition d’un modèle de traitement des requêtes temps réel, (iii) la mise en œuvre d’une BDCSF temps réel, basée sur les techniques décrites dans la deuxième contribution
In this thesis, we are interested in adding real-time constraints in the Wireless Sensor Networks Database (WSNDB). Temporal consistency in WSNDB must be ensured by respecting the transaction deadlines and data temporal validity, so that sensor data reflect the current state of the environment. However, delays of transmission and/or reception in a data collection process can lead to not respect the data temporal validity. A database solution is most appropriate, which should coincide with the traditional database aspects with sensors and their environment. For this purpose, the sensor in WSN is considered as a table in a distributed database, which applied transactions (queries, updates, etc.). Transactions in a WSNDB require modifications to take into account of the continuous datastream and real-time aspects. Our contribution in this thesis focus on three parts: (i) a comparative study of temporal properties between a periodic data collection based on a remote database and query processing approach with WSNDB, (ii) the proposition of a real-time query processing model, (iii) the implementation of a real time WSNDB, based on the techniques described in the second contribution
APA, Harvard, Vancouver, ISO, and other styles
28

Paumard, José. "Reconnaissance multiéchelle d'objets dans des scènes." Cachan, Ecole normale supérieure, 1996. http://www.theses.fr/1996DENS0025.

Full text
Abstract:
Nous étudions dans cette thèse la possibilité de reconnaitre des objets dans des images compressées, sans les reconstruire. L'algorithme de compression le plus adapte semble celui fonde sur l'extraction des contours multi échelle quinconce des images. Le problème de la reconnaissance nous amène à introduire un nouvel outil de comparaison d'images binaires: la distance de Hausdorff censurée. Cet outil s'est avéré robuste et rapide à calculer. Ces deux points sont étudiés avec soin. Cette distance est enfin utilisée pour reconnaitre et localiser des objets spécifiques dans des scènes de grande taille. Nous proposons trois approches multi échelles pour résoudre ce problème, qui prennent en compte le fait que l'objet recherché peut être en partie caché, ou qu'il peut être vu sous un angle différent de son modèle. L'algorithme que nous avons développé est rapide sur station de travail classique. Sa robustesse a été étudiée soigneusement. Sa parallélisation nous permet d'atteindre le temps réel dans un cadre opérationnel raisonnable
APA, Harvard, Vancouver, ISO, and other styles
29

Alshaer, Mohammad. "An Efficient Framework for Processing and Analyzing Unstructured Text to Discover Delivery Delay and Optimization of Route Planning in Realtime." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSE1105/document.

Full text
Abstract:
L'Internet des objets, ou IdO (en anglais Internet of Things, ou IoT) conduit à un changement de paradigme du secteur de la logistique. L'avènement de l'IoT a modifié l'écosystème de la gestion des services logistiques. Les fournisseurs de services logistiques utilisent aujourd'hui des technologies de capteurs telles que le GPS ou la télémétrie pour collecter des données en temps réel pendant la livraison. La collecte en temps réel des données permet aux fournisseurs de services de suivre et de gérer efficacement leur processus d'expédition. Le principal avantage de la collecte de données en temps réel est qu’il permet aux fournisseurs de services logistiques d’agir de manière proactive pour éviter des conséquences telles que des retards de livraison dus à des événements imprévus ou inconnus. De plus, les fournisseurs ont aujourd'hui tendance à utiliser des données provenant de sources externes telles que Twitter, Facebook et Waze, parce que ces sources fournissent des informations critiques sur des événements tels que le trafic, les accidents et les catastrophes naturelles. Les données provenant de ces sources externes enrichissent l'ensemble de données et apportent une valeur ajoutée à l'analyse. De plus, leur collecte en temps réel permet d’utiliser les données pour une analyse en temps réel et de prévenir des résultats inattendus (tels que le délai de livraison, par exemple) au moment de l’exécution. Cependant, les données collectées sont brutes et doivent être traitées pour une analyse efficace. La collecte et le traitement des données en temps réel constituent un énorme défi. La raison principale est que les données proviennent de sources hétérogènes avec une vitesse énorme. La grande vitesse et la variété des données entraînent des défis pour effectuer des opérations de traitement complexes telles que le nettoyage, le filtrage, le traitement de données incorrectes, etc. La diversité des données - structurées, semi-structurées et non structurées - favorise les défis dans le traitement des données à la fois en mode batch et en temps réel. Parce que, différentes techniques peuvent nécessiter des opérations sur différents types de données. Une structure technique permettant de traiter des données hétérogènes est très difficile et n'est pas disponible actuellement. En outre, l'exécution d'opérations de traitement de données en temps réel est très difficile ; des techniques efficaces sont nécessaires pour effectuer les opérations avec des données à haut débit, ce qui ne peut être fait en utilisant des systèmes d'information logistiques conventionnels. Par conséquent, pour exploiter le Big Data dans les processus de services logistiques, une solution efficace pour la collecte et le traitement des données en temps réel et en mode batch est essentielle. Dans cette thèse, nous avons développé et expérimenté deux méthodes pour le traitement des données: SANA et IBRIDIA. SANA est basée sur un classificateur multinomial Naïve Bayes, tandis qu'IBRIDIA s'appuie sur l'algorithme de classification hiérarchique (CLH) de Johnson, qui est une technologie hybride permettant la collecte et le traitement de données par lots et en temps réel. SANA est une solution de service qui traite les données non structurées. Cette méthode sert de système polyvalent pour extraire les événements pertinents, y compris le contexte (tel que le lieu, l'emplacement, l'heure, etc.). En outre, il peut être utilisé pour effectuer une analyse de texte sur les événements ciblés. IBRIDIA a été conçu pour traiter des données inconnues provenant de sources externes et les regrouper en temps réel afin d'acquérir une connaissance / compréhension des données permettant d'extraire des événements pouvant entraîner un retard de livraison. Selon nos expériences, ces deux approches montrent une capacité unique à traiter des données logistiques
Internet of Things (IoT) is leading to a paradigm shift within the logistics industry. The advent of IoT has been changing the logistics service management ecosystem. Logistics services providers today use sensor technologies such as GPS or telemetry to collect data in realtime while the delivery is in progress. The realtime collection of data enables the service providers to track and manage their shipment process efficiently. The key advantage of realtime data collection is that it enables logistics service providers to act proactively to prevent outcomes such as delivery delay caused by unexpected/unknown events. Furthermore, the providers today tend to use data stemming from external sources such as Twitter, Facebook, and Waze. Because, these sources provide critical information about events such as traffic, accidents, and natural disasters. Data from such external sources enrich the dataset and add value in analysis. Besides, collecting them in real-time provides an opportunity to use the data for on-the-fly analysis and prevent unexpected outcomes (e.g., such as delivery delay) at run-time. However, data are collected raw which needs to be processed for effective analysis. Collecting and processing data in real-time is an enormous challenge. The main reason is that data are stemming from heterogeneous sources with a huge speed. The high-speed and data variety fosters challenges to perform complex processing operations such as cleansing, filtering, handling incorrect data, etc. The variety of data – structured, semi-structured, and unstructured – promotes challenges in processing data both in batch-style and real-time. Different types of data may require performing operations in different techniques. A technical framework that enables the processing of heterogeneous data is heavily challenging and not currently available. In addition, performing data processing operations in real-time is heavily challenging; efficient techniques are required to carry out the operations with high-speed data, which cannot be done using conventional logistics information systems. Therefore, in order to exploit Big Data in logistics service processes, an efficient solution for collecting and processing data in both realtime and batch style is critically important. In this thesis, we developed and experimented with two data processing solutions: SANA and IBRIDIA. SANA is built on Multinomial Naïve Bayes classifier whereas IBRIDIA relies on Johnson's hierarchical clustering (HCL) algorithm which is hybrid technology that enables data collection and processing in batch style and realtime. SANA is a service-based solution which deals with unstructured data. It serves as a multi-purpose system to extract the relevant events including the context of the event (such as place, location, time, etc.). In addition, it can be used to perform text analysis over the targeted events. IBRIDIA was designed to process unknown data stemming from external sources and cluster them on-the-fly in order to gain knowledge/understanding of data which assists in extracting events that may lead to delivery delay. According to our experiments, both of these approaches show a unique ability to process logistics data. However, SANA is found more promising since the underlying technology (Naïve Bayes classifier) out-performed IBRIDIA from performance measuring perspectives. It is clearly said that SANA was meant to generate a graph knowledge from the events collected immediately in realtime without any need to wait, thus reaching maximum benefit from these events. Whereas, IBRIDIA has an important influence within the logistics domain for identifying the most influential category of events that are affecting the delivery. Unfortunately, in IBRIRDIA, we should wait for a minimum number of events to arrive and always we have a cold start. Due to the fact that we are interested in re-optimizing the route on the fly, we adopted SANA as our data processing framework
APA, Harvard, Vancouver, ISO, and other styles
30

Hadim, Julien. "Etude en vue de la multirésolution de l’apparence." Thesis, Bordeaux 1, 2009. http://www.theses.fr/2009BOR13794/document.

Full text
Abstract:
Les fonctions de texture directionnelle "Bidirectional Texture Function" (BTF) ont rencontrés un certain succès ces dernières années, notamment pour le rendu temps-réel d'images de synthèse, grâce à la fois au réalisme qu'elles apportent et au faible coût de calcul nécessaire. Cependant, un inconvénient de cette approche reste la taille gigantesque des données : de nombreuses méthodes ont été proposées afin de les compresser. Dans ce document, nous proposons une nouvelle représentation des BTFs qui améliore la cohérence des données et qui permet ainsi une compression plus efficace. Dans un premier temps, nous étudions les méthodes d'acquisition et de génération des BTFs et plus particulièrement, les méthodes de compression adaptées à une utilisation sur cartes graphiques. Nous réalisons ensuite une étude à l'aide de notre logiciel "BTFInspect" afin de déterminer parmi les différents phénomènes visuels dans les BTFs, ceux qui influencent majoritairement la cohérence des données par texel. Dans un deuxième temps, nous proposons une nouvelle représentation pour les BTFs, appelées Flat Bidirectional Texture Function (Flat-BTFs), qui améliore la cohérence des données d'une BTF et donc la compression des données. Dans l'analyse des résultats obtenus, nous montrons statistiquement et visuellement le gain de cohérence obtenu ainsi que l'absence d'une perte significative de qualité en comparaison avec la représentation d'origine. Enfin, dans un troisième temps, nous démontrons l'utilisation de notre nouvelle représentation dans des applications de rendu en temps-réel sur cartes graphiques. Puis, nous proposons une compression de l'apparence grâce à une méthode de quantification sur GPU et présentée dans le cadre d'une application de diffusion de données 3D entre un serveur contenant des modèles 3D et un client désirant visualiser ces données
In recent years, Bidirectional Texture Function (BTF) has emerged as a flexible solution for realistic and real-time rendering of material with complex appearance and low cost computing. However one drawback of this approach is the resulting huge amount of data: several methods have been proposed in order to compress and manage this data. In this document, we propose a new BTF representation that improves data coherency and allows thus a better data compression. In a first part, we study acquisition and digital generation methods of BTFs and more particularly, compression methods suitable for GPU rendering. Then, We realise a study with our software BTFInspect in order to determine among the different visual phenomenons present in BTF which ones induce mainly the data coherence per texel. In a second part, we propose a new BTF representation, named Flat Bidirectional Texture Function (Flat-BTF), which improves data coherency and thus, their compression. The analysis of results show statistically and visually the gain in coherency as well as the absence of a noticeable loss of quality compared to the original representation. In a third and last part, we demonstrate how our new representation may be used for realtime rendering applications on GPUs. Then, we introduce a compression of the appearance thanks to a quantification method on GPU which is presented in the context of a 3D data streaming between a server of 3D data and a client which want visualize them
APA, Harvard, Vancouver, ISO, and other styles
31

Bouakaz, Adnan. "Ordonnancement temps-réel des graphes flots de données." Phd thesis, Université Rennes 1, 2013. http://tel.archives-ouvertes.fr/tel-00916515.

Full text
Abstract:
Les systèmes temps-réel critiques sont de plus en plus complexes, et les exigences fonctionnelles et non-fonctionnelles ne cessent plus de croître. Le flot de conception de tels systèmes doit assurer, parmi d'autres propriétés, le déterminisme fonctionnel et la prévisibilité temporelle. Le déterminisme fonctionnel est inhérent aux modèles de calcul flot de données (ex. KPN, SDF, etc.) ; c'est pour cela qu'ils sont largement utilisés pour modéliser les systèmes embarqués de traitement de flux. Un effort considérable a été accompli pour résoudre le problème d'ordonnancement statique périodique et à mémoire de communication bornée des graphes flots de données. Cependant, les systèmes embarqués temps-réel optent de plus en plus pour l'utilisation de systèmes d'exploitation temps-réel et de stratégies d'ordonnancement dynamique pour gérer les tâches et les ressources critiques. Cette thèse aborde le problème d'ordonnancement temps-réel dynamique des graphes flots de données ; ce problème consiste à assigner chaque acteur dans un graphe à une tâche temps-réel périodique (i.e. calcul des périodes, des phases, etc.) de façon à : (1) assurer l'ordonnançabilité des tâches sur une architecture et pour une stratégie d'ordonnancement (ex. RM, EDF) données ; (2) exclure statiquement les exceptions d'overflow et d'underflow sur les buffers de communication ; et (3) optimiser les performances du système (ex. maximisation du débit, minimisation des tailles des buffers).
APA, Harvard, Vancouver, ISO, and other styles
32

Barbier, Sébastien. "Visualisation distance temps-réel de grands volumes de données." Grenoble 1, 2009. http://www.theses.fr/2009GRE10155.

Full text
Abstract:
La simulation numérique génère des maillages de plus en plus gros pouvant atteindre plusieurs dizaines de millions de tétraèdres. Ces ensembles doivent être visuellement analysés afin d'acquérir des connaissances relatives aux données physiques simulées pour l'élaboration de conclusions. Les capacités de calcul utilisées pour la visualisation scientifique de telles données sont souvent inférieures à celles mises en oeuvre pour les simulations numériques. L'exploration visuelle de ces ensembles massifs est ainsi difficilement interactive sur les stations de travail usuelles. Au sein de ce mémoire, nous proposons une nouvelle approche interactive pour l'exploration visuelle de maillages tétraédriques massifs pouvant atteindre plus de quarante millions de cellules. Elle s'inscrit pleinement dans le procédé de génération des simulations numériques, reposant sur deux maillages à résolution différente , un fin et un grossier , d'une même simulation. Une partition des sommets fins est extraite guidée par le maillage grossier permettant la reconstruction à la volée d'un maillage dit birésolution, mélange des deux résolutions initiales, à l'instar des méthodes multirésolution usuelles. L'implantation de cette extraction est détaillée au sein d'un processeur central, des nouvelles générations de cartes graphiques et en mémoire externe. Elles permettent d'obtenir des taux d'extraction inégalés par les précédentes approches. Afin de visualiser ce maillage, un nouvel algorithme de rendu volumique direct implanté entièrement sur carte graphique est proposé. Un certain nombre d'approximations sont réalisées et évaluées afin de garantir un affichage interactif des maillages birésolution
Numerical simulations produce huger and huger meshes that can reach dozens of million tetrahedra. These datasets must be visually analyzed to understand the physical simulated phenomenon and draw conclusions. The computational power for scientific visualization of such datasets is often smaller than for numerical simulation. As a consequence, interactive exploration of massive meshes is barely achieved. In this document, we propose a new interactive method to interactively explore massive tetrahedral meshes with over forty million tetrahedra. This method is fully integrated into the simulation process, based on two meshes at different resolutions , one fine mesh and one coarse mesh , of the same simulation. A partition of the fine vertices is computed guided by the coarse mesh. It allows the on-the-fly extraction of a mesh, called \textit{biresolution}, mixed of the two initial resolutions as in usual multiresolution approaches. The extraction of such meshes is carried out into the main memory (CPU), the last generation of graphics cards (GPU) and with an out-of-core algorithm. They guarantee extraction rates never reached in previous work. To visualize the biresolution meshes, a new direct volume rendering (DVR) algorithm is fully implemented into graphics cards. Approximations can be performed and are evaluated in order to guarantee an interactive rendering of any biresolution meshes
APA, Harvard, Vancouver, ISO, and other styles
33

Cont, Arshia. "Traitement et programmation temps-réel des signaux musicaux." Habilitation à diriger des recherches, Université Pierre et Marie Curie - Paris VI, 2013. http://tel.archives-ouvertes.fr/tel-00829771.

Full text
Abstract:
Mes activités de recherche et d'encadrement, depuis ma soutenance de thèse en octobre 2008, gravitent à la confluence de deux problématiques souvent considérées comme distinctes dont le couplage est plus qu'évident en informatique musicale : l'écoute artificielle et la programmation synchrone des signaux musicaux en temps réel. Le but est d'enrichir chaque domaine respectivement et de fournir des outils nécessaires aux artistes pour étendre leurs capacités de création musicale sur ordinateur (à celui de leurs homologues humains). Le premier aspect de tout système de musique interactive est l'acte de l'écoute ou formellement parlant, l'extraction d'informations musicaux en temps réel. J'ai concentré mes efforts sur les approches axées sur les applications telles que la détection de pitch polyphonique et les techniques d'alignement en temps réel d'une part. Puis, d'autre part, j'ai abordé des problèmes fondamentaux liés à la représentation des signaux. Pour le premier volet, nous avons proposé deux approches reconnues comme l'état de l'art et renommées par leur utilisation par la communauté artistique et leur reconnaissance au sein de la communauté MIR. Le deuxième volet théorique porte sur le problème fondamental de la quantification et la qualification du contenu de l'information arrivant progressivement dans un système en utilisant des méthodes de la géométrie de l'information. Le deuxième et plus récent aspect de mon travail se concentre sur la programmation synchrone réactive de la musique, couplée à des systèmes d'écoute (ou la formalisation de réactions dans les systèmes interactifs aux perceptions artificielles en temps réel). Notre approche est motivée par les pratiques actuelles en art numérique et les exigences d'évaluation en temps réel qu'elles demandent. L'incarnation majeure de cette approche est le système Antescofo doté d'une machine d'écoute et d'un langage dynamique et qui s'est imposé dans le monde entier dans le répertoire de la musique mixte, reconnu du public depuis 2009. L'écriture du temps, l'interaction et la tentative d'assurer leur exécution correcte en temps réel posent des problèmes difficiles pour l'informatique et les concepteurs de systèmes. Ce couplage fort fera l'objet de mon travail dans les années à venir sous la bannière des systèmes de musique Cyber-physique. Le couplage entre la machine d'écoute et des langages temps réel nécessite d'augmenter les approches actuelles avec des modèles formels de temps, dépassant les approches fonctionnelles qui dominent pour développer une formalisation des exigences de réaction et d'exécution. Il faudra en conséquence repenser nos méthodes usuelles de traitement audio multiforme et leurs modèles de calculs sous-jacents en ce qui concerne le temps.
APA, Harvard, Vancouver, ISO, and other styles
34

Itthirad, Frédéric. "Acquisition et traitement d'images 3D couleur temps réel." Thesis, Saint-Etienne, 2011. http://www.theses.fr/2011STET4011.

Full text
Abstract:
Les capteurs 3D existants sont encore peu utilisés et ne permettent que l’acquisition de données 3D. En cas de nécessité de données 2D monochrome ou couleur, il faut alors obligatoirement ajouter un capteur supplémentaire et procéder au recalage des données. La société NT2I a décidé de développer sa propre solution afin de pouvoir rester maître de la chaîne d’acquisition. Mon travail a consisté en la conception d’un capteur spécifique intégrant couleur et calibration et au traitement des images issues de celui-ci. Pour cela, j’ai été amené à travailler sur l’extension du modèle LIP (Logarithmic Image Processing) pour des images couleur et à l’implémentation d’algorithmes temps réel
The existing 3D sensors aren’t much used and are only capable of capturing 3D dat. When 2D data are necessary, one has to use another camera and correlate the 2 images. NT2I has decided to develop its own solution in order to control the acquisition chain. My work has been to develop a specific camera with color, calibration, and image processing algorithms. In that purpose, I've worked on the extension of the LIP model (Logarithmic Image Processing) for color images and on the implementation of real time algorithms
APA, Harvard, Vancouver, ISO, and other styles
35

Holländer, Matthias. "Synthèse géométrique temps réel." Electronic Thesis or Diss., Paris, ENST, 2013. http://www.theses.fr/2013ENST0009.

Full text
Abstract:
La géométrie numérique en temps réel est un domaîne de recherches émergent en informatique graphique.Pour pouvoir générer des images photo-réalistes de haute définition,beaucoup d'applications requièrent des méthodes souvent prohibitives financièrementet relativement lentes.Parmi ces applications, on peut citer la pré-visualisation d'architectures, la réalisation de films d'animation,la création de publicités ou d'effets spéciaux pour les films dits réalistes.Dans ces cas, il est souvent nécessaire d'utiliser conjointement beaucoup d'ordinateurs possédanteux-mêmes plusieurs unités graphiques (Graphics Processing Units - GPUs).Cependant, certaines applications dites temps-réel ne peuvent s'accomoder de telles techniques, car elles requièrentde pouvoir générer plus de 30 images par seconde pour offrir un confort d'utilisationet une intéraction avec des mondes virtuels 3D riches et réalistes.L'idée principale de cette thèse est d'utiliser la synthèse de géométrie,la géométrie numérique et l'analyse géométrique pourrépondre à des problèmes classiques en informatique graphique,telle que la génération de surfaces de subdivision, l'illumination globaleou encore l'anti-aliasing dans des contextes d'intéraction temps-réel.Nous présentons de nouveaux algorithmes adaptés aux architectures matérielles courantes pour atteindre ce but
Eal-time geometry synthesis is an emerging topic in computer graphics.Today's interactive 3D applications have to face a variety of challengesto fulfill the consumer's request for more realism and high quality images.Often, visual effects and quality known from offline-rendered feature films or special effects in movie productions are the ultimate goal but hard to achieve in real time.This thesis offers real-time solutions by exploiting the Graphics Processing Unit (GPU)and efficient geometry processing.In particular, a variety of topics related to classical fields in computer graphics such assubdivision surfaces, global illumination and anti-aliasing are discussedand new approaches and techniques are presented
APA, Harvard, Vancouver, ISO, and other styles
36

Ammann, Lucas. "Visualisation temps réel de données à deux dimensions et demie." Strasbourg, 2010. https://publication-theses.unistra.fr/public/theses_doctorat/2010/AMMANN_Lucas_2010.pdf.

Full text
Abstract:
Les données à deux dimensions et demie ont pris une importance forte dans la représentation de certains types d'objets. Elles sont ainsi fréquemment employées pour modéliser des données topographiques ou scientifiques. Elles sont également utilisées dans les dispositifs d'acquisition à trois dimensions pour représenter les objets numérisés. Ces données présentent cependant un certain nombre de difficultés dans leur manipulation, et plus particulièrement pour leur visualisation. Au cours de cette thèse, nous nous sommes attachés à développer des méthodes simples, mais efficaces, permettant la visualisation de ce type de données et plus spécialement celles issues de la numérisation de tableaux d'art. En plus de cette méthode de visualisation, nous avons développé un protocole complet permettant la numérisation de telles pièces, ainsi que le traitements des données obtenues, en vue de leur visualisation. Afin de généraliser la méthode développée, nous avons également proposé une technique permettant la visualisation de données topographiques combinant un processus classique de rastérisation avec un rendu par lancer de rayons. Les méthodes développées reposent ainsi toutes les deux sur un mécanisme adaptatif permettant de combiner différents algorithmes de rendu, afin d'optimiser les performances de visualisation. L'utilisation de ce mécanisme permet également une exploitation quasi-directe des données ce qui simplifie grandement leur utilisation
Heightfield data is now a common representation for several kind of virtual objects. Indeed, they are frequently used to represent topographical or scientific data. They are also used by 3-dimensional digitisation devices to store real objects. However, some issues are introduced by this kind of data during their manipulation and especially their visualisation. During this thesis, we develop simple yet efficient methods to render heightfield data, especially data from art painting digitisation. In addition to the visualisation method, we propose a complete pipeline to acquire art paintings and to process data for the visualisation process. To generalize the proposed approach, another rendering method is described to display topographical data by combining a rasterization process with a ray-casting rendering. Both of the rendering techniques are based on an adaptive mecanism which combines several rendering algorithms to enhance visualisation performances. These mechanisms are designed to avoid pre-processing steps of the data and to make use of straightforward rendering methods
APA, Harvard, Vancouver, ISO, and other styles
37

Bahri, Nejmeddine. "Étude et conception d’un encodeur vidéo H264/AVC de résolution HD sur une plateforme multicœur." Thesis, Paris Est, 2015. http://www.theses.fr/2015PESC1116/document.

Full text
Abstract:
La migration vers la résolution HD de la plupart des applications multimédias visuelles a nécessité la création de nouveaux standards de compression vidéo tels que le H264/AVC (Advanced Video Coding) et le HEVC (High Efficiency Video Coding). Ces standards sont caractérisés par des hautes performances de codage en termes de taux de compression et qualité vidéo par rapport aux normes précédentes. Cependant, ces performances entraînent de grandes complexités de calcul ce qui rend difficile d'assurer un encodage en temps réel pour la résolution HD sur des processeurs monocœurs programmables qui sont les plus répandus. De plus, comme actuellement les systèmes embarqués sont de plus en plus utilisés dans diverses applications multimédias, concevoir une solution logicielle embarquée pour l'encodeur H264/AVC constitue ainsi un défit très difficile puisqu'il faut répondre aux exigences de l'embarqué au niveau des ressources matérielles comme la mémoire et de la consommation d'énergie. Les récents systèmes embarqués dotés de la technologie multicœur représentent une solution attractive pour surmonter ces problèmes. Dans ce contexte, cette thèse s'intéresse à exploiter la performance de la nouvelle génération de DSP multicœurs de Texas Instruments pour concevoir un encodeur H264/AVC embarqué de résolution HD fonctionnant en temps réel. Nous visons une solution logicielle, caractérisée par une forte flexibilité, par rapport aux IPs existants, qui permet de tout paramétrer (qualité, débit etc). Cette flexibilité logicielle permet aussi l'évolutivité de système en suivant les améliorations de codage comme la migration vers la nouvelle norme HEVC, partiellement abordée dans cette thèse. Nous présentons ainsi les diverses optimisations appliquées que ce soient algorithmiques, architecturales et structurelles afin d'améliorer la vitesse d'encodage sur un seul cœur DSP avant de passer à une implémentation multicœur. Ensuite, nous proposons des implémentations parallèles de l'encodeur H264/AVC sur différentes unités de calcul en exploitant le parallélisme potentiel au sein de la chaîne d'encodage afin de satisfaire la contrainte de temps réel tout en assurant une bonne performance de codage en termes de qualité vidéo et débit binaire. Nous étudions également le problème d'allocation des ressources (ressources de calcul, ressources mémoire, ressources de communication) avec de fortes contraintes temporelles d'exécution. Finalement, cette thèse ouvre la voie vers l'implémentation de la nouvelle norme de codage vidéo HEVC sur deux systèmes embarqués monocœurs dans le but de préparer une solution logicielle embarquée pour les futurs travaux de recherche
The trend toward HD resolution in most of visual multimedia applications has involved the emergence of a large number of video compression standards such as H.264/AVC (Advanced Video Coding) and HEVC (High Efficiency Video Coding). These standards are characterized by high coding performances in terms of compression ratio and video quality compared to previous standards. However, these performances come with large computational complexities which make it difficult to meet real-time encoding for HD resolution on the most common single-core programmable processors. Moreover, as embedded systems have become increasingly used in various multimedia applications, designing an embedded software solution for the H264/AVC encoder represents another difficult challenge since we have to meet the embedded requirements in terms of hardware resources such as memory and power consumption. The new embedded systems with multicore technology represent an attractive solution to overcome these problems. In this context, this thesis is interested in exploiting the performance of the new generation of Texas Instruments multicore DSPs to design an embedded real-time H264/AVC high definition video encoder. We aim a software solution, characterized by high flexibility that allows setting all parameters (quality, bitrate etc) compared to existing IPs. This software flexibility allows also the system scalability by following the coding enhancements as the migration to the newest HEVC standard. Thus, we present the algorithmic, architectural, and structural optimizations which are applied to improve the encoding speed on a single DSP core before moving to a multicore implementation. Then, we propose parallel implementations of the H264/AVC encoder exploiting the multicore architecture of our platform and the potential parallelism in the encoding chain in order to meet real-time constraints while ensuring a good performance in terms of bitrate and video quality. We also explore the problem of resources allocation (computing resources, storage resources, communication resources) with hard execution time constraints. Finally, this thesis opens the way towards the implementation of the new HEVC video coding standard on two embedded systems in order to prepare a software solution for future research
APA, Harvard, Vancouver, ISO, and other styles
38

Ali, Karim Mohamed Abedallah. "Architectures parallèles reconfigurables pour le traitement vidéo temps-réel." Thesis, Valenciennes, 2018. http://www.theses.fr/2018VALE0005/document.

Full text
Abstract:
Les applications vidéo embarquées sont de plus en plus intégrées dans des systèmes de transport intelligents tels que les véhicules autonomes. De nombreux défis sont rencontrés par les concepteurs de ces applications, parmi lesquels : le développement des algorithmes complexes, la vérification et le test des différentes contraintes fonctionnelles et non-fonctionnelles, la nécessité d’automatiser le processus de conception pour augmenter la productivité, la conception d’une architecture matérielle adéquate pour exploiter le parallélisme inhérent et pour satisfaire la contrainte temps-réel, réduire la puissance consommée pour prolonger la durée de fonctionnement avant de recharger le véhicule, etc. Dans ce travail de thèse, nous avons utilisé les technologies FPGAs pour relever certains de ces défis et proposer des architectures matérielles reconfigurables dédiées pour des applications embarquées de traitement vidéo temps-réel. Premièrement, nous avons implémenté une architecture parallèle flexible avec deux contributions principales : (1) Nous avons proposé un modèle générique de distribution/collecte de pixels pour résoudre le problème de transfert de données à haut débit à travers le système. Les paramètres du modèle requis sont tout d’abord définis puis la génération de l’architecture a été automatisée pour minimiser le temps de développement. (2) Nous avons appliqué une technique d’ajustement de la fréquence pour réduire la consommation d’énergie. Nous avons dérivé les équations nécessaires pour calculer le niveau maximum de parallélisme ainsi que les équations utilisées pour calculer la taille des FIFO pour le passage d’un domaine de l’horloge à un autre. Au fur et à mesure que le nombre de cellules logiques sur une seule puce FPGAaugmente, passer à des niveaux d’abstraction plus élevés devient inévitable pour réduire la contrainte de « time-to-market » et augmenter la productivité des concepteurs. Pendant la phase de conception, l’espace de solutions architecturales présente un grand nombre d’alternatives avec des performances différentes en termes de temps d’exécution, ressources matérielles, consommation d’énergie, etc. Face à ce défi, nous avons développé l’outil ViPar avec deux contributions principales : (1) Un modèle empirique a été introduit pour estimer la consommation d’énergie basé sur l’utilisation du matériel (Slice et BRAM) et la fréquence de fonctionnement ; en plus de cela, nous avons dérivé les équations pour estimer les ressources matérielles et le temps d’exécution pour chaque alternative au cours de l’exploration de l’espace de conception. (2) En définissant les principales caractéristiques de l’architecture parallèle comme le niveau de parallélisme, le nombre de ports d’entrée/sortie, le modèle de distribution des pixels, ..., l’outil ViPar génère automatiquement l’architecture matérielle pour les solutions les plus pertinentes. Dans le cadre d’une collaboration industrielle avec NAVYA, nous avons utilisé l’outil ViPar pour implémenter une solution matérielle parallèle pour l’algorithme de stéréo matching « Multi-window Sum of Absolute Difference ». Dans cette implémentation, nous avons présenté un ensemble d’étapes pour modifier le code de description de haut niveau afin de l’adapter efficacement à l’implémentation matérielle. Nous avons également exploré l’espace de conception pour différentes alternatives en termes de performance, ressources matérielles, fréquence, et consommation d’énergie. Au cours de notre travail, les architectures matérielles ont été implémentées et testées expérimentalement sur la plateforme d’évaluation Xilinx Zynq ZC706
Embedded video applications are now involved in sophisticated transportation systems like autonomous vehicles. Many challenges faced the designers to build those applications, among them: complex algorithms should be developed, verified and tested under restricted time-to-market constraints, the necessity for design automation tools to increase the design productivity, high computing rates are required to exploit the inherent parallelism to satisfy the real-time constraints, reducing the consumed power to extend the operating duration before recharging the vehicle, etc. In this thesis work, we used FPGA technologies to tackle some of these challenges to design parallel reconfigurable hardware architectures for embedded video streaming applications. First, we implemented a flexible parallel architecture with two main contributions: (1)We proposed a generic model for pixel distribution/collection to tackle the problem of the huge data transferring through the system. The required model parameters were defined then the architecture generation was automated to minimize the development time. (2) We applied frequency scaling as a technique for reducing power consumption. We derived the required equations for calculating the maximum level of parallelism as well as the ones used for calculating the depth of the inserted FIFOs for clock domain crossing. As the number of logic cells on a single FPGA chip increases, moving to higher abstraction design levels becomes inevitable to shorten the time-to-market constraint and to increase the design productivity. During the design phase, it is common to have a space of design alternatives that are different from each other regarding hardware utilization, power consumption and performance. We developed ViPar tool with two main contributions to tackle this problem: (1) An empirical model was introduced to estimate the power consumption based on the hardware utilization (Slice and BRAM) and the operating frequency. In addition to that, we derived the equations for estimating the hardware resources and the execution time for each point during the design space exploration. (2) By defining the main characteristics of the parallel architecture like parallelism level, the number of input/output ports, the pixel distribution pattern, etc. ViPar tool can automatically generate the parallel architecture for the selected designs for implementation. In the context of an industrial collaboration, we used high-level synthesis tools to implement a parallel hardware architecture for Multi-window Sum of Absolute Difference stereo matching algorithm. In this implementation, we presented a set of guiding steps to modify the high-level description code to fit efficiently for hardware implementation as well as we explored the design space for different alternatives in terms of hardware resources, performance, frequency and power consumption. During the thesis work, our designs were implemented and tested experimentally on Xilinx Zynq ZC706 (XC7Z045- FFG900) evaluation board
APA, Harvard, Vancouver, ISO, and other styles
39

Holländer, Matthias. "Synthèse géométrique temps réel." Thesis, Paris, ENST, 2013. http://www.theses.fr/2013ENST0009/document.

Full text
Abstract:
La géométrie numérique en temps réel est un domaîne de recherches émergent en informatique graphique.Pour pouvoir générer des images photo-réalistes de haute définition,beaucoup d'applications requièrent des méthodes souvent prohibitives financièrementet relativement lentes.Parmi ces applications, on peut citer la pré-visualisation d'architectures, la réalisation de films d'animation,la création de publicités ou d'effets spéciaux pour les films dits réalistes.Dans ces cas, il est souvent nécessaire d'utiliser conjointement beaucoup d'ordinateurs possédanteux-mêmes plusieurs unités graphiques (Graphics Processing Units - GPUs).Cependant, certaines applications dites temps-réel ne peuvent s'accomoder de telles techniques, car elles requièrentde pouvoir générer plus de 30 images par seconde pour offrir un confort d'utilisationet une intéraction avec des mondes virtuels 3D riches et réalistes.L'idée principale de cette thèse est d'utiliser la synthèse de géométrie,la géométrie numérique et l'analyse géométrique pourrépondre à des problèmes classiques en informatique graphique,telle que la génération de surfaces de subdivision, l'illumination globaleou encore l'anti-aliasing dans des contextes d'intéraction temps-réel.Nous présentons de nouveaux algorithmes adaptés aux architectures matérielles courantes pour atteindre ce but
Eal-time geometry synthesis is an emerging topic in computer graphics.Today's interactive 3D applications have to face a variety of challengesto fulfill the consumer's request for more realism and high quality images.Often, visual effects and quality known from offline-rendered feature films or special effects in movie productions are the ultimate goal but hard to achieve in real time.This thesis offers real-time solutions by exploiting the Graphics Processing Unit (GPU)and efficient geometry processing.In particular, a variety of topics related to classical fields in computer graphics such assubdivision surfaces, global illumination and anti-aliasing are discussedand new approaches and techniques are presented
APA, Harvard, Vancouver, ISO, and other styles
40

Samé, Allou Badara. "Modèles de mélange et classification de données acoustiques en temps réel." Compiègne, 2004. http://www.theses.fr/2004COMP1540.

Full text
Abstract:
Cette thèse, menée en collaboration avec le Centre Technique des Industries Mécaniques (CETIM), s'inscrit dans le cadre de la classification automatique pour le contrôle en temps réel par émission acoustique des équipements sous pression (citernes GPL. . . ). Le travail effectué vise à améliorer un logiciel temps réel (LOTERE) d'aide à la décision dans le contrôle des équipements sous pression, jugé lent quand le nombre des émissions acoustiques à traiter devient très grand. Deux approches classificatoires basées sur le modèle de mélange de lois, capables de prendre en compte les contraintes de temps d'exécution, ont été développées. La première approche consiste à classifier les 'bins' résultant de la conversion des données initiales en un histogramme et la seconde consiste à classifier les données de façon séquentielle par mise à jour récurrente de la classification. Une étude expérimentale sur des données simulées et des données réelles a permis de mettre en évidence l'efficacité des approches proposées
The motivation for this Phd Thesis was a real-time flaw diagnosis application for pressurized containers using acoustic emissions. It has been carried out in collaboration with the Centre Technique des Industries Mécaniques (CETIM). The aim was to improve LOTERE, a real-time computer-aided-decision software, which has been found to be too slow when the number of acoustic emissions becomes large. Two mixture model-based clustering approaches, taking into account time constraints, have been proposed. The first one consists in clustering 'bins' resulting from the conversion of original observations into an histogram. The second one is an on-line approach updating recursively the classification. An experimental study using both simulated and real data has shown that the proposed methods are very efficient
APA, Harvard, Vancouver, ISO, and other styles
41

Mathieu, Jean. "Intégration de données temps-réel issues de capteurs dans un entrepôt de données géo-décisionnel." Thesis, Université Laval, 2011. http://www.theses.ulaval.ca/2011/28019/28019.pdf.

Full text
Abstract:
Nous avons pu, au cours des dernières années, assister à une augmentation du nombre de capteurs utilisés pour mesurer des phénomènes de plus en plus variés. En effet, nous pouvons aujourd'hui utiliser les capteurs pour mesurer un niveau d'eau, une position (GPS), une température et même le rythme cardiaque d'un individu. La grande diversité de capteurs fait d'eux aujourd'hui des outils par excellence en matière d'acquisition de données. En parallèle à cette effervescence, les outils d'analyse ont également évolué depuis les bases de données transactionnelles et ont mené à l'apparition d'une nouvelle famille d’outils, appelés systèmes d’analyse (systèmes décisionnels), qui répond à des besoins d’analyse globale sur les données. Les entrepôts de données et outils OLAP (On-Line Analytical Processing), qui font partie de cette famille, permettent dorénavant aux décideurs d'analyser l'énorme volume de données dont ils disposent, de réaliser des comparaisons dans le temps et de construire des graphiques statistiques à l’aide de simples clics de la souris. Les nombreux types de capteurs peuvent certainement apporter de la richesse à une analyse, mais nécessitent de longs travaux d'intégration pour les amener jusqu'à un entrepôt géo-décisionnel, qui est au centre du processus de prise de décision. Les différents modèles de capteurs, types de données et moyens de transférer les données sont encore aujourd'hui des obstacles non négligeables à l'intégration de données issues de capteurs dans un entrepôt géo-décisionnel. Également, les entrepôts de données géo-décisionnels actuels ne sont pas initialement conçus pour accueillir de nouvelles données sur une base fréquente. Puisque l'utilisation de l'entrepôt par les utilisateurs est restreinte lors d'une mise à jour, les nouvelles données sont généralement ajoutées sur une base hebdomadaire, mensuelle, etc. Il existe pourtant des entrepôts de données capables d'être mis à jour plusieurs fois par jour sans que les performances lors de leur exploitation ne soient atteintes, les entrepôts de données temps-réel (EDTR). Toutefois, cette technologie est encore aujourd’hui peu courante, très coûteuse et peu développée. Ces travaux de recherche visent donc à développer une approche permettant de publier et standardiser les données temps-réel issues de capteurs et de les intégrer dans un entrepôt géo-décisionnel conventionnel. Une stratégie optimale de mise à jour de l'entrepôt a également été développée afin que les nouvelles données puissent être ajoutées aux analyses sans que la qualité de l'exploitation de l'entrepôt par les utilisateurs ne soit remise en cause.
In the last decade, the use of sensors for measuring various phenomenons has greatly increased. As such, we can now make use of sensors to measure GPS position, temperature and even the heartbeats of a person. Nowadays, the wide diversity of sensor makes them the best tools to gather data. Along with this effervescence, analysis tools have also advanced since the creation of transactional databases, leading to a new category of tools, analysis systems (Business Intelligence (BI)), which respond to the need of the global analysis of the data. Data warehouses and OLAP (On-Line Analytical Processing) tools, which belong to this category, enable users to analyze big volumes of data, execute time-based requests and build statistic graphs in a few simple mouse clicks. Although the various types of sensor can surely enrich any analysis, such data requires heavy integration processes to be driven into the data warehouse, centerpiece of any decision-making process. The different data types produced by sensors, sensor models and ways to transfer such data are even today significant obstacles to sensors data streams integration in a geo-decisional data warehouse. Also, actual geo-decisional data warehouses are not initially built to welcome new data on a high frequency. Since the performances of a data warehouse are restricted during an update, new data is usually added weekly, monthly, etc. However, some data warehouses, called Real-Time Data Warehouses (RTDW), are able to be updated several times a day without letting its performance diminish during the process. But this technology is not very common, very costly and in most of cases considered as "beta" versions. Therefore, this research aims to develop an approach allowing to publish and normalize real-time sensors data streams and to integrate it into a classic data warehouse. An optimized update strategy has also been developed so the frequent new data can be added to the analysis without affecting the data warehouse performances.
APA, Harvard, Vancouver, ISO, and other styles
42

Porquet, Damien. "Rendu en temps réel de scènes complexes." Limoges, 2004. http://aurore.unilim.fr/theses/nxfile/default/fdef9900-123a-4d8a-ada2-c65cf3c94a1f/blobholder:0/2004LIMO0036.pdf.

Full text
Abstract:
En informatique graphique, on distingue la modélisation de l'environnement 3D de son rendu, c'est à dire de la synthèse effective d'images. Le cadre dans lequel s'inscrit cette thèse est le rendu en temps réel de scènes composées de modèles 3D complexes non déformables, très finement détaillés. De tels modèles permettent un grand réalisme dans les images produites mais sont également très coûteux utiliser (espace mémoire et temps de calcul). De nombreux travaux ont été proposés dans ce cadre. Nous décrivons différentes approches du problème : le rendu à base de points, la simplification de maillages géométriques et le rendu à base d'images. Nous étendons au temps réel des méthodes d'interpolation d'images, en proposant plusieurs algorithmes différents. Nous décrivons une méthode de génération de textures directionnelles 4D permettant d'obtenir l'image d'un modèle sous un angle quelconque indépendamment de sa complexité géomérique. Finalement, nous présentons une méthode d'interpolation d'images permettant de reconstruire le relief d'un modèle par placage d'images de références. Nous décrivons les travaux utilisant cette méthode appliquée à une image de profondeurs et à un maillage géométriquement simplifié. Ces travaux utilisent intensivement les cartes graphiques récentes permettant d'obtenir à la fois une haute qualité de rendu et de grandes capacités de calcul
In computer graphics, we distinguish modeling from rendering, that is image synthesis. This thesis framework is real-time rendering of scene composed of complex non deformable 3D objects. Such objects gives high realism in computed images but are difficult to use (in terms of storage space and computing time). A lot of works as been driven in this context. We first describe commonly used approach that is point sample rendering, geometrical mesh simplification and image-based rendering. We first propose different algorithms to extend image based methods to real-time rendering. We then describe a method to generate 4D textures producing image of a given 3D object from arbitrary viewpoint, independently of its geometrical complexity. Finally, we present an image interpolation method to map relief onto a given depth image or a low polygon count version of a complex object. This works intensively use latest GPU capabilities, allowing high quality and real-time rendering at same time
APA, Harvard, Vancouver, ISO, and other styles
43

Benkherrat, Moncef. "Analyse et traitement des potentiels évoqués cognitifs en temps réel." Paris 12, 1998. http://www.theses.fr/1998PA120033.

Full text
Abstract:
La presente etude concerne le developpement de methodes d'analyse et de traitement des potentiels evoques cognitifs (p. E. C) en temps reel. Les differentes methodes classiques d'extraction du potentiel evoque notamment le moyennage sont tout d'abord presentees. Une nouvelle approche pour extraire le potentiel evoque cognitif du bruit est etudiee. Cette methode est basee sur l'association du filtre adaptatif vss lms et du moyennage. Des resultats pratiques obtenus sur des signaux simules puis sur des signaux reels sont ensuite presentes. Dans le but d'ameliorer le rapport signal sur bruit, une methode basee sur le filtrage adaptatif est proposee. Celle-ci utilise un filtre adaptatif vss lms comme soustracteur de bruit. Afin de suivre en temps reel le comportement du sujet lors de l'execution d'une tache, nous avons propose une approche originale pour quantifier la reponse du sujet a la stimulation. La methode consiste a modeliser le potentiel evoque cognitif (p. E. C) par une serie de fourier. Les coefficients du modele sont estimes par le filtre adaptatif vss lms. Il nous a semble interessant d'etudier en temps reel les traces (enregistrements) individuelles ainsi que l'evolution des variations de l'onde p300. Nous avons alors utilise un banc de filtres pour estimer les signaux individuels et un filtre adaptatif pour estimer les variations de la latence et de l'amplitude de l'onde p300.
APA, Harvard, Vancouver, ISO, and other styles
44

Pérez, Patricio Madain. "Stéréovision dense par traitement adaptatif temps réel : algorithmes et implantation." Lille 1, 2005. https://ori-nuxeo.univ-lille1.fr/nuxeo/site/esupversions/0c4f5769-6f43-455c-849d-c34cc32f7181.

Full text
Abstract:
Les méthodes de stéréovision sont utilisées pour la reconstruction tridimensionnelle d'une scène. Le travail présenté dans ce mémoire concerne l'étude et le développement de méthodes de stéréovision pouvant être implantées sur des architectures spécialisées de calcul afin de traiter les images en temps-réel. Nous avons étudié plus spécifiquement les méthodes basées sur la corrélation entre des fenêtres extraites des deux images. Le principal problème posé par ces méthodes réside dans le choix de la taille et de la forme de la fenêtre de corrélation. Une petite fenêtre est nécessaire afin de traiter correctement les petits objets, mais elle ne fournit pas de résultats exploitables dans les zones homogènes des images. A l'inverse, une grande fenêtre permet de traiter les zones homogènes, mais les petits objets sont supprimés des images résultat. Pour pallier ce problème, nous proposons une nouvelle méthode adaptative qui peut être implantée sur une architecture dédiée de calcul. La corrélation est calculée sur une grande fenêtre, mais certains pixels sont exclus lors du traitement. Seuls les pixels "semblables" au pixel à apparier sont conservés dans l'expression de la corrélation, ce qui équivaut à changer la taille et la forme de la fenêtre. Plusieurs critères de similarité sont proposés et comparés. Nous avons montré que, même en utilisant de critères de similarité extrèmement simples, les résultats obtenus avec notre algorithme sont de meilleure qualité que ceux obtenus par les algorithmes similaires décrits dans la littérature. L'algorithme a été implanté dans une architecture intégrant un FPGA, le processeur STREAM. Nous présentons également une utilisation de notre algorithme dans le cadre de la détection d'obstacles en temps-réel à l'avant d'un véhicule.
APA, Harvard, Vancouver, ISO, and other styles
45

Toutain, Laurent. "Samson : un simulateur pour systèmes repartis et temps-réel." Le Havre, 1991. http://www.theses.fr/1991LEHA0010.

Full text
Abstract:
L'étude a été effectuée à l'institut national de la recherche en informatique et en automatique (INRIA) dans le projet Reflets. Dans cette thèse nous introduisons une nouvelle méthodologie pour la simulation des systèmes repartis et temps réel. Dans ce type de système pour que la simulation fournisse des résultats intéressants il faut que le modelé soit décrit algorithmiquement. Nous montrons que les formalises habituels (réseaux de file d'attente et réseaux de Petri) ne peuvent pas modéliser précisément de tels systèmes. Le formalisme processus/ressource, développe dans cette thèse, permet une approche objet dans la conception des modelés. Il permet surtout de représenter les contraintes et les conflits qui surviennent sur des ressources partagées dans la vie du système. Le simulateur Samson (« Simulation, Analyses and Monitoring of System and Open Networks ») est une bibliothèque de procédures et de classes qui permettent de transformer le langage C++ en langage de simulation. Nous donnons le fonctionnement d'outils qui permettent la simulation de systèmes répartis et la simulation d'ordonnanceurs. Nous terminons la thèse par la modélisation de différents algorithmes d’ordonnancement.
APA, Harvard, Vancouver, ISO, and other styles
46

Semghouni, Samy Rostom. "Modélisation stochastique des transactions temps réel." Le Havre, 2007. http://www.theses.fr/2007LEHA0012.

Full text
Abstract:
Les SGBD temps réel (SGBDTR) sont conçus pour répondre aux besoins des applications qui nécessitent le traitement de grandes quantités de données en temps réel. Un SGBDTR doit donc traiter les transactions en garantissant leurs propriétés ACID (Atomicité, Cohérence, Isolation, Durabilité) d'une part, et doit satisfaire les contraintes de temps imposées aux transactions et aux données, d'autre part. Les travaux de cette thèse consistent à réaliser une étude stochastique et probabiliste du comportement des transactions temps réel. L'étude est réalisée en faisant varier certaines hypothèses telles que la moyenne d'arrivée des transactions, le type de transactions, le protocole de résolution de conflits (un optimiste et un pessimiste), et la politique d'ordonnancement. Nous avons alors conçu et développé un simulateur de SGBDTR flexible et extensible, sur lequel l'étude à été effectuée. Les résultats obtenus ont montré que le comportement des transactions pouvait être approximé par un modèle probabiliste. Le modèle est utilisé par la suite pour la prédiction du taux de succès des transactions en fonction de la charge du système. Nous avons également proposé une nouvelle politique d'ordonnancement des transactions temps réel qui s'appuie sur les critères d'échéance et d'importance des transactions. Cette politique apporte une contribution dans l'augmentation des performances du système (maximisation du nombre de transactions validées), améliorant ainsi la qualité de service des SGBDTR
Real-time database systems (RTDBSs) are systems designed to address the applications which need real-time processing of large quantities of data. An RTDBS must guarantee the transactions ACID (Atomicity, Consistency, Isolation, Durability) properties on one hand, and must schedule the transactions in order to meet their individual deadlines, on the other hand. In this thesis, we focus on stochastic and probabilistic study of the behavior of real-time transactions. The study is conducted under some assumptions such as the arrival mean of transactions, transactions type, concurrency control protocol (an optimistic and a pessimistic), and scheduling policy. We have then designed and developed a flexible and extensible RTDBS simulator, on which the study is done. The obtained results have shown that the transactions behavior can be approximated by a probabilistic model. The model is used to predict the transactions success ratio according to the system workload. We also propose a new scheduling policy for real-time transactions which uses criteria based on both transaction deadlines and transaction importance. This policy contributes to enhance the system performances (maximization of committing transactions), improving then the RTDBSs quality of service
APA, Harvard, Vancouver, ISO, and other styles
47

Engels, Laurent. "Acquisition en temps réel, identification et mise en correspondance de données 3D." Doctoral thesis, Universite Libre de Bruxelles, 2011. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/209852.

Full text
Abstract:
Cette thèse décrit le développement et la mise en œuvre d'un système d'acquisition 3D ayant pour but la localisation temps réel en 3D et l'identification d'électrodes et des antennes utilisées lors d'un examen MEG/EEG. La seconde partie concerne la mise en correspondance de ces données avec les informations de la résonance magnétique.
Doctorat en Sciences de l'ingénieur
info:eu-repo/semantics/nonPublished
APA, Harvard, Vancouver, ISO, and other styles
48

Glory, Anne-Cécile. "Vérification de propriétés de programmes flots de données synchrones." Grenoble 1, 1989. http://tel.archives-ouvertes.fr/tel-00335630.

Full text
Abstract:
Dans le cadre de cette thèse, nous nous intéressons à la vérification de systèmes réactifs critiques et temps réel développés a l'aide de langages flots de données synchrones. Plus particulièrement nous avons considéré les propriétés de sureté pour les applications réalisées dans un des deux langages, saga produit de Merlin Gerin/ses, ou lustre crée au LGI. La méthode de vérification, pour laquelle un prototype a été réalise, est l'évaluation de propriétés sur un modèle des programmes. Un langage de spécification adapte au contexte des systèmes réactifs temps réel, avec sa sémantique formelle, est défini; ce langage comprend plusieurs opérateurs temporels. Le désir d'automatiser la vérification a nécessité la définition de la sémantique formelle de saga. Plusieurs modèles pour les programmes ont alors été étudiés: les arbres des exécutions comme base d'expression commune des sémantiques, les graphes d'états et automates de contrôle pour la mise en œuvre de la vérification. L'utilisation de moyens existants de vérification, fondée sur l'évaluation de propriétés sur un modèle des programmes, a été étudiée et évaluée. Ces moyens sont relatifs a des logiques temporelles arborescentes et des mu-calculs propositionnels. Une nouvelle approche pour la spécification et la vérification de propriétés de sureté, mettant en œuvre les caractéristiques du langage lustre, est développée. Elle s'appuie sur l'utilisation de lustre lui-même comme langage de spécification et présente les avantages suivants: formalisme commun pour la programmation et la spécification, utilisation du compilateur pour la vérification, possibilité de preuves modulaires
APA, Harvard, Vancouver, ISO, and other styles
49

Cassinelli, Alvaro. "Processeurs parallèles optoélectroniques stochastiques pour le traitement d'images en temps réel." Phd thesis, Université Paris Sud - Paris XI, 2000. http://pastel.archives-ouvertes.fr/pastel-00715890.

Full text
Abstract:
Nous étudions dans cette thèse une matrice de processeurs élémentaires optoélectronique (parfois appelé rétine artificielle optoélectronique ou encore spa - pour smart pixel array) capable de réaliser plusieurs fonctions de traitement d'images bas niveau a cadence vidéo. Plus précisément, il s'agit d'une machine simd optoélectronique fonctionnant par recuit simule : chaque processeur élémentaire (pe ou sp - pour smart pixel) est l'équivalent d'un neurone dont l'état évolue en fonction de celui de ses voisins, et cela de façon probabiliste grâce a un générateur de nombres aléatoires optique base sur le phénomène de speckle laser. Dans une première version du processeur (circuit en silicium cmos 0,8 m), chaque pe est interconnecté de façon électronique a ces quatre plus proches voisins. Un montage base sur deux modulateurs spatiaux de lumière ferroélectriques et un hologramme de dammann permet d'étendre le voisinage d'interconnexion et de simuler des interconnexions intra-processeur optiques reconfigurables. Le montage servira a demontrer la détection du mouvement sur des séquences d'images a niveaux de gris ; toutefois, les performances restent médiocres (2 a 5 secondes par image). En fin de thèse est étudié un nouveau prototype base sur une matrice a entrées et sorties optiques (diodes p-i-n a puits quantiques multiples) réalisé en technologie hybride si/gaas par flip-chip bonding . Les performances du système sont considérablement améliorées (l'architecture comporte alors de véritables interconnexions optiques intra-processeur). L'étude théorique permet de conclure que l'utilisation d'une puce a entrées et sorties optiques rendrait le système a la fois compact (taille comparable avec celle d'un processeur pentium avec ses éléments de réfrigération) et extrêmement rapide (dizaines de milliers d'images a la seconde), ce qui en ferait un dispositif de choix pour les applications embarques de traitement d'images bas-niveau et temps réel.
APA, Harvard, Vancouver, ISO, and other styles
50

Zaidouni, Jamal. "Traitement en temps réel de signaux radar appliqués aux transports terrestres." Valenciennes, 2008. http://ged.univ-valenciennes.fr/nuxeo/site/esupversions/dd122fcd-724b-44ee-bd07-0d44b76e1697.

Full text
Abstract:
L’objectif de ce travail de recherche est de concevoir un radar anti-collision à corrélation qui sera embarqué sur véhicule. Ce capteur se base sur l’utilisation des codes SBPA en émission et la corrélation en réception. Nous cherchons à améliorer ses performances en étudiant la partie codage et traitement du signal. Nous avons proposé des algorithmes basés sur les Statistiques d’Ordres Supérieurs (SOS) afin de réduire l’effet du bruit gaussien reçu. Après plusieurs tests, l’algorithme CORR2 associé à la famille des codes de Kasami de type 2 donne le meilleur système réalisant un compromis entre meilleures performances et nombre élevé de codes par rapport aux SBPA. Dans l’objectif de minimiser l’effet d’une fuite électromagnétique apparue comme des pics parasites aux niveaux des algorithmes de détection, nous avons proposé une solution basée sur l’identification partielle du canal radar. Cette dernière, appelée Suppression Adaptative de la Fuite (SAF), a montré des bonnes performances lors des simulations numériques réalisées dans les deux principales situations d’un radar routier. Nous avons développé, puis validé par des simulations, les expressions de probabilités de détection et de fausse alarme pour l'algorithme le plus performant (CORR2). Ainsi, nous avons proposé d'utiliser l’algorithme CORR2 moyenneur pour améliorer les Caractéristiques Opérationnelles du Récepteur (COR) dans le cas où le signal reçu est fortement bruité. Finalement des travaux ont été effectués pour la réalisation d’un prototype radar à 76-77 GHz associé à une implémentation en FPGA du codage et traitement de signal. Des tests réalisés en conditions réelles avec ce prototype nous ont permis d'évaluer les performances de notre système
The objective of this research is to design correlation anti-collision radar to be embedded on the vehicle. This sensor is based on pseudo-random codes in transmission and correlation in reception. We seek to improve its performances by studying the coding and signal processing unit. To reduce the received gaussian noise effect, we propose algorithms based on Higher Order Statistics (HOS). After several simulations, the CORR2 algorithm (inspired of an algorithm of order 4) associated to the Kasami codes type 2 family gives the best system achieving a compromise between best performances and large number of codes. To minimize an electromagnetic leakage effect observed as parasite peaks at the detection algorithms, we propose a solution based on the partial identification of radar channel. This solution, called Adaptive Leakage Cancellation (ALC), has shown good performances in numerical simulations realised in two main possible situations of road radar (single-user and multi-users). We develop and validate by simulations, the expressions of probability of detection and false alarm for the most efficient algorithm (CORR2). To improve the Receiver Operating Characteristics (ROC), we propose to use the meaning CORR2 algorithm (under -30 dB of SNRin). Finally we realise a radar prototype at 76-77 GHz with the implementation of coding and signal processing in FPGA (Field Programmable Gate Arrays). Tests with this mock-up allow us to evaluate the performances of our system in real conditions
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography