Gotowa bibliografia na temat „Traitement des données en temps réel”

Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych

Wybierz rodzaj źródła:

Zobacz listy aktualnych artykułów, książek, rozpraw, streszczeń i innych źródeł naukowych na temat „Traitement des données en temps réel”.

Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.

Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.

Artykuły w czasopismach na temat "Traitement des données en temps réel"

1

Nuzillard, Danielle, i Aurélie Nuzillard. "Prototype d’un véhicule autonome pilotable par un poisson rouge". J3eA 22 (2023): 1039. http://dx.doi.org/10.1051/j3ea/20231039.

Pełny tekst źródła
Streszczenie:
Ce projet s’inspire de travaux publiés sur la cognition animale dans lesquels un véhicule autonome est piloté par un poisson rouge. La conception et la réalisation du véhicule requièrent des connaissances et compétences pluridisciplinaires en électronique, informatique et mécanique qui font partie du socle des acquis de futurs ingénieurs dans le domaine de l’Électronique Énergie Électrique et Automatique, EEEA. Le projet a été proposé à des étudiants de niveau bac+5, inscrits dans la branche Automatique et Informatique Industrielle, A2I de l’UTT opérée à l’URCA en convention avec l’UTT et en 2e année de Master EEEA, parcours Mécatronique de l’EiSINe, composante de l’URCA. Les étudiants ont abordé la conception complète du robot : le dimensionnement, le choix des matériaux et des équipements, le traitement du flux de données, la commande des parties opératives en temps réel… L’avis des étudiants est que le projet leur a plu de par sa polyvalence et sa diversité. Il allie concrètement des parties mécanique, électronique et logicielle. Il prend en compte des aspects de sécurité des robots et s’inscrit dans le cadre plus général d’une application.
Style APA, Harvard, Vancouver, ISO itp.
2

Bourbier, Lucas, Guillaume Cornu, Alexandre Pennec, Christine Brognoli i Valéry Gond. "Estimation à grande échelle de l'ouverture du couvert forestier en Afrique centrale à l'aide de données de télédétection". BOIS & FORETS DES TROPIQUES 315, nr 315 (1.03.2013): 3. http://dx.doi.org/10.19182/bft2013.315.a20537.

Pełny tekst źródła
Streszczenie:
Les activités humaines en forêt humide tropicale sont à l'origine de perturbations et de dégradations du fait de leur mitage du couvert forestier. Des capacités permettant de mesurer l'étendue des dégâts sont indispensables au calcul des émissions de carbone dans le cadre des programmes Redd+ (Réduction des émissions dues à la déforestation et la dégradation des forêts). La télédétection est un outil puissant pour le recueil de ce type d'information (concernant, par exemple, l'exploitation forestière ou minière ou les projets d'infrastructure). Différentes techniques sont mises en ¿uvre pour identifier et quantifier l'ouverture du couvert forestier. Il s'agit ici de les compléter en comparant l'ouverture passée et actuelle du couvert forestier afin de documenter le renouvellement des écosystèmes suite aux opérations d'exploitation forestière. Cet article présente une approche mettant en ¿uvre une chaîne de traitement semi-automatisée adaptée à l'imagerie Landsat. En post-traitement, l'information portant sur l'ouverture de la canopée est extraite à l'aide d'algorithmes spécifiques. Un index spatial, calibré sur des données radiométriques à basse résolution, indique les taux d'ouverture passés et actuels. Ce procédé fournit des estimations de la dégradation forestière permettant de décrire les données de télédétection à basse résolution (issues de Modis, par exemple) utilisées pour la cartographie terrestre. Ces estimations sont alors croisées avec des cartes de couverture terrestre afin de distinguer des catégories forestières actuelles. Cet outil a été développé dans le cadre du projet CoForChange, dont l'objectif global est de prévoir l'évolution du couvert forestier et de la distribution des essences dans le Bassin du Congo liée aux changements globaux, et de développer des outils d'aide à la décision. Cet article présente un exemple en grandeur et en temps réels, situé dans la forêt humide aux frontières de la République centrafriquaine, de la République du Congo et du Cameroun, analysé année par année à l'aide de trente années d'archives Landsat.
Style APA, Harvard, Vancouver, ISO itp.
3

Ndubuka, Nnamdi, Braeden Klaver, Sabyasachi Gupta, Shree Lamichhane, Leslie Brooks, Shirley Nelson i Grace Akinjobi. "Analyse descriptive d’une éclosion de tuberculose dans une communauté des Premières Nations du nord de la Saskatchewan, décembre 2018 à mai 2019". Relevé des maladies transmissibles au Canada 47, nr 11 (10.11.2021): 531–37. http://dx.doi.org/10.14745/ccdr.v47i11a07f.

Pełny tekst źródła
Streszczenie:
Contexte : Le taux d’incidence de la tuberculose chez les Premières Nations du nord de la Saskatchewan vivant dans les réserves est 1,5 fois plus élevé que la moyenne nationale. En décembre 2018, un membre de l’une de ces communautés a été diagnostiqué avec une tuberculose avec un frottis positif 4+, ce qui a déclenché une enquête sur l’éclosion. Objectifs : Décrire la réponse de la santé publique à l’enquête sur l’éclosion de tuberculose et mettre en évidence les facteurs de risque associés à la transmission de la tuberculose dans le nord de la Saskatchewan; et souligner la pertinence de l’outil de recherche des contacts basée sur les réseaux sociaux dans la gestion des éclosions. Méthodes : L’analyse descriptive comprenait les cas de tuberculose active et les cas d’infection tuberculeuse latente (ITL) liés au cas index par une recherche des contacts. Les données ont été recueillies à partir des cas de tuberculose active. Des analyses statistiques ont été effectuées et une analyse des réseaux sociaux a été réalisée en utilisant les lieux de résidence comme points de contact entre les cas. Résultats : Au total, huit cas de tuberculose active et 41 cas d’ITL ont été identifiés dans le cadre de cette éclosion entre décembre 2018 et mai 2019. La moitié des cas (4/8) étaient âgés de 25 à 34 ans, et cinq d’entre eux avaient un frottis négatif. Un tiers des personnes atteintes d’ITL étaient âgées de 15 à 24 ans, et environ la moitié d’entre elles ont obtenu un résultat positif au nouveau test cutané à la tuberculine (TCT). Les facteurs de risque couramment rapportés pour les cas de tuberculose et d’ITL étaient : la consommation d’alcool, le tabagisme, la consommation de marijuana, une infection tuberculeuse antérieure et être en situation d’itinérance. L’analyse des réseaux sociaux a indiqué une relation entre l’augmentation de la centralité du nœud et le fait de devenir un cas actif. Conclusion : La recherche en temps réel de contacts basée sur les réseaux sociaux, utilisée dans le cadre de la recherche active de cas, a été très efficace pour identifier les cas, et le soutien infirmier renforcé, les cliniques mobiles et la radiographie mobile ont bien fonctionné comme moyen de confirmer les cas et de proposer un traitement. Les éclosions de tuberculose dans les communautés des Premières Nations du nord de la Saskatchewan vivant dans les réserves sont favorisées par des facteurs propres à la population. Les efforts visant à mettre en œuvre des interventions adaptées au contexte sont primordiaux pour gérer les éclosions de tuberculose et prévenir leur transmission future.
Style APA, Harvard, Vancouver, ISO itp.
4

Faouzi, Berrada, Khalili Malika i Bennis Saad. "Validation en temps réel des données hydrométriques". Canadian Journal of Civil Engineering 30, nr 1 (1.02.2003): 212–25. http://dx.doi.org/10.1139/l02-089.

Pełny tekst źródła
Streszczenie:
The managers of hydrological systems take real-time level and discharge measurements on several reservoirs and river reaches. The measurements are frequently tainted with errors that are reflected by uncertainties in decision making and by non-optimal resource management. This article aims at developing a methodology for the validation of levels in real-time. The proposed approach is based on material and analytical redundancy, and uses two models. The first one is spatial and enables linking of the measurements carried out at different stations with the help of a multiple regression equation. The second one is temporal, which enables the determination of variation trend at the different stations with the help of an auto-regressive model. These two models are incorporated into a diagnosis system for breakdowns based on a logic vote principle. Among the values that are measured and estimated by the linear regression model, the one which is the most consistent with the variation trend indicated by the auto-regressive model is selected. The Kalman filter is used to filter the measurements and identify the parameters of the models used in real-time. The proposed methodology turned out to be conclusive when applied to both measured data and synthetic hydrographs.Key words: validation, real-time, material redundancy, analytical redundancy, regressive, auto-regressive, Kalman filter.
Style APA, Harvard, Vancouver, ISO itp.
5

Fari, Pascale. "L’urgence, un traitement du réel du temps". La Cause freudienne N° 74, nr 1 (22.04.2010): 57–59. http://dx.doi.org/10.3917/lcdd.074.0057.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
6

Belderbos, Marc. "actualité d’Alberti". Les Pages du laa 1, nr 4 (24.08.2023): 1–56. http://dx.doi.org/10.14428/lpl.v1i4.75473.

Pełny tekst źródła
Streszczenie:
« L’architecture, au même titre que la mathématique ou la musique, ou l’art de manière générale, n’est pas une science mais une discipline. Une science vise un savoir sur le fonctionnement d’une réalité. Une discipline vise une vérité sur la structure d’un réel. Les disciplines accompagnent les sciences, elles sont comme leur exigence sous-jacente, à la fois de l’ordre de l’éthique et de la structure.»L’argument de la journée était celui-ci : « Alberti, avec le De Re Aedificatoria, entreprend à la fois d’identifier les constituants élémentaires de l’architecture et d’établir les règles destinées à les articuler au sein d’une édification. Le concept de Beau surplombe l’ouvrage et mérite un traitement en soi : il s’institue en tant qu’autorité supérieure dont procède l’articulation concrète des éléments architectoniques. On connaît la formulation la plus canonique : le Beau commande l’instauration d’un juste rapport entre les parties et le tout, de telle façon qu’aucun membre ne puisse être ôté, ajouté ou modifié sans mettre en péril le droit de l’édifice à participer au Beau. Ce principe conduit à considérer les rapports qu’entretiennent entre elles les mesures données aux différents corps et aux différents espacements qui sont associés par une architecture. Des références sont à disposition, qui appartiennent à la nature ou à l’histoire, auxquelles l’architecte doit s’adresser pour conduire son ouvrage : le corps humain et les corps bâtis par les Anciens constituent les références les plus originelles. Le travail de l’architecte est ainsi parfaitement balisé : finalité ordonnatrice (le Beau), règles d’articulations (rapports mesurés entre les parties et le tout), références fondatrices (le corps de l’homme et l’architecture des Anciens).L’ (in)actualité d’Alberti, et le dilemme qu’elle suppose, s’affiche ici avec acuité. Dans quelle mesure sommes-nous encore couverts par le dispositif (finalité ordonnatrice, règles d’articulation, références fondatrices) déployé par Alberti dans le De Re Aedificatoria ? Où sont les finalités, les règles et les références dans la situation contemporaine ? L’architecture semble bien orpheline aujourd’hui à ces différents égards, invitée par les discours ambiants à saisir l’air du temps, peu préoccupée par l’établissement de ses axiomes, soucieuse de dériver sur les vagues d’une imagerie qui accompagne l’ensemble des pratiques sociales. Mais le questionnement n’est-il pas déplacé si le pari très actuel d’une architecture qui serait capable d’éclore dans l’immanence de son auto-fondation, comme le geste d’un pur désir, venait à convaincre de sa force ?Il nous paraît nécessaire de faire un pas de côté, de re-considérer une discipline qui fut re-fondée en son autonomie à l’époque d’Alberti, et cela dans la poursuite-même du mouvement inauguré par lui, mouvement qui réclame de ne cesser d’ouvrir la question de la légitimité des pratiques de l’architecture. L’autonomie disciplinaire de l’architecture n’est pas identique à l’autonomie du sujet–auteur–architecte, et vice versa : nous en sommes convaincus. Pourtant chacune est revendiquée aujourd’hui avec vigueur ! Retourner vers Alberti, c’est nous permettre de mieux faire retour sur notre propre situation et de questionner l’état des enjeux de notre discipline.Nous proposons de vous engager sur ce chemin en considérant le texte d’Alberti de manière rapprochée, en croisant la pensée du projet avec les articulations les plus précises et les plus concrètes du traité, nous voulons dire celles qui engagent directement la fabrication des architectures. »
Style APA, Harvard, Vancouver, ISO itp.
7

Dorléans, Philippe, Hervé Fleury i Éric Magarotto. "Utilisation d’une carte Raspberry PI 3 sous Matlab/Simulink dans un contexte d’Automatique temps réel". J3eA 21 (2022): 2048. http://dx.doi.org/10.1051/j3ea/20222048.

Pełny tekst źródła
Streszczenie:
Dans le cadre de l'enseignement de l'Automatique continue et échantillonnée à l’école d’ingénieurs ESIX Normandie département MeSN (Mécatronique et Systèmes Nomades) et à l'UFR des Sciences à Caen en cycles Licence (L3) et Master EEEA (Electronique, Energie Electrique, Automatique), nous présentons une solution à faible coût permettant de faire de l’acquisition de données et de la commande de procédés en temps réel en utilisant l’environnement logiciel Matlab/Simulink. Cette solution est basée sur l’utilisation d’une carte de type Raspberry Pi associée à une carte de conversion AN/NA. Le spectre des fonctionnalités de la carte Raspberry Pi est assez large. Nous proposons ici de l’utiliser pour répondre à différents aspects d’un problème d’Automatique en temps réel (identification et commande).
Style APA, Harvard, Vancouver, ISO itp.
8

Mougin, Bruno, Jérôme Nicolas, Yannick Vigier, Hélène Bessière i Stéphane Loigerot. "« MétéEAU Nappes » : un site Internet contenant des services utiles à la gestion des étiages". La Houille Blanche, nr 5 (październik 2020): 28–36. http://dx.doi.org/10.1051/lhb/2020045.

Pełny tekst źródła
Streszczenie:
Le site Internet « MétéEAU Nappes » offre un ensemble de services permettant le suivi du comportement actuel et futur des aquifères en France et ainsi la disponibilité de la ressource en eau par anticipation. Il est possible, pour les points de surveillance actuellement proposés et associés à un modèle global, de visualiser les mesures les plus récentes issues du réseau piézométrique national. Ces données sont représentées sous forme de cartes et de courbes issues de travaux de modélisation et de prévision des niveaux des nappes en basses eaux en lien avec des problématiques de sécheresse. Ces prévisions, lancées sur 6 mois, sont comparées à des seuils piézométriques de sécheresse issus des arrêtés préfectoraux de restriction d'usage en cours. Des données météorologiques, hydrologiques et piézométriques sont mises en ligne en temps réel et en format interopérable sur 10 sites représentatifs de France métropolitaine. Les moyens technologiques employés afin d'aboutir à ces services sont : la technologie GPRS (à ce jour déployée sur près de 1400 stations du réseau piézométrique national) permettant de mettre à disposition quotidiennement les données mesurées, ainsi qu'une architecture technique dédiée s'appuyant sur des standards internationaux et sur des technologies récentes permettant le croisement de données temps réel de sources différentes et la valorisation de modélisations déjà effectuées. Le site Internet public ouvrira vraisemblablement en 2020.
Style APA, Harvard, Vancouver, ISO itp.
9

Blondeau, Hélene. "La trajectoire de l'emploi du futur chez une cohorte de Montréalais francophones entre 1971 et 1995". Revue de l'Université de Moncton 37, nr 2 (1.06.2007): 73–98. http://dx.doi.org/10.7202/015840ar.

Pełny tekst źródła
Streszczenie:
S'appuyant sur des données diachroniques documentant la variation en ce qui concerne la référence temporelle au futur en français, cet article fait la lumière sur la contribution du suivi de cohorte à la compréhension du changement linguistique. La recherche en temps réel présente une étude de cas de 12 locuteurs suivis au cours d'une période de 24 ans (1971 à 1995). Les résultats indiquent une augmentation de l'usage du futur synthétique, une tendance contraire à celle du changement communautaire en cours qui suggère plutôt un déclin de la forme synthétique. Cependant, l'analyse des contraintes linguistiques sur la variation indique que la polarité, que l'on considérait précédemment le facteur principal influençant la variation, continue d'exercer une influence incontestable sur la distribution des formes. L'article conclut à la complémentarité des approches méthodologiques en temps apparent et en temps réel dans l'étude de la variation et du changement linguistique.
Style APA, Harvard, Vancouver, ISO itp.
10

Aubert, Yoann, Thomas Legay, Julien Verdonck, Damien Brunel i Stéphane Delichere. "Les données spatiales au service du suivi des ressources en eau". E3S Web of Conferences 346 (2022): 04008. http://dx.doi.org/10.1051/e3sconf/202234604008.

Pełny tekst źródła
Streszczenie:
Les données satellitaires peuvent enrichir le suivi des ressources en eau, quels que soient les objectifs de ce suivi (gestion stratégique des ressources en eau, gestion des ouvrages, prévision des crues et étiages…). Ces données présentent l’avantage de couvrir à pas-de-temps régulier le monde entier, y compris des territoires difficiles d’accès. L’usage de ces données soulève plusieurs questions : comment évaluer leur qualité ? Comment les corriger ? Quelle pertinence au regard des données au sol dont on dispose ? Comment les utiliser pour optimiser le réseau de mesures hydrologiques ? À travers plusieurs projets et avec des partenaires scientifiques et industriels variés (IRD, CNES, CLS, CNRS, CENEAU…) BRL Ingénierie contribue à évaluer et à valoriser l’usage des données satellitaires pour la gestion des ressources en eau à l’échelle d’un bassinversant (e.g. l’Amazone) ou d’un territoire (l’Ouganda). L’objectif est de délivrer des indicateurs hydrologiques issus de l’association de modèles hydrologiques, de données in-situ et de données satellitaires, intégrés en temps réel dans un système d’information sur l’eau. Cet article présente les possibilités et les limites actuelles de l’utilisation des données satellitaires afin d’optimiser le suivi des ressources en eau.
Style APA, Harvard, Vancouver, ISO itp.

Rozprawy doktorskie na temat "Traitement des données en temps réel"

1

Al, Chami Zahi. "Estimation de la qualité des données multimedia en temps réel". Thesis, Pau, 2021. http://www.theses.fr/2021PAUU3066.

Pełny tekst źródła
Streszczenie:
Au cours de la dernière décennie, les fournisseurs de données ont généré et diffusé une grande quantité de données, notamment des images, des vidéos, de l'audio, etc. Dans cette thèse, nous nous concentrerons sur le traitement des images puisqu'elles sont les plus communément partagées entre les utilisateurs sur l'inter-réseau mondial. En particulier, le traitement des images contenant des visages a reçu une grande attention en raison de ses nombreuses applications, telles que les applications de divertissement et de médias sociaux. Cependant, plusieurs défis pourraient survenir au cours de la phase de traitement et de transmission : d'une part, le nombre énorme d'images partagées et produites à un rythme rapide nécessite un temps de traitement et de livraison considérable; d’autre part, les images sont soumises à un très grand nombre de distorsions lors du traitement, de la transmission ou de la combinaison de nombreux facteurs qui pourraient endommager le contenu des images. Deux contributions principales sont développées. Tout d'abord, nous présentons un framework d'évaluation de la qualité d'image ayant une référence complète en temps réel, capable de : 1) préserver le contenu des images en s'assurant que certaines informations visuelles utiles peuvent toujours être extraites de l'image résultante, et 2) fournir un moyen de traiter les images en temps réel afin de faire face à l'énorme quantité d'images reçues à un rythme rapide. Le framework décrit ici est limité au traitement des images qui ont accès à leur image de référence (connu sous le nom référence complète). Dans notre second chapitre, nous présentons un framework d'évaluation de la qualité d'image sans référence en temps réel. Il a les capacités suivantes : a) évaluer l'image déformée sans avoir recours à son image originale, b) préserver les informations visuelles les plus utiles dans les images avant de les publier, et c) traiter les images en temps réel, bien que les modèles d'évaluation de la qualité des images sans référence sont considérés très complexes. Notre framework offre plusieurs avantages par rapport aux approches existantes, en particulier : i. il localise la distorsion dans une image afin d'évaluer directement les parties déformées au lieu de traiter l'image entière, ii. il a un compromis acceptable entre la précision de la prédiction de qualité et le temps d’exécution, et iii. il pourrait être utilisé dans plusieurs applications, en particulier celles qui fonctionnent en temps réel. L'architecture de chaque framework est présentée dans les chapitres tout en détaillant les modules et composants du framework. Ensuite, un certain nombre de simulations sont faites pour montrer l'efficacité de nos approches pour résoudre nos défis par rapport aux approches existantes
Over the past decade, data providers have been generating and streaming a large amount of data, including images, videos, audio, etc. In this thesis, we will be focusing on processing images since they are the most commonly shared between the users on the global inter-network. In particular, treating images containing faces has received great attention due to its numerous applications, such as entertainment and social media apps. However, several challenges could arise during the processing and transmission phase: firstly, the enormous number of images shared and produced at a rapid pace requires a significant amount of time to be processed and delivered; secondly, images are subject to a wide range of distortions during the processing, transmission, or combination of many factors that could damage the images’content. Two main contributions are developed. First, we introduce a Full-Reference Image Quality Assessment Framework in Real-Time, capable of:1) preserving the images’content by ensuring that some useful visual information can still be extracted from the output, and 2) providing a way to process the images in real-time in order to cope with the huge amount of images that are being received at a rapid pace. The framework described here is limited to processing those images that have access to their reference version (a.k.a Full-Reference). Secondly, we present a No-Reference Image Quality Assessment Framework in Real-Time. It has the following abilities: a) assessing the distorted image without having its distortion-free image, b) preserving the most useful visual information in the images before publishing, and c) processing the images in real-time, even though the No-Reference image quality assessment models are considered very complex. Our framework offers several advantages over the existing approaches, in particular: i. it locates the distortion in an image in order to directly assess the distorted parts instead of processing the whole image, ii. it has an acceptable trade-off between quality prediction accuracy and execution latency, andiii. it could be used in several applications, especially these that work in real-time. The architecture of each framework is presented in the chapters while detailing the modules and components of the framework. Then, a number of simulations are made to show the effectiveness of our approaches to solve our challenges in relation to the existing approaches
Style APA, Harvard, Vancouver, ISO itp.
2

Puthon, Anne-Sophie. "Détermination de la vitesse limite par fusion de données vision et cartographiques temps-réel embarquées". Phd thesis, Ecole Nationale Supérieure des Mines de Paris, 2013. http://pastel.archives-ouvertes.fr/pastel-00957392.

Pełny tekst źródła
Streszczenie:
Les systèmes d'aide à la conduite sont de plus en plus présents dans nos véhicules et nous garantissent un meilleur confort et plus de sécurité. Dans cette thèse, nous nous sommes particulièrement intéressés aux systèmes d'adaptation automatique de la vitesse limite. Nous avons proposé une approche alliant vision et navigation pour gérer de façon optimale l'environnement routier.Panneaux, panonceaux et marquages sont autant d'informations visuelles utiles au conducteur pour connaître les limitations temporaires en vigueur sur la route. La reconnaissance des premiers ont fait l'objet ces dernières années d'un grand nombre d'études et sont même commercialisés, contrairement aux seconds. Nous avons donc proposé un module de détection et classification de panonceaux sur des images à niveaux de gris. Un algorithme de reconstruction morphologique associé à une croissance de régions nous ont permis de concentrer la segmentation sur les zones fortement contrastées de l'image entourées d'un ensemble de pixels d'intensité similaire. Les rectangles ainsi détectés ont ensuite fait l'objet d'une classification au moyen de descripteurs globaux de type PHOG et d'une structure hiérarchique de SVMs. Afin d'éliminer en dernier lieu les panonceaux ne s'appliquant pas à la voie sur laquelle circule le véhicule, nous avons pris en compte les informations de marquages à l'aide d'une machine d'états.Après avoir élaboré un module de vision intégrant au mieux toutes les informations disponibles, nous avons amélioré le système de navigation. Son objectif est d'extraire d'une base de données embarquée, le contexte de conduite lié à la position du véhicule. Ville ou non, classe fonctionnelle et type de la route, vitesse limite sont extraits et modélisés sous forme d'attributs. La fiabilité du capteur est ensuite calculée en fonction du nombre de satellites visibles et de la qualité de numérisation du réseau. La confiance en chaque vitesse limite sera alors fonction de ces deux ensembles.La fusion des deux sources au moyen de Demspter-Shafer a conduit à de très bonnes performances sur nos bases de données et démontré l'intérêt de tous ces éléments.
Style APA, Harvard, Vancouver, ISO itp.
3

Hautot, Félix. "Cartographie topographique et radiologique 3D en temps réel : acquisition, traitement, fusion des données et gestion des incertitudes". Thesis, Université Paris-Saclay (ComUE), 2017. http://www.theses.fr/2017SACLS141.

Pełny tekst źródła
Streszczenie:
Dans le cadre des activités de maintenance, de décontamination et de démantèlement d’installations nucléaires, il est nécessaire d’effectuer un état des lieux précis des structures potentiellement contaminées ou activées, préalablement à toute intervention. Pour des raisons économiques, cet état des lieux doit être le plus souvent réalisé dans un temps court. Par ailleurs, il est généralement effectué par un opérateur, dont le temps d’exposition aux rayonnements doit être minimisé. Une des difficultés récurrentes réside dans l’éventuelle obsolescence ou de l’inexistence des plans, et dans le cas d’investigations en intérieur, de la perte de signaux GPS, et de la difficulté d’employer des systèmes de localisations externes et pré-calibrés. En effet, l’état des lieux est obtenu en couplant une cartographie de l’environnement avec des mesures nucléaires destinées à évaluer le niveau de radiations dans les lieux étudiés. Dans ce cadre, il est nécessaire de disposer d’un instrument portatif permettant de délivrer une cartographie radiologique et topographique la plus exhaustive possible des locaux afin d’établir des scénarii d’intervention. Afin de minimiser le temps d’exposition de l’opérateur, il est essentiel que les données acquises soient exploitables en temps réel. Ce type d’instrument doit permettre de procéder à des interventions complexes et doit fournir les meilleures prévisions dosimétriques afin d’optimiser les temps d’intervention lors du démantèlement ainsi que la gestion des éventuels déchets. À ces fins, Areva STMI a développé un système autonome de positionnement et de calcul de déplacement de sondes de mesures nucléaires en temps-réel basé sur les techniques de SLAM (Simultaneous Localization And Mapping). Ces développements ont conduit au dépôt d’un brevet. Ce travail de thèse a consisté à poursuive cette étude, et en particulier à décomposer l’ensemble des sous-systèmes, à poursuivre les développements inhérents à la fusion de données topographiques et radiologiques, à proposer des moyens d’optimisation, et à poser les bases d’une technique d’analyse, en temps réel, des incertitudes associées. Les méthodes SLAM utilisent l’odométrie visuelle qui peut reposer sur la capture d’images à l’aide de caméras RGB-D (caméras de type Microsoft Kinect®). Le processus d’acquisition délivre une carte tridimensionnelle contenant la position et l’orientation en 3D des appareils de mesure ainsi que les mesures elles-mêmes (débit de dose et spectrométrie gamma CZT) sans implication d’infrastructure préexistante. Par ailleurs, des méthodes de détections de sources basées sur les techniques d’interpolation spatiale et de rétroprojection de signal en « proche temps-réel » ont été développées. Ainsi, il est possible d’évaluer la position des sources radioactives dans l’environnement acquis. Il est ainsi possible de calculer rapidement des cartes de son état radiologique sans délai après l’acquisition. La dernière partie de ce travail a consisté à poser les bases d’une méthode originale pour l’estimation, en proche temps réel, de la précision des résultats issus de la chaîne d’acquisition et de traitement. Cette première approche nous a permis de formuler l’évaluation et la propagation des incertitudes tout au long de cette chaîne d’acquisition en temps réel, afin d’évaluer les méthodes que nous avons employées en termes de précision et de fiabilité de chaque acquisition réalisée. Enfin, une phase de benchmark permet d’estimer les résultats par rapport à des méthodes de référence
In the field of nuclear related activities such as maintenance, decontamination and dismantling status reports of potentially contaminated or activated elements are required beforehand. For economic reasons, this status report must be quickly performed. So as to be done quickly, the operation is realized by an operator, and his exposure time must be reduced as much as possible. Concerning indoor environments, it can be hard to make such investigations due to out-of-date plans or maps, loose of GPS signal, pre-positioning of underlying or precalibrated systems. Indeed, the premises status report is obtained by coupling nuclear measurements and topographical mapping. In such kind of situation it is necessary to have a portative instrument that delivers an exhaustive radiological and topographical mapping in order to deliver a decision support concerning the best intervention scenario to set up as fast as possible. Furthermore, and so as to reduce operator’s exposure time, such kind of method must be usable in real time. This method enables to proceed to complex intervention within the best radiological previsions for optimizing operator’s exposition time and waste management. In this goal, Areva STMI then developed a nuclear measurement probes autonomous positioning and motion estimation system based on visual SLAM (Simultaneous Localization And Mapping). These developments led to apply a patent. This thesis consisted in pursuing this survey, especially decomposing all the underlying systems, continuing the data fusion developments, proposing optimisations, and setting the basis of a real-time associated uncertainties analysis. SLAM based on visual odometry can be performed with RGB-D sensor (Microsoft Kinect®-like sensors). The acquisition process delivers a 3D map containing radiological sensors poses (positions and orientations in 3D) and measurements (dose rate and CZT gamma spectrometry) without any external signal or device. Moreover, a few radioactive sources localization algorithms based on geostatistics and back projection of measurements can also be performed in near real-time. It is then possible to evaluate the position of radioactive sources in the scene and compute fast radiological mappings of premises close to the acquisition. The last part of this work consisted in developing an original method for real-time evaluation of the process chain and results accuracies. The evaluation of uncertainties and their propagation along the acquisition and process chain in real-time provide feedbacks on employed methods for investigations or intervention processes and enable to evaluate the reliability of acquired data. Finally, a set of benchmarks has been performed in order to estimate the results quality by comparing them to reference methods
Style APA, Harvard, Vancouver, ISO itp.
4

Marsit, Nadhem. "Traitement des requêtes dépendant de la localisation avec des contraintes de temps réel". Toulouse 3, 2007. http://thesesups.ups-tlse.fr/106/.

Pełny tekst źródła
Streszczenie:
La mobilité des unités a connu un fort essor depuis quelques années. Une des conséquences directes dans le domaine des bases de données est l'apparition de nouveaux types de requêtes tels que les Requêtes Dépendant de la Localisation (RDL) (e. G. Un ambulancier demande l'hôpital le plus proche de sa position). Ces requêtes soulèvent des problèmes qui font depuis quelques années l'objet de plusieurs recherches. En dépit de l'abondance des travaux liés à ce domaine, les différents types de requêtes étudiés jusqu'ici ne répondent pas à tous les besoins applicatifs. En effet, des nouveaux besoins donnent naissance à des requêtes mobiles avec des contraintes de temps réel. La prise en compte à la fois des contraintes de temps réel et de mobilité lors du traitement des requêtes est un problème important à résoudre. Ainsi, notre principal objectif est de proposer une solution pour le traitement des requêtes RDL avec des contraintes de temps réel. D'abord, nous proposons un langage permettant d'exprimer différents types de requêtes RDL. Ensuite, nous concevons une architecture permettant de traiter des requêtes RDL avec des contraintes de temps réel. Les modules conçus sont destinés à être implantés au-dessus de SGBD existants (e. G. Oracle). Dans le cadre de cette architecture, nous proposons des méthodes permettant de tenir compte de la localisation du client et de son déplacement après l'envoi de la requête. Nous proposons aussi des méthodes permettant de maximiser le taux de requêtes respectant leurs échéances. Enfin, nous validons nos propositions par une mise en œuvre et des évaluations des performances des méthodes proposées
In last years, the mobility of units achieved an increasing development. One of the direct consequences in the database field is the appearance of new types of queries such as Location Dependent Queries (LDQ) (e. G. An ambulance driver asks for the closest hospital). These queries raise problems which have been considered by several researches. Despite the intensive work related to this field, the different types of queries studied so far do not meet all the needs of location based applications. In fact these works don’t take into account the real time aspect required by certain location based applications. These new requirements generate new types of queries such as mobile queries with real time constraints. Taking into account mobility and real time constraints is an important problem to deal with. Hence, our main objective is to propose a solution for considering real time constraints while location dependent query processing. First, we propose a language for expressing different type of queries. Then, we design a software architecture allowing to process location dependent queries with real time constraints. The modules of this architecture are designed to be implemented on top of existent DBMS (e. G. Oracle). We propose methods to take into account location of mobile client and his displacement after sending the query. We also propose methods in order to maximise the percentage of queries respecting their deadlines. Finally we validate our proposal by implementing the proposed methods and evaluating their performance
Style APA, Harvard, Vancouver, ISO itp.
5

Martin, Patrick. "Conception et réalisation d'un système multiprocesseur, cadencé par les données, pour le traitement d'images linéaires en temps réel". Rouen, 1991. http://www.theses.fr/1991ROUE5046.

Pełny tekst źródła
Streszczenie:
Nous présentons un opérateur programmable capable d'analyser à la cadence de l'acquisition les informations issues d'une caméra linéaire 2 MHz. Ses applications sont orientées vers le contrôle de qualité. L'unité de traitement de l'opérateur est formée de huit processeurs NEC cadencés par les données. Il présente l'intérêt d'être flexible, de remplir des tâches complexes en ayant un bon rapport coût/performance. Dans un premier temps nous abordons les solutions adoptées dans les systèmes multiprocesseurs conventionnels ainsi que la détection et l'exploitation du parallélisme par ces architectures. Puis en opposition, nous présentons le concept data flow suivi de la description de deux machines en cours de développement. Ensuite nous proposons une étude du processeur NEC µPD7281, complétée par une méthode d'évaluation des temps d'exécution des programmes écrits sous forme de graphes. Puis nous développons les solutions adoptées dans l'architecture de l'opérateur. Et en dernier lieu nous présentons deux applications mettant en évidence les performances de l'opérateur. La première porte sur le contrôle de 7000 gélules pharmaceutiques par heure; les principales caractéristiques à vérifier sont la couleur de la gélule, l'aspect géométrique et la présence du produit pharmaceutique. La seconde concerne la qualité d'impression de flacons
Style APA, Harvard, Vancouver, ISO itp.
6

Gagnon-Turcotte, Gabriel. "Algorithmes et processeurs temps réel de traitement de signaux neuronaux pour une plateforme optogénétique sans fil". Master's thesis, Université Laval, 2015. http://hdl.handle.net/20.500.11794/26339.

Pełny tekst źródła
Streszczenie:
Tableau d'honneur de la Faculté des études supérieures et postdorales, 2015-2016
L’acquisition des signaux électriques provenant des neurones du cerveau permet aux neurobiologistes de mieux comprendre son fonctionnement. Dans le cadre de ce travail, de nouveaux algorithmes de compression des signaux neuronaux sont conçus et présentés. Ces nouveaux algorithmes sont incorporés dans trois nouveaux dispositifs optogénétiques sans fil miniature capable de stimuler optiquement l’activité neuronale et de transmettre sans fil les biopotentiels captés par plusieurs microélectrodes. Deux de ces systèmes sont capables de compresser les signaux provenant de deux microélectrodes ainsi que de stimuler optiquement via deux diodes électroluminescentes (DEL) haute puissance. Afin de réduire la bande passante des transmetteurs sans fil utilisés, ces deux systèmes sont dotés d’un nouvel algorithme de détection des potentiels d’actions qui génère de meilleurs taux de détection que les algorithmes existants, tout en nécessitant moins de ressources matérielles et de temps de processeur. Un troisième dispositif incorporant les algorithmes de détection et de compression fût conçu. Ce dispositif est le seul système optogénétique sans fil comportant 32 canaux de stimulation optique et 32 canaux d’enregistrement électrophysiologiques en parallèle. Il utilise une nouvelle technique de compression par ondelettes permettant d’augmenter significativement le nombre de canaux sous observation sans augmenter la consommation de l’émetteurrécepteur. Cette nouvelle méthode de compression se distingue des méthodes existantes en atteignant de meilleurs taux de compression tout en permettant de reconstruire les signaux compressés avec une meilleure qualité. Au moment de la rédaction de ce mémoire, il s’agit des premiers dispositifs optogénétiques sans fil à offrir simultanément de la stimulation optique multicanal, de l’enregistrement électrophysiologique multicanal ainsi que de la détection/compression in situ des potentiels d’actions. Grâce à leur design novateur et aux innovations apportées par les nouveaux algorithmes de traitement des signaux, les systèmes conçus sont plus légers et plus compacts que les systèmes précédents, rendant ces dispositifs indispensables afin de mener des expériences sur le cerveau de petits animaux libres de leurs mouvements. Les trois systèmes ont été validés avec grand succès par des expériences in vivo sur des souris transgéniques au Centre de Recherche de l’Institut Universitaire en Santé Mentale de Québec (CRIUSMQ).
The electrical signals acquisition from the brain’s neurons allows neuroscientists to better understand its functioning. In this work, new neural signals compression algorithms are designed and presented. These new algorithms are incorporated into three new miniature optogenetic wireless devices. These devices are capable to optically stimulate neural activity and to wirelessly transmit the biopotentials captured by several microelectrodes. Two of these systems are able to compress the signals from two microelectrodes and to stimulate optically via two high-power LED. Both systems feature a new spike detection algorithm to reduce the bandwidth used by the wireless transceiver. This new spike detection algorithm differs from existing algorithms by achieving better detection rate while using less material resources and processing time. A third device incorporating the detection and compression algorithms was designed. This device is the only optogenetic wireless system including 32 optical stimulation channels and 32 electrophysiological recording channels in parallel. This new system has the ability to compress the neural signals using a new wavelet compression technique that significantly increase the number of channels under observation without increasing the consumption of the wireless transceiver. In particular, this new compression technique differs from the existing wavelet based compression methods by achieving better compression ratio while allowing to reconstruct the compressed signals with better quality. At the time of writing this thesis, these are the first three devices that offer simultaneous multichannel optical stimulation, multichannel electrophysiological signals recording and on-the-fly spike detection. The resulting systems are more compact and lightweight than previous systems, making these devices essentials to conduct long term experiments on the brains of small freely moving animals. The three systems were validated within in vivo experiments using transgenic mice at the Centre de Recherche de l’Institut Universitaire en Santé Mentale de Québec (CRIUSMQ).
Style APA, Harvard, Vancouver, ISO itp.
7

Cotton, Julien. "Analyse et traitement de données sismiques 4D en continu et en temps réel pour la surveillance du sous-sol". Electronic Thesis or Diss., Paris Sciences et Lettres (ComUE), 2019. http://www.theses.fr/2019PSLEM023.

Pełny tekst źródła
Streszczenie:
La sismique réflexion 3D est largement utilisée dans l'industrie pétrolière. Cette méthode d’auscultation du sous-sol fournit des informations sur les structures géologiques et peut être utilisée pour construire des modèles de réservoir. Cependant, les propriétés dérivées des données sismiques 3D (et 2D) ne sont que statiques: elles ne permettent pas d’évaluer ce qui change avec le temps. L'ajout d'une dimension temporelle aux données 3D est obtenue par la répétition des mesures à plusieurs dates séparées de plusieurs mois voire même de plusieurs années. Ainsi, la sismique4D (time-lapse) permet d’appréhender les modifications du sous-sol sur le long terme. Depuis les années 90, cette méthode est utilisée dans le monde entier en mer et à terre. Pour réaliser une surveillance beaucoup plus fréquente (quotidienne), voire continue (quelques heures) du sous-sol, CGG a développé, en collaboration avec Gaz de France (désormais ENGIE) et l’Institut Français du Pétrole (maintenant IFPEN), une solution basée sur des sources et des récepteurs enterrés: SeisMovie. SeisMovie a été initialement conçu pour suivre et cartographier en temps-réel le front de gaz lors des opérations de stockage en couche géologique. Il est aussi utilisé pour observer l’injection de vapeur nécessaire à la production d’huile lourde. Dans cette thèse, nous apportons des contributions à trois défis qui apparaissent lors du traitement des données sismiques issues de ce système. Le premier concerne l'atténuation des variations de proche surface causées par les ondes « fantômes » qui interfèrent avec les ondes primaires. Le second concerne la quantification des modifications du sous-sol en termes de variation de vitesse de propagation et d’impédance acoustique.Le troisième concerne le temps-réel : le traitement doit être au moins aussi rapide que le cycle d’acquisition (quelques heures). En effet l’analyse des données doit permettre aux ingénieurs réservoirs de prendre rapidement des décisions (arrêt de l’injection, diminution de la production). Dans un cadre plus général, il existe des similitudes conceptuelles entre la 3D et la 4D. En 4D, ce sont les acquisitions répétées qui sont comparées entre elles (ou avec une référence). En3D, pendant l’acquisition, les géophysiciens de terrain comparent les points de tir unitaires entre eux afin d’évaluer la qualité des données pour prendre des décisions (reprendre le point de tir, continuer). Dès lors, certains outils 4D temps réel développés pendant cette thèse peuvent être appliqués. Ainsi une toute nouvelle approche appelée TeraMig pour le contrôle qualité automatisé sur le terrain sera également présentée
3D seismic reflection is widely used in the oil industry. This standard subsoil auscultation method provides information on geological structures and can be used to build reservoir models. However, the properties derived from3D (and 2D) seismic data are only static: 3D does not allow to evaluate the changes with calendar time. The addition of a temporal dimension to 3D data is obtained by repeating the measurements at several dates separated by several months or even several years. Thus, 4D seismic (time-lapse) makes it possible to measure and to analyze the changes of the subsoil in the long term. Since the 90s, this method is used worldwide at sea and on land. To carry out a much more frequent monitoring (daily), even continuous (a few hours) of the subsoil, CGG developed, in collaboration with Gazde France (now ENGIE) and Institut Français du Pétrole (now IFPEN), a solution based on buried sources and receptors: SeisMovie. SeisMovie was originally designed to monitor and map the gas front in real time during geological disposal operations. It is also used to observe the steam injection required for heavy oil production. In this thesis, we bring contributions to three challenges arising in the processing of seismic data from this system. The first one concerns the attenuation of near-surface variations caused by "ghost" waves that interfere with primary waves. The second one concerns the quantification of subsurface changes in terms of propagation velocity variation and acoustic impedance.The third one concerns real-time: the data processing must be at least as fast as the acquisition cycle (a few hours). Infact, the analysis of the data must enable the reservoir engineers to make quick decisions (stop of the injection, decreaseof the production). In a more general context, there are conceptual similarities between 3D and 4D. In 4D, the repeated acquisitions are compared with each other (or with a reference). In 3D, during acquisition, field geophysicists compare unitary shot points with each other to assess the quality of the data for decision-making (reshooting, skipping orcontinuing). Therefore, some 4D real-time tools developed during this thesis can be applied. A new approach called TeraMig for automated quality control in the field will also be presented
Style APA, Harvard, Vancouver, ISO itp.
8

Sasportas, Raphaël. "Etude d'architectures dédiées aux applications temps réel d'analyse d'images par morphologie mathématique". Paris, ENMP, 2002. http://www.theses.fr/2002ENMP1082.

Pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
9

Picard, Quentin. "Proposition de mécanismes d'optimisation des données pour la perception temps-réel dans un système embarqué hétérogène". Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG039.

Pełny tekst źródła
Streszczenie:
Le développement des systèmes autonomes engendre des besoins en perception de l'environnement de plus en plus élevés dans les systèmes électroniques embarqués. Les voitures autonomes, les drones, ou encore les casques à réalité mixte présentent des facteurs de forme limités et un budget de puissance énergétique restreint pour les performances en temps-réel. Par exemple, les cas applicatifs cités ont un budget compris entre 300W-10W, 15W-10W et 10W-10mW respectivement. La thèse se place dans le domaine des systèmes autonomes et mobiles ayant un budget de consommation de 10mW à 15W avec l'utilisation de capteurs d'images et de la centrale inertielle (IMU). La méthode Simultaneous Localization And Mapping (SLAM) fournit aux systèmes autonomes et mobiles une perception précise et robuste de l'environnement en temps-réel et sans connaissances préalables. La thèse a pour objectif de répondre à la problématique de l'exécution temps-réel du système SLAM dans son ensemble composé de fonctions de perception avancées allant de la localisation à la reconstruction 3D sur du matériel à ressources restreintes. Dans ce cadre, deux principales questions sont posées pour répondre aux défis de l'état de l'art. Comment réduire les besoins en ressources de ces fonctions de perception ? Quel est le partitionnement de la chaîne de traitement SLAM pour le système hétérogène intégrant plusieurs unités de calcul allant du circuit intégré au capteur d'image, au traitement proche capteur (FPGA) et dans la plateforme embarquée (ARM, GPU embarqué) ?. La première question abordée dans la thèse concerne le besoin de réduire les ressources utilisées par la chaîne de traitement SLAM, de la sortie du capteur à la reconstruction 3D. Dans ce sens, les travaux détaillés dans le manuscrit apportent deux principales contributions. La première présente le traitement dans le circuit intégré au capteur en impactant les caractéristiques de l'image grâce à la réduction de la dynamique. La seconde impacte le pilotage du flux d'image envoyé dans la chaîne de traitement SLAM avec un traitement proche capteur. La première contribution vise à réduire l'empreinte mémoire des algorithmes SLAM en évaluant l'impact de la réduction de la dynamique du pixel sur la précision et la robustesse de la localisation et la reconstruction 3D temps-réel. Les expérimentations menées ont montré que l'on peut réduire la donnée d'entrée jusqu'à 75% correspondant à moins de 2 bits par pixel tout en obtenant une précision similaire à la référence 8 bits par pixel. Ces résultats ont été obtenus en évaluant la précision et la robustesse de quatre algorithmes SLAM différents sur deux bases de données. La seconde contribution vise à réduire la quantité de données injectée dans le SLAM par le filtrage adaptatif qui est la stratégie de décimation pour contrôler le flux d'entrée des images. Le déclenchement des images provenant du capteur est initialement à un flux constant (20 images par seconde). Cela implique une consommation d'énergie, de mémoire, de bande passante et augmente la complexité calculatoire. Pouvons-nous réduire cette quantité de données à traiter ? Dans le cadre du SLAM, la précision et le nombre de calculs à effectuer dépendent fortement du mouvement du système. Grâce à l'IMU qui fournit les accélérations linéaires et angulaires, les données sont injectées en fonction du mouvement du système. Ces images clés sont obtenues grâce à la méthode de filtrage adaptatif (AF). Bien que les résultats dépendent de la difficulté des bases de données choisies, les expérimentations menées ont montré que l'AF permet de décimer jusqu'à 80% des images tout en assurant une erreur de localisation faible et similaire à la référence. L'étude de l'impact mémoire dans le contexte embarqué montre que le pic de consommation est réduit jusqu'à 92%
The development of autonomous systems has an increasing need for perception of the environment in embedded systems. Autonomous cars, drones, mixed reality devices have limited form factor and a restricted budget of power consumption for real-time performances. For instance, those use cases have a budget in the range of 300W-10W, 15W-10W and 10W-10mW respectively. This thesis is focused on autonomous and mobile systems with a budget of 10mW to 15W with the use of imager sensors and the inertial measurement unit (IMU). Simultaneous Localization And Mapping (SLAM) provides accurate and robust perception of the environment in real-time without prior knowledge for autonomous and mobile systems. The thesis aims at the real-time execution of the whole SLAM system composed of advanced perception functions, from localization to 3D reconstruction, with restricted hardware resources. In this context, two main questions are raised to answer the challenges of the literature. How to reduce the resource requirements of advanced perception functions? What is the SLAM pipeline partitioning for the heterogeneous system that integrates several computing units, from the embedded chip in the imager, to the near-sensor processing (FPGA) and in the embedded platform (ARM, embedded GPU)?. The first issue addressed in the thesis is about the need to reduce the hardware resources used by the SLAM pipeline, from the sensor output to the 3D reconstruction. In this regard, the work described in the manuscript provides two main contributions. The first one presents the processing in the embedded chip with an impact on the image characteristics by reducing the dynamic range. The second has an impact on the management of the image flow injected in the SLAM pipeline with a near-sensor processing. The first contribution aims at reducing the memory footprint of the SLAM algorithms with the evaluation of the pixel dynamic reduction on the accuracy and robustness of real-time localization and 3D reconstruction. The experiments show that we can reduce the input data up to 75% corresponding to 2 bits per pixel while maintaining a similar accuracy than the baseline 8 bits per pixel. Those results have been obtained with the evaluation of the accuracy and robustness of four SLAM algorithms on two databases. The second contribution aims at reducing the amount of data injected in SLAM with a decimation strategy to control the input frame rate, called the adaptive filtering. Data are initially injected in constant rate (20 frames per second). This implies a consumption of energy, memory, bandwidth and increases the complexity of calculation. Can we reduce this amount of data ? In SLAM, the accuracy and the number of operations depend on the movement of the system. With the linear and angular accelerations from the IMU, data are injected based on the movement of the system. Those key images are injected with the adaptive filtering approach (AF). Although the results depend on the difficulty of the chosen database, the experiments describe that the AF allows the decimation of up to 80% of the images while maintaining low localization and reconstruction errors similar to the baseline. This study shows that in the embedded context, the peak memory consumption is reduced up to 92%
Style APA, Harvard, Vancouver, ISO itp.
10

Ouerhani, Yousri. "Contribution à la définition, à l'optimisation et à l'implantation d'IP de traitement du signal et des données en temps réel sur des cibles programmables". Phd thesis, Université de Bretagne occidentale - Brest, 2012. http://tel.archives-ouvertes.fr/tel-00840866.

Pełny tekst źródła
Streszczenie:
En dépit du succès que les implantations optiques des applications de traitement d'images ont connu, le traitement optique de l'information suscite aujourd'hui moins d'intérêt que dans les années 80-90. Ceci est dû à l'encombrement des réalisations optiques, la qualité des images traitées et le coût des composants optiques. De plus, les réalisations optiques ont eu du mal à s'affranchir de l'avènement des circuits numériques. C'est dans ce cadre que s'inscrivent les travaux de cette thèse dont l'objectif est de proposer une implantation numérique des méthodes optiques de traitement d'images. Pour réaliser cette implantation nous avons choisi d'utiliser les FPGA et les GPU grâce aux bonnes performances de ces circuits en termes de rapidité. En outre, pour améliorer la productivité nous nous sommes focalisés à la réutilisation des blocs préconçus ou IP " Intellectual Properties ". Malgré que les IP commerciales existantes soient optimisées, ces dernières sont souvent payantes et dépendent de la famille de la carte utilisée. La première contribution est de proposer une implantation optimisée des IP pour le calcul de la transformée de Fourier FFT et de la DCT. En effet, le choix de ces deux transformations est justifié par l'utilisation massive de ces deux transformées (FFT et DCT), dans les algorithmes de reconnaissance de formes et de compression, respectivement. La deuxième contribution est de valider le fonctionnement des IP proposées par un banc de test et de mesure. Enfin, la troisième contribution est de concevoir sur FPGA et GPU des implantations numériques des applications de reconnaissance de formes et de compression. Un des résultats probant obtenu dans cette thèse consiste à avoir une rapidité de l'IP FFT proposée 3 fois meilleure que celle de l'IP FFT Xilinx et de pouvoir réaliser 4700 corrélations par seconde.
Style APA, Harvard, Vancouver, ISO itp.

Książki na temat "Traitement des données en temps réel"

1

Max, Jacques. Méthodes et techniques de traitement du signal et applications aux mesures physiques. Wyd. 4. Paris: Masson, 1985.

Znajdź pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
2

The complete idiot's guide to Microsoft Office 97. Indianapolis, IN: Que, 1998.

Znajdź pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
3

Sherry, Kinkoph, red. The complete idiot's guide to Microsoft Office 97. Wyd. 2. Indianapolis, Ind: Alpha Books/Que, 1998.

Znajdź pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
4

Introduction aux systèmes temps réel. Hermes Sciences Publicat., 1999.

Znajdź pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
5

Real-Time Systems with Transputers, (OUG-13) (Transputer and Occam Engineering Systems). Ios Pr Inc, 1990.

Znajdź pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.
6

MICROSOFT OFFICE 97 FOR PROFESSIONAL EDITION ILLUSTRATED A FIST COURSE AND BRIEF APPLICATIONS. Course Technology, Inc., 1997.

Znajdź pełny tekst źródła
Style APA, Harvard, Vancouver, ISO itp.

Części książek na temat "Traitement des données en temps réel"

1

DE’ FAVERI TRON, Alvise. "La détection d’intrusion au moyen des réseaux de neurones : un tutoriel". W Optimisation et apprentissage, 211–47. ISTE Group, 2023. http://dx.doi.org/10.51926/iste.9071.ch8.

Pełny tekst źródła
Streszczenie:
La détection d'intrusion est un concept clé dans la sécurité. Elle vise à analyser l'état actuel d'un réseau en temps réel et à identifier les anomalies potentielles qui se produisent dans le système. Un réseau de neurones à réaction formé sur l'ensemble de données NSL-KDD a pour objectif de maximiser la précision de la reconnaissance de nouveaux échantillons de données.
Style APA, Harvard, Vancouver, ISO itp.
2

GARZELLI, Andrea, i Claudia ZOPPETTI. "Analyse multitemporelle d’images Sentinel-1/2 pour le suivi de l’utilisation des sols". W Détection de changements et analyse des séries temporelles d’images 1, 221–45. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9056.ch8.

Pełny tekst źródła
Streszczenie:
Les données SAR en bande C de Sentinel-1 et les images multispectrales de Sentinel-2 à courte période de revisite offrent un grand potentiel pour améliorer le suivi en continu d'activités à la surface de la Terre. Le suivi de changements à grande échelle exige une longue période d'observation - plusieurs mois à un an pour caractériser les transformations urbaines - et de fréquentes revisites pour assurer une résolution temporelle adéquate. Le volume de données qui en résulte est donc impressionnant et des données prétraitées, c.à.d. des images étalonnées, corrigées géométriquement, géocodées, sont nécessaires pour rendre le problème abordable en un temps raisonnable. Comparés aux instruments optiques, les capteurs SAR peuvent observer la surface de la Terre dans toutes les conditions météorologiques et peuvent fournir des informations utiles sur les zones urbaines, compte tenu de leur sensibilité aux caractéristiques géométriques des structures urbaines. Les attributs SAR forment le jeu de données pour la première étape de la chaîne de traitement proposée pour la détection multitemporelle de bâtiments. Les caractéristiques complémentaires des images multispectrales Sentinel-2 sur la même zone peuvent alors être exploitées pour estimer l'étendue de la transformation urbaine détectée précédemment par les capteurs SAR.
Style APA, Harvard, Vancouver, ISO itp.

Streszczenia konferencji na temat "Traitement des données en temps réel"

1

Romanet, I., J. H. Catherine, P. Laurent, R. Lan i E. Dubois. "Efficacité de l’ostéotomie interalvéolaire par piezocision : revue de la littérature". W 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206603010.

Pełny tekst źródła
Streszczenie:
La durée des traitements orthodontiques est une des plaintes principales des patients en pratique orthodontique, en particulier chez les patients adultes. Le traitement orthodontique chez l’adulte doit s’adapter à des particularités comme l’absence de croissance et l’augmentation des atteintes parodontales. La corticotomie alvéolaire se définit comme une lésion chirurgicale contrôlée de l’os alvéolaire en vue d’induire un remodelage osseux accéléré, responsable localement d’une ostéopénie transitoire facilitatrice du déplacement dentaire. Le recours aux corticotomies alvéolaires permettrait d’accélérer le déplacement dentaire par un facteur 3 ou 4 (2) avec des suites opératoires souvent moins importantes qu’une avulsion de prémolaire , en particulier dans les nouvelles approches mini-invasives. La piezocision permet la correction orthodontique de malocclusions sévères sans présenter les inconvénients des approches chirurgicales extensives et traumatiques des corticotomies alvéolaires classiques. Elle offre un temps chirurgical réduit, des suites post-opératoires minimales, une grande tolérance chez les patients ainsi qu’un parodonte amélioré. (3) Nous présentons une revue de la littérature afin d’évaluer l’efficacité de l’ostéotomie inter alvéolaire par piezocision sur l’accélération ou la facilitation des déplacements dentaires comparée au traitement orthodontique classique. La recherche des données de la littérature a été réalisée sur la base de données pubmed. Les études ont montré que les corticotomies par piezocision favorisent et accélérent les déplacements dentaires avec peu de complications associées. (4) Nous avons retrouvé peu de lésions parodontales et dentaires d’origine iatrogènes. Peu d’études comparatives avec le traitement orthodontique conventionnel ont étés retrouvées mais elles affirment que l’ostéotomie interalvéolaire diminue le temps de traitement orthodontique global de façon significative. Les corticotomies interalvéolaires par piezocision ont un ratio bénéfice risque très favorable et se montre être une solution thérapeutique efficace dans le traitement orthodontique de l’adulte.
Style APA, Harvard, Vancouver, ISO itp.
2

Benzina, Ouafae. "Du lexique de l'eau dans Mont-Oriol et Pierre et Jean de Guy de Maupassant". W XXV Coloquio AFUE. Palabras e imaginarios del agua. Valencia: Universitat Politècnica València, 2016. http://dx.doi.org/10.4995/xxvcoloquioafue.2016.3081.

Pełny tekst źródła
Streszczenie:
Notre travail s’articule autour du thème de l’eau dans Pierre et Jean et Mont-Oriol de Guy de Maupassant. En effet, ces deux œuvres romanesques regorgent d’eau dans toutes ses formes. Dans Pierre et Jean, le lexique de la mer est fort abondant. Le thème de la mer revient sans cesse dans le roman. Il y apparaît en ouverture et en conclusion, évoquant longuement les bateaux et la pêche. Dans Mont-Oriol, l’élément aquatique détermine son espace romanesque et constitue à lui seul le cadre du roman. Il est présent sous plusieurs aspects : eau, source, lac, station, ruisseau. Les images de l’eau dans ces deux œuvres romanesques reflètent l’amour de l’auteur normand pour cet élément naturel. Afin d’analyser ce jaillissement du lexique de l’eau dans ces deux œuvres, nous exploiterons la fonction Contexte et celle du vocabulaire spécifique du logiciel Hyperbase, un logiciel d'exploitation statistique documentaire et de traitement quantitatif des grands corpus, élaboré par Étienne Brunet. En effet, Notre démarche pour le traitement de notre corpus par ce logiciel avait abouti à une base de données que nous avons appelée MAUPASSA.EXE. Dans la présentation du vocabulaire spécifique de chaque œuvre, il s’agit de signaler les unités dont la fréquence manifeste un excédent ou un déficit significatif. Pour déterminer le vocabulaire spécifique d’un corpus, le logiciel Hyperbase calcule l’écart réduit de chaque forme dans chacune des parties du corpus. La mise en œuvre du bouton CONTEXTE, permet de voir l’occurrence que l’on cherche dans le contexte du paragraphe. Si l’on clique sur l’un des passages affichés, on a la possibilité de voir la page entière où le mot apparaît. Nous allons donc nous baser sur cette fonction qui fait gagner aux chercheurs un temps considérable en vue de déterminer le sens que Maupassant donne à l’eau dans toutes ses formes. DOI: http://dx.doi.org/10.4995/XXVColloqueAFUE.2016.3081
Style APA, Harvard, Vancouver, ISO itp.
3

Noaillon, E., S. Azogui-Lévy, G. Lescaille, R. Toledo, V. Descroix, P. Goudot i J. Rochefort. "Impact des recommandations de l’ANSM dans la prise en charge en cabinet libéral des collections circonscrites aiguës suppurées de la cavité orale d’origine dentaire : enquête nationale". W 66ème Congrès de la SFCO. Les Ulis, France: EDP Sciences, 2020. http://dx.doi.org/10.1051/sfco/20206602017.

Pełny tekst źródła
Streszczenie:
Introduction: La prise en charge des collections circonscrites aiguës suppurées d’origine dentaire (CCASD) implique un drainage, le traitement de la dent causale ainsi que la mise en place d’une antibiothérapie dont le choix repose actuellement sur les recommandations de l’ANSM (recommandations AFSSAPS, 2011). En première intention, elles préconisent la prescription d’amoxicilline (2g/jours) ou clindamycine (1200g/jour) en cas d’allergie; en seconde intention, une bithérapie associant classiquement l’amoxicilline à l’acide clavulanique ou au métronidazole. L’émergence de mécanismes de résistances bactériennes a conduit à la mise en place d’actions favorisant une meilleure utilisation des antibiotiques. La France s’inscrit parmi les plus gros consommateurs en Europe (ANSM 2017): une surconsommation globale, une utilisation trop fréquente de molécules à large spectre en pratique courante. Dans ce contexte, l’ANSM a émis des recommandations sur la prescription des antibiotiques pour la prise en charge des CCASD. Sachant que 90% des prescriptions sont faites en ville dont 8% par les chirurgiens-dentistes (CD), il est paru nécessaire de connaître leur attitude. Nous avons donc souhaité évaluer l’impact des recommandations de l’ANSM chez les CD en France, dans la prise en charge des CCASD. Matériel et méthode: Nous avons réalisé une enquête nationale, en collaboration avec l’UFSBD (Union Francaise pour la Santé Bucco-Dentaire), regroupant 15000 praticiens, ayant recu le questionnaire par mail. Il comprenait 28 questions sur quatre thèmes principaux: prise en charge des CCASD, connaissance des recommandations, leur application, formations professionnelles initiales et continues. Résultats: Sur l’ensemble des praticiens, 690 (4,6%) ont participé à l’étude. 13% suivent de manière stricte les recommandations et 70,5% réalisent un acte clinique le jour de l’urgence : il correspond à 98% à un drainage (par voie muqueuse ou ouverture de la dent). Dans seulement 1/3 des cas la prescription de première intention se portait sur l’amoxicilline seule. 44% y associent des anti-inflammatoires. 68% des praticiens reconnaissent connaître les recommandations de l’ANSM par leur formation initiale (36%), une revue professionnelle (27%) ou un congrès (19%). La plupart suit une formation continue (77% une revue professionnelle, 90% un congrès, 38% un cursus de formation continue théorique). 89% prescrivent des anti-inflammatoires lors de la consultation d’urgence. Conclusion: Il existe peu de données évaluant l’impact des recommandations concernant ce sujet, mais il est communément admis qu’elles sont peu suivies (Gaillat et al 2005), ce que révèle également notre étude. Les raisons invoquées sont multiples : désaccord des praticiens sur l’efficacité des recommandations, manque de temps, contraintes organisationnelles. Bien que la bithérapie soit considérée comme plus efficace par les CD interrogés pour traiter les CCASD, les experts s’accordent à dire qu’elle participe à la création de la résistance bactérienne, considérée comme ≪ l’une des plus graves menaces pesant sur la santé mondiale ≫, et faisant l’objet d’un plan d’action mondial mis en place par l’OMS et l’ONU en 2015 (OMS, 2017).
Style APA, Harvard, Vancouver, ISO itp.
Oferujemy zniżki na wszystkie plany premium dla autorów, których prace zostały uwzględnione w tematycznych zestawieniach literatury. Skontaktuj się z nami, aby uzyskać unikalny kod promocyjny!

Do bibliografii