Letteratura scientifica selezionata sul tema "Algorithme de Déformation Temporelle Dynamique"

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Consulta la lista di attuali articoli, libri, tesi, atti di convegni e altre fonti scientifiche attinenti al tema "Algorithme de Déformation Temporelle Dynamique".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Articoli di riviste sul tema "Algorithme de Déformation Temporelle Dynamique":

1

Yameogo, Wennépingueré Virginie Marie, Oumar Kabore, Zézouma Sanon, You Lucette Akpa, Farid Traore, Boalidioa Tankoano e Mipro Hien. "Dynamique spatio-temporelle des surfaces en eau du bassin du Nakanbé-Mané au Burkina Faso". International Journal of Biological and Chemical Sciences 17, n. 1 (8 marzo 2023): 233–46. http://dx.doi.org/10.4314/ijbcs.v17i1.17.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les zones humides sont essentielles à la promotion du développement durable. Elles maintiennent les fonctions des écosystèmes et assurent la croissance économique. Cependant, il est constaté une dégradation continue de ces écosystèmes et des services écosystémiques qu’elles fournissent. L’objectif de la présente étude est d’analyser la dynamique spatio-temporelle des surfaces en eau de la zone humide du bassin du NakanbéMané, au Burkina Faso, de 2000 à 2020 et de déterminer les facteurs climatiques explicatifs. La dynamique des surfaces en eau a été analysée à l’aide d’un algorithme de détection des eaux, basé sur les indices spectraux via la plateforme Google Earth Engine. Quant aux facteurs climatiques, ils ont été analysés à l’aide des indices climatiques. Les résultats montrent une tendance significative généralisée à la baisse des surfaces en eau. Les causes climatiques probables en sont (i) la longue période de sécheresse de 1991 à 2005, caractérisée par un déficit pluviométrie de 3,7%, (ii) la hausse de l’évapotranspiration de 8,5%, consécutive à la hausse des températures de 0,03°C/an, (iii) l’augmentation significative de l’intensité des pluies de 0,085 mm/an. Ces résultats constitueront un support scientifique pour orienter les décideurs vers une gestion durable de la zone humide du Nakanbé-Mané. Cela passe nécessairement par l’élaboration d’un plan de gestion intégré de ladite zone humide English title: Spatio-temporal dynamics of water surfaces in the Nakanbé-Mané wetland in Burkina Faso Wetlands are essential for promoting sustainable development. They maintain ecosystem functions and ensure economic growth. However, there is a continuous degradation of these ecosystems and the ecosystem services they provide. The objective of the present study is to analyze the spatio- temporal dynamics of the water surfaces of the wetland of the Nakanbé- Mané basin, in Burkina Faso, from 2000 to 2020 and to determine the explanatory climatic factors. The dynamics of water surfaces were analyzed using a water detection algorithm based on spectral indices via the Google Earth Engine platform. As for the climatic factors, they were analyzed using the climatic indices. The results show a significant generalized trend of decreasing water surfaces. The probable climatic causes are (i) the long period of drought from 1991 to 2005, characterized by a rainfall deficit of 3.7%, (ii) the increase in evapotranspiration of 8.5%, following the rise in temperature of 0.03°C/year, (iii) the significant increase in rainfall intensity of 0.085 mm/year. These results will constitute a scientific support to orient the decision-makers towards a sustainable management of the wetland of Nakanbé- Mané. This will necessarily involve the development of an integrated management plan for the said wetland.

Tesi sul tema "Algorithme de Déformation Temporelle Dynamique":

1

Baville, Paul. "Stratigraphic correlation uncertainty : On the impact of the sediment transport direction in computer-assisted multi-well correlation". Electronic Thesis or Diss., Université de Lorraine, 2022. http://www.theses.fr/2022LORR0111.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La modélisation du sous-sol est un moyen de prédire la structure et la connectivité des unités stratigraphiques en honorant les observations de subsurface. Ces observations sont en général échantillonées le long de puits à grande échelle horizontale (kilomètre) mais à petite échelle verticale (mètre). Il y a deux types de données de puits : (1) les diagraphies, qui correspondent à des acquisitions géophysiques quasi-continus (échatillonage régulier) le long du puits (e.g., gamma ray, sonic, porosité neutron), et (2) les régions, qui correspondent à des propriétés réservoir discrètes définies par des profondeurs maximales et minimales le long du puits (e.g., biozones, zones structurales, faciès sédimentaires). Des marqueurs sont interprétés le long des puits et peuvent être associés pour générer un ensemble d'associations de marqueurs conformes, appelé des corrélations de puits. Ces corrélations de puits peuvent être réalisées manuellement (approche déterministe) par des experts, mais cela peut être sujet à des biais et ne garantit pas la reproductibilité. Les corrélations de puits peuvent également être générées automatiquement (approche déterministe ou probabiliste) en calculant à l'aide d'un algorithme un grand nombre de corrélations de puits conformes et en classant ces réalisations en fonction de leurs vraisemblances. La vraisemblance de ces corrélations de puits assistées par ordinateur est directement liée au principe de corrélation utilisé pour associer les marqueurs. Ces travaux de thèse introduisent deux principes de corrélation, qui tendent à reproduire la chronostratigraphie et les processus de dépôts à l'échelle de la paraséquence : (1) "un marqueur (décrit par un faciès et une distalité pris au centre d'un intervalle ayant un faciès constant et une distalité constante) ne peut pas être associé avec un autre marqueur décrit par un faciès plus profond à une position plus proximale, ou un faciès moins profond à une position plus distale", et (2) "plus la différence entre une interpolation chronostratigraphique (entre les marqueurs) et un profil de dépôt conceptuel est faible, plus la probabilité d'association des marqueurs est élevée". Ces deux principes de corrélation sont d'abord validés avec des solutions analytiques et appliqués sur des cas synthétiques. Ils ont ensuite été utilisés (1) pour prédire la connectivité des unités stratigraphiques à partir de données de puits sans connaissances solides sur les environnements de dépôt en inférant les paramètres de corrélation, ou (2) pour évaluer la probabilité d'un environnement de dépôt hypothétique en générant des réalisations stochastiques et en évaluant les incertitudes. Les methodes sont appliquées sur un système silicoclastique de dépôts deltaïques côtiers ciblant un réservoir du Jurassique Moyen dans le South Viking Graben en Mer du Nord. Ces travaux de thèse permettent (1) de définir deux principes de corrélation spécifiques définis par quelques paramètres qui peuvent être utilisés pour générer des corrélations de puits stochastiques dans les systèmes deltaïques côtiers, et (2) d'ouvrir la voie vers une combinaison simple de principes de corrélation spécifiques pour obtenir une meilleure caractérisation des systèmes deltaïques côtiers en évaluant les incertitudes
Subsurface modeling is a way to predict the structure and the connectivity of stratigraphic units by honoring subsurface observations. These observations are commonly be sampled along wells at a large and sparse horizontal scale (kilometer-scale) but at a fine vertical scale (meter-scale). There are two types of well data: (1) well logs, corresponding to quasi-continuous (regular sampling) geophysical measurements along the well path (e.g., gamma ray, sonic, neutron porosity), and (2) regions, corresponding to categorical reservoir properties and defined by their top and bottom depths along the well path (e.g., biozones, structural zones, sedimentary facies). Markers are interpreted along the well path and can be associated in order to generate a consistent set of marker associations called well correlations. These well correlations may be generated manually (deterministic approach) by experts, but this may be prone to biases and does not ensure reproducibility. Well correlations may also be generated automatically (deterministic or probabilistic approach) by computing with an algorithm a large number of consistent well correlations and by ranking these realizations according to their likelihood. The likelihood of these computer-assisted well correlations are directly linked to the principle of correlation used to associate markers. This work introduces two principles of correlation, which tend to reproduce the chronostratigraphy and the depositional processes at the parasequence scale: (1) "a marker (described by facies and distality taken at the center of an interval having a constant facies and a constant distality) cannot be associated with another marker described by a depositionally deeper facies at a more proximal position, or a depositionally shallower facies at a more distal position", and (2) "the lower the difference between a chronostratigraphic interpolation (in between markers) and a conceptual depositional profile, the higher the likelihood of the marker association". These two principles of correlation are first benchmarked with analytical solutions and applied on synthetic cases. They have then been used (1) to predict the connectivity of stratigraphic units from well data without strong knowledge on depositional environments by inferring the correlation parameters, or (2) to evaluate the likelihood of a hypothetical depositional environment by generating stochastic realizations and assessing the uncertainties. The methods are applied on a siliciclastic coastal deltaic system targeting a Middle Jurassic reservoir in the South Viking Graben in the North Sea.This work enables (1) to define two specific principles of correlation defined by a few parameters that can be used to generate stochastically well correlations within coastal deltaic systems, and (2) to open the path towards a simple combination of specific principles of correlation to obtain a better characterization of coastal deltaic systems by assessing the uncertainties
2

Gagnon, Bruno. "Système d'alignement d'une partition de musique basé sur la déformation dynamique étendue du temps". Mémoire, Université de Sherbrooke, 2009. http://savoirs.usherbrooke.ca/handle/11143/1487.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce mémoire propose un système permettant de suivre, à l'aide d'un ordinateur domestique et d'un microphone, une partition de musique jouée par un musicien. Le système utilise en entrée une partition de musique et le signal audio numérique monophonique de la partition de musique jouée par le musicien. Contrairement aux systèmes habituels, le système proposé donne la liberté au musicien de jouer différents segments de la partition de musique dans l'ordre qu'il le désire, et ce, sans préalablement informer le système de ses intentions. Pour ce faire, le système propose une variante de l'algorithme de la déformation dynamique du temps ( Dynamic Time Warping ) utilisant des notions musicales pour effectuer le suivi. Il est à noter que la complexité du système est suffisamment faible pour qu'un ordinateur domestique récent puisse suivre le musicien pendant que celui-ci joue la partition de musique, et ce, avec un délai constant de quelques notes de musique.
3

Joukhadar, Ammar. "Simulation dynamique et applications robotiques". Phd thesis, Grenoble INPG, 1997. http://www.theses.fr/1997INPG0069.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous décrivons, dans cette thèse, des modèles et des algorithmes conçus pour produire des simulations dynamiques efficaces et consistantes, dans le contexte de la Robotique d'intervention (c'est-à-dire, pour les tâches robotiques qui impliquent des contraintes fortes sur la nature de l'interaction entre des objets qui ne sont pas forcément rigides). Ces modèles et ces algorithmes ont été intégrés et implantés dans le système Robot_Phy qui peut être potentiellement reconfiguré pour traiter une grande variété de tâches d'intervention, comme la manipulation dextre d'un objet par une main robotique, la manipulation d'un objet non rigide, la téléprogrammation du mouvement d'un véhicule tout-terrain, ou encore des tâches chirurgicales assistées par robot (par exemple, le positionnement d'un ligament artificiel dans la chirurgie du genou). L'approche utilise une nouvelle technique de modélisation physique pour produire des simulations dynamiques qui sont à la fois efficaces et consistantes avec les lois de la physique. Les avantages par rapport aux travaux antérieurs dans le domaine de la robotique et de la synthèse d'image sont: le développement d'une structure unique pour traiter simultanément le mouvement, les déformations, et les interactions; et l'incorporation d'algorithmes et de modèles appropriés pour obtenir un temps d'exécution efficace en assurant un comportement consistant avec les lois de la physique. Les contributions principales de ce système sont: l'intégration de la notion du système masse/ressort avec la dynamique d'objets rigides, la discrétisation adaptative basée sur la notion de matrice d'inertie et de centre d'inertie, le pas de temps adaptatif basé sur la notion de l'énergie mécanique pour optimiser le temps de calcul et éviter la divergence numérique, la détection rapide du contact entre polyèdres déformables, et l'identification des paramètres physiques en utilisant les algorithmes génétiques
We describe models and algorithms designed to produce efficient and physically consistent dynamic simulations. These models and algorithms have been implemented within the RobotΦ system\cite(RAP95) which can potentially be configured for a large variety of interven\-tion-style tasks such as dextrous manipulations with a robot hand; manipulation of non-rigid objects; tele-programming of the motions of an all-terrain vehicle; and some robot assisted surgery tasks (e. G. Positioning of an artificial ligament in knee surgery). The approach uses a novel physically based modeling technique to produce dynamic simulations which are both efficient and consistent according to the laws of the Physics. The main advances over previous works in Robotics and Computer Graphics fields are twofold: the development of a unique framework for simultaneously processing motions, deformations, and physical interactions; and the incorporation of appropriate models and algorithms for obtaining efficient processing times while insuring consistent physical behaviors
4

Le, Xuan-Chien. "Improving performance of non-intrusive load monitoring with low-cost sensor networks". Thesis, Rennes 1, 2017. http://www.theses.fr/2017REN1S019/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans les maisons et bâtiments intelligents, il devient nécessaire de limiter l'intervention humaine sur le système énergétique, afin de fluctuer automatiquement l'énergie consommée par les appareils consommateurs. Pour cela, un système de mesure de la consommation électrique d'équipements est aussi nécessaire et peut être déployé de deux façons : intrusive ou non-intrusive. La première solution consiste à relever la consommation de chaque appareil, ce qui est inenvisageable à une grande échelle pour des raisons pratiques liées à l'entretien et aux coûts. Donc, la solution non-intrusive (NILM pour Non-Intrusive Load Monitoring), qui est capable d'identifier les différents appareils en se basant sur les signatures extraites d'une consommation globale, est plus prometteuse. Le problème le plus difficile des algorithmes NILM est comment discriminer les appareils qui ont la même caractéristique énergétique. Pour surmonter ce problème, dans cette thèse, nous proposons d'utiliser une information externe pour améliorer la performance des algorithmes existants. Les premières informations additionnelles proposées considèrent l'état précédent de chaque appareil comme la probabilité de transition d'état ou la distance de Hamming entre l'état courant et l'état précédent. Ces informations sont utilisées pour sélectionner l'ensemble le plus approprié des dispositifs actifs parmi toutes les combinaisons possibles. Nous résolvons ce problème de minimisation en norme l1 par un algorithme d'exploration exhaustive. Nous proposons également d'utiliser une autre information externe qui est la probabilité de fonctionnement de chaque appareil fournie par un réseau de capteurs sans fil (WSN pour Wireless Sensor Network) déployé dans le bâtiment. Ce système baptisé SmartSense, est différent de la solution intrusive car seul un sous-ensemble de tous les dispositifs est surveillé par les capteurs, ce qui rend le système moins intrusif. Trois approches sont appliquées dans le système SmartSense. La première approche applique une détection de changements de niveau sur le signal global de puissance consommé et les compare avec ceux existants pour identifier les dispositifs correspondants. La deuxième approche vise à résoudre le problème de minimisation en norme l1 avec les algorithmes heuristiques de composition Paréto-algébrique et de programmation dynamique. Les résultats de simulation montrent que la performance des algorithmes proposés augmente significativement avec la probabilité d'opération des dispositifs surveillés par le WSN. Comme il n'y a qu'un sous-ensemble de tous les appareils qui sont surveillés par les capteurs, ceux qui sont sélectionnés doivent satisfaire quelques critères tels qu'un taux d'utilisation élevé ou des confusions dans les signatures sélectionnées avec celles des autres
In smart homes, human intervention in the energy system needs to be eliminated as much as possible and an energy management system is required to automatically fluctuate the power consumption of the electrical devices. To design such system, a load monitoring system is necessary to be deployed in two ways: intrusive or non-intrusive. The intrusive approach requires a high deployment cost and too much technical intervention in the power supply. Therefore, the Non-Intrusive Load Monitoring (NILM) approach, in which the operation of a device can be detected based on the features extracted from the aggregate power consumption, is more promising. The difficulty of any NILM algorithm is the ambiguity among the devices with the same power characteristics. To overcome this challenge, in this thesis, we propose to use an external information to improve the performance of the existing NILM algorithms. The first proposed additional features relate to the previous state of each device such as state transition probability or the Hamming distance between the current state and the previous state. They are used to select the most suitable set of operating devices among all possible combinations when solving the l1-norm minimization problem of NILM by a brute force algorithm. Besides, we also propose to use another external feature that is the operating probability of each device provided by an additional Wireless Sensor Network (WSN). Different from the intrusive load monitoring, in this so-called SmartSense system, only a subset of all devices is monitored by the sensors, which makes the system quite less intrusive. Two approaches are applied in the SmartSense system. The first approach applies an edge detector to detect the step-changes on the power signal and then compare with the existing library to identify the corresponding devices. Meanwhile, the second approach tries to solve the l1-norm minimization problem in NILM with a compositional Pareto-algebraic heuristic and dynamic programming algorithms. The simulation results show that the performance of the proposed algorithms is significantly improved with the operating probability of the monitored devices provided by the WSN. Because only part of the devices are monitored, the selected ones must satisfy some criteria including high using rate and more confusions on the selected patterns with the others
5

Juganaru, Mihaela. "Equilibrage et régulation de charge dans les machines parallèles à mémoire distribuée". Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 1999. http://tel.archives-ouvertes.fr/tel-00822691.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La résolution du problème d'allocation de charge représente un enjeu important dans l'exploitation des machines parallèles. Nous faisons d'abord une étude bibliographique de ce problème dans le cadre des architectures à mémoire distribuée en mettant l'accent sur l'allocation dynamique, plus précisément sur l'équilibrage et la régulation de charges régulières. Une stratégie originale de régulation basée sur un calcul de préfixe généralisé est proposée. Elle s'avère à la fois correcte, exacte et indépendante du réseau d'interconnexion de processeurs. Un noyau de régulation de charge basé sur cette stratégie est développé. Nous poursuivons ensuite avec une analyse de son temps total d'exécution. Nous trouvons qu'une loi de probabilité de Gumbel modélise le temps maximal d'exécution. A partir de ce résultat nous inférons des politiques d'initiation et de décision pour la mise en oeuvre de là stratégie proposée. L'algorithme de régulation ainsi obtenu est donc efficace. Une application de simulation des phénomènes mécaniques, déformation-recristallisation à chaud des agrégats polycristallins, est développée. Pour cette application dynamique nous utilisons le noyau de régulation de charge avec les politiques d'initiation et décision proposés. L'algorithme complet s'avère en pratique correct, stable et efficace.
6

Betancur, Acevedo Julian Andrés. "Intégration d'images multimodales pour la caractérisation de cardiomyopathies hypertrophiques et d'asynchronismes cardiaques". Thesis, Rennes 1, 2014. http://www.theses.fr/2014REN1S089/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse porte sur la caractérisation cardiaque, qui représente un enjeu méthodologique et clinique important, à la fois pour améliorer le diagnostic des pathologies et optimiser les moyens de traitement. Des méthodes de recalage et de fusion de données sont proposées pour amener dans un même référentiel des images IRM, scanner, échographiques et électro-anatomiques et ainsi décrire le cœur suivant des caractéristiques anatomiques, électriques, mécaniques et tissulaires. Les méthodes proposées pour recaler des données multimodales reposent sur deux processus principaux : l'alignement temporel et le recalage spatial. Les dimensions temporelles des images considérées sont mises en synchronisées par une méthode de déformation temporelle dynamique adaptative. Celle-ci permet de compenser les modifications temporelles non-linéaires entre les différentes acquisitions. Pour le recalage spatial, des méthodes iconiques ont été développées pour corriger les artefacts de mouvements dans les séquences ciné-IRM, pour recaler les séquences ciné-IRM avec les séquences d'IRM de rehaussement tardif et pour recaler les ciné-IRM avec les images scanner. D'autre part, une méthode basée contours, développée dans un précédent travail, a été améliorée pour prendre en compte des acquisitions échographiques multi-vues. Ces méthodes ont été évaluées sur données réelles pour sélectionner les métriques les plus adaptées et pour quantifier les performances des approches iconiques et pour estimer la précision du recalage entre échographies et ciné-IRM. Ces méthodes sont appliquées à la caractérisation de cardiomyopathies hypertrophiques (CMH) et d'asynchronismes cardiaques. Pour la CMH, l'objectif était de mieux interpréter les données échographiques par la fusion de l'information de fibrose issue de l'IRM de rehaussement tardif avec l'information mécanique issue de l'échographie de speckle tracking. Cette analyse a permis d'évaluer le strain régional en tant qu'indicateur de la présence locale de fibrose. Concernant l'asynchronisme cardiaque, nous avons établi une description du couplage électromécanique local du ventricule gauche par la fusion de données échographiques, électro-anatomiques, scanner et, dans les cas appropriés, d'IRM de rehaussement tardif. Cette étude de faisabilité ouvre des perspectives pour l'utilisation de nouveaux descripteurs pour la sélection des sites de stimulation optimaux pour la thérapie de resynchronisation cardiaque
This work concerns cardiac characterization, a major methodological and clinical issue, both to improve disease diagnostic and to optimize its treatment. Multisensor registration and fusion methods are proposed to bring into a common referential data from cardiac magnetic resonance (CMRI), dynamic cardiac X-ray computed tomography (CT), speckle tracking echocardiography (STE) and electro-anatomical mappings of the inner left ventricular chamber (EAM). These data is used to describe the heart by its anatomy, electrical and mechanical function, and the state of the myocardial tissue. The methods proposed to register the multimodal datasets rely on two main processes: temporal registration and spatial registration. The temporal dimensions of input data (images) are warped with an adaptive dynamic time warping (ADTW) method. This method allowed to handle the nonlinear temporal relationship between the different acquisitions. Concerning the spatial registration, iconic methods were developed, on the one hand, to correct for motion artifacts in cine acquisition, to register cine-CMRI and late gadolinium CMRI (LGE-CMRI), and to register cine-CMRI with dynamic CT. On the other hand, a contour-based method developed in a previous work was enhanced to account for multiview STE acquisitions. These methods were evaluated on real data in terms of the best metrics to use and of the accuracy of the iconic methods, and to assess the STE to cine-CMRI registration. The fusion of these multisensor data enabled to get insights about the diseased heart in the context of hypertrophic cardiomyopathy (HCM) and cardiac asynchronism. For HCM, we aimed to improve the understanding of STE by fusing fibrosis from LGE-CMRI with strain from multiview 2D STE. This analysis allowed to assess the significance of regional STE strain as a surrogate of the presence of regional myocardial fibrosis. Concerning cardiac asynchronism, we aimed to describe the intra-segment electro-mechanical coupling of the left ventricle using fused data from STE, EAM, CT and, if relevant, from LGE-CMRI. This feasibility study provided new elements to select the optimal sites for LV stimulation

Vai alla bibliografia