To see the other types of publications on this topic, follow the link: Séquence numérique.

Dissertations / Theses on the topic 'Séquence numérique'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Séquence numérique.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Lefèvre, Sébastien. "Détection d'évènements dans une séquence vidéo." Tours, 2002. http://www.theses.fr/2002TOUR4023.

Full text
Abstract:
Le problème abordé ici concerne l'indexation de données multimedia par la recherche d'extraits pertinents. Nos travaux se focalisent sur l'analyse de séquences vedéo afin d'y détecter des évènement prédéfinis. La recherche de ces évènements étant contextuelles, nous proposons une architecture et des outils génériques et rapides pour la mise en oeuvre de systèmes d'indexation spécifiques. Nous insistons notamment sur les problèmes suivants : la segmentation temporelle des données, la séparation du fond et des objets, la structuration du fond, le suivi des objets (rigides ou non, avec ou sans apprentissage) et l'analyse des données audio. Afin de résoudre ces différents problèmes, les outils génériques que nous proposons sont basés sur des analyses semi-locales, des approches multirésolution, des modèles de Markov cachées et la méthode des contours actifs. L'architecture et les outils introduits ici ont été validés au travers de plusieurs applications
Here we are concerned by multimedia data indexing by use of pertinent sample searching. Our work focuses on video sequence analysis in order to detect some predefined events. This search being contextual, we propose an architecture and some rapid tools, both generic, for building specific indexing systems. We deal in particular with the following problems : data temporal segmentation, background and object separation, background structure extraction, object tracking (rigid or non-rigid objects, with or without learning) and audio data analysis. In order to solve these different problems, the generic tools we are proposing are based on semi-local analyses, multiresolution approaches, hidden Markov models, and the active contour method. The architecture and the tools introduced here have been validated through several applications
APA, Harvard, Vancouver, ISO, and other styles
2

Buisson, Olivier. "Analyse de séquence d'images haute résolution : application à la restauration numérique de films cinématographiques." La Rochelle, 1997. http://www.theses.fr/1997LAROS016.

Full text
Abstract:
Cette thèse présente une technique de restauration numérique de films anciens. L'utilisation des technologies numériques fait disparaitre les détériorations (rayures, poussières) que la restauration traditionnelle (chimico-mécanique) ne peut effacer. La restauration numérique des films doit, en phase finale, restituer les images numériques sur films pour les diffuser à nouveau en salle. Cette restitution impose une numérisation haute résolution des images (2000 x 1500 pixels) et la réalisation de traitements spécifiques pour préserver la qualité visuelle des images cinématographiques afin de respecter cette contrainte, nous avons mis en œuvre une technique originale de restauration en deux étapes : détection préalable des détériorations puis, correction des zones détectées. La phase de détection utilise un détecteur spatial fondé sur les principes de la morphologie mathématique en niveaux de gris combiné avec un détecteur spatio-temporel basée sur l'estimation de mouvement. Pour estimer correctement les mouvements de grande amplitude des séquences d'images haute résolution, nous avons élaboré une technique d'estimation de mouvement multi-résolutions. L’originalité de cette corrélation itérative réside dans l'utilisation, pour accélérer le processus de recherche, de projections de radon. Après détection des détériorations, les zones détectées sont corrigées. Cette phase de correction utilise une technique d'interpolation polynomiale qui permet de reconstruire les basses fréquences des signaux, comme les régions homogènes et les contours. Une technique itérative d'estimation des séries de Fourier permet alors de reconstruire les hautes fréquences des textures. Ces deux phases de détection et de correction d'images cinématographiques ont été validées sur un prototype industriel.
APA, Harvard, Vancouver, ISO, and other styles
3

Bouder, Céline. "Estimation, en contexte non coopératif, des paramètres d'une transmission à spectre étalé par séquence directe." Brest, 2001. http://www.theses.fr/2001BRES2016.

Full text
Abstract:
Dans le cadre de surveillance du spectre des fréquences, l'objectif de cette thèse est d'élaborer des méthodes de reconnaissance automatiques des signaux à spectre étalé par séquence directe, sans aucune connaissance a priori sur le système de transmission. La première étape d'identification de ces signaux consiste à les détecter. Une méthode repose sur l'étude des fluctuations d'un estimateur, qui permet de comparer les statistiques d'un bruit seul à celles du signal reçu. Cette procédure nous permet par ailleurs d'en estimer la période symbole. La seconde étape consiste à déterminer la séquence pseudo-aléatoire, qui a été utilisée à l'émission pour étaler le spectre. Nous avons montré, que nous pouvions l'estimer à l'aide de réseaux de neurones de type perceptrons composés de trois couches. L'information sur la séquence est alors présente dans les poids de connexion de la couche cachée. Nous avons cependant constaté que les résultats sont améliorés quand le signal est synchronisé. Une étude détaillée des éléments propres de la matrice de covariance du signal reçu nous a menés à développer un algorithme de synchronisation aveugle robuste, dont le but est double : affiner d'une part l'estimation de la période symbole puis évaluer de manière très précise le début du premier symbole. La technique consiste à maximiser la norme au carré de la matrice de covariance. Une fois le signal synchronisé, la séquence correspond au vecteur propre associé à la plus grande valeur propre. Nous avons alors caractérisé les conséquences du calcul, sur un nombre fini de fenêtres d'analyse, de la matrice de covariance sur ses éléments propres. Les erreurs induites sont évaluées à l'aide de la théorie des perturbations et des propriétés des matrices de Wishart. Les résultats théoriques obtenus ont été comparés à des résultats de simulations de type Monte Carlo et révèlent une bonne concordance générale.
APA, Harvard, Vancouver, ISO, and other styles
4

Marchandon, Mathilde. "Vers la compréhension des séquences sismiques sur un système de failles : de l’observation spatiale à la modélisation numérique. Application à la séquence du Nord-Est Lut, Iran." Thesis, Université Côte d'Azur (ComUE), 2018. http://www.theses.fr/2018AZUR4055/document.

Full text
Abstract:
De nombreuses études montrent que les transferts de contrainte co- et postsismiques jouent un rôle majeur dans l’occurrence des séquences de séismes. Cependant, la grande majorité de ces études implique des systèmes de failles à la configuration géométrique simple (e.g. failles parallèles ou colinéaires). Dans cette thèse, nous étudions une séquence de séismes s’étant produite au sein d’un système de failles à la configuration géométrique plus complexe (i.e. failles conjuguées), la séquence du NE Lut (1939-1997, NE Iran), afin d’évaluer (1) si les transferts de contrainte favorisent la succession de séismes de la séquence et (2) s’ils permettent sur le long-terme de synchroniser les ruptures des failles du système. Pour cela, nous mesurons d’abord les déformations de surface produites par la séquence afin de mieux contraindre par la suite la modélisation des transferts de contrainte. A partir de la technique de corrélation subpixel d'images optiques, nous mesurons les champs de déplacements de surface horizontaux produits par les séismes de Khuli-Boniabad (Mw 7.1, 1979) et de Zirkuh (Mw 7.2, 1997). Nous montrons que ces séismes sont caractérisés par la rupture de plusieurs segments dont les limites sont corrélées avec les complexités géométriques des failles. Nous interprétons les différences de leurs caractéristiques de rupture (longueur de rupture, glissement moyen, nombre de segments rompus) comme étant dues à des différences de maturité des failles de Dasht-e-Bayaz et d’Abiz. Nous détectons également les déplacements produits par un séisme historique modéré, le séisme de Korizan (Mw 6.6, 1979). C’est la première fois que les déplacements produits par un séisme historique de si petite taille sont mesurés par corrélation d’images optiques. Ensuite, en combinant le champ de déplacements InSAR déjà publié avec les données optiques proche-faille précédemment acquises, nous estimons un nouveau modèle de source pour le séisme de Zirkuh (Mw 7.2, 1997). Nous montrons que les données proche-faille sont essentielles pour mieux contraindre la géométrie de la rupture et la distribution du glissement en profondeur. Le modèle estimé montre que le séisme de Zirkuh a rompu trois aspérités séparées par des barrières géométriques où les répliques du séisme se localisent. Seul le segment central de la faille présente un déficit de glissement en surface que nous interprétons comme étant dû à de la déformation distribuée dans des dépôts quaternaires non consolidés. Enfin, à partir des informations précédemment acquises, nous modélisons les transferts de contrainte au cours de la séquence du NE Lut. Nous montrons que ceux-ci ont favorisé l’occurrence de 7 des 11 séismes de la séquence et que modéliser précisément la géométrie des ruptures est essentiel à une estimation robuste des transferts de contrainte. De plus, nous montrons que l’occurrence du séisme de Zirkuh (Mw 7.2, 1992) est principalement favorisée par les séismes modérés de la séquence. Pour finir, la simulation d’une multitude de cycles sismiques sur les failles du NE Lut montre que les transferts de contrainte, en particulier les transferts postsismiques liés à la relaxation viscoélastique de la lithosphère, sont le principal processus permettant la mise en place répétée de séquences de séismes sur les failles du NE Lut. Enfin, d'après les simulations réalisées, l'ordre dans lequel se sont produits les séismes majeurs durant la séquence du NE Lut est assez exceptionnel
Many studies show that static and postseismic stress transfers play an important role in the occurrence of seismic sequences. However, a large majority of these studies involves seismic sequences that occurred within fault systems having simple geometric configurations (e.g. collinear or parallel fault system). In this thesis, we study a seismic sequence that occurred within a complex fault system (i.e. conjugate fault system), the NE Lut seismic sequence (1939-1997, NE Iran), in order to assess if (1) stress transfers can explain the succession of earthquakes in the sequence and (2) stress transfers can lead to the synchronization of the NE Lut faults over multiple seismic cycles. To this end, we first measure the surface displacement field produced by the sequence in order to precisely constrain the stress transfer modeling afterwards. We use optical correlation technique to measure the surface displacement fields of the Khuli-Boniabad (Mw 7.1, 1979) and Zirkuh earthquake (Mw 7.2, 1997). We find that these earthquakes broke several segments limited by geometrical complexities of the faults. We interpret the differences in failure style of these earthquakes (i.e. rupture length, mean slip and number of broken segments) as being due to different level of structural maturity of the Dasht-e-Bayaz and Abiz faults. Furthermore, we succeed to detect offsets produced by the 1979 Mw 6.6 Korizan earthquake. It is the first time that surface displacements for such a small historical earthquake have been measured using optical correlation. Then, combining previously published intermediate-field InSAR data and our near-field optical data, we estimate a new source model for the Zirkuh earthquake (Mw 7.2, 1997). We show that near-field data are crucial to better constrain the fault geometry and the slip distribution at depth. According to our source model, the Zirkuh earthquake broke three asperities separated by geometrical barriers where aftershocks are located. No shallow slip deficit is found for the overall rupture except on the central segment where it could be due to off-fault deformation in quaternary deposits. Finally, we use the information acquired in the first parts of this work to model the stress transfers within the NE Lut sequence. We find that 7 out of 11 earthquakes are triggered by the previous ones and that the precise modeling of the rupture geometry is crucial to robustly estimate the stress transfers. We also show that the Zirkuh earthquake is mainly triggered by the moderate earthquakes of the NE Lut sequence. Lastly, the simulation of multiple seismic cycles on the NE Lut fault system shows that stress transfers, in particular postseismic stress transfers due to viscoelastic relaxation, enhance the number of seismic sequences and synchronize the rupture of the faults. The simulations also show that the order in which the Mw>7 earthquakes occurred during the NE Lut sequence is quite exceptional
APA, Harvard, Vancouver, ISO, and other styles
5

Robert, Xavier. "Séquence d'activité des failles et dynamique du prisme himalayen : apports de la thermochronologie et de la modélisation numérique." Phd thesis, Université Joseph Fourier (Grenoble), 2008. http://tel.archives-ouvertes.fr/tel-00352596.

Full text
Abstract:
L'influence de l'érosion sur la localisation de la déformation dans une chaîne de montagnes est un phénomène souvent envisagé à la suite de modélisations numériques. Or les données géologiques pertinentes en faveur de cette hypothèse sont encore fort peu nombreuses. Aussi, la mise en évidence d'une évolution temporelle et spatiale de la déformation constitue une observable clef pour tester les relations érosion/localisation de la déformation. Nous testons cet effet, sur un objet géologique soumis à des conditions de déplacements aux limites simples et sur un objet géologique soumis à des conditions climatiques et érosives variables latéralement : le flanc sud de l'Himalaya (située au dessus d'un décollement crustal majeur). Elle est soumise à une convergence continue et de valeur constante depuis au moins une dizaine de millions d'années et sa rhéologie est invariante au cours du temps ; elle est en revanche soumise à un gradient climatique d'est en ouest (transversalement par rapport à la direction de convergence), gradient de plus variable au cours du temps. Nous avons mis en oeuvre des techniques de thermochronologie basse température pour consituer une base de données conséquente, que nous avons utilisée dans des modélisations numériques thermo-cinématiques directes et inverses. Nous montrons que 1) au Népal central,le MHT présente une rampe crustale prononcée, et aucun mécanisme de chevauchement en hors-séquence n'est nécessaire pour expliquer les données, 2) la géométrie du MHT varie d'est en ouest, avec une rampe moins prononcée dans l'est de la chaîne, et 3) les variations latérales en terme de mise en place et de cinétique du MFT sont peu importantes.
APA, Harvard, Vancouver, ISO, and other styles
6

Lebamba, Judicael. "Relation pollen-végétation-climat actuels en Afrique centrale : une approche numérique appliquée à la séquence quaternaire du lac Barombi Mbo, Cameroun." Montpellier 2, 2009. http://www.theses.fr/2009MON20203.

Full text
Abstract:
Ce travail présente l'analyse de 80 nouveaux échantillons polliniques actuels d'Afrique centrale atlantique, en particulier de milieu forestier. Les assemblages polliniques obtenus ont été complétés par des données déjà existantes dans cette région, soit un total de 199 assemblages. L'application d'analyses statistiques et de la méthode de biomisation a permis de tester la fiabilité du contenu pollinique de cette base de données par rapport aux données botaniques mettant en évidence que plus de 95% des sites étaient correctement reconstruits en termes de biomes (forêt tropicale humide, forêt tropicale saisonnière, savane) ou de stades de succession forestière (savane, forêt secondaire, forêt mature). Sur une base de données polliniques plus étendue à l'Afrique de l'ouest, la méthode de biomisation a été appliquée à la séquence pollinique du lac Barombi Mbo, Cameroun, afin de recontruire les différents biomes et stades forestiers qui se sont succédés au cours des derniers 33 000 ans cal BP. L'application de la technique des meilleurs analogues, parallèlement à celle des réseaux de neurones artificiels a permis de reconstruire sur cette séquence la pluviosité et l'évapotranspiration moyennes annuelles, ainsi qu'un indice bioclimatique représentatif de la physionomie de la végétation
This work presents the analysis of 80 new modern pollen samples from central Africa, mainly in forest environment. Complemented by pollen assemblages previously obtained in this region, i. E. A total of 199 assemblages, statistical analysis and the application of the biomisation method have allowed to test the reliability of the pollen content of this dataset compared to local botanical data, showing that potential biomes (tropical rain forest, tropical seasonal forest, savanna) and forest successional stages (savanna, secondary forest, mature forest) were reconstructed with more than 95% of confidence level. Based on a more extended pollen database toward drier vegetations from West Africa and using the biomisation method, the best analogues and the artificial neural networks techniques, we proposed new quantitative and more precise reconstructions of the vegetation and climate at Lake Barombi Mbo, in Cameroon, during the last 33,000 cal yrs BP
APA, Harvard, Vancouver, ISO, and other styles
7

Satthumnuwong, Purimpat. "Approche expérimentale et numérique de la rupture des assemblages collés de composites stratifiés." Thesis, Dijon, 2011. http://www.theses.fr/2011DIJOS052/document.

Full text
Abstract:
L’assemblage des matériaux composites par collage présente des avantages incontestés par rapport à d’autres méthodes telles que le boulonnage ou le rivetage. Cependant, la principale difficulté que rencontrent les concepteurs est celle de la prévision du niveau et du mode de rupture de ces collages. Dans le cas des composites stratifiés, un des facteurs influents sur le comportement des joints collés est la séquence d'empilement, mais les travaux présentés dans la littérature ne séparent pas les effets globaux (modification des rigidités de membrane et de flexion) et les effets locaux (orientation des plis au contact de la colle). La présente étude s'intéresse à la caractérisation de ces effets dans le cas de joints de type simple recouvrement de stratifiés carbone/epoxy. Pour isoler les effets locaux, des séquences d'empilement spécifiques quasi isotropes quasi homogènes sont utilisées. A propriétés de raideur globale égales, des différences de résistance de plus de 30% sont observées selon les séquences considérées. Les essais réalisés avec un stratifié symétrique anisotrope en flexion montrent également que la raideur en flexion joue un rôle important dans le comportement des joints. Les modèles analytiques utilisés prédisent les effets globaux avec une bonne précision mais sont inappropriés lorsque des phénomènes locaux se produisent. Une approche par éléments finis permet de prendre en compte ces phénomènes, en modélisant explicitement les plis au contact de la colle et en rendant possible le décollement interlaminaire de ces plis à l'aide d'un modèle de zone cohésive. Cette modélisation est mise en œuvre pour réaliser une étude paramétrique de la géométrie du joint et pour produire une enveloppe de rupture en fonction de la direction de sollicitation
Adhesive bonding of composite materials has undeniable advantages over other methods such as bolting or riveting. However, one of the difficulties encountered by designers is the prediction of the failure level and failure mode of these adhesively bonded assemblies. In the case of composite laminates, one of the factors acting on the bonded joint behaviour is the stacking sequence, but works presented in the literature do not separate global effects (membrane and bending stiffness modification) and local effect (ply orientation near the adhesive layer). This study deals with the characterization of such effects in the case of single lap joints of carbon/epoxy laminates. In order to isolate the local effects, specific quasi isotropic quasi homogeneous stacking sequences are used. When stiffness properties are maintained constant, strength variations of more than 30 % are observed. Tests performed with a symmetric laminate with bending anisotropy show that the bending stiffness plays also an important role in the joint behaviour. Closed form models are able to predict global effects with a good accuracy but are inappropriate when local effects occur. The use of finite element models can account for these phenomena, by explicitly modelling the laminate plies near the adhesive layer and introducing delamination between these plies with a cohesive zone model. This model is used to perform a parametric study of the joint geometry and to produce a failure envelope according to the orientation of the loading
APA, Harvard, Vancouver, ISO, and other styles
8

Bornot, Aurélie. "Analyse et prédiction de la relation séquence - structure locale et flexibilité au sein des protéines globulaires." Phd thesis, Université Paris-Diderot - Paris VII, 2009. http://tel.archives-ouvertes.fr/tel-00583885.

Full text
Abstract:
La prédiction in silico de la structure tridimensionnelle d'une protéine à partir de sa séquence en acides aminés constitue un défi scientifique d'intérêt majeur. Il est à présent admis que les structures protéiques peuvent être décrites à partir d'un répertoire limité de structures locales récurrentes. Cette observation a conduit au développement de techniques de prédiction de la structure 3D par assemblage de fragments. Ces techniques sont aujourd'hui parmi les plus performantes. Dans ce contexte, la prédiction des structures locales constitue une première étape vers la prédiction de la structure 3D globale d'une protéine. Mon travail de thèse porte principalement sur l'étude des structures protéiques locales à travers deux thèmes : (i) la prédiction des structures locales à partir de la séquence et (ii) l'analyse de la prédictibilité des structures locales en fonction de la flexibilité des structures protéiques. Ces études reposent sur une bibliothèque de 120 fragments chevauchants de 11 résidus de long précédemment développée au sein du laboratoire. Une méthode de prédiction des structures locales à partir de la séquence avait également été mise en place et permettait d'obtenir un taux de prédiction correct de 51 %. La prise en compte de données évolutionnaires couplée à l'utilisation de Machines à Vecteurs de Support a permis d'améliorer la prédiction des structures locales jusqu'à 63 % de prédiction correctes. De plus, un indice de confiance permettant d'évaluer directement la qualité de la prédiction et ainsi d'identifier les régions plus ardues à prédire a été mis au point. Par ailleurs, la structure des protéines n'est pas rigide. Ainsi, j'ai étendu notre analyse à l'étude la prédictibilité structurale des séquences d'acides aminés en fonction de leur flexibilité structurale au sein des protéines. Une analyse des propriétés dynamiques des structures locales a été menée en s'appuyant sur (i) les B-facteurs issus des expériences de cristallographie et (ii) les fluctuations du squelette polypeptidique observées lors de simulations de dynamique moléculaire. Ces analyses de la relation flexibilité-structure locale ont conduit au développement d'une stratégie de prédiction originale de la flexibilité à partir de la séquence. Nos différentes approches constituent une première étape vers la prédiction de la structure tridimensionnelle globale d'une protéine.
APA, Harvard, Vancouver, ISO, and other styles
9

Guimarães, Silvio Jamil Ferzoli. "Identification de transitions dans des séquences d'images vidéo basée sur l'analyse d'images 2D." Marne-la-Vallée, 2003. http://www.theses.fr/2003MARN0163.

Full text
Abstract:
Le problème de la segmentation de séquences d’images vidéos est principalement associé au changement de plan. L’approche courante pour résoudre ce problème est basée sur le calcul de mesures de dissimilarités entre images. Dans ce travail, le problème de la segmentation de séquences vidéo est transformé en un problème de détection de motifs, ou�� chaque évènement dans la vidéo est representé par un motif différent sur une image 2D, apellée rythme visuel. Cette image est obtenue par une transformation spécifique de la vidéo. Pour traiter ce problème, nous allons considérer principalement des outils morphologiques et topologiques. Nous montrons commment identifier grâce à ces outils, les motifs spécifiques qui sont associés à coupures, fondus et fondus enchaînés, ainsi qu’aux flashs. Dans l’ensemble, les méthodes proposées dans cette thèse obtiennent des indices de qualité meilleurs que les autres méthodes auxquelles nous les avons comparées
The video segmentation problem consists in the identification of the boundary between consecutive shots in a video sequence. The common approach to solve this problem is based on the computation of dissimilarity measures between frames. In this work, the video segmentation problem is transformed into a problem of pattern detection, where each video event is represented by a different pattern on 2D spatio-temporal image, called visual rhythm. To cope with this problem, we consider basically morphological and topological tools that we use in order to identify the specific patterns that are related to video events such as cuts, fades, dissolves and flashes. To compare different methods we define two new measures, the robustness and the gamma measures. In general, the proposed methods present the quality measures better than the other methods used to comparison
APA, Harvard, Vancouver, ISO, and other styles
10

Venegas, Martinez Santiago. "Analyse et segmentation de séquences d'images en vue d'une reconnaissance de formes efficace." Paris 5, 2002. http://www.theses.fr/2002PA05S002.

Full text
Abstract:
Cette thèse traite des problèmes de segmentation spatio-temporelle en images dynamiques. L'objet de cette recherche se situe dans la présentation d'une méthode qui simplifie le calcul de la fonction distance dans la théorie des ensembles de niveau. On propose un processus itératif en deux étapes : une diffusion isotrope suivie d'un opérateur discriminant avec un seuil variant spatialement en fonction de l'image à segmenter. Le principe général est d'assimiler la segmentation à la recherche d'une région par l'évolution d'une courbe
This work presents a computational technique for tracking moving interfaces. For that, a vecursive linear convolving method to performe arisotropic diffusion in images is presented. The novel approach is that there is not need to estimate local and global properties previously of the concerned evolving interface. The method works on a fixed grid, usually the image pixels grid, and automatically handles changes in the topology of the evolving interface
APA, Harvard, Vancouver, ISO, and other styles
11

Arcila, Romain. "Séquences de maillages : classification et méthodes de segmentation." Phd thesis, Université Claude Bernard - Lyon I, 2011. http://tel.archives-ouvertes.fr/tel-00653542.

Full text
Abstract:
Les séquences de maillages sont de plus en plus utilisées. Cette augmentation des besoins entraîne un développement des méthodes de génération de séquences de maillages. Ces méthodes de générations peuvent produire des séquences de maillages de natures différentes. Le nombre d'applications utilisant ces séquences s'est également accru, avec par exemple la compression et le transfert de pose. Ces applications nécessitent souvent de calculer une partition de la séquence. Dans cette thèse, nous nous intéressons plus particulièrement à la segmentation en composantes rigides de séquences de maillages. Dans un premier temps, nous formalisons la notion de séquence de maillages et proposons donc une classification permettant de désigner quelles sont les propriétés attachées à un type de séquence, et ainsi de décrire précisément quel type de séquence est nécessaire pour une application donnée. Dans un second temps, nous formalisons la notion de segmentation de séquence de maillages, et présentons également l'état de l'art des méthodes de segmentation sur les séquences de maillages. Ensuite, nous proposons une première méthode de type globale pour les séquences stables de maillages, fondée sur la fusion de régions. Par la suite, nous présentons deux autres méthodes, reposant sur la classification spectrale. La première, produit un ensemble de segmentations globales, tandis que la seconde génère une segmentation globale ou une segmentation temporellement variable. Nous mettons également en place un système d'évaluation quantitative des segmentations. Enfin, nous présentons les différentes perspectives liées à la segmentation.
APA, Harvard, Vancouver, ISO, and other styles
12

Liu, Ming. "Analyse et optimisation du système asiatique de diffusion terrestre et mobile de la télévision numérique." Phd thesis, INSA de Rennes, 2011. http://tel.archives-ouvertes.fr/tel-00662247.

Full text
Abstract:
Cette thèse a pour objectif l'analyse du système de télévision numérique chinois (DTMB) et l'optimisation de sa fonction d'estimation de canal. Tout d'abord, une analyse approfondie de ce système est effectuée en comparaison du système DVB-T en termes de spécifications, d'efficacité spectrale et de performances. Ensuite, la fonction d'estimation de canal basée sur la séquence pseudo-aléatoire du système est étudiée dans les domaines temporel et fréquentiel, et plusieurs améliorations sont apportées aux méthodes typiques afin de notamment gérer les canaux très dispersifs en temps. Enfin, de nouveaux procédés itératifs aidés par les données et peu complexes sont proposés pour raffiner les estimés de canal. Les fonctions de décodage de canal et d'entrelacement sont exclues de la boucle et des fonctions de filtrage temps/fréquence sont étudiées pour fiabiliser les estimations. Ces nouveaux algorithmes démontrent leur efficacité par rapport aux méthodes courantes de la littérature.
APA, Harvard, Vancouver, ISO, and other styles
13

Drouin, Stéphane. "Description incrémentale d'objets déformables dans des séquences vidéo." Thesis, Université Laval, 2008. http://www.theses.ulaval.ca/2008/25393/25393.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Sanchez, Olivia. "Désoccultation de séquences vidéo : aspects mathématique et numérique." Paris 9, 2002. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2002PA090019.

Full text
APA, Harvard, Vancouver, ISO, and other styles
15

Boulfani-Cuisinaud, Yasmine. "Compression au fil de l'eau de séquences de maillages 3D par analyse multirésolution." Nice, 2010. http://www.theses.fr/2010NICE4080.

Full text
Abstract:
Nous proposons dans cette thèse deux approches de compression géométrique de maillages 3D dynamiques au fil de l’eau pour analyse multirésolution. Comme première approche de compression, le codeur TWC (Temporal Wavelet Coding) est proposé, incluant une transformée en ondelettes temporelle mise en œuvre au moyen d’un schéma lifting, où plusieurs schémas lifting ont été testés. Les sous-bandes de la transformée en ondelettes sont codées avec une technique basée sur une allocation binaire, permettant d’obtenir les pas de quantification optimaux, selon un critère débit / distorsion. En deuxième approche de compression, le codeur appelé MCTWC (Motion Compensated Temporal Wavelet Coding) est proposé, s’appuyant sur la transformée en ondelettes incluant une compensation de mouvement, un codage arithmétique des matrices de mouvement et des partitions, et un codage des sous-bandes par le codeur basé sur l’allocation binaire. Une technique de segmentation automatique au sens du mouvement est proposée, consistant à regrouper dans des parties (clusters) les sommets qui suivent un mouvement affine proche, sous la condition de la minimisation de l’erreur de compensation de mouvement. Une estimation / compensation du mouvement est appliquée ensuite sur chaque cluster de la partition pour obtenir une séquence compensée en mouvement par parties, sur laquelle est appliqué la transformée en ondelettes par schéma lifting
We propose in this thesis two approaches for geometric compression of 3D dynamic meshes computing on the fly multiresolution analysis. As a first compression approach, the encoder TWC (Temporal wavelet Coding) is proposed, including a temporal wavelet transforms implemented by several lifting schemes. The subbands of the wavelet transforms are encoded thanks to a bit allocation giving the optimal quantization steps, by optimizing the rate-distorstion trade-off. A second compression approach is proposed, called MCTWC (Motion Compensated Temporal Wavelet Coding). It is based on the motion compensated wavelet transform. An automatic motion-based segmentation technique is proposed using z region growing approach : the vertices that follow the same affine motion belong to a same cluster. A motion estimation / compensation is then applied to each cluster of the partition to obtain a cluster-based motion compensation sequence. Then, a wavelet-based lifting scheme is applied. Experimentally, the encoder MCTWC including motion compensation improves significantly the compression performances compared to the encoder TWC which does not include this feature. Also, compared to some state of the art encoders, the proposed coders do not depend on the geometric characteristics of the mesh sequences, permit a low computational complexity multiresolution analysis, and offer features like temporal scalability and streaming
APA, Harvard, Vancouver, ISO, and other styles
16

El, Hassani Mohammed. "Segmentation basée-région pour l’amélioration de séquences vidéo : Algorithme-Architecture dans un contexte temps réel." Caen, 2008. http://www.theses.fr/2008CAEN2023.

Full text
Abstract:
L'expression amélioration d'image dans le domaine de la vidéo numérique, désigne l'ensemble des techniques pouvant modifier le contenu d'une séquence vidéo pour un meilleur rendu visuel. Ces techniques peuvent modifier non seulement le contenu d'une image, mais aussi ses dimensions et sa cadence d'affichage. Durant les dix dernières années, les fabricants de boîtiers nume��riques ont commencé à intégrer de plus en plus d'algorithmes d'amélioration de séquences vidéo dans leurs produits. Cependant, la plupart des solutions adoptées utilisent une représentation pixellique de l'image. Dans cette thèse nous proposons d'exploiter une représentation région de l'image pour optimiser l'amélioration du rendu des séquences vidéo. Notre thèse fait appel à trois thématiques : les algorithmes d'amélioration de séquences vidéo, l'implémentation matérielle et les algorithmes de segmentation. Après un état de l'art sur ces trois domaines, nous allons nous attacher à concevoir un algorithme de segmentation vidéo TCVSEG ayant une bonne consistance temporelle entre les images successives. La segmentation vidéo étant un traitement complexe, notre conception est guidée par la simplicité. Nous implémentons TCVSEG sur une architecture programmable dont le choix est justifié. Après l'évaluation de cette première implémentation, nous étudions la parallélisation de notre segmentation spatiale afin d'accélérer le traitement pour des séquences de résolution supérieure au CIF. Ensuite nous proposons des améliorations d'image exploitant la représentation région de l'image, et finalement nous donnons des perspectives pour améliorer les performances et la qualité de notre segmentation vidéo ainsi que des améliorations qui exploitent, également la représentation région de l'image
The expression image improvement in the field of digital video indicates all the techniques which can modify the contents of a video sequence for a better visual rendering. These techniques can modify not only the contents of an image, but also its dimensions and its display rate. During the last ten years, the manufacturers of Set Top Boxes began to integrate more and more algorithms to improve the video rendering in their products. However, most of the adopted solutions use a pixel representation of the image. In this thesis we suggest to take benefit of a region representation of the image in order to optimize the improvement of the video rendering. Our thesis is then related to three domains: video improvement algorithms, material implementation and segmentation algorithms. After a state of the art on these three domains, we are going to design a video segmentation algorithm with a good temporal consistency between the successive images. As the video segmentation is a bottleneck for real time processing, our design is simplicity driven. We implement the TCVSEG on a programmable architecture whose choice is justified. After the evaluation of this first implementation, we study the parallelization of our spatial segmentation to accelerate the processing for video sequences of resolution higher than CIF. Then we propose image improvements methods exploiting the region representation of the image. Finally we give perspectives to improve the performances and the quality of our video segmentation as well as improvements which exploit also the region representation of the image
APA, Harvard, Vancouver, ISO, and other styles
17

Monier, Garbet Pascale. "Amplification de rayonnement XUV dans les plasmas créés par laser : étude d'un schéma combiné d'excitation optique et collisionnelle dans les ions isoélectroniques du néon." Paris 11, 1987. http://www.theses.fr/1987PA112090.

Full text
Abstract:
Le rayonnement XUV émis par les plasmas produits par laser peut, dans certaines conditions, être amplifié par le milieu qui devient alors le siège d'un effet laser dans ce domaine de courtes longueurs d'onde (100 - 200 Å). Le but de ce travail est d'étudier la faisabilité d'un nouveau schéma d'inversion de population dans le strontium isoélectronique du néon, associant l'excitation collisionnelle et 11 excitation optique quasi-résonnante par le rayonnement de l'aluminium à 6. 059 Å. Une analyse spectroscopique du plasma de strontium au voisinage de 150 Å conduit à l'identification des raies néonoïdes sur lesquelles est attendue l'amplification de rayonnement. L'absorption X quasi-résonnante du rayonnement de l'aluminium par le strontium est mise en évidence dans une expérience à deux plasmas. Un modèle collisionnel-radiatif détaillé, SPHINX, permet de calculer le gain en fonction des conditions de plasma, et du taux d'excitation optique résonnante. Les transferts de population, à la fois optiques et collisionnels, sont soigneusement étudiés. Corrélativement les gains prévus par SPHINX dans le strontium, et dans le schéma d'excitation collisionnelle seul, sont comparés aux valeurs expérimentales observées au Lawrence Livermore National Laboratory sur les mêmes transitions dans le sélénium. Un très bon accord qualitatif est trouvé pour les deux transitions situées à 164. 08 Å et 166. 49 Å dans le strontium
XUV radiation emitted by laser produced plasmas may, under particular conditions, be amplified by the medium, leading to a laser effect in this short wavelength range (100 - 200 Å). This work is intended to study the feasibility of a new population inversion scheme in neon-like strontium, combining collisional excitation and quasi resonant photoexcitation by aluminium radiation at 6. 059 Å. A detailed spectroscopic analysis of the strontium plasma near 150 Å has made possible the identification of the neon-like lines which are expected to be amplified. Quasi-resonant X-ray absorption of aluminium radiation by strontium is demonstrated in a two plasmas experiment. Gain is calculated as a function of the plasma conditions and of the resonant photoexcitation rate coefficient, using a detailed collisional-radiative model, SPHINX. Population transfers due to photon and collisional processes are carefully studied. At the same time, gains computed from SPHINX in strontium and in the collisional excitation scheme alone, are compared to experimental values observed at the Lawrence Livermore National Laboratory on the same transitions in selenium. A very good qualitative agreement is found for both transitions located at 164. 08 Å and 166. 49 Å in strontium
APA, Harvard, Vancouver, ISO, and other styles
18

Chatelain, Clément. "Extraction de séquences numériques dans des documents manuscrits quelconques." Phd thesis, Université de Rouen, 2006. http://tel.archives-ouvertes.fr/tel-00143090.

Full text
Abstract:
Dans le cadre du traitement automatique de courriers entrants, nous présentons dans cette thèse l'étude, la conception et la mise en \oe uvre d'un système d'extraction de champs numériques dans des documents manuscrits quelconques. En effet, si la reconnaissance d'entités manuscrites isolées peut être considérée comme un problème en partie résolu, l'extraction d'information dans des images de documents aussi complexes et peu contraints que les courriers manuscrits libres reste à ce jour un réel défi. Ce problème nécessite aussi bien la mise en \oe uvre de méthodes classiques de reconnaissance d'entités manuscrites que de méthodes issues du domaine de l'extraction d'information dans des documents électroniques. Notre contribution repose sur le développement de deux stratégies différentes : la première réalise l'extraction des champs numériques en se basant sur les techniques classiques de reconnaissance de l'écriture, alors que la seconde, plus proche des méthodes utilisées pour l'extraction d'information, réalise indépendamment la localisation et la reconnaissance des champs. Les résultats obtenus sur une base réelle de courriers manuscrits montrent que les choix plus originaux de la seconde approche se révèlent également plus pertinents. Il en résulte un système complet, générique et industrialisable répondant à l'une des perspectives émergentes dans le domaine de la lecture automatique de documents manuscrits : l'extraction d'informations complexes dans des images de documents quelconques.
APA, Harvard, Vancouver, ISO, and other styles
19

Megret, Rémi. "Structuration spatio-temporelle de séquences vidéo." Lyon, INSA, 2003. http://theses.insa-lyon.fr/publication/2003ISAL0089/these.pdf.

Full text
Abstract:
Ce travail aborde le problème de l'extraction d'une structure spatio-temporelle au sein de séquences vidéos, avec comme objectif une représentation qui prenne en compte l'ensemble de la séquence, tant spatialement que temporellement. Plusieurs points de vues sont proposés : le point de vue de l'estimation de trajectoires, le point de vue de la segmentation jointe en espace et en temps, et une formalisation plus générale autour du concept de regroupement récursif. Le point commun des solutions que nous introduisons est de considérer des représentations à plusieurs niveaux, par l'utilisation de structures hiérarchiques. Ces structures sont définies à partir de primitives regroupant les pixels de façon compacte : il s'agira de primitives surfaciques au sein d'une image, et de volumes au sein du bloc spatio-temporel que constitue la vidéo. Le premier point de vue sépare les dimensions spatiales et le temps. Des primitives sont extraites des images et mises en correspondance temporelle pour former des trajectoires. Nous proposons pour cela l'utilisation de blobs, c'est à dire des régions de forme compacte présentant un contraste avec leur voisinage. Nous utilisons la définition de la théorie de l'espace-échelle, qui présente l'avantage de tirer parti de l'information présente à plusieurs niveaux de détail dans une image à niveaux de gris. Nous proposons une extension de celle-ci à la couleur, sur la base des histogrammes de couleur locaux, que nous relions avec d'autres méthodes non multiéchelle. Les blobs suivis forment des trajectoires, que nous segmentons par le mouvement, à l'aide d'une nouvelle méthode, permettant de prendre en compte des trajectoires de longueurs variées. Le second point de vue considère les dimensions spatiales et temporelle de façon jointe. Nous proposons une méthode d'extraction de tubes de couleur spatio-temporels dans des blobs d'une vingtaine d'images. Elle est basée sur une classification des pixels de la séquence dans un espace de caractéristiques. L'avantage d'extraire directement des structures spatio-temporelles du bloc vidéo est de pouvoir les comparer, moyennant un décalage temporel, ce qui fournit une mesure de la stabilité temporelle de chaque tube. Enfin, nous proposons un modèle général permettant de caractériser les méthodes de structuration du bloc spatio-temporel, sur la base de deux concepts : la définition d'une structure spatio-temporelle comme un regroupement récursif des pixels de la séquence, et la décomposition de toute relation spatio-temporelle en une relation synchrone et une projection temporelle
This thesis tackles the problem of extracting a spatio-temporal structure out of a video sequence. The goal is to provide a structured representation of the visual content, by taking into account the whole spatio-temporal extent of the sequence, spatially as well as temporally. Several points of view are proposed to address this issue: - a representation based on trajectories of blobs, - a segmentation method that works jointly in space and time, - and a more general formalization that builds around the concept of recursive grouping. These approaches share the properties that we consider multi-level representations, by use of hierarchical structures. They are based on pixel groupings that have a compact shape, like blobs in images, and strands in video sequences
APA, Harvard, Vancouver, ISO, and other styles
20

Wang, Shan. "Stratégie de codage conjoint de séquences vidéo basé bandelettes." Poitiers, 2008. http://theses.edel.univ-poitiers.fr/theses/2008/Wang-Shan/2008-Wang-Shan-These.pdf.

Full text
Abstract:
Les travaux de cette thèse s'inscrivent à la fois dans le contexte de la compression d'images et dans celui des communications numériques. On sait que le traitement d'images couvre un grand nombre d'applications liées aux communications, telles que l'imagerie médicale et la télémédecine, la vidéoconférence, le cinéma, la télévision. Le système de transmission numérique permet de véhiculer l'information entre une source et un destinataire. Le support physique utilisé pour cette opération de transport n'étant pas toujours parfait, il est courant que, lors d'une transmission, l'information soit soumise à un certain nombre de perturbations, et qu'elle présente des erreurs en réception. En outre, d'autres erreurs peuvent être provoquées par le système de communication lui-même. Dans un souci de performance, beaucoup de systèmes de transmission d'images exploitent les défauts de la perception visuelle humaine. De plus, on exploite conjointement l’ensemble des éléments constituants la chaîne de transmission numérique pour rendre le schéma proposé robuste à la fois dans des conditions de transmission difficiles et pour des canaux bas débit. Pour cela, nous proposons d'utiliser la décomposition en ondelettes (DWT) dans le cadre de transmission sans fil de vidéos, ce qui diffère des standards actuels comme MPEG-4, H264, AVC, …. Qui utilisent prioritairement les DCT. Cela permet plus de souplesse dans la hiérarchisation possible de l'information à coder. En effet, la qualité de service attendue à la réception d'un système de communication peut-être très variable suivant l'application et le type de réseaux. En plus de la compression spatiale, l’exploitation des similarités existantes entre des images successives par des techniques de GOP (Group of Pictures) et de compensation du mouvement (Vecteur Mouvement) permet d’augmenter le taux de compression. Pour donner plus de robustesse au système de codage, nous considérons des quantifications vectorielles à partir de dictionnaires construits à l'aide de cartes auto-organisatrice (algorithme SOM), dictionnaires qui pourront se superposer aux constellations de modulations d'amplitude en quadrature (MAQ). Le codage à longueur fixe qui en découle pénalise le taux de compression, mais préserve mieux les données en cas d'erreurs sur le canal
The work of this thesis relies on image compression as well as digital communications. The image processing is applicable in a lot of communication-related fields like medical imaging, telemedicine, videoconference, cinema and TV. The digital transmission systems assure the information exchanges between a source and a receiver. Considering that the physical medium used to support such transmission is not yet perfect, it is well known that the information transmitted can be exposed to several types of interference, resulting errors at the receiver. Furthermore, the communication system itself can cause errors. For the sake of performance, many image transmission systems analyze the flaws of the human visual perception. In addition, we also take into account all the elements of the digital communication channel in order to have a robust scheme in difficult transmission conditions as well as in low bandwidth channel. To this end, we propose to use wavelet decomposition (DWT) in the context of wireless video transmission, which is different from actual standards using DCT in priority like MPEG-4,. 264, AVC, …. This guarantees more flexibility in the possible hierarchisation for the information to be coded. In fact, using different applications and network types in a communication system, the quality of service at the receiver can be very variable. In addition to spatial compression, the compression rate can also be increased using GOP (Group of Pictures) techniques and motion compensation (Motion Vectort) to exploit the similarities between successive images. In order to have a coding system more robust, we’ve used vector quantizations from codebooks built with self-organizing maps (SOM algorithm), these codebooks can be superimposed on constellations of quadrature amplitude modulation (QAM). The following fix length coding reduces the compression rate but preserves better the transmitted data facing channel errors
APA, Harvard, Vancouver, ISO, and other styles
21

Fiot, Céline. "Extraction de séquences fréquentes : des données numériques aux valeurs manquantes." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2007. http://tel.archives-ouvertes.fr/tel-00179506.

Full text
Abstract:
La quantité de données aujourd'hui emmagasinées dans tous les domaines ainsi que leur diversité d'origines et de formats rendent impossibles l'analyse, le résumé ou l'extraction manuelle de connaissances. Pour répondre à ces besoins, diverses communautés se sont intéressées à la conception et au développement d'outils permettant d'extraire automatiquement de la connaissance de ces grandes bases. Désormais ces travaux visent à prendre en compte l'hétérogénéité de ces données, de leur format et de leur qualité. Notre travail s'inscrit dans cet axe de recherche et, plus précisément, dans le contexte de la découverte de schémas fréquents à partir de données regroupées sous la forme de séquences ordonnées. Ces schémas, appelés motifs séquentiels, n'étaient jusqu'alors extraits que sur des bases de données de séquences symboliques et parfaites, c'est-à-dire des bases ne contenant que des informations binaires ou pouvant être traitées comme telles et ne contenant aucun enregistrement incomplet. Nous avons donc proposé plusieurs améliorations des techniques d'extraction de séquences fréquentes afin de prendre en compte des données hétérogènes, incomplètes, incertaines ou mal connues de leur utilisateur, tout en minimisant les pertes éventuelles d'informations. Ainsi, le travail présenté dans cette thèse comporte la mise en oeuvre d'un cadre pour l'extraction de motifs séquentiels en présence de données numériques quantitatives, la définition de contraintes temporelles relâchées autorisant l'utilisateur à spécifier des contraintes temporelles approximatives et permettant un tri des résultats obtenus selon un indice de précision temporelle, enfin, le développement de deux approches pour l'extraction de motifs séquentiels sur des données symboliques incomplètes.
APA, Harvard, Vancouver, ISO, and other styles
22

El, Hassouni Mohammed. "Débruitage de séquences vidéo en présence de perturbations fortement impulsives." Dijon, 2005. http://www.theses.fr/2005DIJOS004.

Full text
APA, Harvard, Vancouver, ISO, and other styles
23

Dumont, Émilie. "Similarité des séquences vidéo : application aux rushes." Nice, 2009. http://www.theses.fr/2009NICE4021.

Full text
Abstract:
Cette thèse se situe dans le contexte de l'analyse de vidéos; en particulier des vidéos appelées rushes. Les rushes d'un film sont constitués des documents originaux (bobines de film, bandes sons,. . . ) produits au tournage et issus de la caméra et de l'appareil d'enregistrement sonore. Ce sont des documents uniques, bruts, qui seront utilisés au montage et en postproduction. Nous proposons différents outils pour l'exploitation des rushes tels que des méthodes pour supprimer les séquences outils et poubelles du flux vidéo; une méthode de recherche de plans vidéos grâce à l'utilisation d'un plan vidéo; une mesure du contenu visuel d'une séquence vidéo ainsi qu'une structuration de la vidéo permettant de supprimer la redondance dans une vidéo en se basant sur l'alignement de séquences vidéos. Ensuite ces outils ont été incorporés dans des systèmes pour la création de résumés vidéo de rushes. Le premier système se base uniquement sur la mesure du contenu vidéo, le deuxième utilise l'alignement des séquences; en parallèle, nous avons développé une architecture permettant une collaboration entre laboratoires. Nous avons soumis ces différents systèmes à la campagne d'évaluation internationale TRECVID. Les résultats obtenus furent satisfaisants. Cependant cette méthode d'évaluation est manuelle, nous avons donc étudié de l'automatisation de cette évaluation
The purpose of this document is video analysis and in particular analysis of video rushes. In filmmaking, rushes is the term used to describe the raw, unedited, footage shots which are created during the making of a motion picture. We propose several tools to explore rushes. The first one is a tool to remove redundancy : the redundancy can be absolute (i. E. The content is not needed) or relative (i. E. The content is repetitive). An other method is a shot video search using a visual dictionary based on the paradigm of textual document search. In order to create video summarization, we propose a method to represent the quantity of the relevant visual content of a video sequence. A second technique is to align repetitive video sequences in order to parse the video and remove repetitive takes. At the same time, we present a collaborative architecture allowing to fuse different partner analysis in order to exploit their different competences. These systems were evaluated by TRECVID. Results encouraged us to continue on this direction. The main problem is that the TRECVID evaluations are currently performed by human judges. This creates fundamental difficulties because evaluation experiments are expensive to reproduce, and subject to the variability of human judgment. Therefore, we propose an approach to automate this evaluation procedure using the same quality criteria. Through experiments, we show a good correlation with the manual evaluation
APA, Harvard, Vancouver, ISO, and other styles
24

Guo, Xiao Yong. "Méthodes numériques pour l'acquisition du synchronisme d'une séquence pseudo-aléatoire dans un système de télécommunications par étalement de spectre à séquence directe." Toulouse, ENSAE, 1990. http://www.theses.fr/1990ESAE0019.

Full text
Abstract:
Cette thèse présente, sous forme d'algorithmes, des méthodes numériques originales pour l'acquisition rapide du synchronisme d'une séquence pseudoaleatoire (pn) dans un système de transmission par étalement de spectre à séquence directe. Ces méthodes utilisent une approche séquentielle qui implique le calcul de produits de correlation successifs. Le calcul de ces produits de correlation est mené en considérant la nature binaire des éléments constitutifs de la séquence locale. De ce fait le calcul ne met en œuvre que des opérations simples comme l'addition et la soustraction. Les calculs sont réalises sur des blocs d'échantillons, de longueur limitée. Comparées aux méthodes classiques, ces méthodes sont particulièrement avantageuses pour des longueurs de bloc inférieures à environ 1000 bribes.
APA, Harvard, Vancouver, ISO, and other styles
25

Chebaro, Bilal. "Etude du mouvement 3D d'objets par l'analyse d'une séquence stéréoscopique d'images." Toulouse 3, 1993. http://www.theses.fr/1993TOU30195.

Full text
Abstract:
Nous decrivons dans cette these un systeme analysant et gerant une sequence stereoscopique d'images. Le but d'un tel systeme est la localisation et la caracterisation des objets mobiles dans une scene avant de proceder dans un deuxieme temps a l'estimation de leurs parametres de mouvement 3d. Notre strategie peut se resumer de la maniere suivante: chaque sequence (droite et gauche) est analysee d'une facon independante, un ensemble d'operateurs permet de detecter et de caracteriser les regions mobiles dans une image. L'ensemble des descriptions des regions mobiles dans une image constitue la base des faits des regions mobiles de cette image. Ces bases de faits sont ensuite utilisees dans un deuxieme temps pour etablir la phase de l'appariement qui met en jeu a chaque pas de traitement quatre images relatives a deux couples stereoscopiques successifs. Lors de cette phase toutes les mises en correspondance temporelles et stereoscopiques sont realisees d'une facon independante. La fusion est assuree quant a elle, par un algorithme original de verification des coherences et de gestion des conflits. Ce dernier traitement est effectue selon une strategie privilegiant les associations temporelles. Lors du calcul de mouvement, les regions mobiles ne sont pas considerees individuellement, mais au contraire, elles sont regroupees entre elles en classes selon un critere garantissant l'identite du mouvement entre les elements d'une meme classe. A ce sujet, nous avons pu en effet demontrer que la conservation au cours de leur mouvement d'un nombre fini de distances entre des points appartenant a deux regions solides garantit l'identite de mouvement entre ces deux regions. Ce critere est exploite pour definir un algorithme de regroupement des regions. Enfin le calcul de mouvement est effectue sur chacune des classes issues de la phase de regroupement
APA, Harvard, Vancouver, ISO, and other styles
26

Pelletier, Sylvain. "Modèle multi-couches pour l'analyse de séquences vidéo." Paris 9, 2007. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2007PA090029.

Full text
Abstract:
Cette thèse est consacrée à l'étude du modèle multi-couches et de ses applications en traitement de la vidéo. Selon ce modèle, une séquence vidéo est obtenue comme la projection d'une scène 3d composée d'objets opaques, situés à différentes profondeurs. Dans le chapitre 1, nous proposons un algorithme temps-réel de segmentation des objets en mouvement basé sur ce modèle. En supposant le fond connu et la caméra fixe, nous comparons l'image venant du flux vidéo et ce fond, et nous détectons les zones où le fond est occulté. De plus, nous utilisons la détection a contrario pour modéliser les objets mobiles comme les groupements significatifs de changements. Dans le chapitre 2, nous cherchons à reconstruire les couches à partir de la séquence vidéo. Pour cela, nous proposons un modèle de déformation de la projection de l'objet sur l'image, valable sous certaines hypothèses sur le mouvement de l'objet. Puis, dans le chapitre 3, nous proposons une méthode variationnelle permettant d'extraire de la séquence, les couches des objets mobiles, même dans le cas d'occultation
We propose to study in this thesis the layer model and its applications to video analysis. According to this model, a video sequence is obtained by the projection of a three dimensional scene composed of several opaque objects located at different depths from the camera. The background is the last layer, and the moving objects are projected upon it, in order opposite of their depth. In the first chapter, we set forth a real-time video segmentation method based upon the layer model. Given a known background and a fixed camera, we compare the current frame and the background, detecting the occluded zones. Likewise we use a contrario detection to detect moving objects as meaningful clusters of changes. In Chapter 2, we look for reconstruction of layers from the video. We propose a deformation model of the objects' projection on the image, valid under some hypothesis on the objects' movement. Chapter 3 proposes a variational method to extract moving object layers from the sequence, even if these are hidden during several images
APA, Harvard, Vancouver, ISO, and other styles
27

Reiser, Cyrille. "Identification des corps sédimentaires et des séquences stratigraphiques par l'analyse numérique des formes diagraphiques." Lyon 1, 1998. http://www.theses.fr/1998LYO10175.

Full text
Abstract:
Les objectifs de cette etude sont de concevoir une approche automatique de reconnaissance des corps sedimentaires et des sequences genetiques par l'analyse des formes diagraphiques. _ la variation du niveau de base est la seule variable dynamique transposable de maniere directe et objective aux diagraphies. L'analyse de la derivee de la diagraphie ecart (difference entre neutron et densite) a ete effectuee, afin d'identifier les differentes inversions de tendance lithologique. L'identification des sequences genetiques par diagraphies a ete faite dans differents systemes de depots siliciclastiques. Ces sequences genetiques identifiees sont validees apres hierarchisation (basee sur les inversions du motif stratigraphique) et correlation. L'analyse considere l'agencement des mesures diagraphiques (lien genetique). Les diagraphies peuvent etre utilisees comme un outil stratigraphique objectif et independant de l'analyse sedimentologique. La forme diagraphique de la radioactivite semble etre le parametre le plus invariant pouvant caracteriser les corps sedimentaires. La reponse diagraphique doit etre filtree par le biais d'un filtre issu de l'imagerie. La diagraphie est ensuite caracterisee par differents attributs de formes et dynamiques : coefficient d'aplatissement et d'asymetrie, ecart-type, dissymetrie, difference entre la courbe brute et la courbe filtree, la pente et la diagraphie normalisee. Ces differents attributs sont ensuite classes (classification par les nuees dynamiques). Chaque classe de forme identifiee caracterise un corps sedimentaire apres calibration. Cette approche a ete testee et validee sur des cas d'etudes dans differents systemes de depots. Cette methode est objective et tient compte de la dynamique de la reponse diagraphique. Cette methode iso-echelle permet une etude iterative et interactive avec l'analyse sedimentologique. Ces deux traitements numeriques des diagraphies se proposent d'apporter des informations objectives, complementaires (identification des corps sedimentaires) et directes (identification des sequences genetiques) a l'analyse sedimentologique.
APA, Harvard, Vancouver, ISO, and other styles
28

Maurel, Hervé. "Rendu réaliste de séquences animées : le lancer de rayons 4D." Toulouse 3, 1994. http://www.theses.fr/1994TOU30020.

Full text
Abstract:
Les algorithmes de rendu tels que le lancer de rayons permettent d'obtenir une qualité d'image très attrayante. Cependant, la quantité de calcul requise pour la production d'animations devient rapidement prohibitive. L'objectif de cette thèse est de présenter différentes approches utilisant la cohérence temporelle en lancer de rayons. Le premier chapitre effectue un survol des techniques d'animation par ordinateur. Plus particulièrement, l'animation par évènements clés et les techniques d'interpolations sont détaillées. Dans le deuxième chapitre, nous présentons un noyau d'animation pour la machine Voxar. Sa réalisation s'appuie sur une gestion incrémentale de la scène répartie sur une architecture parallèle à mémoire locale. Dans le troisième chapitre, une classification des méthodes exploitant les propriétés de cohérence temporelle pour le lancer de rayons est présentée. Ce chapitre se termine par une analyse quantitative de la cohérence entre rayons dans une séquence. Enfin, dans les deux derniers chapitres, un nouvel algorithme, le lancer de rayons 4D, dédié au calcul de séquences d'images pour un observateur fixe est proposé. Son principe consiste à calculer toutes les images de la séquence en même temps en assurant l'unicité de traitement des rayons fournissant le même résultat pour différentes images. Cet algorithme permet de fournir la même qualité d'image qu'un lancer de rayons classique tout en diminuant fortement les temps de calculs. Le principe de l'algorithme est applicable à toute méthode utilisant le lancer de rayons
APA, Harvard, Vancouver, ISO, and other styles
29

Perret, Yannick. "Suivi de paramètres de modèle géométriques à partir de séquences vidéo multi-vues." Lyon 1, 2001. http://www.theses.fr/2001LYO10276.

Full text
Abstract:
Diverses applications, telle que la réalité augmentée ont en commun le besoin de suivre les mouvements ou les évolutions d'objets réels dans les séquences vidéo. Nous présentons dans cette thèse une méthode de suivi de sujets articulés dans des vidéos. La méthode proposée est basée sur l'utilisation d'un modèle générique et l'estimation de ses paramètres à partir d'images de synthèse. Dans notre problématique, nous disposons de plusieurs caméras calibrées filmant le sujet ainsi que d'une représentation du sujet sous forme d'un modèle géométrique paramétré. Nous appelons paramètre tout attribut variable du modèle qui peut être anthropométrique, spatial, de couleur, de texture. . . Grâce à un moteur de rendu, nous pouvons générer des images de synthèse du sujet correspondant à chaque vue. Il s'agit alors de rechercher les paramètres générant les images les plus fidèles par rapport aux images réelles, considérées comme images de références. Cela implique l'introduction d'une mesure d'écart multi-vues entre image de synthèse et réelle, ainsi que la recherche de l'optimum de cette mesure par rapport aux paramètres. La mesure d'écart définie se fonde sur une comparaison dense entre images, offrant en particulier une forte résistance aux occultations. La recherche de l'optimum de la mesure s'appuie sur le principe du simplexe, adapté à notre situation. Pour chaque instant t des séquences vidéo nous cherchons les valeurs des paramètres correspondants, et nous propageons celles-ci comme valeurs initiales pour l'instant suivant. Nous avons testé notre méthode sur des séquences de synthèse pour démontrer sa validité théorique. Nous avons également étudié les conditions influant sur la précision du suivi. Des tests sur des séquences réelles montrent sa capacité à travailler sur des exemples concrets.
APA, Harvard, Vancouver, ISO, and other styles
30

Thomas, Dave. "Simulation des séquences de sciage du bois par des modèles logiques et numériques." Thesis, National Library of Canada = Bibliothèque nationale du Canada, 1998. http://www.collectionscanada.ca/obj/s4/f2/dsk2/tape17/PQDD_0011/MQ33764.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
31

Kone, Tiémoman. "Recalage automatique d'images angiographiques rétiniennes par analyse numérique d'images : application au suivi de séquences d'images." Paris 12, 1993. http://www.theses.fr/1993PA120046.

Full text
Abstract:
L'angiographie retinienne en fluorescence est un examen clinique ophtalmologique. Cet examen est fondamental pour le diagnostic des pathologies retiniennes. Il permet d'avoir une serie d'images retiniennes dont l'analyse necessite frequemment un recalage d'images. Jusqu'ici, la methode manuelle de recalage, par utilisation d'une feuille calque, et subjective, fastidieuse et restreinte aux images de meme agrandissement. Nous proposons une methode geometrique de recalage automatique basee sur les techniques d'analyse numerique d'images. Cette methode consiste a detecter, dans un premier temps, les points de bifurcation de la structure vasculaire des images retiniennes a recaler. Les points de bifurcation sont ensuite apparies par la mise en correspondance de polygones semblables dont ils sont les sommets. Les couples de points de bifurcation apparies servent a definir la transformation de recalage entre les images. La methode de recalage automatique facilite l'analyse des images angiographiques retiniennes, elle reste applicable lorsqu'il existe entre les images, des deformations peripheriques ou une variation du facteur d'echelle
APA, Harvard, Vancouver, ISO, and other styles
32

Djemal, Khalifa. "Segmentation par contour actif et suivi automatique d'un objet dans une séquence d'images." Toulon, 2002. http://www.theses.fr/2002TOUL0017.

Full text
APA, Harvard, Vancouver, ISO, and other styles
33

Leclercq, Thomas. "Contribution à la comparaison de séquences d'images couleur par outils statistiques et par outils issus de la théorie algorithmique de l'information." Lille 1, 2006. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2006/50376-2006-Leclercq.pdf.

Full text
Abstract:
Notre travail concerne le développement d'outils d'aide à la gestion et à la sécurité des transports publics s'appuyant sur l'observation et la surveillance des sites à l'aide de caméras vidéo. Dans ce cadre, nous évaluons des méthodes de comparaison automatique de séquences d'images, permettant d'établir si différentes séquences correspondent ou non à l'observation d'un même usager. Nous proposons ensuite une signature de séquence d'images par descripteurs de séquences de matrices de co-occurrences chromatiques, puis une signature par descripteurs de séquences de vecteurs d'indices de textures. Nous considérons enfin une approche basée sur la théorie algorithmique de l'information et definissons une signature par vecteurs d'indices de complexite inspirés de la complexite de description de Kolmogorov.
APA, Harvard, Vancouver, ISO, and other styles
34

Bourdon, Pascal. "Restauration d'images et de séquences d'images par EDP : contributions et applications en communications numériques." Poitiers, 2004. http://www.theses.fr/2004POIT2321.

Full text
Abstract:
Dans cette thèse, nous nous intéressons à l’utilisation d’opérations de restauration d’images en transmission. Un système de transmission permet de véhiculer un signal entre une source et un destinataire. Le support physique utilisé n'étant pas toujours parfait, ce signal peut présenter des erreurs en réception. En outre, d'autres erreurs peuvent être provoquées par le système de communication lui-même, en particulier en transmission d’images, où seules les données pertinentes vis-à-vis de l’œil humain sont émises. Nous proposons ici d'étudier et de concevoir plusieurs modèles de restauration par Equations aux Dérivées Partielles, afin de réduire l'impact de ces différentes erreurs. Nous proposons en particulier un nouveau modèle de lissage de séquences d'images, ainsi qu'une méthode de inpainting multi-résolution. Les applications porteront sur l'atténuation d'artefacts de compression et la correction d’erreurs pour les codeurs JPEG /MPEG/H26x, et pour un schéma de codage conjoint
This PhD research focuses on image processing in digital communications. A transmission system is a system that transmits information from one place to another through a physical path. Because this path is subject to interference and propagation disturbances, errors can occur during the reception. Additional errors may also be generated by the system itself. In order to achieve better performances, most image coding standards exploit perceptual properties of the human visual system to remove data from the source, thus introducing distortion. In this dissertation, we study and conceive several PDE (Partial Differential Equations)-based models for image restoration, so to attenuate visual impact of these errors. In particular we propose a new image sequence denoising model, as well as a multiresolution inpainting method. Current applications include compression artifacts removal and error correction on JPEG/MPEG/H. 26x images/sequences, and on a joint source/channel coding scheme as well
APA, Harvard, Vancouver, ISO, and other styles
35

Parshyn, Viachaslau. "Macro-segmentation sémantique des séquences multimédia." Ecully, Ecole centrale de Lyon, 2006. http://bibli.ec-lyon.fr/exl-doc/vparshyn.pdf.

Full text
Abstract:
La segmentation de vidéo en unités sémantiques temporelles fournit des indices qui sont importants pour organiser un parcours et une navigation efficaces basés sur le contenu. Dans ce travail nous sommes concernés avec le problème de macro-segmentation visant de produire automatiquement des tables des matières de vidéos. Nous proposons une méthode déterministe qui est une sorte d'un automate fini et qui permet de formuler des règles de segmentation basées sur la connaissance à priori des principes de production de vidéo. La méthode a été adoptée et évaluée sur la vidéo de tennis. Nous proposons aussi une approche statistique où les règles de segmention sont choisies de manière à ce que les indices de performance, précision et rappel, soient maximisés. L'approche est appliquée à la tâche de segmentation de films en scènes sémantiques. Dans ce travail nous sommes aussi concernés avec le problème de création automatique de résumé vidéo
Segmentation of video into temporal semantic units provides important indexing information for efficient content-based browsing and navigation. In this work we are concerned withe the problem of macro-segmentation aiming at automatic generating of content tables of videos. We propose a deterministic approach which is a sort of finite automation and allows one to formulate content parsing rules based on a priori knowledge of the video production principles. The approach has been adopted und tested on tennis video. We propose also a statistical segmentation framework where content parsing rules are chosen so as to optimize the system performance measured as recall and precision. The framework is applied to the task of film segmentation into semantic scenes. The higher segmentation performance has been shown with respect to conventional rule-based ans statistical methods. In this work we are also concerned with the problem of automatic video summarization
APA, Harvard, Vancouver, ISO, and other styles
36

Agnus, Vincent. "Ségmentation spatio-temporelle de séquences d'images par des opérateurs de morphologie mathématique." Université Louis Pasteur (Strasbourg) (1971-2008), 2001. http://www.theses.fr/2001STR13197.

Full text
APA, Harvard, Vancouver, ISO, and other styles
37

Le, Men Camille. "Segmentation Spatio-temporelle d'une séquence d'images satellitaires à haute résolution." Phd thesis, Ecole nationale supérieure des telecommunications - ENST, 2009. http://pastel.archives-ouvertes.fr/pastel-00658159.

Full text
Abstract:
Les séquences temporelles d'images présentent une quantité d'information bien plus importante que des images individuelles. En effet, la prise en compte du temps accroit considérablement le nombre d'états possibles ce qui se traduit par une quantité d'information plus importante (au sens entropie). Grâce à l'agilité des satellites de nouvelle génération et à leur utilisation dans des constellations, des séquences temporelles d'images satellitaires, STIS, vont maintenant être accessibles à haute résolution. Ces données sont extrêmement riches, mais en contrepartie, elles sont complexes et difficiles à interpréter manuellement. Des méthodes d'analyse automatique sont donc requises. Les STIS à haute résolution (STISHR) se distinguent des autres types de séquences existantes par la nature des changements qu'elles présentent. En effet, contrairement aux STIS à basse résolution, les STISHR contiennent des objets. Afin de tenir compte de cette particularité, une méthode d'analyse orientée objet doit donc être utilisée. De telles méthodes existent dans le domaine de la vidéo. Cependant, les objets des STISHR peuvent subir des changements radiométriques, par exemple liés à la croissance des plantes, alors que la radiométrie des objets de vidéo est généralement supposée invariante. Nous devons donc concevoir une méthode d'analyse orientée objet adaptée à la STISHR. Par ailleurs, l'échantillonnage temporel des STISHR est irrégulier et généralement sous-échantillonné par rapport aux phénomènes observables à ces résolutions spatiales. De plus, du point de vue du satellite, aux évolutions radiométriques propres aux objets de la scène se rajoutent les évolutions radiométriques liées à l'épaisseur atmosphérique. Néanmoins, hormis de faibles erreurs de recalage géométrique, la STISHR présente une redondance temporelle dans la forme des objets. Ainsi, une construction est généralement pérenne et une zone cultivable est rarement modifiée. Nous proposons donc une méthode d'analyse de la STISHR basée objet de façon à exploiter d'une part la redondance radiométrique intra objets spatiaux, et d'autre part, la redondance temporelle de forme entre ces objets. Une étude phénoménologique de la dynamique de la scène et de la STISHR nous permet d'identifier les caractéristiques d'une représentation adaptée à la description de ses changements : il s'agit d'un graphe dont les noeuds sont des objets spatiaux reliés par des arcs exprimant leur dépendance temporelle. Le calcul de ce graphe est cependant un problème difficile, et nous proposons d'en calculer une approximation. Cette approximation est calculée en deux temps. Dans un premier temps, on considère une approximation forte sur les dépendances temporelles afin de faciliter la détermination des régions spatiales. Celles-ci sont extraites grâce à un algorithme de segmentation exploitant conjointement les deux types de redondances disponibles : l'homogénéité radiométrique spatiale, et la redondance géométrique temporelle. Les noeuds du graphe ainsi déterminés, on relaxe l'approximation sur les dépendances temporelles de façon à obtenir une estimation plus fine du graphe. Nous proposons ensuite deux utilisations de ce graphe. L'une exploite ses caractéristiques structurelles telles que la valence des noeuds afin de détecter les changements géométriques. L'autre, utilise une version attribuée par des propriétés radiométriques du graphe pour mettre en évidence des comportements fréquents.
APA, Harvard, Vancouver, ISO, and other styles
38

Khorrami, Zeinab. "Imagerie à haute résolution des amas R136 et NGC3603 dévoilent la nature de leurs populations stellaires." Thesis, Nice, 2016. http://www.theses.fr/2016NICE4030/document.

Full text
Abstract:
Cette thèse a pour objectif de comprendre les différents aspects de l'évolution des amas d’étoiles massives NGC3603 et R136 qui possèdent les étoiles les plus massives connues de l'univers local. L'analyse photométrique des noyaux de R136 et NGC3603 utilisant l’imagerie infrarouge de l’instrument SPHERE sur VLT et son système d’optique adaptative extrême de SPHERE, m’a permis de détecter pour la 1ière fois un grand nombre d’étoiles de faibles masse et luminosité au coeur de ces amas et pour la plupart au voisinage des étoiles les plus lumineuses et massives. La comparaison des données de SPHERE de NGC3603 à celles du HST montre l’absence de ségrégation de masse dans le noyau de cet amas. De plus la pente de la fonction de masse de cette région est la même que celle de la région suivante et similaire aux valeurs de la MF correspondant aux régions extérieures de l’amas connues jusqu’ici. L’amas R136 est partiellement résolu par SPHERE/IRDIS dans l’IR. La majorité de ses étoiles massives ont des compagnons visuels. En prenant compte des mesures spectroscopiques et photométriques et leurs erreurs sur l'extinction et l'âge des membres de l’amas, j’ai estimé une gamme de masse pour chaque étoile identifiée. La MF a été calculée pour différents âges ainsi que les erreurs sur les masses stellaires. J’ai simulé des séries d'images de R136 grâce au code Nbody6, et les ai comparées aux observations du HST/WFPC2. Ces simulations permettent de vérifier l'effet de la binarité initiale des étoiles de l’amas, la ségrégation de masse et l'évolution des étoiles sur l'évolution dynamique propre à R136
This thesis aims at studying 2 massive clusters NGC3603 and R136, and the mechanisms that govern their physics, These clusters host the most massive stars known in the local universe so far and are important clues to understand the formation and fate of very massive star clusters. The manuscript outlines the photometric analysis of the core of R136 and NGC3603 on the basis of HST data in the visible and the VLT high dynamic imaging that I obtained in the infrared thanks to the SPHERE focal instrument operated since 2015 and its extreme Adaptive Optics, In an extensive photometric study of these data I discovered a significantly larger number of faint low-mass stars in the core of both these clusters compared to previous works. These stars are often detected in the vicinity of known massive bright objects. By comparing HST and SPHERE measures, NGC3603 does not show any signature of mass segregation in its core since the MF slope of the very core and the next radial bin are similarly flat and agree well with the MF found in previous works of the outer regions. On the other hand R136 is partially resolved using the SPHERE/IRDIS mode with most of the massive stars having visual companions. Considering the spectroscopic and photometric errors on the extinction and the age of cluster members, I estimate a mass range for each detected star. The MF is plotted at different ages with given errors on stellar masses. Finally I demonstrate that we need more resolution to go further on studying R136 which is 7-8 times further than NGC3603
APA, Harvard, Vancouver, ISO, and other styles
39

Piriou, Gwenaëlle. "Modélisation statistique du mouvement dans des séquences d'images pour la reconnaissance de contenus dynamiques." Rennes 1, 2005. http://www.theses.fr/2005REN1S092.

Full text
Abstract:
Cette étude traite de la modélisation probabiliste du mouvement dans des séquences d'images pour la reconnaissance de contenus dynamiques. L'information de mouvement est appréhendée par des mesures de mouvement de bas niveau facilement calculables. Le mouvement de la caméra et le mouvement de la scène sont modélisés séparément. Un modèle probabiliste est décrit pour le mouvement de la caméra, tandis que quatre modèles sont proposés pour représenter le mouvement résiduel. L'originalité de ces modélisations réside dans la prise en compte de la nature des mesures locales de mouvement résiduel qui sont à états mixtes. Quelques applications fonction des caractéristiques de ces modélisations illustrent leurs performances. La modélisation du mouvement de la caméra et une des modélisations du mouvement résiduel décrites ont ensuite été combinées pour résoudre des problèmes liés à l'analyse des vidéos de sports.
APA, Harvard, Vancouver, ISO, and other styles
40

Aurengo, André. "Analyse factorielle des séquences d'images en médecine nucléaire." Paris 11, 1989. http://www.theses.fr/1989PA112413.

Full text
Abstract:
Cette thèse présente en neuf chapitres et deux annexes l'analyse détaillée, la formalisation et l'amélioration des principales étapes de l'analyse factorielle des séquences d'images (Asfi). Le chapitre I définit le but de cette analyse: estimer les cinétiques et les images fondamentales d'une séquence. Les hypothèses de travail et le formalisme sont présents. Le chapitre II décrit les trois étapes de l'Asfi: regroupement des pixels des images, réduction de l'espace de travail, recherche des éléments fondamentaux. Le chapitre III décrit les précédentes applications, en chimie et en imagerie. Le chapitre iv analyse les principales insuffisances des algorithmes classiquement utilises en Asfi. Le chapitre v présente plusieurs méthodes originales de regroupement des pixels: indice d'agrégation stochastique, algorithmes local et global d'agrégation stochastique et par méthode des nuées dynamiques. Le chapitre vi étudie les méthodes de réduction de l'espace de travail et propose une méthode optimale originale. Le chapitre vii présente quatre algorithmes originaux pour la recherche des cinétiques fondamentales: pole fixe, coordonnées négatives, facettes, indicatrice et polyèdre minimal. Le chapitre viii montre des résultats obtenus sur fantômes numériques et physiques. Le chapitre ix montre les limites théoriques de ce groupe de méthodes. Les annexes traitent de la construction des fantômes et de l'implantation sur micro-ordinateur
APA, Harvard, Vancouver, ISO, and other styles
41

Beust, Hervé. "Dynamique interne du disque protoplanétaire autour de l'étoile beta Pictoris." Phd thesis, Université Paris-Diderot - Paris VII, 1991. http://tel.archives-ouvertes.fr/tel-00725138.

Full text
Abstract:
L'étoile beta Pictoris est à l'heure actuelle la seule étoile de la séquence principale autour de laquelle un disque de poussières a été visualise (1984). L'observation de son spectre visible et ultra-violet a révélé la présence de raies en absorption dues à la partie gazeuse du disque. L'étude de cette partie gazeuse a révélé que les raies observées variaient dans le temps: parfois, des composantes additionnelles en absorption, décalées par effet doppler vers les grandes longueurs d'onde y apparaissent. Ces phénomènes sporadiques ont été reliées à la chute vers l'étoile de petit corps de type comètaire vaporisant des éléments métalliques. La dynamique d'ions métalliques évaporés d'un corps parent a été ensuite etudiée, et une modélisation numerique du comportement d'un nuage de ces ions a été entreprise. La simulation a montré que les observations étaient reproduites par le modèle. De plus, la différence de comportement entre les raies visibles et uv a été expliquée. Des contraintes déduites de la simulation ont alors permis de formuler une hypothèse selon laquelle une planète située dans le disque pourrait par perturbations être responsable de la chute d'objets vers l'étoile. Un modèle fondé sur cette hypothèse a été ensuite développé. La simulation qui en a résulté a permis de montrer que si l'orbite de la planète est suffisamment elliptique, des perturbations sont capables d'envoyer un grand nombre de petits objets vers l'étoile. Il est ressorti de cette étude que l'évolution globale, constatée sur quelques années, des raies de beta Pictoris apparaissait comme une conséquence naturelle du modèle. En poursuivant l'étude théorique de ce disque, nous saurons peut-être s'il constitue le premier exemple de système planétaire découvert en dehors du système solaire
APA, Harvard, Vancouver, ISO, and other styles
42

Baroutsaki-Tsirigoti, Sofia. "La littérature au service de l'interculturalité dans la classe de FLE en Grèce et l'apport des nouvelles technologies." Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUL087.

Full text
Abstract:
Même si la didactique des langues, en l’occurrence du FLE, les sciences pédagogiques, les recherches en didactique de la littérature et le CECRL promeuvent la littérature dans le cours de langue comme « un objet clairement repérable, clairement délimité » (Schneuwly B., 1998, p. 270 sq.), cela ne signifie pas cependant qu’elle s’y trouve entièrement intégrée. À ce titre, les textes littéraires sont envisagés comme l'un des types de documents susceptibles d'être abordés dans l'enseignement des langues et leur exploitation sert plusieurs finalités, décrites dans les descripteurs du CECRL. La place de la littérature en didactique du FLE est ambiguë et la fréquence du recours au texte littéraire en classe de langue ne paraît pas être privilégiée selon le constat des chercheurs et les réactions des enseignants grecs interrogés pour cette étude. L’exploitation des textes littéraires peut se réaliser d’une façon esthétique par contact direct avec l’œuvre, d’une façon artistique par l’éveil des sens, et d’une façon symbolique par l’analyse critique. Parmi tout cela, la dimension particulièrement délicate, mais fondamentale de l’éducation interculturelle ressurgit comme modalité de mise en relation des langues et des cultures dans la perspective d’un monde en changement. La présente recherche qui s’est réalisée dans un contexte hellénique, vise à proposer une nouvelle approche du fait littéraire en classe de FLE. En effet, la démarche prônée propose une exploitation de la littérature aux dimensions pragmatiques de la communication mettant en jeu des savoirs linguistiques, des savoir-faire et des savoir-être socioculturels. La réflexion se porte d’une part sur « l’aptitude à comprendre et à se faire comprendre dans la langue considérée » (Porcher L. et Groux D., 1998, p. 7) et d’autre part sur la libération des compétences langagières des apprenants. Sa spécificité s’édifie sur des formes complexes de médiatisation et de médiation de la séquence numérique « Victor Hugo : un homme, une histoire » agissant sur les cinq facettes de l’apprentissage : information, motivation, activités, interaction, production. Il s’agit de mailler l’enseignement-apprentissage du FLE et le déploiement d’une formation interculturelle au support de la littérature par un processus interactif dans un cadre culturel mouvant à l’ère du numérique. La faisabilité et la pertinence de l'utilisation des textes littéraires et de l’exploration du fait littéraire au moyen de ce dispositif hybride d’approche de la littérature comme « science de la vie » sont examinées. La mise en relation du cadre des références de cette étude, de la proposition didactique, de sa pratique en classe de FLE avec les résultats obtenus et leur analyse, permet d’esquisser les apports de telles pratiques à la situation hellénique de l’apprentissage du FLE qui pourraient faire avancer les réflexions didactiques plus généralement. Littérature et culture de l'information se rejoignent dans cette éducation progressive, en fonction du niveau de langue (B2-C1 du CECRL), des connaissances acquises et des objectifs fixés tout en avançant les aspects langagiers, culturels et interculturel
Although language didactics, in this case FLE (French as a foreign language), pedagogical sciences, research in didactic literature and the Common European Framework of Reference for Languages promote literature in the language course as “a clearly identifiable, clearly delimited object” (Schneuwly B., 1998, p. 270 sq.), this does not mean that it is fully integrated. As such, literary texts are envisioned as one of the type of documents which can be used in languages teaching and their usage serves several purposes, described in the descriptors of the Common European Framework of Reference for Languages. The place of literature in didactics of French as a foreign language is ambiguous and the frequency of the use of literary text in language classes does not seem to be preferred according to the findings of the researchers and the reactions of the Greek teachers interviewed for this study. The exploitation of literary texts can be achieved in an aesthetic way by direct contact with the work, in an artistic way through the awakening of the senses, and in a symbolic way through critical analysis. Among all this, the particularly delicate but fundamental dimension of intercultural education resurfaces as a way of connecting languages and cultures in the perspective of a changing world. This research, carried out in a Greek context, aims to propose a new approach to literary teaching in FLE classroom. Indeed, the advocated approach proposes the exploitation of literature with pragmatic dimensions of communication involving linguistic knowledge, know-how and socio-cultural know-how. The discussion focuses on “the ability to understand and be understood in the language in question” (Porcher L. and Groux D., 1998, p. 7), on the release of the language skills of learners. Its specificity is built on complex forms of mediatization and mediation of the digital sequence “Victor Hugo: a man, a story” acting on the five facets of learning: information, motivation, activities, interaction, production. The aim is to combine the teaching and learning of the FLE and the deployment of intercultural training in support of literature through an interactive process in a cultural context shifting in the digital age. The feasibility and relevance of the use of literary texts and the exploration of literary fact through this hybrid approach to literature as “life science” are studied. The linking of the framework of the references of this study, the didactic proposal, its practice in the FLE classroom with the results obtained and their analysis, makes it possible to outline the contributions of such practices to the Greek situation of the learning of the FLE which could advance didactic reflections more generally. Literature and information culture come together in this progressive education, depending on the level of language (B2-C1 of the CECRL), the knowledge acquired, and the objectives set, while advancing the linguistic, cultural, and intercultural aspects
APA, Harvard, Vancouver, ISO, and other styles
43

Tu, Xiao-Wei. "Détection et estimation des objets mobiles dans une séquence d'images." Compiègne, 1987. http://www.theses.fr/1987COMPD063.

Full text
Abstract:
Une méthodologie d’analyse d’une séquence d’images, contenant des objets relativement simples tels que des polyédres mobiles (Blocs), est présentée. Pourquoi les objets polyédriques ? Simplement, parce qu’une scène assez complexe peut être décrite par un ensemble de blocs et qu’un site naturel peut être décomposé en objet approximativement polyédriques. En ce qui concerne les algorithmes de traitements, on sait que les primitives associées aux blocs sont très faciles à extraire (notion de segments de droites, notion d’aire d’une forme polygonale et notion de contour ou de frontière de l’objet). Cette méthodologie permet de détecter des objets mobiles et éventuellement d’estimer les paramètres du mouvement ou de l’objet en mouvement. L’approche générale comporte quatre étapes : la première consiste à appliquer des opérations linéaires et non-linéaires sur les images acquises (par une caméra de type CCD), afin d’éliminer le bruit et d’obtenir des images plus contrastées. Ensuite, le renforcement de contours ayant été effectué par une méthode de relaxation, on applique des procédures de détection, de suivi et de codage de contours qui débouchent sur l’extraction de primitives (segments de droites, angles,. . . ). Parallèlement, un système de contours d’image 3-D est réalisé pour tester le comportement des algorithmes. La deuxième étape permet de construire une structure de données de type « multilistes », déduite des éléments significatifs correspondant aux primitives détectées dans la première étape. Cette structure est bien adaptée à une mise en correspondance ultérieure des primitives. La segmentation est généralement effectuée selon une approche descendante par création d’une structure de donnée « quadtree » qui permet de compléter l’information de la scène. Dans la troisième étape, on effectue la mise en correspondance par une méthode de relaxation discrète, des éléments des structures précédemment construite. A la dernière étape, les primitives, plus précisément les pixels mis en correspondance, sont choisis et utilisés pour estimer les paramètres de mouvement des objets considérés. Des essais expérimentaux effectués sur chaque étape donnent des résultats satisfaisants. Il semble donc que cette démarche soit intéressante.
APA, Harvard, Vancouver, ISO, and other styles
44

Benkemoun, Nathan. "Contribution aux approches multi-échelles séquencées pour la modélisation numérique des matériaux à matrice cimentaire." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2010. http://tel.archives-ouvertes.fr/tel-00657311.

Full text
Abstract:
L'objectif principal de cette thèse est de développer un modèle numérique capable de proposer une représentation fine des phénomènes de fissuration pour les matériaux quasi-fragiles à matrice cimentaire. Dans ce sens, l'échelle pertinente retenue est l'échelle mesoscopique. L'échelle mesoscopique est ici de l'ordre du centimètre et le matériau peut être considéré comme bi-phasique (agrégats inclus dans un mortier, contenant lui même des inclusions de taille inférieure). Par ailleurs, de part la diversité des phénomènes de fissuration pour les matériaux quasi-fragiles comme le béton, il est nécessaire de mettre en place un modèle capable de représenter explicitement les fissures à l'interface agrégats/mortier et/ou dans n'importe quelles des deux phases (agrégats et mortier). La modélisation numérique des phénomènes de fissuration proposée s'inscrit, ici, dans le cadre de la méthode des éléments finis à discontinuité forte. Plus précisément, la fissure est ici définie comme l'apparition d'une discontinuité de déplacements ou encore d'une zone d'épaisseur nulle dans laquelle toutes les déformations sont localisées. Elle correspond au cas extrême des bandes de localisation observées dans les sols ou les roches avec une largeur des bandes tendant vers zéro. Par ailleurs, le modèle proposé intégre aussi une discontinuité faible (discontinuité de déformations) afin de capturer les hétérogénéités sans que le maillage soit contraint. Finalement le but est d'intégrer ce meso-modèle dans le cadre d'une approche multi-échelle séquencée permettant le transfert des informations du niveau mesoscopique vers le niveau macroscopique ou au moins sa borne inférieure, le Volume élémentaire Représentatif. Cette approche séquencée permet, par exemple, de déterminer une surface de rupture macroscopique (dans l'esprit d'une fonction seuil) intégrant les principales caractéristiques des matériaux cimentaires.
APA, Harvard, Vancouver, ISO, and other styles
45

Vila, Jean-Louis. "Filtrage d'ordre directionnel adaptatif : application aux autoradiographies de séquences d'A. D. N." Chambéry, 1995. http://www.theses.fr/1995CHAMS007.

Full text
Abstract:
Dans la présente étude, on propose un filtre d'ordre directionnel adaptatif basé sur un partitionnement de la fenêtre d'analyse en segments de droite discrets. Il permet la conservation de structures fines et allongées et une bonne réduction du bruit. L'estimation de direction est obtenue à partir d'un critère d'homogénéité. En fonction de l'anisotropie locale, le filtrage est effectué soit dans une fenêtre mono-dimensionnelle directionnelle (anisotropie forte), soit dans la fenêtre bi-dimensionnelle (anisotropie faible). On caractérise les performances en réduction de bruit et l'estimation d'orientation locale pour différents critères d'homogénéité. Ces études donnent des éléments pour le choix du critère d'homogénéité en fonction des caractéristiques géométriques et statistiques de l'image traitée. A partir de ces résultats généraux, l'opérateur directionnel a été inséré dans une chaîne de lecture automatique d'autoradiographies de séquences d'ADN. Les résultats obtenus mettent en évidence l'efficacité du filtre d'ordre directionnel. Enfin, le filtre d'ordre directionnel adaptatif a été testé dans le cadre plus vaste des images naturelles d'origines diverses (aériennes, médicales…)
APA, Harvard, Vancouver, ISO, and other styles
46

Nicolas, Yannick. "Construction de représentations 3D compactes de séquences vidéo pour la navigation à distance dans des scènes tridimensionnelles." Rennes 1, 2002. http://www.theses.fr/2002REN10016.

Full text
Abstract:
Le cadre de cette thèse concerne la navigation dans des scènes 3D au travers d'un réseau de télécommunications. La scène 3D ne contient pas d'objets en mouvement et est décrite par un ensemble de séquences vidéo avec cartes de profondeur associées. L'objectif est de développer les différents éléments de la chaîne de navigation concernant la modélisation de la scène, la transmission et le rendu. La première partie de cette thèse consiste à construire un modèle pour chaque séquence vidéo. Ces modèles sont constitués par un ensemble de régions extraites des séquences qui seront ensuite utilisées pour recréer les points de vue. L'ensemble de ces modèles constituent une représentation compacte de la scène. La deuxième partie de notre travail concerne l'exploitation de la représentation pour la navigation. Les modèles (cartes de texture, cartes de profondeur et masque définissant les régions) sont encodés au format MPEG-4. Le rendu est ensuite réalisé par une méthode d'interpolation basée image consistant en un maillage de type microfacettes des régions. La troisième partie de la thèse concerne l'exploitation de la représentation sous forme de modèles à facettes. Les cartes de profondeur associées aux régions de la représentation sont triangulées. On forme alors des modèles VRML qui seront utilisés pour créer les points de vue.
APA, Harvard, Vancouver, ISO, and other styles
47

Chebbo, Salim. "Méthodes à compléxite réduite pour amélioration de la qualité des séquences vidéo codées par blocks." Paris, Télécom ParisTech, 2010. http://www.theses.fr/2010ENST0026.

Full text
Abstract:
L'objectif de cette thèse est de concevoir des solutions temps réel afin de réduire les artefacts d'une compression vidéo. Dans ce travail on s'est limité aux trois dégradations les plus répandues et les plus gênantes. Il s'agit de l'effet de bloc, le ringing, et le bruit de papillotement temporel. Un algorithme de post-traitement pour réduire l'effet de bloc est d'abord présenté. Cet algorithme est principalement basé sur un filtrage bidimensionnel adaptatif. En tenant compte de l'activité spatiale des pixels ainsi que l'étape de quantification, la dégradation locale de l'image est évaluée pour sélectionner le mode de filtrage le plus approprié. L’effet de bloc est ensuite réduit par l'application des filtres bidimensionnels et non séparables choisis en fonction du mode de filtrage. La réduction du ringing est réalisée au moyen d'un filtrage médian pondéré. L'originalité de cette solution réside dans l'attribution adaptative de poids pour chaque pixel dans une fenêtre de filtrage, fournissant ainsi une réduction efficace du ringing tout en conservant les détails les plus fins de l'image. En ce qui concerne le traitement des défauts temporels, une mesure objective de la qualité temporelle des séquences vidéo est proposée. Ensuite, un filtre temporel est proposé pour stabiliser les régions de fond des images, en utilisant un filtre temporel bidirectionnel. Finalement, la complexité d'implémentation des solutions proposées a été étudiée afin de prouver l'applicabilité de ces solutions pour des applications temps réel
The objective of this thesis is to propose real time solutions in order to reduce the video compression impairments namely the blocking, the ringing and the temporal flickering. The proposed deblocking filter is mainly based on an adaptive conditional two-dimensional filter, derived from the combination in horizontal and vertical directions of a simple two-mode conditional 1-d filter. Appropriate filters are selected using the local degradation of the image, which is assessed by examining he quantization step as well as the computed spatial pixel activities. The ringing artifact reduction algorithm uses a simple classification method to differentiate at and edge blocks, which are then filtered using a particular weighted median filter. Regarding the temporal impairments, we proposed a new measure to assess the level of these impairments and accordingly estimate the temporal quality of the decoded sequences. The preliminary study of the temporal compression artifacts demonstrated that the level of the temporal fluctuation between consecutive frames is affected by the compression ratio and the group of pictures structure, notably the presence (and period) of intra coded frames in the video sequence. It was also shown that the deringing process reduces the visibility of the mosquito noise, however a temporal filtering remains necessary to reduce the background areas fluctuation. For this reason, we proposed to temporally filter these areas and skip the temporal filtering of moving objects. Finally, the implementation complexity of the proposed solutions was investigated in order to prove the applicability of these solutions for real time applications
APA, Harvard, Vancouver, ISO, and other styles
48

Joyeux, Laurent. "Reconstruction de séquences d'images haute résolution : application à la restauration de films cinématographiques." La Rochelle, 2000. http://www.theses.fr/2000LAROS042.

Full text
Abstract:
La restauration des documents cinématographiques a débuté durant cette dernière décennie et elle fut principalement motivée par l'état de délabrement avancé de nombreux films. Le traitement numérique des films détériorés semble incontournable, même s'il reste très couteux pour être généralisé aujourd'hui. Les films cinématographiques vieillissants subissent divers types de détériorations. Nous abordons dans ce mémoire la restauration de deux catégories de défauts qui sont aussi les plus fréquents : les détériorations ponctuelles et les rayures. Pour préserver la qualité visuelle des images cinématographiques, nous détectons d'abord les détériorations pour ne focaliser la correction que sur les zones endommagées. La localisation des détériorations ponctuelles utilise deux détecteurs complémentaires. Un détecteur morphologique basé sur les propriétés statiques et un détecteur dynamique qui s'appuie sur le caractère impulsionnel de ces défauts. Les détériorations sont ensuite supprimées par une reconstruction morphologique. La rayure, de par sa persistance temporelle, compte parmi les défauts les plus problématiques à supprimer. Nous proposons, pour détecter les rayures, une approche spatio-temporelle. Tout d'abord, une technique statique basée sur la recherche d'extrema permet de détecter toutes les rayures. Un processus de poursuite, mis en œuvre par un filtrage de Kalman, permet alors de rejeter les fausses rayures. Deux méthodes de restauration, l'une statique et l'autre temporelle, sont proposées pour reconstruire les zones rayées. La première technique consiste en une version améliorée d'un algorithme existant basé sur les séries de Fourier. La seconde est une nouvelle approche bayesienne qui se distingue par sa performance aussi bien en terme de qualité qu'en cout de calcul. Sa principale originalité réside dans sa prise en compte des informations résiduelles des zones rayées.
APA, Harvard, Vancouver, ISO, and other styles
49

Facon, Jacques. "Edosi : un système d'étude du déplacement d'objets à partir de séquences d'images." Compiègne, 1987. http://www.theses.fr/1987COMPD095.

Full text
Abstract:
L'objectif fixé est l'estimation, à partir d'une séquence d'images du déplacement 2D d'objets. Aucune connaissance spécifique sur la nature de la scène et sur les objets n'est retenue. Notre recherche s'articule autour de deux concepts. La première approche privilégie la localisation de l'objet en faisant appel à un processus de reconnaissance des formes. L'effort principal se situe dans la reconnaissance et la localisation de l'objet, l'effort de l'estimation du déplacement rest modeste. Nous nous sommes efforcés de mettre au point des outils à la fois simples, rapides et faciles à mettre en oeuvre. Ceux-ci reposent sur une approche contour qui permet une estimation rapide des paramètres de translation et de rotation pour des objets subissant des déplacements quelconques (translation et/ou rotation d'amplitude quelconque). La deuxième approche tend à axer l'effort principal sur la compréhension du mouvement ou tout au moins du déplacement. Ici aucune tentative de reconnaissance de formes n'est employée. Pour comprendre les changements, provenant du déplacement, perçus dans la séquence d'images, nous faisons appel à la notion de flot optique. Une première phase de mise en correspondance de points est réalisée. Ensuite une méthode de coalescence permet de scinder le flot optique sous formes de classes de déplacement. Enfin ces différentes classes sont interprétées. Nous obtenons ainsi une estimation précise et rapide sur une scène présentant des objets subissant soit une translation (d'amplitude quelconque) soit une rotation (d'amplitude limitée).
APA, Harvard, Vancouver, ISO, and other styles
50

Madaoui, Hocine. "Prédiction structurale et ingenierie des assemblages macromoléculaires par bioinformatique." Paris 7, 2007. https://tel.archives-ouvertes.fr/tel-00553875.

Full text
Abstract:
La caracterisation a haut debit des interactions proteines-proteines a permis d'etablir les premieres cartes d'interactions de differents organismes modeles, y compris l'homme. Cependant, la caracterisation structurale des assemblages proteiques reste limitee a un nombre tres faible de ces interactions. En mettant en evidence une pression de selection evolutive specifique aux interfaces de complexes proteiques, ce travail a permis d'elucider certains mecanismes evolutifs essentiels a l'association entre proteines qui n'avaient pas ete decrits jusqu'a present. Sur cette base, une nouvelle approche bioinformatique, nommee scotch (surface complementarity trace in complex history), a ete developpee pour predire la structure des assemblages macromoleculaires. Couplee a un programme d'amarrage moleculaire, tel que scotcher, egalement developpe au cours de cette these, cette approche a permis de predire efficacement la structure d'un grand nombre de complexes. Ce travail de these s'est egalement concentre sur l'inhibition des interactions proteiques par des mini-proteines, conÇues de faÇon rationnelle sur la base des structures de complexes. Les resultats obtenus pour deux exemples, celui du complexe asf1 - histone h3/h4 et du complexe gp120 - cd4 temoignent du fort potentiel du design rationnel d'interfaces de complexes pour le developpement de nouvelles strategies therapeutiques
The high-throughput characterization of the protein-protein interactions networks laid the bases for the first interaction maps in all model organisms, including human. In contrast, the structures of the protein assembles are still restricted to a very limited set of interactions. In this work, a specific evolutionary pressure that is exerted at protein interfaces has been revealed. To our knowledge, no such effect had been previously described. Based on this finding, a novel bioinformatic approach, called scotch (surface complementarity trace in complex history) has been developed to predict the structures of protein assembles. Coupled to a docking program, such as scotcher also developed in this work, this approach was shown to predict efficiently the structures of many complexes. This work also focuses on the inhibition of protein interactions by synthetic peptides, rationally designed on the basis of the complex structure. The results obtained for two examples, the asf1 - histone h3/h4 and the gp120 - cd4 complexes emphasize the high interest of rational design of complex interface for the development of novel therapeutic strategies
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography