Thèses sur le sujet « Traitement statistique et numérique du signal »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Traitement statistique et numérique du signal.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Traitement statistique et numérique du signal ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

YE, Zi. « Traitement statistique de l'information et du signal pour l'internet des objets sous-marins ». Thesis, Institut polytechnique de Paris, 2021. https://tel.archives-ouvertes.fr/tel-03179373.

Texte intégral
Résumé :
On assiste au développement des activités humaines liées au monde océanique, mais aucune norme n'a encore émergé pour l'Internet des objets appliqué aux objets autonomes marins. Bien qu'elle possède une bande passante limitée, l'onde acoustique est le seul moyen de communiquer sur des distances importantes et elle est donc utilisée par de nombreux systèmes sous-marins pour communiquer, naviguer ou déduire des informations sur l'environnement. Cela a conduit à une forte demande de réseaux sans fil qui nécessitent à la fois une bonne efficacité spectrale et énergétique avec la faible complexité des algorithmes associés. Par conséquent, au cours de ce doctorat, nous avons proposé plusieurs solutions originales pour relever le défi de développer des techniques numériques, capables de faire face au canal acoustique.En raison d’une diversité inhérente d'espace du signal (SSD), les constellations tournées permettent de meilleures performances théoriques que les constellations conventionnelles et ce, sans détérioration spectrale. Nous passons en revue les propriétés structurelles des constellations tournées M-QAM uniformément projetées, afin de proposer une technique de demapping souple à faible complexité pour les canaux à fading. Puis, nous proposons une technique originale de réduction du PAPR pour les systèmes OFDM utilisant les constellations tournées. Afin de réduire la complexité du décodage aveugle, nous nous appuyons sur les propriétés des constellations tournées M-QAM uniformément projetées, pour concevoir un estimateur de faible complexité. De plus, pour faire face à la sélectivité du canal acoustique, nous avons proposé un turbo-détecteur parcimonieux adaptatif avec seulement quelques coefficients à mettre à jour afin de réduire la complexité. Enfin, nous avons proposé un algorithme original auto-optimisé pour lequel les tailles de pas de l'égaliseur sont mises à jour de manière adaptative et assistées par des informations souples de manière itérative, afin de répondre à l'exigence de convergence rapide et de faible erreur quadratique sur des canaux variant rapidement dans le temps
There has been recently a large development of human activities associated to the ocean world, where no standard has emerged for the Internet of Things (IoT) linked to marine autonomous objects. Though it has a limited bandwidth, the acoustic wave is the only way to communicate over average to large distances and it is thus used by many underwater systems to communicate, navigate, or infer information about the environment. This led to a high demand for wireless networks that require both spectral efficiency and energy efficiency with the associated low-complexity algorithms. Therefore, in this Ph.D. thesis, we proposed several original solutions to face this challenge.Indeed, due to the inherent Signal Space Diversity (SSD), rotated constellations allow better theoretical performance than conventional constellations with no spectral spoilage. We review the structural properties of uniformly projected rotated M-QAM constellations, so as to propose a low complexity soft demapping technique for fading channels. Then, we present an original blind technique for the reduction of the PAPR for OFDM systems using the rotated constellations with SSD. In order to reduce the complexity of blind decoding for this technique, we again rely on the properties of uniformly projected M-QAM rotated constellations to design a low-complexity estimator. Moreover, to face the selectivity of the acoustic channel, we suggest a sparse adaptive turbo detector with only a few taps to be updated in order to lower down the complexity burden. Finally, we have proposed an original self-optimized algorithm for which the step-sizes of both the equalizer and the phase estimator are updated adaptively and assisted by soft-information in an iterative manner, so as to meet the requirement of fast convergence and low MSE over time-varying channels
Styles APA, Harvard, Vancouver, ISO, etc.
2

Coulange, Baptiste. « Détection et correction de l’aliasing par extension du signal analytique aux images numériques ». Paris 5, 2011. http://www.theses.fr/2011PA05S008.

Texte intégral
Résumé :
Cette these porte sur la detection et la correction d'un artefact inherent a toute acquisition numerique, l'aliasing. Nous etudions tout d'abord son effet sur des modeles simples d'images, en particulier les motifs periodiques, qui y sont tres sensibles. Ceci nous amene a definir la relation d'aliasing spectrale, qui caracterise les couples de frequences (ou de zones frequentielles) lies par l'aliasing. Parallelement, en etendant le "signal analytique" aux images, nous obtenons des "parties analytiques", images complexes dont le module est peu impacte par un mauvais echantillonnage. Cette definition permet de localiser spatialement le "domaine d'action" d'une zone spectrale donnee. Remarquant alors qu'une image mal echantillonnee est constituee de beaucoup de couples frequentiels en relation d'aliasing spectrale dont les domaines d'action sont fortement correles, nous pouvons ainsi elaborer deux modeles de detection d'aliasing, selon la methodologie dite a contrario. Les images classiquement utilisees en traitement d'image s'averant peu adaptees, nous construisons une base de test propice a l'etude de l'aliasing afin de valider les algorithmes proposes. Nous utilisons egalement ces algorithmes pour comparer les differents systemes d'acquisition satellitaires existants du point de vue de la creation d'aliasing, grace aux donnees fournies par le CNES. Enfin, partant des resultats des algorithmes de detection, nous proposons une premiere methode de correction de l'aliasing dans les images, et montrons au moyen d'un oracle qu'une hypothese de non-repliement de spectre local pourrait s'averer tres prometteuse
This thesis focuses on the detection and correction of an artifact inherent to all digital acquisition : aliasing. First we study its effects on simples image modelisations. Particularly periodical structures on which aliasing occurs frequently. Then we can define a spectral aliasing link which characterize frequencies (or frequency domains) pairs linked by aliasing relation. In the same time, with an extention of analytic signal, we obtain analytic parts. The modulus of these complex images isn't much impacted by poor sampling. With this definition, we are able to locate on what place of the image occurs a given frequency domain. Bad sampled images contain a lot of frequency pairs in an spectral aliasing link which occurs on the same image domain, we are so able to build two aliasing detection methods with the a contrario framework. The images often used for image processing tests are not suited to the study of aliasing. We build a test database appropriate for the aliasing in order to validate our algorithm. We also use these algorithms to compare some existing earth observation systems, thanks to datas from CNES, with the aliasing point of view. With the results of the detection algorithms, we show with an oracle that a local no-aliasing hypothesis may be very useful for image interpolation
Styles APA, Harvard, Vancouver, ISO, etc.
3

Salmon, Joseph. « Agrégation d'estimateurs et méthodes à patchs pour le débruitage d'images numériques ». Paris 7, 2010. http://www.theses.fr/2010PA077195.

Texte intégral
Résumé :
Le problème étudié dans cette thèse est celui du débruitage d'images numériques corrompues par un bruit blanc gaussien. Les méthodes utilisées pour récupérer une meilleure image reposent sur les patchs et sont des variantes des Non-Local Means. Les contributions de la thèse sont à la fois pratiques et théoriques. Tout d'abord, on étudie précisément l'influence des divers paramètres de la méthode. On met ensuite en lumière une limite observée sur le traitement des bords par les méthodes à patchs habituelles. On donne alors une meilleure façon de combiner l'information fournie à partir des patchs pour estimer pixel par pixel. D'un point de vue théorique, on présente un cadre non asymptotique pour contrôler notre estimateur. On donne alors des résultats de type inégalités oracles pour des estimateurs vérifiant des propriétés plus restrictives. Les techniques utilisées reposent sur l'agrégation d'estimateurs, et plus particulièrement sur l'agrégation à poids exponentiels. La méthode requiert typiquement une mesure du risque, obtenue à travers un estimateur sans biais de celui-ci, par exemple par la méthode de Stein. Les méthodes de débruitage étudiées sont analysées numériquement par simulations
The problem studied in this thesis is denoising images corrupted by additive Gaussian white noise. The methods we use to get a better picture from a noisy one, are based on patches and are variations of the well known Non-Local Means. The contributions of this thesis are both practical and theoretical. First, we study precisely the influence of various parameters of the method. We highlight a limit observed on the treatment of edges by the usual patches based methods. Then, we give a better method to get pixel estimates by combining information from patches estimates. From a theoretical point of view we provide a non-asymptotic control of our estimators. The results proved are oracle inequalities, holding for a restrictive class of estimators, close to the form of the Non-Local Means estimetes. The techniques we use are based on aggregation of estimators, and more precisely on exponentially weighed aggregates. Typically, the last method requires a measure of the risk, that is obtained through a unbiased estimator of the risk. A common way to get such a mesure is to use the Stein Unbiased Risk Estimate (SURE). The denoising methods studied are analyzed numerically by simulations
Styles APA, Harvard, Vancouver, ISO, etc.
4

Thai, Thanh Hai. « Modélisation et détection statistiques pour la criminalistique numérique des images ». Phd thesis, Université de Technologie de Troyes, 2014. http://tel.archives-ouvertes.fr/tel-01072541.

Texte intégral
Résumé :
Le XXIème siècle étant le siècle du passage au tout numérique, les médias digitaux jouent maintenant un rôle de plus en plus important dans la vie de tous les jours. De la même manière, les logiciels sophistiqués de retouche d'images se sont démocratisés et permettent aujourd'hui de diffuser facilement des images falsifiées. Ceci pose un problème sociétal puisqu'il s'agit de savoir si ce que l'on voit a été manipulé. Cette thèse s'inscrit dans le cadre de la criminalistique des images numériques. Deux problèmes importants sont abordés : l'identification de l'origine d'une image et la détection d'informations cachées dans une image. Ces travaux s'inscrivent dans le cadre de la théorie de la décision statistique et roposent la construction de détecteurs permettant de respecter une contrainte sur la probabilité de fausse alarme. Afin d'atteindre une performance de détection élevée, il est proposé d'exploiter les propriétés des images naturelles en modélisant les principales étapes de la chaîne d'acquisition d'un appareil photographique. La éthodologie, tout au long de ce manuscrit, consiste à étudier le détecteur optimal donné par le test du rapport de vraisemblance dans le contexte idéal où tous les aramètres du modèle sont connus. Lorsque des paramètres du modèle sont inconnus, ces derniers sont estimés afin de construire le test du rapport de vraisemblance généralisé dont les erformances statistiques sont analytiquement établies. De nombreuses expérimentations sur des images simulées et réelles permettent de souligner la pertinence de l'approche proposée.
Styles APA, Harvard, Vancouver, ISO, etc.
5

Trottier, Eric. « Développement d'une technique numérique d'autocorrélation d'intensité pour la recherche de minilentilles gravitationnelles dans le radio et de faibles variations temporelles rapides ». Doctoral thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/30256.

Texte intégral
Résumé :
Pour la première fois, on propose d’appliquer une technique numérique d’autocorrélation d’intensité pour rechercher des minilentilles gravitationnelles dans des observations radio de noyaux actifs de galaxies (NAGs), et aussi pour trouver de faibles variations temporelles rapides. Essentiellement, la technique consiste à détecter un signal (délai temporel) cosmique (ou artificiel) à partir des fluctuations temporelles d’intensité. La programmation des algorithmes est codée en Matlab sur un microordinateur et en C++ pour le traitement en parallèle multi-cœur sur un superordinateur. On valide la technique et les logiciels développés en montrant la détection de faibles signaux artificiels périodiques et non périodiques. On pourrait aussi trouver des variations temporelles très rapides puisque les données radioastronomiques interférométriques sont échantillonnées sur de très courts laps de temps (ex., 15.625 ns). Enfin, des simulations numériques permettent d’évaluer l’efficacité de détection de notre technique innovatrice. La transformée de Fourier (TF) peut aussi détecter des signaux périodiques. Cependant, l’autocorrélation d’intensité a l’avantage majeur de détecter des signaux non périodiques, alors que la TF ne le peut pas. De plus, notre technique permet de visualiser directement la forme des signaux, tandis qu’il est très difficile de voir la forme avec la transformée de Fourier. Une nouveauté de la démonstration de notre technique est qu’on utilise des données prises par des radiointerféromètres (ex., NRAO) déjà existants dans un format standard (ex., Mark 5B), de sorte que l’on n’a pas besoin d’instrumentation spécialisée. On a analysé 22 objets. Aucun signal cosmique n’a été détecté pendant les dix minutes d’observation VLBA du NRAO de chaque objet. À partir du résultat nul obtenu et d’une analyse statistique simplifiée par la binomiale, on a fait un estimé approximatif du paramètre actuel de densité cosmique de minilentilles compactes non-baryoniques, noté Ωl, 0, uniformément distribuées dans l’intervalle de masse, 10 – 107 masses solaires, lequel correspond à des délais de ~1 ms à ~600 s. Pour le modèle plat (actuellement favorisé) avec constante cosmologique λ0 = 0.7 (Ω0 = 0.3), la limite estimée est Ωl, 0 ≤ 0.2 – 0.3. Vu le faible échantillon-test, n = 22, les incertitudes (intervalles de confiance) obtenues sont trop élevées pour fixer une contrainte statistiquement significative: statistique de petit nombre.
For the first time, we propose to apply a digital autocorrelation of intensity technique to gravitational minilensing in active galactic nuclei (AGNs) radio observations, and also to search weak rapid time variations. Essentially, the technique consists of detecting a cosmic (or artificial) signal (time delay) using intensity fluctuations as a function of time. The programming algorithm is coded in Matlab on a microcomputer and in C++ for multi-core parallel processing on a supercomputer. We validate the technique and softwares by showing weak periodic and non-periodic artificial signals detections. We could also find very fast time variations because radioastronomical interferometric data are sampled over very short times (e.g., 15.625 ns). Finally, numerical simulations make it possible to evaluate the detection efficiency of our innovative technique. The Fourier transform (FT) can also detect periodic signals. However, the main advantage of the autocorrelation of intensity is that it can detect non-periodic signals, while the FT cannot detect these non-periodic signals. Moreover, our technique allows a direct visualization of the shape of the signals, while it is very difficult to see the shape with a Fourier Transform. A novelty of the demonstration of our technique is that we use data taken with existing radio-interferometers (e.g., NRAO) in a standard format (e.g., Mark 5B) and therefore no specialized instrumentation is needed. We analyzed 22 objects. No signal has been detected for the ten minutes of VLBA of the NRAO observation for each object. From the null result obtained and a simplified statistical analysis by the binomial, we made a rough estimate of the present cosmic density parameter of non-baryonic compact minilenses, named Ωl, 0, uniformly distributed in the mass range, 10 – 107 solar masses, corresponding to delays of ~1 ms to ~600 s. For a flat model (currently favored) with cosmological constant λ0 = 0.7 and with Ω0 = 0.3, the estimated limit is Ωl, 0 ≤ 0.2 – 0.3. Given the low test sample, n = 22, the uncertainties (confidence intervals) obtained are too high to set a statistically significant constraint: small number statistics.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Bornard, Raphaël. « Approches probabilistes appliquées à la restauration numérique d'archives télévisées ». Phd thesis, Ecole Centrale Paris, 2002. http://tel.archives-ouvertes.fr/tel-00657636.

Texte intégral
Résumé :
Dans le contexte de la restauration d'archives, nous abordons dans cette thèse la suppression des défauts impulsifs (taches, "dropouts" vidéo). Les méthodes de détection et correction existantes sont limitées par les défaillances de l'estimation de mouvement dues à la présence de phénomènes naturels complexes. Nous cherchons à prendre en compte ces phénomènes que nous qualifions de mouvement pathologique. Pour les deux étapes de détection et de correction, une approche probabiliste est privilégiée et nos algorithmes sont exprimés à l'aide de champs de Markov paramétriques ou non-paramétriques. La méthode de détection que nous proposons s'inscrit dans le cadre de la théorie bayesienne de l'estimation. Nous considérons une fenêtre temporelle plus large que les trois images utilisées habituellement afin de mieux distinguer les défauts des mouvements pathologiques et éviter ainsi les fausses alarmes. Nous proposons également une méthode de correction dans les zones d'information manquante inspirée de travaux sur la synthèse de texture. Après généralisation aux images naturelles, nous intégrons ces approches dans un contexte spatio-temporel qui permet un repli implicite sur une correction spatiale lorsque le mouvement est trop complexe. Les méthodes proposées sont validées séparément puis intégrées dans un prototype complet de suppression des défauts impulsifs.
Styles APA, Harvard, Vancouver, ISO, etc.
7

Zarzoso, Vicente. « Traitement aveugle et semi-aveugle du signal pour les télécommunications et le génie biomédical ». Habilitation à diriger des recherches, Université de Nice Sophia-Antipolis, 2009. http://tel.archives-ouvertes.fr/tel-00486872.

Texte intégral
Résumé :
Ce rapport résume mes activités de recherche depuis l'obtention de mon doctorat. Je me suis penché sur le problème fondamental de l'estimation de signaux sources à partir de l'observation de mesures corrompues de ces signaux, dans des scénarios où les données mesurées peuvent être considérées comme une transformation linéaire inconnue des sources. Deux problèmes classiques de ce type sont la déconvolution ou égalisation de canaux introduisant des distorsions linéaires, et la séparation de sources dans des mélanges linéaires. L'approche dite aveugle essaie d'exploiter un moindre nombre d'hypothèses sur le problème à résoudre : celles-ci se réduisent typiquement à l'indépendance statistique des sources et l'inversibilité du canal ou de la matrice de mélange caractérisant le milieu de propagation. Malgré les avantages qui ont suscité l'intérêt pour ces techniques depuis les années soixante-dix, les critères aveugles présentent aussi quelques inconvénients importants, tels que l'existence d'ambiguïtés dans l'estimation, la présence d'extrema locaux associés à des solutions parasites, et un coût de calcul élevé souvent lié à une convergence lente. Ma recherche s'est consacrée à la conception de nouvelles techniques d'estimation de signal visant à pallier aux inconvénients de l'approche aveugle et donc à améliorer ses performances. Une attention particulière a été portée sur deux applications dans les télécommunications et le génie biomédical : l'égalisation et la séparation de sources dans des canaux de communications numériques, et l'extraction de l'activité auriculaire à partir des enregistrements de surface chez les patients souffrant de fibrillation auriculaire. La plupart des techniques proposées peuvent être considérées comme étant semi-aveugles, dans le sens où elles visent à exploiter des informations a priori sur le problème étudié autres que l'indépendance des sources ; par exemple, l'existence de symboles pilotes dans les systèmes de communications ou des propriétés spécifiques de la source atriale dans la fibrillation auriculaire. Dans les télécommunications, les approches que j'ai explorées incluent des solutions algébriques aux fonctions de contraste basées sur la modulation numérique, la combinaison de contrastes aveugles et supervisés dans des critères semi-aveugles, et une technique d'optimisation itérative basée sur un pas d'adaptation calculé algébriquement. Nos efforts visant à extraire le signal atrial dans des enregistrements de fibrillation auriculaire nous ont permis non seulement de dégager de nouvelles fonctions de contraste basées sur les statistiques de second ordre et d'ordre élevé incorporant l'information a priori sur les statistiques des sources, mais aussi d'aboutir à de nouveaux résultats d'impact clinique et physiologique sur ce trouble cardiaque encore mal compris. Ce rapport se conclut en proposant quelques perspectives pour la continuation de ces travaux. Ces recherches ont été menées en collaboration avec un nombre de collègues en France et à l'étranger, et ont également compris le co-encadrement de plusieurs doctorants. Les contributions qui en ont découlé ont donné lieu à plus de soixante publications dans des journaux, des conférences et des ouvrages collectifs à caractère international. Quelques-unes de ces publications sont jointes à ce document.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Cheruy, Pascale. « Étude de modèles de potentiels évoqués visuels en vue de la détection et de la classification des réponses en temps réel ». Compiègne, 1990. http://www.theses.fr/1990COMPD256.

Texte intégral
Résumé :
Les potentiels évoqués visuels ont été étudiés avec pour objectif, de mettre au point une méthode permettant de discriminer les signaux élémentaires en termes de signal et de bruit, afin d'améliorer le rapport signal à bruit de la réponse moyenne et de diminuer la durée d'enregistrement. Une analyse bibliographique nous a permis de définir précisément les différents protocoles d'enregistrement. Nous avons également décrit les différentes méthodes classiques de traitement (moyennage, filtrage de WIENER, Latency Corrected Averaging et filtrage adapté). La partie essentielle de ce travail a consisté à tester et développer différentes méthodes de traitement du signal et de reconnaissance des formes (modèles autorégressifs, filtrage de Kalman, modèle basé à partir de courbes gaussiennes). Une analyse factorielle discriminante a été effectuée à partir de coefficients extraits des différents modèles pour séparer une classe de signaux de référence d'une classe de bruit (EEG). L'axe discriminant ainsi déterminé, permet d'effectuer la classification en temps réel et en termes de signal et de bruit, de signaux élémentaires pour différents sujets et ce, de façon indépendante du sujet. Le rapport signal à bruit de la réponse moyenne est considérablement augmenté pour tous les sujets que nous avons testés essentiellement pour la méthode basée sur les courbes gaussiennes
A method is presented for single sweep analysis. It aims at increasing the average signal to noise ratio. A bibliographic study first describes different experimental protocols and classical signal processing including averaging, Wiener filter, and latency corrected averaging and adaptative filter. Three different models are tested : autoregressive model, kalman filtering and an original model based on Gaussian curves. A discriminant factor analysis is achieved using parameters derived from the three different models in order to separate a class of synthetic signals from a class of noise (EEG). A discriminant vector is calculated and used to classify single sweeps from different subjects. The selected averaging shows an increasing of the signal to noise ratio for every tested subject specially for the method based on Gaussian curves
Styles APA, Harvard, Vancouver, ISO, etc.
9

Ceamanos, Garcia Xavier. « Evaluation des performances de l'analyse statistique et physique d'images hyperspectrales de Mars. Application au capteur multi-angulaire CRISM ». Thesis, Grenoble, 2011. http://www.theses.fr/2011GRENU033/document.

Texte intégral
Résumé :
Une nouvelle génération de spectromètres imageurs émerge dans le domaine de l'exploration spatiale par l'ajout d'une dimension supplémentaire de mesure, la dimension angulaire. L'imagerie spectroscopique multi-angulaire est conçue pour fournir une caractérisation plus précise des matériaux planétaires et permet une meilleure séparation des signaux provenant de l'atmosphère et la surface. Le capteur Compact Reconnaissance Imaging Spectrometer for Mars (CRISM) à bord de la sonde Mars Reconnaissance Orbiter est une caméra hyperspectrale qui fonctionne systématiquement dans le mode multi-angulaire depuis l'orbite. Néanmoins, les images multi-angulaires hyperspectrales posent certains problèmes de manipulation, de visualisation et d'analyse en raison de leur taille et de leur complexité. Dans ce cadre, cette thèse propose des algorithmes statistiques et physiques pour analyser les images acquises par l'instrument CRISM de manière efficace et robuste. Premièrement, je propose une chaîne de post-traitement visant à améliorer la qualité radiométrique des données CRISM et à générer des produits améliorés, ces dernières données étant conçues pour permettre une analyse fine de la planète Mars. Deuxièmement, je m'intéresse à la correction atmosphérique des images CRISM en exploitant les capacités multi-angulaires de cet instrument. Un algorithme innovant, à base physique est mis en oeuvre pour compenser les effets atmosphériques afin d'estimer la reflectance de surface. Cette approche est particulièrement utilisée dans cette thèse pour déduire les propriétés photométriques des matériaux qui coexistent dans un site spécifique de Mars, le cratère de Gusev. Troisièmement, j'effectue une comparaison d'une sélection des meilleurs techniques existantes, visant à réaliser une déconvolution spectrale des données acquises par l'instrument CRISM. Ces techniques statistiques se sont avérées utiles lors de l'analyse d'images hyperspectrales de manière non supervisé, c'est a dire, sans aucun a priori sur la scène. Une stratégie originale est proposée pour discriminer les techniques les plus appropriées pour l'exploration de Mars, à partir de données indépendantes provenant d'autres capteurs d'imagerie haute résolution afin de construire une vérité de terrain
New generation of imaging spectrometers are emerging in the field of space exploration by adding an additional view of measurement, the angular dimension. Multi-angle imaging spectroscopy is conceived to provide a more accurate characterization of planetary materials and a higher success in separating the signals coming from the atmosphere and the surface. The Compact Reconnaissance Imaging Spectrometer for Mars (CRISM) aboard the Mars Reconnaissance Orbiter is a hyperspectral camera that operates systematically in multi-angle mode from space. Nonetheless, multi-angle hyperspectral images are related to problems of manipulation, visualization and analysis because of their size and complexity. In this framework, this PhD thesis proposes robust statistical and physical algorithms to analyze images acquired by the CRISM instrument in an efficient manner. First, I propose a tailor-made data pipeline aimed at improving the radiometric quality of CRISM data and generating advanced products, the latter data being devised to perform fine analysis of the planet Mars. Second, I address the atmospheric correction of CRISM imagery by exploiting the multi-angle capabilities of this instrument. An innovative physically-based algorithm compensating for atmospheric effects is put forward in order to retrieve surface reflectance. This approach is particularly used in this thesis to infer the photometric properties of the materials coexisting in a specific site of Mars, the Gusev crater. Third, I perform an intercomparison of a selection of state-of-the-art techniques aimed at performing spectral unmixing of hyperspectral data acquired by the CRISM instrument. These statistical techniques are proved to be useful when analyzing hyperspectral images in an unsupervised manner, that is, without any a priori on the scene. An original strategy is proposed to discriminate the most suitable techniques for the exploration of Mars based on ground truth data built from independent high resolution imagery
Styles APA, Harvard, Vancouver, ISO, etc.
10

Dessein, Arnaud. « Méthodes Computationnelles en Géométrie de l'Information et Applications Temps Réel au Traitement du Signal Audio ». Phd thesis, Université Pierre et Marie Curie - Paris VI, 2012. http://tel.archives-ouvertes.fr/tel-00768524.

Texte intégral
Résumé :
Cette thèse propose des méthodes computationnelles nouvelles en géométrie de l'information, avec des applications temps réel au traitement du signal audio. Dans ce contexte, nous traitons en parallèle les problèmes applicatifs de la segmentation audio en temps réel, et de la transcription de musique polyphonique en temps réel. Nous abordons ces applications par le développement respectif de cadres théoriques pour la détection séquentielle de ruptures dans les familles exponentielles, et pour la factorisation en matrices non négatives avec des divergences convexes-concaves. D'une part, la détection séquentielle de ruptures est étudiée par l'intermédiaire de la géométrie de l'information dualement plate liée aux familles exponentielles. Nous développons notamment un cadre statistique générique et unificateur, reposant sur des tests d'hypothèses multiples à l'aide de rapports de vraisemblance généralisés exacts. Nous appliquons ce cadre à la conception d'un système modulaire pour la segmentation audio temps réel avec des types de signaux et de critères d'homogénéité arbitraires. Le système proposé contrôle le flux d'information audio au fur et à mesure qu'il se déroule dans le temps pour détecter des changements. D'autre part, nous étudions la factorisation en matrices non négatives avec des divergences convexes-concaves sur l'espace des mesures discrètes positives. En particulier, nous formulons un cadre d'optimisation générique et unificateur pour la factorisation en matrices non négatives, utilisant des bornes variationnelles par le biais de fonctions auxiliaires. Nous mettons ce cadre à profit en concevant un système temps réel de transcription de musique polyphonique avec un contrôle explicite du compromis fréquentiel pendant l'analyse. Le système développé décompose le signal musical arrivant au cours du temps sur un dictionnaire de modèles spectraux de notes. Ces contributions apportent des pistes de réflexion et des perspectives de recherche intéressantes dans le domaine du traitement du signal audio, et plus généralement de l'apprentissage automatique et du traitement du signal, dans le champ relativement jeune mais néanmoins fécond de la géométrie de l'information computationnelle.
Styles APA, Harvard, Vancouver, ISO, etc.
11

Dang, Van Mô. « Classification de donnees spatiales : modeles probabilistes et criteres de partitionnement ». Compiègne, 1998. http://www.theses.fr/1998COMP1173.

Texte intégral
Résumé :
La problématique de la classification de données spatiales se pose par exemple lorsqu'on segmente une image en régions homogènes ou lorsqu'on cartographie des données multidimensionnelles localisées telles que des relevés physico-chimiques du sol. Dans ce travail, les méthodes proposées s'appuient sur des distributions de probabilité afin de modéliser les mécanismes engendrant la partition non observée et les observations. S'il s'agit d'effectuer les regroupements en se basant uniquement sur les valeurs observées, on rappelle que les modèles de mélange, la vraisemblance classifiante et l'algorithme EM procurent des solutions flexibles et relativement simples à mettre en œuvre. Afin d'intégrer en outre une hypothèse d'homogénéité spatiale de la partition, on se propose de conduire des raisonnements similaires dans le cadre des modèles utilisant un champ de Markov caché. D'une part, on démontre qu'en appliquant l'algorithme EM au cas des champs de potts cachés avec une approximation de champ moyen, on effectue les mêmes calculs que l'optimisation alternée d'une vraisemblance classifiante floue. Ce constat permet d'améliorer sur certains points une méthode de classification spatiale floue itérative récemment proposée. Sur des données simulées et réelles, la méthode obtenue fournit des résultats comparables aux techniques utilisant des simulations de Monte-Carlo pour un cout algorithmique moindre. D'autre part, on adapte l'approche précédente à des types particuliers de données spatiales. Pour un problème d'écologie numérique, on construit ainsi une méthode visant à classifier des indicateurs de présence/absence localisés. On propose selon une démarche analogue un algorithme de classification peu sensible aux valeurs atypiques. Enfin, pour traiter des données spatiales incomplètes, on propose d'optimiser une vraisemblance classifiante dont le modèle statistique sous-jacent intègre la notion de valeurs manquantes.
Styles APA, Harvard, Vancouver, ISO, etc.
12

Ceamanos, garcia Xavier. « Evaluation des performances de l'analyse statistique et physique d'images hyperspectrales de Mars. Application au capteur multi-angulaire CRISM ». Phd thesis, Université de Grenoble, 2011. http://tel.archives-ouvertes.fr/tel-00648102.

Texte intégral
Résumé :
Une nouvelle génération de spectromètres imageurs émerge dans le domaine de l'exploration spatiale par l'ajout d'une dimension supplémentaire de mesure, la dimension angulaire. L'imagerie spectroscopique multi-angulaire est conçue pour fournir une caractérisation plus précise des matériaux planétaires et permet une meilleure séparation des signaux provenant de l'atmosphère et la surface. Le capteur Compact Reconnaissance Imaging Spectrometer for Mars (CRISM) à bord de la sonde Mars Reconnaissance Orbiter est une caméra hyperspectrale qui fonctionne systématiquement dans le mode multi-angulaire depuis l'orbite. Néanmoins, les images multi-angulaires hyperspectrales posent certains problèmes de manipulation, de visualisation et d'analyse en raison de leur taille et de leur complexité. Dans ce cadre, cette thèse propose des algorithmes statistiques et physiques pour analyser les images acquises par l'instrument CRISM de manière efficace et robuste. Premièrement, je propose une chaîne de post-traitement visant à améliorer la qualité radiométrique des données CRISM et à générer des produits améliorés, ces dernières données étant conçues pour permettre une analyse fine de la planète Mars. Deuxièmement, je m'intéresse à la correction atmosphérique des images CRISM en exploitant les capacités multi-angulaires de cet instrument. Un algorithme innovant, à base physique est mis en oeuvre pour compenser les effets atmosphériques afin d'estimer la reflectance de surface. Cette approche est particulièrement utilisée dans cette thèse pour déduire les propriétés photométriques des matériaux qui coexistent dans un site spécifique de Mars, le cratère de Gusev. Troisièmement, j'effectue une comparaison d'une sélection des meilleurs techniques existantes, visant à réaliser une déconvolution spectrale des données acquises par l'instrument CRISM. Ces techniques statistiques se sont avérées utiles lors de l'analyse d'images hyperspectrales de manière non supervisé, c'est a dire, sans aucun a priori sur la scène. Une stratégie originale est proposée pour discriminer les techniques les plus appropriées pour l'exploration de Mars, à partir de données indépendantes provenant d'autres capteurs d'imagerie haute résolution afin de construire une vérité de terrain.
Styles APA, Harvard, Vancouver, ISO, etc.
13

Petrazzuoli, Giovanni. « Interpolation temporelle et inter-vues pour l'amélioration de l'information adjacente dans le codage vidéo distribué ». Electronic Thesis or Diss., Paris, ENST, 2013. http://www.theses.fr/2013ENST0004.

Texte intégral
Résumé :
Le codage de source distribué est un paradigme qui consiste à encoder indépendamment deux sources corrélées et à les décoder conjointement. Wyner et Ziv ont montré que le codage de source distribué peut atteindre les mêmes performances débit-distorsion que le codage de source conjoint, pourvu que certaines contraintes soient satisfaites. Cette caractéristique rend le codage de source distribué très attractif pour des applications qui demandent un encodeur à faible complexité ou pour ne pas être obligé à avoir des communications entre les sources. Dans le cadre du codage vidéo distribué, les trames corrélées sont encodées séparément et décodées conjointement. Dans l'architecture ainsi dite de Stanford, le flux vidéo est séparée en trames clés et Wyner-Ziv. Les trames clés sont encodées INTRA. Les trames Wyner-Ziv sont données en entrée à un codeur de canal systématique ; seulement les bits de parité sont envoyés. Au décodeur, on produit une estimation de la trame Wyner-Ziv, appelée information adjacente, en interpolant les trames clés reçues. L'information adjacente, considérée comme une version bruitée de la trame Wyner-Ziv, est corrigée par les bits de parité. Dans cette thèse, nous proposons plusieurs algorithmes pour la génération de l'information adjacente et pour l'interpolation temporelle et inter-vue. On propose aussi un algorithme de fusion bayésienne des deux interpolations. Tous les algorithmes proposés donnent des résultats meilleurs par rapport à l'état de l'art en termes de performance débit-distorsion. Nous proposons aussi plusieurs algorithmes pour l'estimation de la trame Wyner-Ziv dans le cadre de la vidéo multi-vues plus profondeur
Distributed source coding is a paradigm that consists in encoding two correlated sources independently, provided that they are decoded jointly.Wyner and Ziv proved that distributed source coding can attain the same rate distortion performance of joint coding, under some constraints.This feature makes distributed source coding very attractive for applications that require a low-complexity encoder or for avoiding communication between the sources. In distributed video coding, correlated frames are encoded separately but decoded jointly. In the Stanford Architecture, the video is split into Key Frames and Wyner-Ziv Frames. The Key Frames are INTRA coded. The Wyner-Ziv Frames are fed into a systematic channel coder and only the parity bits are sent to the decoder. At the decoder side, an estimation of the Wyner-Ziv Frame, called side information, is produced by interpolating the available frames. The side information, that can be considered as a noisy version of the real Wyner-Ziv Frame, is corrected by the parity bits sent by the encoder. In this thesis, we propose several algorithms for side information generation both for the temporal and inter-view interpolation. We also propose a Bayesian fusion of the two estimations. All our algorithms outperform the state-of-the-art in terms of rate distortion performance. We also propose several algorithms for Wyner-Ziv estimation in the context of multiview video plus depth
Styles APA, Harvard, Vancouver, ISO, etc.
14

Diong, Mouhamadou. « Développement d'outils statistiques pour l'amélioration de dispositifs d'imagerie acoustique et micro-onde ». Thesis, Aix-Marseille, 2015. http://www.theses.fr/2015AIXM4771/document.

Texte intégral
Résumé :
L'un des enjeux majeurs pour les systèmes d'imagerie par diffraction acoustique et micro-onde, est l'amélioration des performances obtenues au moment de la reconstruction des objets étudiés. Cette amélioration peut s'effectuer par la recherche d'algorithmes d'imagerie plus performants d'une part et par la recherche d'une meilleure configuration de mesures d'autre part. La première approche (recherche d'algorithmes) permet d'améliorer le processus d'extraction de l'information présente dans un échantillon de mesures donné. Néanmoins, la qualité des résultats d'imagerie reste limitée par la quantité d'information initialement disponible. La seconde approche consiste à choisir la configuration de mesures de manière à augmenter la quantité d'information disponible dans les données. Pour cette approche, il est nécessaire de quantifier la quantité d'information dans les données. En théorie de l'estimation, ceci équivaut à quantifier la performance du système. Dans cette thèse, nous utilisons la Borne de Cramer Rao comme mesure de performance, car elle permet d'analyser la performance des systèmes de mesures sans être influencé par le choix de la méthode d'inversion utilisée. Deux analyses sont proposées dans ce manuscrit. La première consiste en l'évaluation de l'influence des facteurs expérimentaux sur la performance d'inversion. Cette analyse a été effectuée pour différents objets le tout sous une hypothèse de configuration bidimensionnelle. La seconde analyse consiste à comparer les performances de l'estimateur obtenu avec l'approximation de Born aux valeurs de la borne de Cramer Rao (BCR); l'objectif étant d'illustrer d'autres applications possibles de la BCR
Improving the performance of diffraction based imaging systems constitutes a major issue in both acoustic and electromagnetic scattering. To solve this problem, two main approaches can be explored. The first one consists in improving the inversion algorithms used in diffraction based imaging. However, while this approach generally leads to a significant improvement of the performance of the imaging system, it remains limited by the initial amount of information available within the measurements. The second one consists in improving the measurement system in order to maximize the amount of information within the experimental data. This approach does require a quantitative mean of measuring the amount of information available. In estimation problems, the {appraisal of the} performance of the system is often used for that purpose. In this Ph.D. thesis, we use the Cramer Rao bound to assess the performance of the imaging system. In fact, this quantity has the advantage of providing an assessment which is independent from the inversion algorithm used. Two main analysis are discussed in this thesis. The first analysis explores the influence on the system's performance, of several experimental conditions such as the antennas positions, the radiation pattern of the source, the properties of the background medium, etc. Two classes of objects are considered: 2D homogeneous circular cylindrical objects and 2D cylindrical objects with defect. The second analysis studies the performance of an estimator based on Born approximation with the Cramer Rao Bound as reference. The aim of this second analysis is to showcase other possible applications for the Cramer Rao Bound
Styles APA, Harvard, Vancouver, ISO, etc.
15

Petrazzuoli, Giovanni. « Interpolation temporelle et inter-vues pour l'amélioration de l'information adjacente dans le codage vidéo distribué ». Phd thesis, Telecom ParisTech, 2013. http://tel.archives-ouvertes.fr/tel-01060836.

Texte intégral
Résumé :
Le codage vidéo distribué est un paradigme qui consiste en encoder indépendamment deux sources corrélées mais à les décoder conjointement. Wyner and Ziv ont montré que le codage de source distribué peut atteindre les mêmes performances débit-distorsion du codage de source conjoint sous quelques contraintes. Cette caractéristique rend le codage de source distribué très attractif pour applications qui demandent un encodeur à bas complexité (comme par example des réseaux des senseurs sans fil) ou pour éviter tout sorte de communication entre les source (comme dans les systèmes multi-vues). Dans le cadre du codage vidéo distribué, les trames corrélées sont encodées séparément mais elles sont encodées conjointement. Dans l'architecture de Stanford, la flux vidéo est séparée en trames clés (TC) et Wyner-Ziv (TWZ). Seulement les trames clés sont envoyées au décodeur. Les trames Wyner-Ziv sont donné en entrée à un codeur systématique de canal et les bits de parité sont envoyés au décodeur. Au décodeur, on produit une estimation de la trame Wyner-Ziv, appelé information adjacente, en interpolant les trames déjà disponibles au décodeur. L'information adjacente, qui peut être considérée comme une version bruitée de la vraie trame Wyner-Ziv, est corrigées par les bits de parité envoyées par l'encodeur. Dans cette thèse, on a étudié plusieurs algorithmes pour la génération de l'information adjacente dans le cadre du codage vidéo distribué multi-vues pour ce qui concerne et interpolation temporelle et l'interpolation inter-vue. Tous les algorithmes proposés donne des résultats meilleurs par rapport à l'état de l'art en termes de performance débit-distorsion. Une deuxième contribution concerne le format vidéo multi-vues plus profondeur. Dans le cadre du paradigme du streaming interactive pour la vidéo multi-vues, le codage vidéo distribué assure la continuité de la reproduction pendant le streaming, puisque les trames Wyner-Ziv dont décodées indépendamment des trames de référence qui sont disponibles au décodeur. On a proposé plusieurs algorithmes pour l'estimation de la trame Wyner-Ziv dans ce contexte-là.
Styles APA, Harvard, Vancouver, ISO, etc.
16

Huber, Stefan. « Voice Conversion by modelling and transformation of extended voice characteristics ». Electronic Thesis or Diss., Paris 6, 2015. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2015PA066750.pdf.

Texte intégral
Résumé :
La Conversion de la Voix (VC) vise à transformer les caractéristiques de la voix d’un locuteur source de manière qu’il sera perçu comme étant prononcé par un locuteur cible. Le principe de la VC est de définir des fonctions du transposition pour la conversion de la voix de l’un locuteur source à la voix de l’un locuteur cible. Les fonctions de transformation de VC systèmes "State-Of-The-Art" (START) adapte instantanément aux caractéristiques de la voix source. Cependant, la qualité est pas encore suffisant. Des améliorations considérables sont nécessaires que les techniques VC peuvent être utilisés dans un environnement industriel professionnel. L’objectif de cette thèse est d’augmenter la qualité de la conversion de la voix pour faciliter son applicabilité industrielle dans une mesure raisonnable. Les propriétés de base de différentes START algorithmes de la conversion de la voix sont discutés sur leurs avantages intrinsèques et ses déficits. Basé sur des évaluations expérimentales avec un GMM VC système la conclusion est que la plupart des systèmes VC START qui reposent sur des modèles statistiques sont, en raison de l’effet en moyenne de la régression linéaire, moins appropriées pour atteindre un score du similitude assez élevé avec le haut-parleur cible requise pour l’utilisation industrielle. Les contributions établies pendant de ce travail de thèse se trouvent dans les moyens étendus à a) modéliser l’excitation du source glottique, b) modéliser des descripteurs de la voix en utilisant un nouveau système de parole basée sur un modèle élargie de source-filtre, et c) avancer une nouveau système VC de l’Ircam en le combinant avec les contributions de a) et b)
Voice Conversion (VC) aims at transforming the characteristics of a source speaker’s voice in such a way that it will be perceived as being uttered by a target speaker. The principle of VC is to define mapping functions for the conversion from one source speaker’s voice to one target speaker’s voice. The transformation functions of common State-Of-The-Art (START) VC system adapt instantaneously to the characteristics of the source voice. While recent VC systems have made considerable progress over the conversion quality of initial approaches, the quality is nevertheless not yet sufficient. Considerable improvements are required before VC techniques can be used in an professional industrial environment. The objective of this thesis is to augment the quality of Voice Conversion to facilitate its industrial applicability to a reasonable extent. The basic properties of different START algorithms for Voice Conversion are discussed on their intrinsic advantages and shortcomings. Based on experimental evaluations of one GMM-based State-Of-The-Art VC approach the conclusion is that most VC systems which rely on statistical models are, due to averaging effect of the linear regression, less appropriate to achieve a high enough similarity score to the target speaker required for industrial usage. The contributions established throughout this thesis work lie in the extended means to a) model the glottal excitation source, b) model a voice descriptor set using a novel speech system based on an extended source-filter model, and c) to further advance IRCAM’s novel VC system by combining it with the contributions of a) and b)
Styles APA, Harvard, Vancouver, ISO, etc.
17

Langevin, François. « Paramétrage autorégressif de l'électromyogramme pendant des épreuves prolongées de contraction volontaire et de stimulation électrique musculaire du biceps brachial ». Compiègne, 1986. http://www.theses.fr/1986COMPI240.

Texte intégral
Résumé :
Cette étude met en oeuvre deux techniques autorégressives en treillis, distinctes pour représenter le signal électromyographique au cours de 2 types d'épreuves : des contractions volontaires isométriques prolongées et des contractions provoquées par des stimulations électriques transcutanées toutes deux sur le biceps brachial. Dans le premier cas, le signal est lentement non stationnaire et identifié par morceaux, dans le second, on utilise un algorithme de covariance pour décrire la stationnarité locale d'une réponse, puis sa dérive progressive dans le temps. L'intérêt de cette méthode tient en plusieurs points : grande reproductibilité (ordre faible), microsystème grand public, suivi et quantification en temps réel de la fatigue. Grâce à la stimulation, plusieurs phases sont identifiées pendant les épreuves et discutées sur le plan physiologique et sur le plan de l'entropie du signal
Two lattice autoregressive different techniques are used to represent EMG signal during two types of experiences : isometric sustained voluntary contractions induced by transcutaneous electrical stimulation, both on the biceps brachial. On first, the signal is slowly non stationary and is identified by pieces, and in the second case, a covariance algorithm is used to process the local non stationnarity of a response, and then of its time drift. There are different interest contained in this method : good reproductibility (low order), cheap microsystem equipment, real time monitoring and quantification of fatigue. Thanks to stimulation, different parts have been detected during experiences, and are discusses from a physiological and from a signal entropy point of view
Styles APA, Harvard, Vancouver, ISO, etc.
18

Mazet, Vincent. « Développement de méthodes de traitement de signaux spectroscopiques : estimation de la ligne de base et du spectre de raies ». Phd thesis, Université Henri Poincaré - Nancy I, 2005. http://tel.archives-ouvertes.fr/tel-00011477.

Texte intégral
Résumé :
Cette thèse s'inscrit dans le cadre d'une collaboration entre le CRAN (UMR 7039) et le LCPME (UMR 7564) dont l'objectif est de développer des méthodes d'analyse de signaux spectroscopiques.

Dans un premier temps est proposée une méthode déterministe qui permet d'estimer la ligne de base des spectres par le polynôme qui minimise une fonction-coût non quadratique (fonction de Huber ou parabole tronquée). En particulier, les versions asymétriques sont particulièrement bien adaptées pour les spectres dont les raies sont positives. Pour la minimisation, on utilise l'algorithme de minimisation semi-quadratique LEGEND.

Dans un deuxième temps, on souhaite estimer le spectre de raies : l'approche bayésienne couplée aux techniques MCMC fournit un cadre d'étude très efficace. Une première approche formalise le problème en tant que déconvolution impulsionnelle myope non supervisée. En particulier, le signal impulsionnel est modélisé par un processus Bernoulli-gaussien à support positif ; un algorithme d'acceptation-rejet mixte permet la simulation de lois normales tronquées. Une alternative intéressante à cette approche est de considérer le problème comme une décomposition en motifs élémentaires. Un modèle original est alors introduit ; il a l'intérêt de conserver l'ordre du système fixe. Le problème de permutation d'indices est également étudié et un algorithme de ré-indexage est proposé.

Les algorithmes sont validés sur des spectres simulés puis sur des spectres infrarouge et Raman réels.
Styles APA, Harvard, Vancouver, ISO, etc.
19

Vallet, Pascal. « Matrices aléatoires et applications au traitement statistique du signal ». Phd thesis, Université Paris-Est, 2011. http://pastel.archives-ouvertes.fr/pastel-00674747.

Texte intégral
Résumé :
Dans cette thèse, nous considérons le problème de la localisation de source dans les grands réseaux de capteurs, quand le nombre d'antennes du réseau et le nombre d'échantillons du signal observé sont grands et du même ordre de grandeur. Nous considérons le cas où les signaux source émis sont déterministes, et nous développons un algorithme de localisation amélioré, basé sur la méthode MUSIC. Pour ce faire, nous montrons de nouveaux résultats concernant la localisation des valeurs propres des grandes matrices aléatoires gaussiennes complexes de type information plus bruit
Styles APA, Harvard, Vancouver, ISO, etc.
20

Hamie, Ali. « Traitement statistique du signal : applications en biologie et économie ». Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAS012/document.

Texte intégral
Résumé :
Dans cette thèse, nous nous intéressons à développer des outils mathématiques, afin de traiter une gamme des signaux biologiques et économiques. En premier lieu, nous proposons la transformée Dynalet, considérée comme une alternative, pour des signaux de relaxation sans symétrie interne, à la transformée de Fourier et à la transformée ondelette. L'applicabilité de cette nouvelle approximation est illustrée sur des données réelles. Ensuite, nous corrigeons la ligne de base des signaux biologiques spectrométriques, à l'aide d'une régression expectile pénalisée, qui, sur les applications proposées, est plus performante qu'une régression quantile. Puis, afin d'éliminer le bruit blanc, nous adaptons aux signaux spectrométriques une nouvelle approche combinant ondelette, seuillage doux et composants PLS. Pour terminer, comme les signaux peuvent être considérés comme des données fonctionnelles, d'une part, nous développons une vraisemblance locale fonctionnelle dont le but est d'effectuer une classification supervisée des courbes, et, d'autre part, nous estimons l'opérateur de régression pour une réponse scalaire positive non nulle, par minimisation de l'erreur quadratique moyenne relative. De plus, les lois asymptotiques de notre estimateur sont établies et son efficacité est illustrée sur des données simulées et sur des données spectroscopiques et économiques
In this thesis, we focus on developing mathematical tools to treat a range of biological and economic signals. First, we propose the Dynalet transform for non-symmetrical biological relaxation signals. This transform is considered as an alternative to the Fourier transform and the wavelet transform. The applicability of the new approximation approach is illustrated on real data. Then, for spectrometric biological signals, we correct the baseline using a penalized expectile regression. Thus, the proposed applications show that our proposed regression is more efficient than the quantile regression. Then to remove random noise, we adapt to spectrometric data a new denoising method that combine wavelets, soft thresholding rule and PLS components. Finally, note that the biological signals may be often regarded as functional data. On one hand, we develop a functional local likelihood aiming to perform a supervised classification of curves. On the other hand, we estimate the regression operator with positive responses, by minimizing the mean squared relative error. Moreover, The asymptotic distributions of our estimator are established and their efficiency is illustrated on a simulation study and on a spectroscopic and economic data set
Styles APA, Harvard, Vancouver, ISO, etc.
21

Cohen, Albert. « Ondelettes, analyses multi résolutions et traitement numérique du signal ». Paris 9, 1990. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1990PA090018.

Texte intégral
Résumé :
L'objet de cette thèse est de clarifier les liens existants entre les techniques de codage en sous-bandes des signaux numériques et la théorie des ondelettes et de l'analyse multi résolution. Les principaux résultats fournissent une caractérisation exacte des filtres miroirs en quadrature associés à des analyses multi résolutions et une estimation de la régularité des ondelettes correspondantes. Ce point de vue est repris par la suite en considérant une classe de filtres plus vaste. Nous généralisons ainsi les bases orthonormées d'ondelettes en construisant des familles bi orthogonales multi échelles qui permettent d'analyser de nombreux espaces fonctionnels. Enfin, une application est présentée dans le cadre de la compression des images digitales
Styles APA, Harvard, Vancouver, ISO, etc.
22

Jan, Didier. « Traitement numérique d'images de sonar latéral ». Compiègne, 1985. http://www.theses.fr/1985COMPD007.

Texte intégral
Résumé :
Le but de cette thèse est de montrer qu'il est possible d'utiliser des traitements numériques de données de sonars latéraux pour améliorer leur interprétation et permettre une reconnaissance acoustique des fonds. Deux approches différentes du problème sont envisagées. Le double aspect de la rétrodiffusion est pris en compte dans chaque cas, car elles font intervenir des facteurs dépendant à la fois de la nature du fond et de son état de surface. Dans la première approche, à partir de l'analyse de la forme des densités de probabilité des fluctuations d'amplitude du signal rétrodiffusé, nous pouvons introduire des paramètres quantifiables qui en incluant certaines hypothèses, sont directement reliés à la rugosité du fond. Les lois expérimentales sont ajustées par des lois théoriques. La deuxième approche, basée sur des techniques de traitement de l'image, fait intervenir des matrices de co-occurrence de niveaux de gris. A partir de cette étude statistique des images, une méthode de segmentation, liée à la connaissance de zones de référence obtenues in situ, est proposée
The aim of this thesis is to show how computer-aided techniques could be applied to improve the interpretation of the data of side scan sonar and acoustical recognition of the seabed. Two different methods will be exposed. In both case, we take account of the duality of the backscattering characteristics which depend on the nature and the surface conditions. In the first method, the analysis of the shape of the probability density curve of bottom reverberation, can provide us measurements which, by including some assumptions, are intimately related to the surface roughness. We estimate the probability density curve with theorical probability density functions. The second method, which is based on digital image processing, use grey level dependency matrices. This statistical analysis of the image texture provide us segmentators to subdivide the image in "homogeneous" area and the recognition can be done by the knowledge of a reference area taken in situ
Styles APA, Harvard, Vancouver, ISO, etc.
23

Pignolet, Jean-Marc. « Filtrage numérique et fonctions élémentaires pour un processeur de traitement du signal ». Grenoble INPG, 1988. http://www.theses.fr/1988INPG0068.

Texte intégral
Résumé :
Description des differents outils et des principaux concepts en filtrage numerique. Presentation des differents algorithmes de filtrage et des criteres qui ont permis de les retenir. Presentation des differentes methodes d'approximation numerique permettant, compte tenu de l'architecture du processeur, l'implantation de fonctions arithmetiques et elementaires
Styles APA, Harvard, Vancouver, ISO, etc.
24

Douimi, Mohammed. « Modélisation markovienne et optimisation numérique pour la restauration des signaux en (1D) et (2D) ». Rouen, 1995. http://www.theses.fr/1995ROUES039.

Texte intégral
Résumé :
Cette thèse est consacrée à la modélisation markovienne et l'optimisation numérique pour la restauration des signaux en (1D) et (2D) bruités par un bruit blanc gaussien centré. Le principe du modèle markovien exploite le champ de Markov et de Gibbs sur des graphes finis via le théorème d'Hammersley Clifford. Le signal restauré est estimé au sens du critère du maximum a posteriori (MAP), qui conduit à un problème d'optimisation globale mixte, non convexe et de très grande taille, réputé très difficile. Plusieurs méthodes ont été proposées notamment le recuit simulé (SA), le graduted non convexity (GNC) et le recuit par champ moyen (MFA) introduits respectivement par (GG84), (BLA87) et (GEI89). Nous proposons des variantes de GNC 1er et 2eme ordre et surtout un nouvel algorithme que nous appelons balayage par position de discontinuité (BPD). Ce nouvel algorithme s'inspire des méthodes de coupe énumérative en optimisation combinatoire. Il se démarque des autres algorithmes cités par sa nature parallélisable, sa rapidité et sa facilite pour le choix des paramètres de lissage et de sensibilité. Ainsi, par exemple, dans le cas du signal en (1D) un traitement assisté ou automatique est proposé selon le degré de connaissance du signal à restaurer. De plus la souplesse de l'algorithme BPD permet d'introduire d'autres types de fonctions d'énergie élargissant le champ des applications (applications contour-image).
Styles APA, Harvard, Vancouver, ISO, etc.
25

Bonnet, Madeleine. « Codage numérique des signaux par quantification et prédiction adaptatives couplées ». Paris 11, 1988. http://www.theses.fr/1988PA112033.

Texte intégral
Résumé :
On montre que la structure utilisant un quantificateur dans la boucle de prédiction permet d'obtenir une réduction du débit tout en conservant un faible bruit de codage. Cette structure que rend le prédicteur non linéaire, est utilisée dans l'algorithme normalise à 32 kbit/s ou quantificateur et prédicteur sont adaptatifs
Styles APA, Harvard, Vancouver, ISO, etc.
26

Pietquin, Olivier. « De l'Apprentissage Statistique pour le Contrôle Optimal et le Traitement du Signal ». Habilitation à diriger des recherches, Université Paul Sabatier - Toulouse III, 2011. http://tel.archives-ouvertes.fr/tel-00652777.

Texte intégral
Résumé :
Les travaux présentés dans ce manuscrit ont pour but le développement de méthodes de prise de décisions optimales (statiques ou séquentielles) ou de traitement de signaux par des méthodes d'appren- tissage automatique. Ils répondent cependant à un certain nombre de contraintes qui ont été imposées par l'objectif de prendre en compte la présence de l'humain dans la boucle de décision ou de traitement ou même comme générateur des signaux que l'on analyse. La présence de l'humain rend la nature des données que l'on traite assez imprévisible et, à une même situation en apparence, des décisions diffé- rentes peuvent être prises. Dans les domaines de l'apprentissage statistique, du contrôle optimal ou du traitement du signal ceci se traduit par la nécessité de gérer l'incertain, de traiter le caractère stochastique du système ainsi que la non-stationnarité de celui-ci. Ainsi, les décisions que l'on considère optimales peuvent dépendre de manière aléatoire de la situation mais de plus, cette dépendance peut varier avec le temps. Des méthodes d'optimisation convergeant vers une solution globale ne sont donc pas adaptées mais des méthodes permettant d'apprendre au fil de l'eau et de poursuivre l'évolution de la solution optimale seront préférées. Par ailleurs, dans le cas où les décisions résultent en une action sur le monde extérieur, il est né- cessaire de quantifier le risque pris en accomplissant ces actions, particulièrement si ces actions doivent avoir un impact sur l'humain. Ceci passe par une estimation de l'incertitude sur le résultat des actions possibles et la sélection en conséquence de ces actions. Une autre implication est qu'il ne sera pas tou- jours envisageable de tester toutes les actions possibles pour en estimer les effets puisque ces actions peuvent ne pas être acceptables pour l'humain. Ainsi, il faudra apprendre à partir d'exemples de situa- tions imposées ce qui se traduit par une phase d'inférence utilisant les informations observables pour en déduire des conséquences sur des situations que l'on ne peut observer. Les travaux exposés dans ce manuscrit apportent des contributions théoriques permettant de tenir compte de ces contraintes et des applications à des problèmes concrets imposant ces contraintes seront exposées.
Styles APA, Harvard, Vancouver, ISO, etc.
27

Vernhes, Jean-Adrien. « Échantillonnage Non Uniforme : Application aux filtrages et aux conversions CAN/CNA (Convertisseurs Analogique-Numérique et Numérique/Analogique) dans les télécommunications par satellite ». Phd thesis, Toulouse, INPT, 2016. http://oatao.univ-toulouse.fr/15601/1/JAVernhes.pdf.

Texte intégral
Résumé :
La théorie de l'échantillonnage uniforme des signaux, développée en particulier par C. Shannon, est à l'origine du traitement numérique du signal. Depuis, de nombreux travaux ont été consacrés à l'échantillonnage non uniforme. Celui-ci permet, d'une part, de modéliser les imperfections des dispositifs d'échantillonnage uniforme. D'autre part, l'échantillonnage peut être effectué de manière délibérément non uniforme afin de bénéficier de propriétés particulières, notamment un assouplissement des conditions portant sur le choix de la fréquence moyenne d'échantillonnage. La plupart de ces travaux reste dans un cadre théorique en adoptant des schémas d'échantillonnage et des modèles de signaux simplifiés. Or, actuellement, dans de nombreux domaines d'application, tels que les communications par satellites, la conversion analogique-numérique s'effectue sous des contraintes fortes pour les largeurs de bande mises en jeu, en raison notamment des fréquences très élevées utilisées. Ces conditions opérationnelles accentuent les imperfections des dispositifs électroniques réalisant l'échantillonnage et induisent le choix de modèles de signaux et de schémas d'échantillonnage spécifiques. Cette thèse a pour objectif général d'identifier des modèles d'échantillonnage adaptés à ce cadre applicatif. Ceux-ci s'appliquent à des signaux aléatoires passe-bande, qui constituent un modèle classique en télécommunications. Ils doivent prendre en compte des facteurs technologiques, économiques ainsi que des contraintes bord de complexité et éventuellement intégrer des fonctionnalités propres aux télécommunications. La première contribution de cette thèse est de développer des formules d'échantillonnage non uniforme qui intègrent dans le domaine numérique des fonctionnalités délicates à implémenter dans le domaine analogique aux fréquences considérées. La deuxième contribution consiste à caractériser et à compenser les erreurs de synchronisation de dispositifs d'échantillonnage non uniforme particuliers, à savoir les convertisseurs analogique-numérique entrelacés temporellement, via des méthodes supervisées ou aveugles.
Styles APA, Harvard, Vancouver, ISO, etc.
28

Marot, Julien. « Méthodes par sous-espaces et d'optimisation : application au traitement d'antenne, à l'analyse d'images, et au traitement de données tensorielles ». Aix-Marseille 3, 2007. http://www.theses.fr/2007AIX30051.

Texte intégral
Résumé :
Cette thèse est consacrée aux méthodes par sous-espaces et d'optimisation, développées en traitement d'antenne, analyse d'images, et traitement du signal tensoriel. Des définitions concernant un problème de traitement d'antenne et les méthodes haute résolution sont présentées. Nous proposons une méthode d'optimisation appliquée à la localisation de sources en présence de distortions de phase pour un grand nombre de capteurs. Nous proposons des méthodes rapides pour l'estimation de l'orientation et de l'offset de contours rectilignes, plusieurs méthodes d'optimisation pour l'estimation de contours distordus, approximativement rectilignes ou circulaires. Nous donnons un état de l'art sur les méthodes de traitement du signal multidimensionnel: la troncature de la HOSVD, l'approximation de rang inférieur d'un tenseur, le filtre de Wiener multidimensionnel. Nous proposons une procédure de déploiement nonorthogonal de tenseur, utilisant la méthode présentée dans la première partie
This thesis is devoted to subspace-based and optimization methods, developed in array processing, image processing, tensor signal processing. Definitions concerning an array processing problem and high resolution methods are presented. We propose an optimization method applied to source detection in presence of phase distortions for a high number of sensors. We propose fast subspace-based methods for the estimation of straight line offset and orientation, several optimization methods to estimate distorted contours, nearly straight or circular. We provide a state-of-the art about multiway signal processing: truncation of the HOSVD, lower rank tensor approximation, multiway Wiener filtering. We propose a procedure for nonorthogonal tensor flattening, using the method presented in the first part
Styles APA, Harvard, Vancouver, ISO, etc.
29

Papakonstantinou, Konstantinos. « Les applications du traitement du signal statistique à la localisation mobile ». Paris, Télécom ParisTech, 2010. http://www.theses.fr/2010ENST0041.

Texte intégral
Résumé :
Dans ce travail nous attaquons au problème de l’estimation de la position d’une station mobile (SM) dans un environnement NLoS. Les méthodes de localisation traditionnelles sont des processus en deux étapes: dans la première étape un ensemble de paramètres qui dépendent de la position du MT (LDP) est estimé. Dans la deuxième étape, la position de la SM est estimée en etrouvant la position qui correspondrait le plus aux paramètres LDP. Nous avons développé un algorithme (4D Unitary ESPRIT) d’estimation de LDP des composantes multi-trajets (MPC), à haute résolution et à faible complexité, pour les systèmes MIMO-OFDM. Pour la deuxième étape de localisation, nous avons développé plusieurs méthodes hybrides. En general, le problème de localisation NLoS n’est toujours pas résolu provient de la difficulté à faire correspondre des estimations de LDP à une position du MT unique. C’est pourquoi nous utilisons le modèle à rebond unique (SBM) ou le modèle SBM dynamique. Les deux avantages énormes des méthodes basées sur le (D)SBM sont la possibilité d’identification même lorsque les estimations des LDP ne sont disponibles que pour 2 MPC et la performance remarquable pour les cas où le canal est plus riche. Enfin, nous avons développé une méthode directe d’estimation de position (DLE) pour les systèmes MIMO-OFDM qui opèrent dans les environnements NLoS. Le DLE estime la position de la SM directement à partir du signal reçu. Une meilleure précision est constatée pour des rapports signal sur bruit faibles à moyens et/ou pour un petit nombre d’échantillons, comme le démontrent nos résultats
In this work we attack the problem of mobile terminal (MT) location estimation in NLoS environments. Traditional localization methods are 2-step processes: In the 1st step a set of location-dependent parameters (LDP) is estimated. In the 2nd step, the MT location is estimated by finding the position that best fits the LDP estimates. For the 1st step we have developed a high-resolution low-complexity LDP estimation algorithm (4D Unitary ESPRIT) for MIMO-OFDM systems, to estimate the angles of arrival (AoA), the angles of departure (AoD), the delays (ToA) and the Doppler shifts (DS) of the multipath components (MPC). As far as the second step of localization is concerned, we developed several hybrid methods applicable to NLoS environments. In the NLoS localization problem, mapping the LDP estimates to the location of the MT is not trivial. To this end, we utilize static and dynamic geometrical channel models (eg. SBM). The 2 great advantages of the SBM-based methods are the identifiability even for cases when LDP estimates are available for only 2 MPC and the remarkable performance for cases when the channel is richer. Due to these great advantages, we consider SBM-based methods to be an appealing solution for the NLoS localization problem. Moreover, we have developed a direct location estimation (DLE) method for MIMO-OFDM systems. In contrast to traditional methods, DLE estimates the MT location directly from the received signal. Its main advantage is the enhanced accuracy at low to medium signal-to-noise ratio (SNR) and/or with small number of data samples, as demonstrated by our results
Styles APA, Harvard, Vancouver, ISO, etc.
30

El, Sayed Atika. « Echographie ultrasonore à émission de type "Chirp" et traitement par analyse spectrale numérique ». Lyon 1, 1987. http://www.theses.fr/1987LYO19018.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
31

Renaux, Alexandre. « Contribution à l'analyse des performances d'estimation en traitement statistique du signal ». Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2006. http://tel.archives-ouvertes.fr/tel-00129527.

Texte intégral
Résumé :
Cette thèse porte sur l'étude des performances des estimateurs dans le cadre du traitement du signal et s'attache plus particulièrement à étudier et unifier les bornes minimales d'estimation. Nous caractérisons ainsi les limites des méthodes du maximum de vraisemblance en terme d'erreur quadratique moyenne (EQM).

La difficulté majeure provient du fait que l'EQM de l'estimateur d'un paramètre à support borné se divise en trois régions : la plage asymptotique, souvent caractérisée par un grand nombre d'observations ou un faible niveau de bruit, où l'erreur d'estimation est faible, la plage de décrochement où l'EQM se dégrade rapidement et la zone a priori où les observations se réduisent principalement à la seule contribution du bruit et donc, n'apportent pratiquement plus d'informations sur les paramètres à estimer. Beaucoup de résultats sont disponibles pour la zone asymptotique : distribution des estimées, biais, variance. En revanche, le comportement des estimateur dans les zones de décrochement et a priori a été beaucoup moins étudié. Pourtant ces zones non-asymptotiques constituent au même titre que le biais ou la variance une caractéristique fondamentale d'un estimateur puisque qu'elle délimite la plage acceptable de fonctionnement optimal.

Le but de cette thèse est, dans un premier temps, de compléter la caractérisation de la zone asymptotique (en particulier lorsque le rapport signal sur bruit est élevé et pour un nombre d'observations fini) pour les estimateurs au sens du maximum de vraisemblance dans un contexte traitement d'antenne. Dans un second temps, le but est de donner les limites fondamentales de l'EQM d'un estimateur sur ses trois plages de fonctionnement. Les outils utilisés ici sont les bornes minimales de l'EQM autres que les bornes de Cramér-Rao dont la validité n'est qu'asymptotique.

Les résultats obtenus sont appliqués à l'analyse spectrale et à l'estimation de porteuse dans le contexte des communications numériques et fournissent de surcroît des outils intéressants pour prédire la zone de décrochement d'un récepteur.
Styles APA, Harvard, Vancouver, ISO, etc.
32

Goutin, Philippe. « Etude et réalisation d'un processeur acousto-optique hybride pour le traitement numérique du signal ». Valenciennes, 1990. https://ged.uphf.fr/nuxeo/site/esupversions/e86735cf-4be2-48ae-b8c1-840647668a91.

Texte intégral
Résumé :
Les filtres acousto-optiques transversaux et leurs applications sont maintenant bien connus. Parmi ceux-ci, le convoluteur acousto-optique a été l'objet d'un intérêt particulier. Le travail a consisté en la conception d'algorithmes et la réalisation d'un système digital de pilotage adapté à la structure de ce composant en vue de traitements numériques du signal. Nous rappelons d'abord le principe du convoluteur acousto-optique. Les problèmes de synchronisation entre l'émission des différents signaux et la mémorisation du signal de convolution après détection sont ensuite présentés. Ces contraintes ont débouché sur plusieurs algorithmes possibles. Le choix de l'un d'entre eux est justifié par le meilleur compromis performances/complexité. Il en découle la structure du pilote, conçu à partir de circuits PLD. L'évaluation des caractéristiques du système a été obtenue à partir des résultats expérimentaux, dont nous donnons quelques exemples : autoconvolution, filtrage F. I. R. , corrélation, codes de Golay et multiplication matricielle. Pour terminer, nous présentons des améliorations et extensions possibles : augmentation de la longueur des filtres, optimisation de la vitesse de calcul par double échantillonnage et emploi de réseaux logiques à plus haute densité d'intégration, traitement multicanal.
Styles APA, Harvard, Vancouver, ISO, etc.
33

Aïssa-El-Bey, Abdeldjalil. « Représentations parcimonieuse et applications en communication numérique ». Habilitation à diriger des recherches, Université de Bretagne occidentale - Brest, 2012. http://tel.archives-ouvertes.fr/tel-01063287.

Texte intégral
Résumé :
L'objet de ce document est de rapporter une partie des travaux de recherche auxquels j'ai contribué durant les cinq dernières années. Le but visé n'est pas de faire une synthèse exhaustive des travaux réalisés sur cette période mais d'en sélectionner certains d'entre eux pour leur pertinence et leur cohérence. Les travaux rapportés dans ce manuscrit concernent l'exploitation des représentations parcimonieuses dans les applications en télécommunication. Depuis mes travaux de thèse, où j'ai abordé le problème de la séparation aveugle de sources en exploitant le caractère parcimonieux des signaux audio, mes travaux gravitent autour des représentations parcimonieuses et leurs applications en communication numérique. En effet, après avoir exploité la propriété de parcimonie des signaux audio dans le domaine temps-fréquence d'un point de vue structurel, je me suis intéressé aux mesures de parcimonie et aux problèmes inverses régularisés. Cette réflexion m'a poussé à entreprendre l'étude sur l'exploitation de la parcimonie pour l'estimation aveugle de canaux de communication. En particulier, l'identification aveugle de canaux parcimonieux dans les systèmes Single-Input Multiple-Output (SIMO). Une extension de ces techniques a été développée pour les systèmes Multiple-Input Multiple-Output MIMO OFDM où le cas semi-aveugle a été traité. L'identification de canaux pour les communications étant étroitement liée aux signaux à alphabet fini. Je me suis par conséquent intéressé à l'exploitation de cette caractéristique des signaux de communication (signaux à alphabet fini) par le biais des représentations parcimonieuses afin de résoudre certains problèmes inverses difficiles. Enfin, j'ai abordé le problème de détection de signaux en utilisant des méthodes de tests statistiques basées sur l'hypothèse de parcimonie des signaux observés. Ces méthodes ont trouvés un cadre applicatif dans les communications sans fil, la guerre électronique et la séparation aveugle de sources.
Styles APA, Harvard, Vancouver, ISO, etc.
34

Logette, Patrice. « Etude et réalisation d'un processeur acousto-optique numérique de traitement des signaux ». Valenciennes, 1997. https://ged.uphf.fr/nuxeo/site/esupversions/bbfd31df-2499-46a6-843d-52f346b1db41.

Texte intégral
Résumé :
Un système hybride acousto-optique/numérique axe principalement sur le filtrage F. I. R. A été développé au laboratoire dans le cadre d'une thèse antérieure. L'objet du présent travail est, d'une part, d'améliorer le système existant et, d'autre part, de tester les aptitudes du système ainsi modifié à effectuer d'autres types de calcul. Nous commençons par un résumé des travaux relatifs à l'ancien système, afin de bien positionner le problème. Nous exposons ensuite la conception du nouveau système. Une première partie décrit les modifications des circuits électroniques, avec l'utilisation de circuits de logique programmable de marque Altera. Une seconde partie est dédiée à l'aspect commande. On y détaille le programme de pilotage du système, la création et l'utilisation de modules indépendants pour chaque type de calcul, ainsi que les utilitaires associés (simulation, génération d'algorithmes). Nous terminons par une présentation de quelques exemples de calculs (FIR, IIR, DFT, DCT, corrélation) et évaluons les performances de notre système pour chacun de ces types d’opérations. Le bilan est assez satisfaisant dans l'ensemble, bien que l'apport des circuits Altera ne se soit pas révélé à la hauteur de nos espérances. Le filtrage IIR est le moins performant et nécessiterait la recherche d'autres algorithmes. Cependant, pour être réellement opérationnel, il faudrait améliorer la partie acousto-optique, ou à moyen terme, passer au tout numérique. Nous pourrions, alors, disposer d'un système simple et pratique pour simuler, tester ou valider, sur maquette, des algorithmes ou des sous-systèmes développés au laboratoire dans divers domaines du traitement de signal.
Styles APA, Harvard, Vancouver, ISO, etc.
35

Nouvellet, Adrien. « Avancées récentes en traitement statistique du signal appliquées à l'estimation et la détection d'ondes infrasonores ». Thesis, Paris, ENST, 2016. http://www.theses.fr/2016ENST0011/document.

Texte intégral
Résumé :
Le coeur de cette thèse fait l'objet du traitement de signaux infrasonores et plus particulièrement de l'estimation et de la détection à l'aide d'un réseau de capteurs. Les thèmes abordés ici sont propices à l'expérimentation et nous avons essayé, autant que possible, d'illustrer les résultats théoriques obtenus à l'aide de données réelles. La première partie vise à décrire les implications et les difficultés liées à la détection de sources infrasonores. La littérature offrent déjà de nombreuses techniques de détection basées sur le test d'hypothèses qui sont alors exposées et complétées dans une optique de détection automatique. La seconde partie de cette thèse met en avant les erreurs de l'estimation de l'angle d'arrivée d'une onde lorsque les altitudes des capteurs d'une station sont ignorées (approximation courante). En réponse à ce problème, une estimation basée sur la géométrie complète de la station et comportant un a priori sur la vitesse de l'onde est dérivée et étudiée. L'estimation mentionnée ci-dessus permet de significativement améliorer les performances. Dans la troisième partie, nous introduisons la modélisation du signal infrasonore par un processus stationnaire de type autoregressif. Cette modélisation permet ensuite de développer une approche séquentielle pour la détection infrasonore basée sur le beamforming et la détection de hangement abrupte. La dernière partie de ce manuscrit a pour but de proposer un modèle "signal'' alternatif au modèle de retard pur. Il est présenté de nouveaux résultats mettant en avant un phénomène de perte de cohérence des signaux enregistrés par différents capteurs. Ces travaux aboutissent sur l'élaboration de méthodes de simulations de signaux synthétiques réalistes pour l'étude des performances des détecteurs infrasonores
The core of this thesis is the infrasound signal processing and particularly the estimation and detection using a sensor array. The themes presented here are well-suited to experimentation and we tried, as much as possible, to illustrate the theoretical results with real data. The first part describes the implications and difficulties of infrasonic detection. We review the state-of-the-art of detection techniques based on hypothesis testing and supplement them with the aim of automatic detection. The second part of this thesis highlights the error on the angle of arrival estimation due to considering the arrays as planar (common approximation). In response to this problem, a new estimator considering the full geometry of the array and including an a priori on the speed of the infrasonic wave is derived and studied. We show that the described estimator significantly improve performance. The third part introduces the modeling of infrasonic signal as autoregressive process. This modeling allows us to derived a sequential approach to detect infrasound based on the beamforming and the detection of abrupt changes. The last part of this manuscript aims to propose an alternative "signal'' model. We present new results highlighting a phenomenon of loss of coherence of the signals recorded by different sensors. This work leads to the generation of synthetic infrasonic signal in order to study the performance of the detection algorithms
Styles APA, Harvard, Vancouver, ISO, etc.
36

Nouvellet, Adrien. « Avancées récentes en traitement statistique du signal appliquées à l'estimation et la détection d'ondes infrasonores ». Electronic Thesis or Diss., Paris, ENST, 2016. http://www.theses.fr/2016ENST0011.

Texte intégral
Résumé :
Le coeur de cette thèse fait l'objet du traitement de signaux infrasonores et plus particulièrement de l'estimation et de la détection à l'aide d'un réseau de capteurs. Les thèmes abordés ici sont propices à l'expérimentation et nous avons essayé, autant que possible, d'illustrer les résultats théoriques obtenus à l'aide de données réelles. La première partie vise à décrire les implications et les difficultés liées à la détection de sources infrasonores. La littérature offrent déjà de nombreuses techniques de détection basées sur le test d'hypothèses qui sont alors exposées et complétées dans une optique de détection automatique. La seconde partie de cette thèse met en avant les erreurs de l'estimation de l'angle d'arrivée d'une onde lorsque les altitudes des capteurs d'une station sont ignorées (approximation courante). En réponse à ce problème, une estimation basée sur la géométrie complète de la station et comportant un a priori sur la vitesse de l'onde est dérivée et étudiée. L'estimation mentionnée ci-dessus permet de significativement améliorer les performances. Dans la troisième partie, nous introduisons la modélisation du signal infrasonore par un processus stationnaire de type autoregressif. Cette modélisation permet ensuite de développer une approche séquentielle pour la détection infrasonore basée sur le beamforming et la détection de hangement abrupte. La dernière partie de ce manuscrit a pour but de proposer un modèle "signal'' alternatif au modèle de retard pur. Il est présenté de nouveaux résultats mettant en avant un phénomène de perte de cohérence des signaux enregistrés par différents capteurs. Ces travaux aboutissent sur l'élaboration de méthodes de simulations de signaux synthétiques réalistes pour l'étude des performances des détecteurs infrasonores
The core of this thesis is the infrasound signal processing and particularly the estimation and detection using a sensor array. The themes presented here are well-suited to experimentation and we tried, as much as possible, to illustrate the theoretical results with real data. The first part describes the implications and difficulties of infrasonic detection. We review the state-of-the-art of detection techniques based on hypothesis testing and supplement them with the aim of automatic detection. The second part of this thesis highlights the error on the angle of arrival estimation due to considering the arrays as planar (common approximation). In response to this problem, a new estimator considering the full geometry of the array and including an a priori on the speed of the infrasonic wave is derived and studied. We show that the described estimator significantly improve performance. The third part introduces the modeling of infrasonic signal as autoregressive process. This modeling allows us to derived a sequential approach to detect infrasound based on the beamforming and the detection of abrupt changes. The last part of this manuscript aims to propose an alternative "signal'' model. We present new results highlighting a phenomenon of loss of coherence of the signals recorded by different sensors. This work leads to the generation of synthetic infrasonic signal in order to study the performance of the detection algorithms
Styles APA, Harvard, Vancouver, ISO, etc.
37

Angeletti, Florian. « Sommes et extrêmes en physique statistique et traitement du signal : ruptures de convergences, effets de taille finie et représentation matricielle ». Phd thesis, Ecole normale supérieure de lyon - ENS LYON, 2012. http://tel.archives-ouvertes.fr/tel-00779703.

Texte intégral
Résumé :
Cette thèse s'est développée à l'interface entre physique statistique et traitement statistique du signal, afin d'allier les perspectives de ces deux disciplines sur les problèmes de sommes et maxima de variables aléatoires. Nous avons exploré trois axes d'études qui mènent à s'éloigner des conditions classiques (i.i.d.) : l'importance des événements rares, le couplage avec la taille du système, et la corrélation. Combinés, ces trois axes mènent à des situations dans lesquelles les théorèmes de convergence classiques sont mis en défaut.Pour mieux comprendre l'effet du couplage avec la taille du système, nous avons étudié le comportement de la somme et du maximum de variables aléatoires indépendantes élevées à une puissance dépendante de la taille du signal. Dans le cas du maximum, nous avons mis en évidence l'apparition de lois limites non standards. Dans le cas de la somme, nous nous sommes intéressés au lien entre effet de linéarisation et transition vitreuse en physique statistique. Grâce à ce lien, nous avons pu définir une notion d'ordre critique des moments, montrant que, pour un processus multifractal, celui-ci ne dépend pas de la résolution du signal. Parallèlement, nous avons construit et étudié, théoriquement et numériquement, les performances d'un estimateur de cet ordre critique pour une classe de variables aléatoires indépendantes.Pour mieux cerner l'effet de la corrélation sur le maximum et la somme de variables aléatoires, nous nous sommes inspirés de la physique statistique pour construire une classe de variable aléatoires dont la probabilité jointe peut s'écrire comme un produit de matrices. Après une étude détaillée de ses propriétés statistiques, qui a montré la présence potentielle de corrélation à longue portée, nous avons proposé pour ces variables une méthode de synthèse en réussissant à reformuler le problème en termes de modèles à chaîne de Markov cachée. Enfin, nous concluons sur une analyse en profondeur du comportement limite de leur somme et de leur maximum.
Styles APA, Harvard, Vancouver, ISO, etc.
38

Chabert, Marie. « Détection et estimation de ruptures noyées dans un bruit multiplicatif : approches classiques en temps-échelle ». Toulouse, INPT, 1997. http://www.theses.fr/1997INPT127H.

Texte intégral
Résumé :
La detection de ruptures abruptes fait l'objet de nombreuses etudes, qui supposent pour la plupart l'additivite du bruit. Or, le modele de bruit multiplicatif s'avere pertinent dans des domaines varies. L'objectif de cette these est l'etude de la detection-estimation de ruptures noyees dans un bruit multiplicatif, avec des methodes classiques et temps-echelle. Des methodes classiques, basees sur le rapport de vraisemblance, sont tout d'abord envisagees. Les performances du detecteur optimal de neyman-pearson sont etudiees. Les estimateurs du maximum de vraisemblance des parametres de la rupture et du bruit sont mis en oeuvre. Les bornes de rao-cramer associees sont calculees. Le detecteur sous-optimal, base sur le rapport de vraisemblance generalise, est finalement etudie. L'etude des proprietes statistiques de la transformee en ondelettes de ruptures noyees dans un bruit multiplicatif blanc ou colore aboutit a l'expression de la signature de la rupture multiplicative. L'influence, d'un pretraitement non-lineaire, sur les moments de la transformee en ondelettes, est egalement analysee. La mise en oeuvre de detecteurs temps-echelle bases sur le rapport de vraisemblance s'avere d'une complexite importante, pour des performances equivalentes a celles obtenues dans le domaine temporel. En revanche, l'utilisation de la transformee en ondelettes peut etre envisagee pour la detection de ruptures lorsque les connaissances a priori sont incompletes. La comparaison des contrastes temporels et temps-echelle, avec ou sans pretraitement non lineaires du processus multiplicatif, permet d'evaluer l'interet de la transformee en ondelettes et d'un pretraitement non lineaire. Nous discutons le probleme de l'existence d'une ondelette optimale, au sens de la maximisation du critere de contraste. Nous etudions les performances de deux detecteurs temps-echelle sous-optimaux, ainsi que celles d'estimateurs bases sur la transformee en ondelettes. Ces performances sont comparees a celles des algorithmes classiques.
Styles APA, Harvard, Vancouver, ISO, etc.
39

Goalic, André. « Etude et réalisation de codeur/décodeur de parole à bas débit pour la téléphonie numérique acoustique sous-marine ». Brest, 1994. http://www.theses.fr/1994BRES2003.

Texte intégral
Résumé :
Dans le domaine des transmissions, la compression de la parole permet d'augmenter le nombre de voies de communications sur les supports preexistants, sans accroitre l'occupation spectrale. Elle permet egalement d'adapter le debit binaire a la capacite des canaux dont la bande passante est necessairement limitee. L'objet de cette these est de presenter l'etude et le fonctionnement en temps reel sur processeur de signaux, d'un codeur/decodeur de parole a bas debit pour la telephonie acoustique numerique sous-marine. Le systeme de compression, de type celp (code excited linear prediction), modelise le canal vocal par les paires de raies spectrales (line spectrum pairs: lsp). L'utilisation de l'algorithme levinson eclate conduit a une methode d'extraction des lsp d'une fiabilite intrinseque parfaitement adaptee a un processus temps reel. Le choix d'un dictionnaire ternaire a permis de valider le fonctionnement en temps reel du codeur/decodeur sur processeurs de signal, a virgules fixes (motorola 56001 27 mhz) avec une duree de segmentation du signal de parole de 20 ms. La qualite et l'intelligibilite de la parole obtenue en sortie du decodeur justifient les choix algorithmiques retenus et marquent une etape en matiere de telephonie acoustique sous-marine. La qualite et l'intelligibilite de la parole depassent largement celles des systemes analogiques existants
Styles APA, Harvard, Vancouver, ISO, etc.
40

Benmeziane, Bochra. « Techniques de modulation OFDM et traitement du signal pour le radar automobile ». Electronic Thesis or Diss., Rennes, INSA, 2023. https://partages.insa-rennes.fr/share/page/document-details?nodeRef=workspace://SpacesStore/0b6250cd-70e1-45c1-884f-20619f2006f2.

Texte intégral
Résumé :
Cette thèse étudie l’utilisation de la forme d’onde OFDM dans le cadre du radar automobile. Cette forme d’onde est étudiée comme potentiel substitut à la forme d’onde FMCW largement utilisée dans le domaine automobile et qui montre des signes de sensibilité aux interférences. L’étude se fait en deux volets : l’étude des performances du radar OFDM et l’étude de ses limites et les solutions possibles pour les contourner. L’objectif final est de compiler toutes ces informations pour dimensionner un radar OFDM répondant à des exigences imposées par un cahier des charges. Pour le premier volet, différentes manières d’utiliser la forme d’onde OFDM dans le cadre du radar automobile sont présentées. Les différents filtres utilisés pour calculer la distance des cibles sont étudiés. Les politiques d’allocation des sous-porteuses étant un paramètre important dans le radar OFDM, elles sont étudiées et comparées et leur interaction avec les filtres utilisés est mise en lumière. Les performances du radar OFDM en matière de résolution, d’ambiguïté et de PSLR et ISLR sont comparées à celles du radar FMCW. Dans le deuxième volet de notre étude, nous dressons la liste des limites du radar OFDM. Sa capacité de cohabitation avec les autres radar est mis à l’épreuve en quantifiant l’impact des interférences des radar OFDM entre eux, des radar OFDM sur les radar FMCW et inversement. L’impact des trajets multiples est également quantifiée. Ensuite, des solutions sont proposées pour contourner le problème des ambiguïtés en distance. Enfin, la robustesse au Doppler est estimée via le PSLR
This document investigates the use of the OFDM waveform in automotive radar. This waveform is considered as a suitable replacement for the FMCW waveform widely used in automotive and that shows signs of vulnerability to interference. The investigation is conducted through two main segments : the study of OFDM radar performance and the study of its limits and their potential solutions. The main goal is to aggregate the information in order to parameterize an OFDM radar following a set of specification. For the first segment, different ways to exploit the OFDM waveform for automotive radar sensing are presented. Various filters are investigated for delay computation. Due to their utmost importance, the sub-carrier allocation policies are studies and compared and their interaction with the filters is revealed. Lastly, the OFDM radar performance in terms of resolution, ambiguity and range profile PSLR and ISLR are compared to those of the FMCW radar. In the second segment of out study, we list the OFDM radar limits. Its ability to perform in the presence of other radars is tested through the quantification of the impact of interference between OFDM radars, OFDM on FMCW and FMCW on OFDM. The impact of multipath is also quantified. Next, range ambiguity is tackled and solutions to overcome its effects are proposed. Lastly, the radar robustness to Doppler is estimated through its PSLR
Styles APA, Harvard, Vancouver, ISO, etc.
41

Triki, Mahdi. « Quelques contributions au traitement statistique du signal et applications au débruitage audio et à la localisation des mobiles ». Paris, ENST, 2007. http://www.theses.fr/2007ENST0027.

Texte intégral
Résumé :
Un processus aléatoire est un modèle mathématique qui décrit un phénomène qui évolue d'une façon imprévisible. Si des informations a priori, sur la structure ou les statistiques du signal, sont disponibles les performances du traitement statistique augmentent significativement. Nous étudions trois types d'a priori : spectrale, spatiale, et statistique; et nous considérons particulièrement des applications au débruitage audio et à la localisation des mobiles. D'abord, nous étudions la représentation structurale du signal audio. Le modèle proposé exploite les corrélations tempofréquentielless du signal audio. Nous avons appliqué notre modèle au débruitage audio la séparation audio sous-déterminée. Les résultats expérimentaux montrent que l'approche proposée convient à l'analyse des signaux de musiques et de la parole, et produisent de bons résultats auditifs. Ensuite, nous étudions le dereverberation aveugle des signaux audio. Nous proposons un égaliseur basé sur la prédiction linéaire, exploitant les diversités spatiales, temporelles, et spectrales. Les simulations prouvent que l'égaliseur proposé surpasse le filtre spatial classique. La dernière partie de la thèse se concentre sur l'estimation Bayésienne des paramètres. Nous introduisons le concept d'estimation conditionnellement non-biaisé par morceau, pour laquelle la contrainte du biais concerne un paramètre à la fois. De cette manière, chaque paramètre est traité comme déterministe tandis que les autres paramètres sont traités comme Bayésiens. Une introduction plus générale du concept est motivée par l'estimation LMMSE des canaux, pour laquelle les implications du concept sont illustrées dans diverses manières
A random or stochastic process is a mathematical model for a phenomenon that evolves in an unpredictable manner. If prior information on the signal structure or statistics is available, the accuracy of the statistical signal processing significantly increases by an appropriate exploitation of such prior. We investigate three kinds of prior: spectral, spatial, and statistical information. First, we investigate the structural representation of audio signals. The proposed model exploits both the sparsity and the time-frequency correlation of the audio signal. We have considered the application of our model to audio enhancement and separation. Simulations reveal that the proposed approach is suitable for the analysis of music and speech signals and outperforms the classic matching pursuit schemes in terms of separation accuracy and robustness. Then, we investigate blind dereverberation of audio signals. A multichannel linear prediction based equalizer is proposed, exploiting spatial, temporal, and spectral diversities. Simulations show that the proposed equalizer outperforms the classic beamformer. The last part of the thesis focuses on Bayesian parameter estimation. Classical Bayesian approaches lead to useful MSE reduction, but they also introduce a bias (often annoying for several applications). We introduce the concept of Component-Wise Conditionally Unbiased parameter estimation, in which unbiasedness is forced for one parameter at a time. The more general introduction of the CWCU concept is motivated by LMMSE channel estimation, for which the implications of the concept are illustrated in various ways. Application to mobile localization is investigated in more details
Styles APA, Harvard, Vancouver, ISO, etc.
42

Triki, Mahdi. « Quelques contributions au traitement statistique du signal et applications au débruitage audio et à la localisation des mobiles / ». Paris : École nationale supérieure des télécommunications, 2008. http://catalogue.bnf.fr/ark:/12148/cb41275521z.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
43

Pedzisz, Maciej. « Séparation et reconnaissance des signaux d’interception en télécommunications ». Brest, 2006. http://www.theses.fr/2006BRES2012.

Texte intégral
Résumé :
Cette thèse aborde le contexte de la surveillance civile ou de la Guerre Électronique, où l'on peut être confronté aux problèmes de reconnaissance automatique et de séparation aveugle de plusieurs modulations. Elle s’articule autour de 3 parties principales. La première, traite les problèmes liés à la synchronisation des fréquences porteuses. Ces problèmes résultent de la méconnaissance de la modulation utilisée et de la précision insuffisante des méthodes d’estimation spectrale classiques (signaux multi- composantes). Deux nouvelles approches sont proposées pour stabiliser les constellations des signaux captés. La deuxième partie introduit deux algorithmes de reconnaissance automatique de modulations numériques. Ces algorithmes sont basés sur de nouvelles caractéristiques distinctives afin d’assurer la classification préliminaire ainsi que la classification raffinée. Les résultats expérimentaux ont montré que les deux méthodes sont capables de classifier correctement des modulations de type MPSK, MQAM et MFSK, et peuvent être facilement mises en œuvre pour d'autres types de signaux. Enfin, dans la troisième partie, la séparation aveugle des mélanges convolutifs indéterminés est abordée. En se basant sur une seule observation d'un mélange de deux signaux numériques, un nouveau critère de séparation, ainsi qu'une nouvelle structure d'un récepteur-séparateur sont proposés. Grâce à cette nouvelle structure, il devient possible d'estimer simultanément les réponses impulsionnelles des filtres d'émission et des canaux de transmission, ainsi que les suites de symboles émis par les deux sources
This thesis deals with approaches in the context of the Civil Surveillance or the Electronic Warfare, where one can be confronted with the problems of automatic recognition and blind separation of modulations. It is composed of 3 main parts. The first part, touch on the problems related to carrier frequency synchronization. These problems result from the unknown modulation type and the insufficient precision of classical methods for spectral estimation (multi-component signals). Two new approaches are proposed to stabilize the constellations of the captured signals. The second part introduces two algorithms of automatic recognition of digital modulations. These algorithms are based on new distinctive features in order to ensure preliminary as well as fine-tuned classification. The experimental results showed that the two methods are able to classify correctly MPSK, MQAM and MFSK modulation types, and can be easily adopted for other types of signals. Lastly, in the third part, the blind separation of underdetermined, convolutifs mixtures is described. Using only one observation of a mixture of two digitally modulated signals, a new criterion of separation, as well as a new structure of a receiver-separator is proposed. Thanks to this new structure, it becomes possible to estimate, in the same time, the impulse responses of the emission filters and the transmission channels, as well as both sequences of the emitted symbols
Styles APA, Harvard, Vancouver, ISO, etc.
44

Iooss, Bertrand. « Contributions au traitement des incertitudes en modélisation numérique : propagation d'ondes en milieu aléatoire et analyse statistique d'expériences simulées ». Habilitation à diriger des recherches, Université Paul Sabatier - Toulouse III, 2009. http://tel.archives-ouvertes.fr/tel-00360995.

Texte intégral
Résumé :
Le présent document constitue mon mémoire d'habilitation à diriger des recherches. Il retrace mon activité scientifique de ces douze dernières années, depuis ma thèse jusqu'aux travaux réalisés en tant qu'ingénieur-chercheur du CEA Cadarache. Les deux chapitres qui structurent ce document correspondent à deux domaines de recherche relativement différents mais se référant tous les deux au traitement des incertitudes dans des problèmes d'ingénierie. Le premier chapitre établit une synthèse de mes travaux sur la propagation d'ondes hautes fréquences en milieu aléatoire. Il concerne plus spécifiquement l'étude des fluctuations statistiques des temps de trajet des ondes acoustiques en milieu aléatoire et/ou turbulent. Les nouveaux résultats obtenus concernent principalement l'introduction de l'anisotropie statistique des champs de vitesse lors de la dérivation des expressions des moments des temps en fonction de ceux du champ de vitesse des ondes. Ces travaux ont été essentiellement portés par des besoins en géophysique (exploration pétrolière et sismologie). Le second chapitre aborde le domaine de l'utilisation des techniques probabilistes pour prendre en compte les incertitudes des variables d'entrée d'un modèle numérique. Les principales applications que j'évoque dans ce chapitre relèvent du domaine de l'ingénierie nucléaire qui offre une grande variété de problématiques d'incertitude à traiter. Tout d'abord, une synthèse assez complète est réalisée sur les méthodes statistiques d'analyse de sensibilité et d'exploration globale de modèles numériques. La construction et l'exploitation d'un métamodèle (fonction mathématique peu coûteuse se substituant à un code de calcul coûteux) sont ensuite illustrées par mes travaux sur le modèle processus gaussien (krigeage). Deux thématiques complémentaires sont finalement abordées : l'estimation de quantiles élevés de réponses de codes de calcul et l'analyse de codes de calcul stochastiques. Une conclusion met en perspective ces travaux dans le contexte plus général de la simulation numérique et de l'utilisation de modèles prédictifs dans l'industrie.
Styles APA, Harvard, Vancouver, ISO, etc.
45

Derrode, Stéphane. « Contributions en segmentation statistique d'images et reconnaissance de formes 2D ». Habilitation à diriger des recherches, Université Paul Cézanne - Aix-Marseille III, 2008. http://tel.archives-ouvertes.fr/tel-00325082.

Texte intégral
Résumé :
Ce mémoire retrace les activités de recherche que j'ai développées depuis 9 années dont 7 passées au sein de l'équipe Groupe Signaux Multidimensionnels de l'Institut Fresnel et à l'École Centrale Marseille. Les travaux que je présente explorent certains aspects de la segmentation statistique d'images pour des applications en imagerie spatiale et de la description invariante de formes 2D pour la reconnaissance d'objets en imagerie vidéo. Plus précisément, la première partie de ce document expose plusieurs extensions du modèle des chaînes de Markov cachées (CMC). Ces extensions portent sur des modifications soit de la modélisation des données observées avec le modèle de chaîne de Markov vectorielle et des données cachées avec le modèle de chaîne de Markov floue, soit de la topologie de la chaîne -et donc des hypothèses de dépendance statistique sous-jacentes-, aboutissant aux modèles appelés chaîne de Markov d'ordre supérieur et chaîne de Markov couple. Ces modèles sont évalués dans le cadre de la segmentation d'images radar et de la détection de changements lors de catastrophes naturelles. La seconde partie traite de la reconnaissance de formes 2D, avec pour thème centrale l'invariance géométrique. Dans un premier temps nous avons proposé de nouvelles familles complètes de descripteurs de forme invariants aux similitudes issues de la transformée de Fourier-Mellin et des moments complexes, pour des applications d'indexation de bases d'objets à niveaux de gris. La suite des travaux s'est orientée vers la détection d'objets avec l'intégration d'un a priori de forme invariant aux similitudes dans le modèle des snakes et la poursuite d'objets d'intérêt dans les séquences vidéo par un modèle de mélange de couleurs non gaussien. Le document se conclut avec les perspectives que je compte donner à mes recherches, notamment les projets combinant segmentation d'images et reconnaissance de formes, dans le cadre des images très haute résolution des futurs capteurs optique et radar qui permettent d'accéder à des données sub-métriques.
Styles APA, Harvard, Vancouver, ISO, etc.
46

Li, Qianrui. « Transmission coopérative et traitement du signal distribué avec feedback et backhaul limité ». Electronic Thesis or Diss., Paris, ENST, 2016. http://www.theses.fr/2016ENST0022.

Texte intégral
Résumé :
La coopération des émetteurs est considérée comme une approche prometteuse pour limiter les interférences dans les réseaux sans fil ayant une réutilisation des ressources spectrales très agressive. La coopération des émetteurs permet l'optimisation conjointe de certains paramètres de transmission. Bien que la coopération des émetteurs existe sous différentes formes, une hypothèse commune est le besoin pour les émetteurs entrant en coopération (i) d’acquérir et de partager des informations concernant le canal de propagation ainsi que (ii) d’effectuer une coopération fondée sur les informations diffusées à l'étape précédente. La conception coordonnée des matrices de précodage et, d’une manière encore plus marquée, la transmission conjointe à différents émetteurs sont des exemples importants de méthodes de coopérations présentant ces propriétés. L’acquisition et l'échange de l’information de canal étant strictement limités, il se pose deux questions importantes: (i) Quelle information doit être renvoyée ou échangée de manière à permettre la coopération la plus efficace? (ii) Quelles méthodes permettent de réaliser les gains de la coopération dans ce contexte de partage limité et imparfait d’information? Dans cette thèse, nous abordons les deux questions précédentes. Dans un premier temps, nous considérons que chaque émetteur acquiert une estimée de canal imparfaite. Dans un second temps, nous étudions la conception de techniques de coopération efficaces dans une configuration d’information de canal imparfaitement partagée entre les émetteurs. Enfin, les futures directions de recherche découlant de ces travaux sont présentées et discutées
Transmitter cooperation is considered a promising tool for dealing with interference in wireless networks with an aggressive reuse policy of spectral resources. Although transmitter cooperation comes in many flavors, a recurrent assumption behind proposed methods lies in the need for cooperating devices to (i) acquire, share information pertaining to the propagation channel toward the multiple receivers and (ii) perform cooperation based on the disseminated information in the previous step. This holds true for instance for coordinated beamforming methods and, to an even greater extent, for network-MIMO (Joint Processing coordinated multi-point (JP CoMP) in the long term evolution (LTE) terminology). As feedback and exchange of channel state information (CSI) come at a price in terms of signaling overhead, there arise two important questions: (i) What information should be fed back or exchanged such that the CSI acquired at each transmitter is most informative to perform cooperation? (ii) Which techniques can reap the benefits of cooperation while living with an imperfect channel representation that varies from transmitter to transmitter ? In this thesis, we address both aforementioned questions. We consider first each transmitter acquires an initial imperfect CSI based on limited receivers feedback. For the design of efficient cooperation techniques that copes with the imperfect and non-identical CSI configuration at each transmitter, we investigate specifically a regularized zero forcing (RZF) precoder design in large system scenario. Finally, interesting and challenging research directions and open problems are discussed
Styles APA, Harvard, Vancouver, ISO, etc.
47

Eudeline, Yannick. « Diffusion acoustique par des cibles limitées : traitement numérique des signaux ». Le Havre, 1998. http://www.theses.fr/1998LEHA0005.

Texte intégral
Résumé :
L'objectif de ce travail est l'étude de l'interaction entre une onde de volume et une cible limitée immergée. Les cibles sont des lames minces de largeur finie et des disques circulaires minces de duraluminium. Elles sont étudiées à l'aide de deux méthodes expérimentales complémentaires. Dans une première méthode, le champ de pression autour de la cible est étudié à l'aide de transducteurs piézoélectriques. Les études en configurations monostatique et bistatique, alliées aux traitements des signaux acoustiques, permettent de montrer les diffractions aux bords, les conversions en modes de Lamb et les diffusions de ces ondes sur les arêtes. Dans une deuxième approche, l'utilisation d'un baromètre laser permet de mesurer la composante normale des déplacements à la surface de l'objet et ainsi de réaliser une cartographie des ondes circulant à la surface. On peut représenter l'évolution de l'amplitude des vibrations selon un segment de mesure. Lorsque celui-ci correspond à la direction de propagation d'ondes, la méthode S. W. A. M. (surface wave analysis method) fournit une représentation complète des ondes de surface. Dans le cas du disque, l'utilisation de la théorie géométrique de la diffraction permet de prédire la position spatio-temporelle des ondes A générées sur l'arête circulaire par l'onde de volume incidente.
Styles APA, Harvard, Vancouver, ISO, etc.
48

Lee, Seung-Woo. « Enrichissement de la régularité de la triangulation de l'iso-surface des images volumiques : application à l'imagerie médicale et à la compression sur une base d'ondelettes ». Lyon, INSA, 2006. http://theses.insa-lyon.fr/publication/2006ISAL0130/these.pdf.

Texte intégral
Résumé :
Ce travail porte sur la construction de maillages d’iso-surfaces d’images volumiques. L’objectif est l’obtention de maillages à connectivité régulière, c'est-à-dire dont un grand nombre de sommets intérieurs ont une valence six, ou semi-régulier à connectivité de subdivision. Les maillages réguliers facilitent le traitement du ‘signal géométrique 3D’, en particulier dans les approches multirésolutions, de plus ils améliorent le taux de compression de la connectivité. Nous nous sommes fixé une contrainte : ne pas modifier la géométrie du maillage (les coordonnées des sommets), la surface sousjacente pouvant être légèrement modifiée. - La première approche proposée revisite l’algorithme des ‘marching cubes’ et construit un maillage constitué de triangles et de quadrangles. Dans une deuxième étape, les quadrangles sont triangulés de façon à maximiser le nombre de sommets de valence six par optimisation d’un critère de qualité par régions. Cette approche ne modifie pas la géométrie, ni la surface, car les triangulations des quadrangles sont équivalentes, suivant le principe des ‘marching cubes’. Une troisième étape, améliore la connectivité de l’ensemble des sommets par des bascules d’arêtes au prix d’une petite modification de la surface sousjacente. - La deuxième approche proposée est un remaillage de subdivision explicite du maillage construit par les ‘marching cubes’ (ou d’un maillage quelconque), par groupes de huit triangles, avec propagation de plusieurs ondes de remaillage. L’évaluation de la qualité du résultat est directe : par le calcul de l’histograme des valences des sommets, leur variance, leur entropie, le nombre de subdivisions un vers quatre. Mais aussi indirecte : par mesure du coût de codage de la connectivité ou l’étude de la courbe débit distorsion de la compression multirésolution par ondelettes géométriques
This work concerns the construction of meshes from volume images. The objective is obtaining meshes with regular connectivity i. E. Many interior vertices have valence six or semi-regular i. E. With the subdivision connectivity. The regular mesh facilitates the treatment of the 3D geometrical signal particularly in multiresolution approaches and improves the connectivity compression ratio. We establish a constraint: not to modify the geometry of the mesh (coordinates of vertices) but subjacent surface is able to be slightly modified. - The first proposed approach revisites the Marching Cubes algorithm and constructs a mesh made up of triangles and quadrangles. In a second stage the quadrangles are triangulated in order to maximize the number of vertices of valence six by optimizing a quality criterion by regions. This approach does not modify the geometry because the triangulations of the quadrangles are equivalent under the principle of the Marching Cubes algorithm. A third stage improves the connectivity of the whole vertices using edge-flips at the cost of a small modification of subjacent surface. - The second proposed approach is an explicit subdivision remeshing of the mesh built by the Marching Cubes algorithm (or any other mesh type), by groups of eight triangles using a region growing algorithm. The evaluation of the result quality is direct: by calculating vertices valence histogram, their variance, their entropy, the number of one-to-four subdivisions. But also indirect: by measuring the connectivity coding cost or studding the rate-distortion curve in wavelet based multiresolution compression
Styles APA, Harvard, Vancouver, ISO, etc.
49

Rousseau, François. « Méthodes d'analyse d'images pour l'anatomie numérique cérébrale ». Habilitation à diriger des recherches, Université de Strasbourg, 2014. http://tel.archives-ouvertes.fr/tel-01011781.

Texte intégral
Résumé :
Ce document présente une synthèse des travaux réalisés depuis une dizaine d'années au sein de l'University of California, San Francisco (UCSF) puis au Laboratoire des Sciences de l'Image, de l'Informatique et de la Télédétection (LSIIT) et au laboratoire ICube à Strasbourg. Ces activités se situent au confluent de l'informatique, des mathématiques appliqués et des neurosciences. Ce domaine de recherche, appelé neuro-informatique, concerne la conception et la réalisation de méthodes d'analyse, la constitution de base de données et des outils associés dont l'objectif est la compréhension du cerveau. Nos travaux se sont plus particulièrement focalisés sur le traitement et l'analyse de données IRM cérébrales, conduisant à aborder différentes problématiques telles que la reconstruction d'images, l'extraction d'information, la mise en correspondance ou la détection de changements. Les activités de recherche en neuro-informatique soulignent l'apport essentiel des méthodes de traitement de l'information afin de comprendre au travers de grandes masses de données le fonctionnement de systèmes complexes tels que le cerveau.
Styles APA, Harvard, Vancouver, ISO, etc.
50

Korakis, Charalambos. « Synchronisation et détection en bande étroite par filtrage de Kalman étendu ». Toulouse, ENSAE, 1988. http://www.theses.fr/1988ESAE0007.

Texte intégral
Résumé :
La synchronisation et la détection des symboles binaires transmis à travers d'une chaîne de communications numériques, sont perturbées par le bruit de la chaîne de communication, par le brouillage inter-symboles, par un décalage éventuel entre les fréquences des horloges d'émetteur et du récepteur et par la gigue. L'objet de cette thèse est une méthode de Synchronisation-Détection par Filtrage de Kalman Etendu (SDFKE). Cette méthode peut prendre en compte à la fois l'ensemble des sources de dégradation précédentes et elle peut réaliser les fonctions synchronisation et détection de façon intégrée et entièrement numérique.
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie