Dissertationen zum Thema „Applications de traitement du signal“

Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Applications de traitement du signal.

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "Applications de traitement du signal" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Vallet, Pascal. „Matrices aléatoires et applications au traitement statistique du signal“. Phd thesis, Université Paris-Est, 2011. http://pastel.archives-ouvertes.fr/pastel-00674747.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, nous considérons le problème de la localisation de source dans les grands réseaux de capteurs, quand le nombre d'antennes du réseau et le nombre d'échantillons du signal observé sont grands et du même ordre de grandeur. Nous considérons le cas où les signaux source émis sont déterministes, et nous développons un algorithme de localisation amélioré, basé sur la méthode MUSIC. Pour ce faire, nous montrons de nouveaux résultats concernant la localisation des valeurs propres des grandes matrices aléatoires gaussiennes complexes de type information plus bruit
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Hamie, Ali. „Traitement statistique du signal : applications en biologie et économie“. Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAS012/document.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, nous nous intéressons à développer des outils mathématiques, afin de traiter une gamme des signaux biologiques et économiques. En premier lieu, nous proposons la transformée Dynalet, considérée comme une alternative, pour des signaux de relaxation sans symétrie interne, à la transformée de Fourier et à la transformée ondelette. L'applicabilité de cette nouvelle approximation est illustrée sur des données réelles. Ensuite, nous corrigeons la ligne de base des signaux biologiques spectrométriques, à l'aide d'une régression expectile pénalisée, qui, sur les applications proposées, est plus performante qu'une régression quantile. Puis, afin d'éliminer le bruit blanc, nous adaptons aux signaux spectrométriques une nouvelle approche combinant ondelette, seuillage doux et composants PLS. Pour terminer, comme les signaux peuvent être considérés comme des données fonctionnelles, d'une part, nous développons une vraisemblance locale fonctionnelle dont le but est d'effectuer une classification supervisée des courbes, et, d'autre part, nous estimons l'opérateur de régression pour une réponse scalaire positive non nulle, par minimisation de l'erreur quadratique moyenne relative. De plus, les lois asymptotiques de notre estimateur sont établies et son efficacité est illustrée sur des données simulées et sur des données spectroscopiques et économiques
In this thesis, we focus on developing mathematical tools to treat a range of biological and economic signals. First, we propose the Dynalet transform for non-symmetrical biological relaxation signals. This transform is considered as an alternative to the Fourier transform and the wavelet transform. The applicability of the new approximation approach is illustrated on real data. Then, for spectrometric biological signals, we correct the baseline using a penalized expectile regression. Thus, the proposed applications show that our proposed regression is more efficient than the quantile regression. Then to remove random noise, we adapt to spectrometric data a new denoising method that combine wavelets, soft thresholding rule and PLS components. Finally, note that the biological signals may be often regarded as functional data. On one hand, we develop a functional local likelihood aiming to perform a supervised classification of curves. On the other hand, we estimate the regression operator with positive responses, by minimizing the mean squared relative error. Moreover, The asymptotic distributions of our estimator are established and their efficiency is illustrated on a simulation study and on a spectroscopic and economic data set
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Nguyen, Quang-Thang. „Contributions to Statistical Signal Processing with Applications in Biomedical Engineering“. Télécom Bretagne, 2012. http://www.telecom-bretagne.eu/publications/publication.php?idpublication=13290.

Der volle Inhalt der Quelle
Annotation:
Cette étude présente des contributions en traitement statistique du signal avec des applications biomédicales. La thèse est divisée en deux parties. La première partie traite de la détection des hotspots à l'interface des protéines. Les hotspots sont les résidus dont les contributions énergétiques sont les plus importantes dans l'interaction entre protéines. Les forêts aléatoires (Random Forests) sont utilisées pour la classification. Une nouvelle famille de descripteurs de hotspot est également introduite. Ces descripteurs sont basés seulement sur la séquence primaire unidimensionnelle d'acides aminés constituant la protéine. Aucune information sur la structure tridimensionnelle de la protéine ou le complexe n'est nécessaire. Ces descripteurs, capitalisant les caractéristiques fréquentielle des protéines, nous permettent de savoir la façon dont la séquence primaire d'une protéine peut déterminer sa structure tridimensionnelle et sa fonction. Dans la deuxième partie, le RDT (Random Distortion Testing), un test robuste d'hypothèse, est considéré. Son application en détection du signal a montré que le RDT peut résister aux imperfections du modèle d'observation. Nous avons également proposé une extension séquentielle du RDT. Cette extension s'appelle le RDT Séquentiel. Trois problèmes classiques de détection d'écart/distorsion du signal sont reformulés et résolus dans le cadre du RDT. En utilisant le RDT et le RDT Séquentiel, nous étudions la détection d'AutoPEEP (auto-Positive End Expiratory Pressure), une anomalie fréquente en ventilation mécanique. C'est la première étude de ce type dans la littérature. L'extension à la détection d'autres types d'asynchronie est également étudiée et discutée. Ces détecteurs d'AutoPEEP et d'asynchronies sont les éléments principaux de la plateforme de suivi de manière automatique et continue l'interface patient-ventilateur en ventilation mécanique
This PhD thesis presents some contributions to Statistical Signal Processing with applications in biomedical engineering. The thesis is separated into two parts. In the first part, the detection of protein interface hotspots ¿ the residues that play the most important role in protein interaction ¿ is considered in the Machine Learning framework. The Random Forests is used as the classifier. A new family of protein hotspot descriptors is also introduced. These descriptors are based exclusively on the primary one-dimensional amino acid sequence. No information on the three dimensional structure of the protein or the complex is required. These descriptors, capturing the protein frequency characteristics, make it possible to get an insight into how the protein primary sequence can determine its higher structure and its function. In the second part, the RDT (Random Distortion Testing) robust hypothesis testing is considered. Its application to signal detection is shown to be resilient to model mismatch. We propose an extension of RDT in the sequential decision framework, namely Sequential RDT. Three classical signal deviation/distortion detection problems are reformulated and cast into the RDT framework. Using RDT and Sequential RDT, we investigate the detection of AutoPEEP (auto-Positive End Expiratory Pressure), a common ventilatory abnormality during mechanical ventilation. This is the first work of that kind in the state-of-the-art. Extension to the detection of other types of asynchrony is also studied and discussed. These early detectors of AutoPEEP and asynchrony are key elements of an automatic and continuous patient-ventilator interface monitoring framework
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Nyamsi, Lonzenu Madeleine. „Prototypage d'architectures pour des applications de traitement numérique du signal“. Rennes 1, 2005. http://www.theses.fr/2005REN1S120.

Der volle Inhalt der Quelle
Annotation:
Les applications temps réel sont utilisées dans plusieurs domaines (médecine, communications mobiles, multimédia, aéronautique, etc). Ces applications sont en général régulières et requièrent beaucoup de performances. D'où la nécessité de concevoir des architectures adaptées aux traitements. Pour réduire les coûts de conception de tels circuits, il est important d'adopter une méthode d'exploration architecturale. L'exploration architecturale consiste à étudier les performances de calcul des traitements sur une variété d'architectures. Pour y arriver, l'application à implanter doit être décrite suivant un modèle de calcul avant d'être programmée en fonction de l'architecture cible : on parle de prototypage architectural. L'objectif des recherches présentées dans ce mémoire est d'exploiter les outils et méthodes proposés par la société Lyrtech Signal Processing (LSP) pour réaliser une exploration. L'autre objectif de la recherche présentée ici est de proposer une démarche d'implantation plus directe qui exploite le parallélisme des calculs et des données des applications. Pour décrire les applications multifréquence en particulier, nous avons étendu le logiciel MmAlpha à la gestion du flot de données et de la variation de fréquence.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Nyamsi, Lonzenu Madeleine Quinton Patrice. „Prototypage d'architectures pour des applications de traitement numérique du signal“. [S.l.] : [s.n.], 2005. ftp://ftp.irisa.fr/techreports/theses/2005/nyamsi.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Papakonstantinou, Konstantinos. „Les applications du traitement du signal statistique à la localisation mobile“. Paris, Télécom ParisTech, 2010. http://www.theses.fr/2010ENST0041.

Der volle Inhalt der Quelle
Annotation:
Dans ce travail nous attaquons au problème de l’estimation de la position d’une station mobile (SM) dans un environnement NLoS. Les méthodes de localisation traditionnelles sont des processus en deux étapes: dans la première étape un ensemble de paramètres qui dépendent de la position du MT (LDP) est estimé. Dans la deuxième étape, la position de la SM est estimée en etrouvant la position qui correspondrait le plus aux paramètres LDP. Nous avons développé un algorithme (4D Unitary ESPRIT) d’estimation de LDP des composantes multi-trajets (MPC), à haute résolution et à faible complexité, pour les systèmes MIMO-OFDM. Pour la deuxième étape de localisation, nous avons développé plusieurs méthodes hybrides. En general, le problème de localisation NLoS n’est toujours pas résolu provient de la difficulté à faire correspondre des estimations de LDP à une position du MT unique. C’est pourquoi nous utilisons le modèle à rebond unique (SBM) ou le modèle SBM dynamique. Les deux avantages énormes des méthodes basées sur le (D)SBM sont la possibilité d’identification même lorsque les estimations des LDP ne sont disponibles que pour 2 MPC et la performance remarquable pour les cas où le canal est plus riche. Enfin, nous avons développé une méthode directe d’estimation de position (DLE) pour les systèmes MIMO-OFDM qui opèrent dans les environnements NLoS. Le DLE estime la position de la SM directement à partir du signal reçu. Une meilleure précision est constatée pour des rapports signal sur bruit faibles à moyens et/ou pour un petit nombre d’échantillons, comme le démontrent nos résultats
In this work we attack the problem of mobile terminal (MT) location estimation in NLoS environments. Traditional localization methods are 2-step processes: In the 1st step a set of location-dependent parameters (LDP) is estimated. In the 2nd step, the MT location is estimated by finding the position that best fits the LDP estimates. For the 1st step we have developed a high-resolution low-complexity LDP estimation algorithm (4D Unitary ESPRIT) for MIMO-OFDM systems, to estimate the angles of arrival (AoA), the angles of departure (AoD), the delays (ToA) and the Doppler shifts (DS) of the multipath components (MPC). As far as the second step of localization is concerned, we developed several hybrid methods applicable to NLoS environments. In the NLoS localization problem, mapping the LDP estimates to the location of the MT is not trivial. To this end, we utilize static and dynamic geometrical channel models (eg. SBM). The 2 great advantages of the SBM-based methods are the identifiability even for cases when LDP estimates are available for only 2 MPC and the remarkable performance for cases when the channel is richer. Due to these great advantages, we consider SBM-based methods to be an appealing solution for the NLoS localization problem. Moreover, we have developed a direct location estimation (DLE) method for MIMO-OFDM systems. In contrast to traditional methods, DLE estimates the MT location directly from the received signal. Its main advantage is the enhanced accuracy at low to medium signal-to-noise ratio (SNR) and/or with small number of data samples, as demonstrated by our results
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Daoudi, Khalid. „Généralisations des systèmes de fonctions itérées : applications au traitement du signal“. Paris 9, 1996. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1996PA090078.

Der volle Inhalt der Quelle
Annotation:
Nous montrons dans cette thèse comment la caractérisation des propriétés fractales d'un signal peut être utilisée à des fins de modélisation, segmentation et synthèse. Le principe consiste à décrire comment une représentation du signal varie d'une échelle à une autre. L'idée la plus naturelle dans notre cadre est de considérer des opérateurs qui agissent sur les coefficients d'ondelette à des résolutions successives. Dans certains cas particuliers, nous montrons que ce programme revient à représenter un signal donné comme l'attracteur d'un système de fonctions itérées (ifs). Cela nous conduit naturellement à généraliser cette notion pour obtenir deux classes plus vastes de fonctions, que nous avons appelées GIFS et FAA. Nous obtenons une caractérisation de l'ensemble des fonctions de Hölder associées à des fonctions continues et une méthode non paramétrique pour estimer la fonction de Hölder d'un signal. Nous établissons aussi un formalisme multi fractal pour les FAA. Une première application concerne l'analyse de la turbulence. Nous développons un modèle compact qui permet de retrouver les principales caractéristiques multi fractales des signaux de turbulence. Une deuxième application est la modélisation de signaux de parole qui nous permet d'effectuer des synthèses de bonne qualité et qui pourrait fournir une nouvelle approche pour la caractérisation du locuteur.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Benjelloun, Touimi Abdellatif. „Traitement du signal audio dans le domaine code : techniques et applications“. Paris, ENST, 2001. http://www.theses.fr/2001ENST0018.

Der volle Inhalt der Quelle
Annotation:
La manipulation classique de flux audio codes nécessite une opération préalable de décodage pour extraire les signaux temporels puis de recodage après traitement. Pour pallier les inconvénients en terme de complexité et délai algorithmiques, lies a cette méthode, cette thèse se propose de réaliser un traitement direct dans le domaine code. On s'intéresse aux codeurs de types fréquentiel perceptuel et particulièrement mpeg-1 layer i-ii et tdac de ftr&d. Le contexte applicatif illustre concerne le traitement du son pour la téléconférence multipoint. Le premier traitement aborde concerne le filtrage dans le domaine des sous-bandes. Une méthode générique a été développée permettant de transposer tout filtre rationnel (fir ou iir) temporel dans ce domaine et pour tout banc de filtres à décimation maximale assurant la reconstruction parfaite. Cette méthode a été appliquée à la spatialisation sonore par des filtres hrtf dans le domaine des sous-bandes. L'étude de la sommation sur les flux codes soulevé plusieurs contraintes suivant le codeur considère. Pour le codeur mpeg-1, la problématique principale concerne la détermination des paramètres psychoacoustiques nécessaires à l'allocation de bits. L'algorithme propose apporte donc une solution à ce problème par estimation des seuils de masquage des signaux individuels à sommer puis recombinaison. Une méthode de réduction de débit est aussi dérivée à partir de cet algorithme. Pour le codeur tdac la diminution de la complexité dans le procède de sommation repose sur le phénomène de masquage inter-signaux en tenant compte de la structure particulière de ce codeur. Elle profite de l'imbrication des dictionnaires de la quantification vectorielle qu'il utilise. La mise en valeur de l'intérêt du traitement dans le domaine code a été concrétisée par une mise en œuvre dans un pont audio de téléconférence multipoints qui assure les fonctionnalités de mixage, correction de trames effacées et la gestion des flux discontinus.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

GRIMAL, BRUNO. „Synthese d'architectures autotestables dediees a des applications de traitement du signal“. Rennes 1, 1994. http://www.theses.fr/1994REN10173.

Der volle Inhalt der Quelle
Annotation:
Pour concevoir des circuits integres de plus en plus complexes satisfaisant a des contraintes de temps reel fortes, des outils de synthese d'architectures ont ete mis au point, notamment dans le domaine des applications de traitement du signal sous contrainte temps reel. Nous etudions ici, une voie complementaire a la synthese de haut niveau, qui est la synthese d'architectures autotestables dediees a des applications de traitement du signal. Notre approche nous a amenes a definir un modele generique d'architectures autotestables, un modele de calcul du taux de couverture des erreurs et a developper une methodologie de conception automatique d'architectures autotestables. Nous nous interessons a la synthese d'architectures devant fonctionner sous contrainte de temps reel. Nous avons retenu, comme technique d'autotest, la technique basee sur le codage des nombres par codes separables. Cette technique repond parfaitement a la definition d'un modele generique d'architectures autotestables et au controle du surcout par l'utilisation d'une contrainte de taux de couverture. Nous avons defini un modele de calcul du taux de couverture des erreurs dans une architecture de traitement du signal. Notre modele integre la variation de la capacite de detection des erreurs en fonction du type de codage. Il prend aussi en compte les differentes complexites des operateurs pouvant etre utilises dans les architectures synthetisees. Grace a une recherche optimale des techniques de codage, notre modele permet une minimisation de la surface du circuit integre. Enfin, nous avons developpe une methodologie de conception d'architectures autotestables. Cette methodologie integre deux notions contradictoires qui sont la synthese sous contraintes de temps reel et de taux de couverture, et la synthese d'une architecture dont la surface est minimale. Cette etude nous a amenes a redefinir l'etape de l'optimisation de l'architecture (fusion des registres) de maniere a y integrer les nouvelles contraintes introduites par l'autotest. Ces etudes ont debouche sur le developpement d'un outil de synthese d'architectures autotestables pour des applications temps reel, developpe en langage c sur stations de travail de type sun. Des resultats en synthese sur des programmes tests reconnus dans le domaine du traitement du signal ainsi que sur des algorithmes d'annulation d'echo acoustique ont permis d'evaluer les performances de notre outil
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Benjelloun, Touimi Abdellatif. „Traitement du signal audio dans le domaine codé : techniques et applications /“. Paris : École nationale supérieure des télécommunications, 2001. http://catalogue.bnf.fr/ark:/12148/cb388319544.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Pham, Gia-Thuy. „Applications des grandes matrices aléatoires aux traitements du signal de grandes dimensions“. Thesis, Paris Est, 2017. http://www.theses.fr/2017PESC1168/document.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Lin, Tao. „Traitement du signal tensoriel à base d'ondelettes et applications aux images hyperspectrales“. Ecole centrale de Marseille, 2013. http://www.theses.fr/2013ECDM0002.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Vallet, Pascal. „Random matrices and applications to statistical signal processing“. Thesis, Paris Est, 2011. http://www.theses.fr/2011PEST1055/document.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, nous considérons le problème de la localisation de source dans les grands réseaux de capteurs, quand le nombre d'antennes du réseau et le nombre d'échantillons du signal observé sont grands et du même ordre de grandeur. Nous considérons le cas où les signaux source émis sont déterministes, et nous développons un algorithme de localisation amélioré, basé sur la méthode MUSIC. Pour ce faire, nous montrons de nouveaux résultats concernant la localisation des valeurs propres des grandes matrices aléatoires gaussiennes complexes de type information plus bruit
In this thesis, we consider the problem of source localization in large sensor networks, when the number of antennas of the network and the number of samples of the observed signal are large and of the same order of magnitude. We also consider the case where the source signals are deterministic, and we develop an improved algorithm for source localization, based on the MUSIC method. For this, we fist show new results concerning the position of the eigen values of large information plus noise complex gaussian random matrices
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Betser, Michaël. „Modélisation sinusoïdale et applications à l’indexation sonore“. Paris, ENST, 2008. http://pastel.archives-ouvertes.fr/pastel-00004089/fr/.

Der volle Inhalt der Quelle
Annotation:
L'objectif de la thèse est l'analyse des signaux audio-numériques basée sur la modélisation sinusoïdale. La première partie de la thèse est dédiée à l’estimation des paramètres sinusoïdaux, et en particulier aux méthodes basées sur la transformée de Fourier. Les avantages de cette famille de méthodes sont une faible complexité algorithmique et une grande facilité d'utilisation. Un état de l’art complet des méthodes d’estimation sinusoïdale basées sur la transformée de Fourier est présenté. Nous parlons ensuite des nouveaux estimateurs qui ont été développé pendant la thèse, en particulier deux nouvelles méthodes qui permettent d’estimer tous les paramètres d’une sinusoïde modulée à la fois en amplitude et en fréquence, et dont les performances se sont révélées meilleures que la seule méthode équivalente de l’état de l’art existante, l’interpolation quadratique de la transformée de Fourier (QIFFT). L'indexation sonore est un domaine assez vaste dont la problématique est de répondre aux besoins d'accès par le contenu des documents audio. Dans la deuxième partie de la thèse nous nous sommes attachés à appliquer la modélisation sinusoïdale à deux tâches d'indexation audio pour lesquelles cette modélisation est particulièrement adaptée: l’estimation de pitch et la détection d'objets sonores. Les deux algorithmes développés font intervenir des principes similaires : un appariement des pics sinusoïdaux estimés dans le flux audio avec ceux de l’objet sonore de référence, ainsi qu’une mesure de vraisemblance de l’appariement
The goal of the thesis is the analysis of audio signals using sinusoidal modeling. The first part of the thesis deals with the estimation of the sinusoidal parameters, and in particular with the methods based on the Fourier Transform. The advantages of this family of methods are a low algorithmic complexity and an ease of use. A complete state of the art of these methods is presented. Then, we describe the new estimators which have been developped during the thesis. In particular, we present two original methods allowing to estimate all the parameters of a sinusoid modulated both in amplitude and frequency. Their performances are shown to be better than the only quivalent method in the litterature, namely the quadratically interpolated fast Fourier transform (QIFFT). Audio indexing is a large domain whose purpose is to answer the needs for content access in the audio documents. In the second part of the thesis, we applied the sinusoidal modeling to two audio indexing tasks for which this modeling is particularly appropriate: pitch estimation and sound object detection. The two algorithms developped involve similar ideas: a matching of the sinusoidal peaks estimated in the audio stream with those of the reference sound object, and a likelihood measure of the matching
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Woiselle, Arnaud. „Parcimonie et ses applications à des données de flot optique“. Paris 7, 2010. http://www.theses.fr/2010PA077201.

Der volle Inhalt der Quelle
Annotation:
Cette thèse adresse la résolution de problèmes inverses par l'utilisation de transformées parcimonieuses tridimensionnelles. Nous présentons tout d'abord les systèmes d'imagerie infrarouge et les problèmes liés aux bruits et aux données manquantes, puis nous faisons un court état de l'art des techniques industrielles de traitement d'images. Nous introduisons ensuite le concept de parcimonie et présentons les algorithmes et représentations classiques de ce domaine. Le coeur de ce travail de recherche est le développement de nouvelles représentations 3D, qui sont bien adaptées à la représentation des surfaces et des filaments dans un volume 3D. Deux nouvelles transformées sont proposées, ainsi que la modification d'une troisième, les curvelets rapides, en vue de réduire sa redondance. Ces outils sont alors appliqués à la résolution de divers problèmes inverses comme le débruitage, l'inpainting ou le désentrelacement. Des expériences numériques montrent la qualité des résultats. Finalement, nous proposons quelques applications concrètes utilisant des transformées parcimonieuses au traitement de vidéos infrarouges, telles que la détection de petites cibles, ou la déconvolution de flou de bougé
This manuscript addresses inverse problems using 3D sparsifying transforms in the context of infrared video. We first survey the infrared imaging System and the problems associated such as noise and missing data, and make a short state of the art on industrial imaging processing technics Then we introduce the concept of sparsity and present common algorithms and representations used in this domain. The core of this research is the development of new 3D representations, which are well adapted to representing surfaces or filaments in a 3D volume. Two innovative transforms are proposed, and an existing one ~ the fast curvelet transform — is modified to better suit the applications by reducing its redundancy. These tools are used in many inverse problems such as denoising, inpainting and video deinterlacing, and prove to be very useful and competitive. Finally, we propose a few concrete applications of sparse transforms to infrared video processing, such as small targets detection or motion blur deconvolution
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Ghisa, Laura. „Couplage de micro résonateurs. Applications aux fonctions optiques de traitement du signal“. Phd thesis, Université Rennes 1, 2008. http://tel.archives-ouvertes.fr/tel-00383746.

Der volle Inhalt der Quelle
Annotation:
Nous présentons dans ce mémoire de thèse des travaux qui portent sur l'étude de micro résonateurs à modes de galerie et en anneau couplés dans le but d'applications aux fonctions optiques de traitement du signal.
Dans une première partie nous présentons un modèle matriciel pour décrire la propagation de la lumière dans des structures à anneaux couplés. L'utilisation de ce modèle se résume pour des structures dont on connaît les coefficients de couplage entre les guides.
Dans le cas de résonateurs constitués d'un milieu qui ne présente pas d'effets non-linéaires nous avons montré que les structures à anneaux couples permettent de réaliser la synthèse de filtres optiques.
Si les résonateurs sont le siège d'une non linéarité dispersive d'ordre 3 nous avons deux cas possibles en fonction du type d'excitation. Hors résonance nous avons montré que nous pouvons obtenir potentiellement des dispositifs /N+1/ stables en utilisant un système formé de /N/ anneaux couplés, ainsi que la tristabilité dans un seul anneau en utilisant un signal de commande. A résonance nous avons montré que l'on peut obtenir la fonction de remise en forme du signal pour des débits de 40 Gb/s.
La deuxième partie porte sur les travaux réalisés sur l'oscillateur optoélectronique. Dans le schéma classique d'un tel oscillateur la fonction de retard optique est obtenue en utilisant une ligne à fibre optique de longueur proportionnelle au retard nécessaire. Nous voulons remplacer cette ligne avec une ligne à retard à base de microrésonateurs. Nous présentons des procédés de fabrication de résonateurs sphériques et diverses méthodes de mesure de leurs facteurs de qualité, proportionnel au retard induit.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Coussy, Philippe. „Synthèse d'architectures pour les applications de traitement du signal et de l'image“. Habilitation à diriger des recherches, Université de Bretagne Sud, 2011. http://tel.archives-ouvertes.fr/tel-00663253.

Der volle Inhalt der Quelle
Annotation:
Ce document est organisé en trois parties : - Partie 1, Synthèse des travaux : Cette première partie présente de façon complète l'ensemble de mon parcours en mettant en avant toutes ses contributions et originalités. - Partie 2, Sélection des publications significatives : Cette deuxième partie illustre les contributions menées en présentant plusieurs articles scientifiques. Partie 3 : Travaux de recherche détaillés et perspectives (document séparé) Cette troisième partie présente de façon approfondie les différents travaux que j'ai menés depuis l'obtention de mon doctorat. Elle propose tout d'abord une introduction afin de positionner les différentes contributions et les trois axes de recherche autour desquels s'articulent mes travaux. Chaque axe est ensuite détaillé et une sélection de certains travaux est proposée afin d'illustrer l'activité menée. Enfin, une conclusion et des perspectives sont proposées afin de préciser les actions envisagées dans l'avenir.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Mba, Mathieu Leonel. „Génération automatique de plate-forme matérielles distribuées pour des applications de traitement du signal“. Electronic Thesis or Diss., Sorbonne université, 2023. http://www.theses.fr/2023SORUS341.

Der volle Inhalt der Quelle
Annotation:
Les langues locales ou langues maternelles propres aux individus jouent un rôle important pour leur épanouissement dans leurs différentes activités socio-économiques. Les langues africaines, et spécifiquement les langues camerounaises sont exposées à la disparition au profit des langues étrangères adoptées comme langues officielles au lendemain des indépendances. C’est la raison pour laquelle il est primordial de les numériser et les intégrer dans la majorité des services dématérialisés pour leur pérennisation. La reconnaissance vocale, largement utilisée comme interface d'interaction homme machine, peut être non seulement un outil d'intégration des langues locales dans les applications, mais aussi un outil de collecte et de numérisation des corpus. Les systèmes embarqués sont l'environnement par excellence de déploiement des applications qui exploitent cette interface d'interaction homme machine. Cela implique qu'il est nécessaire de prendre des mesures (à travers la réduction du temps de réponse) pour satisfaire la contrainte de temps réel très souvent rencontrée dans ce type d'application. Deux approches existent pour la réduction du temps de réponse des applications à savoir la parallélisation et l'usage des architectures matérielles efficaces. Dans cette thèse, nous exploitons une approche hybride pour réduire le temps de réponse d'une application. Nous le faisons par la parallélisation de cette application et sa mise en œuvre sur architecture reconfigurable. Une architecture dont les langages de mise en œuvre sont connus pour être de bas niveau. De plus, au vu de la multitude des problématiques posées par la mise en œuvre des systèmes parallèles sur architecture reconfigurable, il se pose un problème de productivité de l'ingénieur. Dans cette thèse, en vue de mettre en œuvre un système de reconnaissance vocale temps réel sur système embarqué, nous proposons, une approche de mise en œuvre productive d'applications parallèles sur architecture reconfigurable. Notre approche exploite MATIP un outil de conception orienté plateforme, comme FPGA Overlay basé sur la synthèse de haut niveau. Nous exploitons cette approche pour mettre en œuvre un modèle parallèle d'un algorithme d'extraction des caractéristiques pour la reconnaissance des langues à tons (caractéristique de la majorité des langues camerounaises). L'expérimentation de cette solution sur des mots isolés de la langue Kóló, en comparaison à d'autres propositions (version logicielle et IP matérielles), montre que, notre approche est non seulement productive en temps de mise en œuvre, mais aussi l'application parallèle obtenue est efficace en temps de traitement. C’est la raison pour laquelle nous avons mis en œuvre XMATIP une extension de MATIP pour rendre cette approche compatible à la co-conception et co-synthèse matérielle logicielle
Local languages or mother tongues of individuals play an essential role in their fulfillment in their various socio-economic activities. African languages and specifically Cameroonian languages are exposed to disappearance in favor of foreign languages adopted as official languages after independence. This is why it is essential to digitalize and integrate them into the majority of dematerialized services for their sustainability. Speech recognition, widely used as a human-machine interface, can be not only a tool for integrating local languages into applications but also a tool for collecting and digitizing corpora. Embedded systems are the preferred environment for deploying applications that use this human-machine interface. This implies that it is necessary to take measures (through the reduction of the reaction time) to satisfy the real-time constraint very often met in this type of application. Two approaches exist for the reduction of the application's response time, namely parallelization and the use of efficient hardware architectures. In this thesis, we exploit a hybrid approach to reduce the response time of an application. We do this by parallelizing this application and implementing it on a reconfigurable architecture. An architecture whose implementation languages are known to be low-level. Moreover, given the multitude of problems posed by the implementation of parallel systems on reconfigurable architecture, there is a problem with design productivity for the engineer. In this thesis, to implement a real-time speech recognition system on an embedded system, we propose an approach for the productive implementation of parallel applications on reconfigurable architecture. Our approach exploits MATIP, a platform-based design tool, as an FPGA Overlay based on high-level synthesis. We exploit this approach to implement a parallel model of a feature extraction algorithm for the recognition of tonal languages (characteristic of the majority of Cameroonian languages). The experimentation of this implementation on isolated words of the Kóló language, in comparison to other implementations (software version and hardware IP), shows that our approach is not only productive in implementation time but also the obtained parallel application is efficient in processing time. This is the reason why we implemented XMATIP an extension of MATIP to make this approach compatible with hardware-software co-design and co-synthesis
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Lumeau, Bernard. „Traitement spatial et analyse spectrale applications neurophysiologiques /“. Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb37607489r.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Renard, Nadine. „Traitement du signal tensoriel. Application à l'imagerie hyperspectrale“. Aix-Marseille 3, 2008. http://www.theses.fr/2008AIX30062.

Der volle Inhalt der Quelle
Annotation:
Cette thèse est consacrée au développement et à l’étude de méthodes algébriques pour l’analyse des données hyperspectrales. Une nouvelle représentation des données par un tenseur d’ordre 3 a permis la proposition de méthodes originales, impliquant l’utilisation d’outils d’algèbre multilinéaire. De ce fait, les méthodes développées sont dites multidimensionnelles ou multimodales. Basées sur la décomposition tensorielle de TUCKER, elles analysent conjointement le mode spatial et spectral. Cette thèse répond à deux problématiques. La première concerne la réduction du bruit. Une technique de détection robuste au bruit est proposée en incorporant un filtrage de Wiener multimodal. Les filtres de Wiener n-modaux (spatiaux et spectraux) sont estimés en minimisant l’erreur quadratique moyenne entre le tenseur utile et estimé. La deuxième problématique abordée est la réduction de la dimension spectrale. Le fléau de la grande dimension des données dégrade les estimations statistiques lors du processus de classification des données. Dans ce cadre, nous avons développé une méthode basée sur la réduction du mode spectral par transformation linéaire, qui approxime simultanément le mode spatial en rangs inférieurs. Les deux méthodes multimodales sont respectivement évaluées en observant leur impact sur la qualité de détection et de classification. Ces résultats révèlent l’intérêt de considérer une analyse spatiale/spectrale par rapport aux techniques uniquement spectrales ou hybrides analysant séquentiellement le mode spectral et spatial
This thesis focus on developing new algebraic methods for hyperspectral applications. The proposed method are original because based on new data representation using third-order tensor. This data representation involves the use of multilinear algebra tools. The proposed methods are referred to as multiway or multimodal methods. TUCKER tensor decompositionbased methods jointly analyze the spatial and spectral modes using an alternating least squares algorithm. This thesis focus on two problematics specific to hyperspectral images. The first one concerns noise reduction. The considered additive noise is due to the acquisition system and degrades the target detection efficiency. A robust to noise detection technique is proposed by incorporating a multimodal Wiener filter. The spatial and spectral n-mode filters are estimated by minimizing the mean squared error between the desired and estimated tensors. The second problematic is the spectral dimension reduction. The curse of the dimensionality degrades the statistical estimation for the classification process. For this issue, the proposed multimodal reduction method reduces the spectral mode by linear transformation jointly to the lower spatial ranks approximation. This method extends the traditional dimension reduction methods. These two multimodal methods are respectively assessed in respect to their impact on detection and classification efficiency. These results highlight the interest of the spatial/spectral analysis in comparison to the traditional spectral analysis only and the hybrid ones which process sequentially the spectral and the spatial mode
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Thierry, Eric. „Analyse de forme des signaux monodimensionnels : études théoriques et applications à la structure fine du signal électrique cardiaque“. Nice, 1989. http://www.theses.fr/1989NICE4285.

Der volle Inhalt der Quelle
Annotation:
L'objectif de ce travail est l'étude des signaux transitoires répétitifs bruités en visant plus particulièrement l'application aux signaux électrocardiographiques à haute amplification. Détail point par point des hypothèses fondamentales de la technique de sommation synchrone
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Olivero, Anaik. „Les multiplicateurs temps-fréquence : Applications à l’analyse et la synthèse de signaux sonores et musicaux“. Thesis, Aix-Marseille, 2012. http://www.theses.fr/2012AIXM4788/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s'inscrit dans le contexte de l'analyse/transformation/synthèse des signaux audio utilisant des représentations temps-fréquence, de type transformation de Gabor. Dans ce contexte, la complexité des transformations permettant de relier des sons peut être modélisée au moyen de multiplicateurs de Gabor, opérateurs de signaux linéaires caractérisés par une fonction de transfert temps-fréquence, à valeurs complexes, que l'on appelle masque de Gabor. Les multiplicateurs de Gabor permettent deformaliser le concept de filtrage dans le plan temps-fréquence. En agissant de façon multiplicative dans le plan temps-fréquence, ils sont a priori bien adaptés pour réaliser des transformations sonores telles que des modifications de timbre des sons. Dans un premier temps, ce travail de thèses intéresse à la modélisation du problème d'estimation d'un masque de Gabor entre deux signaux donnés et la mise en place de méthodes de calculs efficaces permettant de résoudre le problème. Le multiplicateur de Gabor entre deux signaux n'est pas défini de manière unique et les techniques d'estimation proposées de construire des multiplicateurs produisant des signaux sonores de qualité satisfaisante. Dans un second temps, nous montrons que les masques de Gabor contiennent une information pertinente capable d'établir une classification des signaux,et proposons des stratégies permettant de localiser automatiquement les régions temps-fréquence impliquées dans la différentiation de deux classes de signaux. Enfin, nous montrons que les multiplicateurs de Gabor constituent tout un panel de transformations sonores entre deux sons, qui, dans certaines situations, peuvent être guidées par des descripteurs de timbre
Analysis/Transformation/Synthesis is a generalparadigm in signal processing, that aims at manipulating or generating signalsfor practical applications. This thesis deals with time-frequencyrepresentations obtained with Gabor atoms. In this context, the complexity of a soundtransformation can be modeled by a Gabor multiplier. Gabormultipliers are linear diagonal operators acting on signals, andare characterized by a time-frequency transfer function of complex values, called theGabor mask. Gabor multipliers allows to formalize the conceptof filtering in the time-frequency domain. As they act by multiplying in the time-frequencydomain, they are "a priori'' well adapted to producesound transformations like timbre transformations. In a first part, this work proposes to model theproblem of Gabor mask estimation between two given signals,and provides algorithms to solve it. The Gabor multiplier between two signals is not uniquely defined and the proposed estimationstrategies are able to generate Gabor multipliers that produce signalswith a satisfied sound quality. In a second part, we show that a Gabor maskcontain a relevant information, as it can be viewed asa time-frequency representation of the difference oftimbre between two given sounds. By averaging the energy contained in a Gabor mask, we obtain a measure of this difference that allows to discriminate different musical instrumentsounds. We also propose strategies to automaticallylocalize the time-frequency regions responsible for such a timbre dissimilarity between musicalinstrument classes. Finally, we show that the Gabor multipliers can beused to construct a lot of sounds morphing trajectories,and propose an extension
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Burel, Gilles. „Réseaux de neurones en traitement d'images : des modèles théoriques aux applications industrielles“. Brest, 1991. http://www.theses.fr/1991BRES2019.

Der volle Inhalt der Quelle
Annotation:
Les travaux presentes portent sur les reseaux de neurones appliques au traitement du signal et de l'image. On se place d'emblee du point de vue de l'industriel implique dans la recherche, c'est-a-dire que l'on s'interesse a des problemes realistes, sans pour autant negliger la recherche theorique. Dans une premiere partie, nous montrons l'interet des reseaux de neurones comme source d'inspiration pour la conception de nouveaux algorithmes. Nous proposons en particulier une structure originale pour la prediction, ainsi que de nouveaux algorithmes de quantification vectorielle. Les proprietes des algorithmes existants sont egalement eclaircies du point de vue theorique, et des methodes de reglage automatique de leurs parametres sont proposees. On montre ensuite les capacites des reseaux de neurones a traiter un vaste champ d'applications d'interet industriel. Pour divers problemes de traitement de l'image et du signal (de la segmentation a la separation de sources, en passant par la reconnaissance de formes et la compression de donnees), on montre qu'il est possible de developper a moindre cout une solution neuronale efficace
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Comte, Jean-Christophe. „Modélisations théorique et électronique de systèmes de réaction-diffusion applications au traitement du signal“. Dijon, 2000. http://www.theses.fr/2000DIJOS022.

Der volle Inhalt der Quelle
Annotation:
Nous étudions théoriquement et numériquement le comportement des systèmes de réaction-diffusion d'une part dans l'approximation des milieux continus (équation de Fisher ou fitzhugh-nagumo sans terme de recouvrement), d'autre part dans le cas purement discret. Dans ces derniers apparait l'effet de défaut propagation bien connu des biologistes qui étudient la propagation de l'influx nerveux dans les fibres nerveuses. Nous complétons ici les travaux de keener et erneux par une approche simple et efficace permettant une détermination de la valeur critique du couplage inter-cellulaire, et ce dans le cas général. Puis, en nous inspirant des travaux de schmidt, nous proposons une méthode inverse permettant à un modèle de réseau, incluant un potentiel de site de type double puits, une force extérieure et un terme de dissipation, d'admettre des solutions exactes de type kink, quel que soit le régime : non dissipatif ou dissipatif. Nos simulations numériques montrent que des kinks étroits spatialement peuvent se propager librement et révèlent que des modes respirants de type breathers statiques ou propagatifs peuvent émerger des collisions kink-antikink, et ce avec une durée de vie intéressante. De plus nous proposons des applications issues des études théoriques dans le domaine du traitement du signal ou de l'image. En effet, l'utilisation de dispositifs bases sur les fonctions non linéaires déterminées théoriquement permet le filtrage et la détection de contours dans des images. Finalement, les réalisations expérimentales de ces dispositifs sous forme électrique sont présentées, dans le but de pouvoir développer des applications type temps réel.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Shirakawa, Alexandre Augusto. „Etude, synthèse et réalisation de filtres Baw pour applications mobiles“. Bordeaux 1, 2006. http://www.theses.fr/2006BOR13240.

Der volle Inhalt der Quelle
Annotation:
Ce mémoire est dédié à l’étude, à la synthèse et à la réalisation de filtres à résonateurs à ondes acoustiques de volume (bulk acoustic waves – BAW). La technologie de filtrage à ondes acoustiques de volume est la seule capable d’allier d’excellentes performances à une technique de réalisation compatible avec les procédés de circuits intégrées. En effet, cette technologie permet la conception des filtres à faibles pertes dans une large gamme de fréquences (500 MHz à 20 GHz), ainsi que de véhiculer de niveaux de puissance comparables aux filtres céramiques. BAW filtres présentent un faible encombrement et sont capables d’être fabriqués au-dessus d’un substrat silicium. Ce mémoire présente tout d’abord une étude détaillée de la technologie de filtrage BAW, et qui nous a permis de mettre en évidence la multitude de paramètres qui doivent être considérés lors de la synthèse de ce type de filtre. Ensuite, la méthodologie de synthèse des filtres BAW, basée sur une étude mathématique approfondie de la fonction de filtrage, est ainsi développée et implémentée sous la forme d’une plateforme logicielle. Enfin, dans le cadre d’une collaboration entre le CEA-Leti et le Laboratoire IXL, les filtres à résonateurs BAW de différentes topologies (en échelle, en treillis et en échelle-treillis) ont été réalisés. Ils s’adressent à la bande d’émission (1,92 – 1,98 GHz) et de réception (2,11 – 2,17 GHz) du standard de 3ème génération W-CDMA. Ces réalisations ont mis en valeur les performances de la technologie BAW-SMR vis-à-vis de ces trois types de topologies. Elles ont permis de connaître ses limitations en sélectivité des filtres, ainsi qu’en pertes d’insertion. La topologie combinée en échelle-treillis a montré un meilleur compromis entre la sélectivité et l’isolation
This manuscript presents the analysis, the synthesis, and the realisation of bulk acoustic wave (BAW) resonator filters. Bulk acoustic wave resonator technology is the only technology that is able to ally excellent filtering performances using a process compatible with silicon integrated circuits. Indeed, this technology enables the conception of very low lossy filters in a wide frequency range (from 500 MHz to 20 GHz) having a power handling capability comparable to ceramic filters. BAW filters present very reduced dimensions and can be fabricated on top of silicon substrates. Firstly, this manuscript presents a detailed study of the bulk acoustic wave technology that shows the multitude of parameters that must be considered on the filter synthesis. Secondly, a synthesis methodology of BAW filters based on a mathematical approach is developed and implemented on a software platform. Finally, in the framework of collaboration between the CEA-Leti and the IXL Microelectronics Laboratory, five bulk acoustic wave resonator filters have been realized. These filters are based on ladder, lattice and ladder-lattice topologies. They addressed the transmission (1. 92 – 1. 98 GHz) and the reception (2. 11 – 2. 17 GHz) of the 3rd generation W CDMA standard. The fabricated filters have confirmed the excellent performances of the BAW-SMR technology concerning these three topologies. The filters show the limitations on selectivity and the insertion losses. The combined ladder-lattice topology presents the best compromise between selectivity and isolation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Andriamisaina, Choukataly Caaliph. „Synthèse d'architecture multi-modes pour les applications du traitement du signal et de l'image“. Lorient, 2008. http://www.theses.fr/2008LORIS127.

Der volle Inhalt der Quelle
Annotation:
Le marché des télécommunications et du multimédia ne cesse de s’accroître avec une demande de plus en plus forte en fonctionnalité, performance, durée d’autonomie, compacité et faible coût de conception. Ces besoins ont ainsi conduit à des recherches de dispositifs performants, flexibles, compacts et faible consommation. Ainsi, pour avoir un compromis entre la flexibilité et la performance, l’ajout de flexibilité aux architectures matérielles et/ou l’amélioration des performances des architectures logicielles peuvent être envisagés. Cet ajout de flexibilité donne lieu à ce qui est appelé dans la littérature, des architectures multi-modes. Ce type d’architectures est spécialement conçu pour implémenter un ensemble d’applications mutuellement exclusives dans le temps. Les architectures multi-modes sont aussi utilisées pour réduire le surcoût du temps de reconfiguration dans les FPGAs et pour implémenter des accélérateurs de nids de boucles utilisés comme accélérateurs matériels (co-processeurs) ou accélérateurs d’instructions (ASIP). Nous proposons dans cette thèse une méthodologie de conception, basée sur la synthèse de haut niveau (HLS), automatisant la génération d’architectures multi-modes. La synthèse de haut niveau est une technique qui permet une augmentation considérable de la productivité par l’élévation du niveau d’abstraction de la spécification et par l’automatisation de la conception. Dans le contexte de la HLS, nous proposons de modifier les étapes d’allocation, d’ordonnancement et d’assignation dans le but de réduire le coût en surface de l’architecture générée tout en gardant un surcoût en performance et en consommation faible. Pour obtenir une surface totale minimale, nous proposons de diminuer le coût en surface du chemin de données et aussi du contrôleur. La réduction du coût du contrôleur s’obtient grâce à l’augmentation de la similarité des ressources présentes entre les étapes de contrôle des modes. Alors que, la réduction du coût du chemin de données est obtenue grâce essentiellement au partage de ressources entre les modes et à la prise en compte du coût des interconnections lors de ce partage. L'approche que nous proposons a été implémentée dans un environnement de conception dédié à la génération d’architecture multi-modes. Cette suite logicielle s’articule autour des outils : GAUT « Multi-modes », et STARGene « Multi-modes » et permet, en partant d'une description fonctionnelle spécifiée en langage C/C++, d'obtenir automatiquement une architecture multi-modes de niveau transfert de registres décrite en VHDL. Un ensemble d’expériences ont été menés pour mettre en avant l’efficacité de notre approche et les outils associés. De ces expériences, nous avons pu constater qu’avec notre approche, nous arrivions à réduire fortement (jusqu'à 60%) la surface occupée par les différents modes à implémenter tout en ayant un surcoût en performance (en moyenne de 5%) et en consommation (en moyenne de 16%) raisonnable
Emerging standards lead an increasing demand for high performance, flexibility and low power of embedded systems. These requirements had led to the research on efficient devices to respect these constraints. To have a good trade-off between flexibility and performance, adding flexibility to dedicated architectures and/or improving software performances can be considered. In the literature, the architectures, which result from the addition of flexibility in dedicated architectures, are named multi-modes architectures. The multi-modes or multi-configurations architectures are specifically designed for a set of time-wise mutually exclusive applications (multi-standard applications). They are also used to reduce the reconfiguration time overhead in FPGAs and to implement loop accelerators. We propose a design methodology, based on the High-Level Synthesis (HLS) technique, dedicated to the multi-modes architectures generation. The high-level synthesis is a technique, which considerably increase the productivity by raising the level of abstraction of the input specification and by automating the design. In the context of HLS, we propose to modify the allocation, scheduling and binding steps in order to reduce the area cost of the generated architecture by limiting the performance and power consumption overhead. In order to obtain an area efficient multi-modes architecture, we propose to reduce the area cost of the datapath and the controller. The controller complexity reduction is obtained by increasing the resources similarity between the control steps of the different modes. Whereas, the datapath complexity reduction is obtained by the resources sharing between the modes, and by the consideration of the interconnections cost during this sharing. This approach was integrated in a design environment, dedicated to the multi-modes architectures generation. This environment is based on different tools: GAUT “Multi-modes”, CDFG2UCOM and STARGene “Multi-modes”. It takes as input a functional description specified in C/C++ language in order to obtain automatically a multi-modes architecture at register transfer level described in VHDL. A set of experiment has been done to show the effectiveness of our approach and its associated high-level synthesis tools. From these experiments, we notice that with our approach, we can greatly reduce (up to 60%) the area occupied by the different modes to implement. With this important area reduction, we also obtain a low performance (average of 5%) and power consumption (average of 16%) overhead
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Stitou, Youssef. „Modélisation paramètrique 3-D fondée sur la décomposition de Wold : applications au filtrage de blocs sismiques 3-D“. Bordeaux 1, 2006. http://www.theses.fr/2006BOR13296.

Der volle Inhalt der Quelle
Annotation:
Ce mémoire porte sur la modélisation de blocs 3D d'images texturées. L'objectif principal est de développer de nouveaux modèles paramétriques 3D qui permettent de caractériser une grande classe de textures. L'outil mathématique mis à contribution pour construire ces modèles est la décomposition de Wold des processus aléatoires discrets multidimentionnels. L'étude réalisée montre que tout bloc d'images texturées, considéré comme une réalisation d'un processus aléatoire homogène 3D, est la somme de quatre composantes orthogonales : une composante purement aléatoire, une composante harmonique et deux composantes évanescentes dites champ évanescent de type 1 et champ évanescent de type 2. Pour exploiter ce résultat théorique, nous proposons des modèles paramétriqaues adéquats pour approximer séparément les quatre composantes. A travers différentes études expérimentales, nous montrons que la modélisation fondée sur la décomposition de Wold 3D offre la possibilité de caractériser des blocs d'images présentant séparément ou à la fois les trois aspects fondamentaux des textures 3D : l'aspect aléatoire, l'aspect périodique et l'aspect directionnel. Les modèles proposés ont été utilisés pour le fitrage des blocs sismiques 2D fournis par le laboratoire commun "LASIS" CNRS-TOTAL. Dans ce contexte applicatif la décomposition de Wold 3D consiste, d'une part, à identifiier et à séparer les différents signaux qui composent la donnée sismique, et d'autre part, à distinguer parmi les composantes extraites celles qui représentent le signal sismique, après quoi le filtrage devient aisé.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Liu, Xuefeng. „Traitement du signal multidimensionnel par décomposition tensorielle et application“. Ecole centrale de Marseille, 2012. http://www.theses.fr/2012ECDM0002.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Vincensini, Pascale. „Dispositifs à dispersion contrôlée : application au traitement du signal“. Grenoble INPG, 1988. http://www.theses.fr/1988INPG0013.

Der volle Inhalt der Quelle
Annotation:
Les dispositifs a dispersion controlee sont des composants utilises dans les systemes de traitement de signaux analogiques large bande. Une methodologie de conception adaptee aux technologies microondes est presentee. Elle resulte du developpement d'une theorie sur le couplage lache et d'une technique de synthese par linearisation de la loi de dispersion desiree
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Vincensini, Pascale. „Dispositifs à dispersion contrôlée application au traitement du signal /“. Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb37619138q.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Vanloot, Daniel. „Contribution à l'étude et à la réalisation d'un dispositif de traitement du signal optimum pour les systèmes radiométriques : applications au radiomètre à méthode de zéro automatique“. Lille 1, 1987. http://www.theses.fr/1987LIL10053.

Der volle Inhalt der Quelle
Annotation:
Réalisation et étude d'un radiomètre basse fréquence, base sur un système de détection échantillonnée, permettant de traiter séparément le signal de référence et celui mesure afin d'obtenir une meilleure sensibilité. La conception d'une source de bruit calibrée a permis la réalisation d'un radiomètre à méthode de zéro automatique
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Devlaminck, Vincent. „Etude des bruits numériques dans les structures de filtres à coefficients fixes : applications à l'arithmétique classique et à l'arithmétique distribuée“. Lille 1, 1988. http://www.theses.fr/1988LIL10121.

Der volle Inhalt der Quelle
Annotation:
On présente plusieurs techniques de quantification scalaires et vectorielles. On analyse la source de bruit générée par un multiplieur numérique. Après un rappel sur la méthode classique de calcul du bruit d'arrondi du aux multiplications dans un filtre numérique RII, on présente une méthode faisant appel à la représentation des filtres dans l'espace d'état. Vérification expérimentale des estimations théoriques. En dernier, il est proposé une structure permettant la réalisation de filtres à partir de n'importe quelle représentation dans l'espace d'état.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Assous, Saïd. „Analyse temps-fréquence par la transformée en S et interprétation des signaux de fluximétrie laser Doppler : applications au diagnostic clinique“. Paris, ENSAM, 2005. http://www.theses.fr/2005ENAM0026.

Der volle Inhalt der Quelle
Annotation:
La technique de fluxmétrie laser Doppler (LDF), est basée sur l'élargissement spectral d'une lumière monochromatique, qui interagit avec les globules rouges en mouvement dans le tissu. La densité spectrale de puissance de la lumière rétro-diffusée peut être utilisée pour l'estimation de la perfusion microvasculaire du tissu. L'objectif principal de ce travail est l'exploration de l'information contenue dans ce signal pour comprendre les phénomènes physiologiques qui se manifestent dans la microcirculation et de proposer des solutions d'aide au diagnostic des pathologies correspondantes. Le problème d'aide à la décision peut se présenter en étapes d'extraction de caractéristiques, réduction de dimensions et reconnaissance de formes. La représentation du signal est une étape cruciale pour l'interprétation et la prise de décision. Dans ce travail, la transformée en S, une représentation temps-fréquence linéaire qui surpasse le problème de la transformée de Fourier à fenêtre glissante de longueur fixe et qui corrige aussi la notion de phase dans la transformée en ondelettes pour l'analyse des signaux non stationnaires, est présentée. Cette transformée fournit un espace très convenable pour l'extraction de caractéristiques et la localisation en temps et en fréquences de l'information discriminante dans le signal LDF. Cette nouvelle approche a permis, entre autres, d'analyser les cinq fréquences caractéristiques contenues dans les signaux LDF et d'apporter une contributionà l'appréhension des signaux d'hypérémie réactionnelle. Du fait que les représentations temps-fréquence linéaires ont une dimension élevée, leur succès repose sur une forme appropriée de réduction e dimensions. La décomposition en valeurs singuliµeres des coe±cients du plan temps-fréquence se montre très prometteuse pour garder les informations pertinentes du signal et rejeter celles qui ne le sont pas. Ses vecteurs singuliers reflètent le comportement spectral dans le temps des différentes activités physiologiques présentes dans le signal de fluxmétrie laser Doppler
The laser Doppler flowmetry (LDF) technique is based on the spectral broadening of monochromatic light, that interacts with moving red blood cells in tissue. The power spectral density of the backscattered light can be processed to yield an estimate of microvascular tissue perfusion in the form of a signal. The primary objective of this work is to explore the information contained in this signal in order to understand the physiological phenomena which appear in the microcirculation and to present solutions of assistance in the diagnosis of corresponding pathologies. The decision problem may be divided into the stages of feature extraction, dimensionality reduction and pattern recognition. This work shows that decision performance depends largely upon the signal representation. The study relies on the S transform, a linear time-frequency representation which overcomes the short time Fourier transform fixed length window limitation and the phase notion in the wavelet transform for non stationary signal analysis. This transform provides a powerful framework for feature extraction, localizing the discriminant information in the laser Doppler flowmetry signal in time and in frequency. This new approach makes possible the analysis of the five characteristic frequencies contained in laser Doppler flowmetry signals and contributes to the apprehension of the signals of reactive hyperaemia. In addition, due to the high dimension of time-frequency representations, its success relies upon an appropriate form of dimensionality reduction. It is shown that the singular values decomposition provides an effective means of concentrating that information which is important, and discarding that which is irrelevant. Its singular vectors reflect the behavior spectral in the time of the various physiological activities present in the laser Doppler flowmetry signal
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Le, Pennec Erwan. „Some (statistical) applications of Ockham's principle“. Habilitation à diriger des recherches, Université Paris Sud - Paris XI, 2013. http://tel.archives-ouvertes.fr/tel-00802653.

Der volle Inhalt der Quelle
Annotation:
Ce manuscrit présente mes contributions scientifiques de ces dix dernières années à l'interface entre traitement d'image et statistique. Il débute par l'étude d'un exemple jouet, l'estimation de la moyenne d'un vecteur gaussien, qui permet de présenter le type de question statistique auquel je me suis intéressé, de souligner l'importance de la théorie de l'approximation et de présenter le principe de parcimonie d'Ockham. Après une brève description de l'ensemble des contributions, le manuscrit s'organise autour des modèles statistiques que j'ai pu rencontrés: modèle de bruit blanc, modèle de densité et modèle de densité conditionnelle.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Raspaud, Martin. „Modèles spectraux hiérarchiques pour les sons et applications“. Bordeaux 1, 2007. https://zenodo.org/records/10477958.

Der volle Inhalt der Quelle
Annotation:
Dans ce mémoire, nous nous intéressons à l'étirement temporel du son sans artefact. Nous nous plaçons dans le cadre des sons quasi-harmoniques à faible niveau de bruit. Nous présentons ici une nouvelle approche hiérarchique de la modélisation du son, en nous basant sur la transformée de Fourier et le modèle sinusoïdal appliqués aux paramètres de contrôle du son. Nous introduisons donc la modélisation des signaux de contrôle du son ainsi que ses applications (incluant des améliorations de l'algorithme du suivi de partiels), puis nous ouvrons la voie vers la modélisation au niveau musical en nous basant sur la recherche de périodicités dans la mélodie. A chaque niveau, nous proposons une technique d'étirement temporel du son. En manipulant les paramètres des signaux de contrôle du son, nous arrivons ainsi à un étirement du son préservant la hauteur, le timbre et les modulations.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Dessein, Arnaud. „Méthodes Computationnelles en Géométrie de l'Information et Applications Temps Réel au Traitement du Signal Audio“. Phd thesis, Université Pierre et Marie Curie - Paris VI, 2012. http://tel.archives-ouvertes.fr/tel-00768524.

Der volle Inhalt der Quelle
Annotation:
Cette thèse propose des méthodes computationnelles nouvelles en géométrie de l'information, avec des applications temps réel au traitement du signal audio. Dans ce contexte, nous traitons en parallèle les problèmes applicatifs de la segmentation audio en temps réel, et de la transcription de musique polyphonique en temps réel. Nous abordons ces applications par le développement respectif de cadres théoriques pour la détection séquentielle de ruptures dans les familles exponentielles, et pour la factorisation en matrices non négatives avec des divergences convexes-concaves. D'une part, la détection séquentielle de ruptures est étudiée par l'intermédiaire de la géométrie de l'information dualement plate liée aux familles exponentielles. Nous développons notamment un cadre statistique générique et unificateur, reposant sur des tests d'hypothèses multiples à l'aide de rapports de vraisemblance généralisés exacts. Nous appliquons ce cadre à la conception d'un système modulaire pour la segmentation audio temps réel avec des types de signaux et de critères d'homogénéité arbitraires. Le système proposé contrôle le flux d'information audio au fur et à mesure qu'il se déroule dans le temps pour détecter des changements. D'autre part, nous étudions la factorisation en matrices non négatives avec des divergences convexes-concaves sur l'espace des mesures discrètes positives. En particulier, nous formulons un cadre d'optimisation générique et unificateur pour la factorisation en matrices non négatives, utilisant des bornes variationnelles par le biais de fonctions auxiliaires. Nous mettons ce cadre à profit en concevant un système temps réel de transcription de musique polyphonique avec un contrôle explicite du compromis fréquentiel pendant l'analyse. Le système développé décompose le signal musical arrivant au cours du temps sur un dictionnaire de modèles spectraux de notes. Ces contributions apportent des pistes de réflexion et des perspectives de recherche intéressantes dans le domaine du traitement du signal audio, et plus généralement de l'apprentissage automatique et du traitement du signal, dans le champ relativement jeune mais néanmoins fécond de la géométrie de l'information computationnelle.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Fail, Abderrahim. „Etude de capteurs-émetteurs et des procédés de télétransmission associés : applications à la rééducation des membres inférieurs“. Vandoeuvre-les-Nancy, INPL, 1990. http://www.theses.fr/1990INPL055N.

Der volle Inhalt der Quelle
Annotation:
Après un rappel sur les techniques de mesures, la première partie est consacrée à la conception et la réalisation de capteurs de contraintes mécaniques ainsi que le traitement des signaux recueillis; principalement les problèmes de rejection en mode commun et de dérive en température associés à l'amplification. La deuxième partie traite la transmission et la réception des données. En transmission, divers procédés de modulation et de codage numérique sont proposés ainsi que le choix de l'émetteur RF et les problèmes d'adaptation d'antenne. En réception, la démodulation et le décodage associés à l'émission ainsi que le filtrage des signaux FM et la compensation de dérive en température sont exposés de façon détaillée. La troisième partie décrit des applications biomédicales utilisant un capteur télémétrique de force
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Wang, Hongzhi. „Architectures reconfigurables à base d'opérateur CORDIC pour le traitement du signal: Applications aux récepteurs MIMO“. Phd thesis, Université Rennes 1, 2009. http://tel.archives-ouvertes.fr/tel-00446156.

Der volle Inhalt der Quelle
Annotation:
Cette thèse porte sur la mise en œuvre des architectures reconfigurables pour répondre aux besoins des systèmes de communication : des débits élevés et une grande flexibilité supportant les évolutivités des futurs systèmes. Nous nous intéressons particulièrement aux systèmes MIMO. Les architectures proposées utilisent l'opérateur CORDIC (COordinate Rotation DIgital Computing) comme opérateur commun, ainsi que les techniques de reconfiguration statique et partielle de FPGA en vue d'une optimisation et d'une adaptation dynamique des ressources matérielles aux caractéristiques de la communication. Le nombre d'opérateurs CORDIC peut donc être modifié par la reconfiguration statique pour s'adapter aux différents récepteurs MIMO et aux différents débits demandés. Les interconnexions entre les opérateurs CORDIC peuvent être modifiées par la reconfiguration partielle et dynamique de FPGA afin d'optimiser les ressources matérielles. L'impact du nombre d'étage de l'opérateur CORDIC sur le TEB et EQM du décodeur a été étudié. Trois exemples de récepteurs MIMO ont été réalisés à l'aide cette architecture reconfigurable: V-BLAST Square Root, MMSE et CMA. L'utilisation de cette architecture permet de diminuer les ressources matérielles sans dégrader les performances du décodeur MIMO en terme de TEB et EQM.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

DECHELLE, FRANCOIS. „Definition d'une station de developpement pour des applications de traitement du signal sur multi-processeurs“. Paris 6, 1989. http://www.theses.fr/1989PA066585.

Der volle Inhalt der Quelle
Annotation:
Les methodes actuelles de programmation dans le domaine des systemes temps reel de traitement du signal conduisent a des temps de developpement tres longs et a des couts penalisants dans un contexte industriel. Une methode de programmation est proposee, visant a accelerer le passage de la specification de l'application a son execution temps reel sur un reseau de processeurs de traitement du signal. Elle repose sur l'utilisation d'un langage flots de donnees et temps reel synchrone, signal. Les differentes etapes de cette methode sont detaillees: specification de l'application et simulation fonctionnelle, repartition, mise en uvre sur une architecture multi-processeurs. Une architecture materielle et logicielle a ete definie et realisee a fin d'experimentation. Elle est construite autour du processeur de traitement du signal ts68930 (thomson semiconducteurs et trt). Ses differents elements sont decrits: architecture multi-processeurs, systeme temps reel, interface utilisateur
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Symul, Thomas. „Amplification paramétrique non linéaire : applications au traitement tout optique du signal et à l'information quantique“. Paris 6, 2001. http://www.theses.fr/2001PA066480.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Wang, Hongzhi. „Architectures reconfigurables à base d’opérateur CORDIC pour le traitement du signal : applications aux récepteurs MIMO“. Rennes 1, 2009. http://www.theses.fr/2009REN1S028.

Der volle Inhalt der Quelle
Annotation:
Cette thèse porte sur la mise en œuvre des architectures reconfigurables pour répondre aux besoins des systèmes de communication : des débits élevés et une grande flexibilité supportant les évolutivités des futurs systèmes. Nous nous intéressons particulièrement aux systèmes MIMO. Les architectures proposées utilisent l’opérateur CORDIC (COordinate Rotation DIgital Computing) comme opérateur commun, ainsi que les techniques de reconfiguration statique et partielle de FPGA en vue d’une optimisation et d’une adaptation dynamique des ressources matérielles aux caractéristiques de la communication. Le nombre d’opérateurs CORDIC peut donc être modifié par la reconfiguration statique pour s’adapter aux différents récepteurs MIMO et aux différents débits demandés. Les interconnexions entre les opérateurs CORDIC peuvent être modifiées par la reconfiguration partielle et dynamique de FPGA afin d’optimiser les ressources matérielles. L’impact du nombre d’étage de l’opérateur CORDIC sur le TEB et EQM du décodeur a été étudié. Trois exemples de récepteurs MIMO ont été réalisés à l’aide cette architecture reconfigurable: V-BLAST Square Root, MMSE et CMA. L'utilisation de cette architecture permet de diminuer les ressources matérielles sans dégrader les performances du décodeur MIMO en terme de TEB et EQM
This thesis addresses the realization of reconfigurable architectures to answer the communication system requirement like high performance on data rate and flexibility supporting the evolution of future systems. We are particularly interested in MIMO applications. The proposed architectures use CORDIC (COordinate Rotation DIgital Computing) operator as common operator. Also the static and partial reconfiguration of FPGA is performed in view of an optimization and dynamic adaptation of hardware resources according to communication system specifications. The number of CORDIC operators can be changed by static reconfiguration to adapt to different MIMO receivers and different required data rate. The interconnections between CORDIC operators can be changed by partial and dynamic FPGA reconfiguration to optimize the hardware resources. The impact of step number of CORDIC operator on BER and MSE is also studied. Three MIMO receivers are realized in this architecture: V-BLAST Square Root, MMSE and CMA. The use of these architectures allows reducing the hardware resources without BER and MSE degradation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Thioune, Abdoulaye. „Décomposition modale empirique et décomposition spectrale intrinsèque : applications en traitement du signal et de l’image“. Thesis, Paris Est, 2015. http://www.theses.fr/2015PESC1127/document.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, il est question d'une étude sur les méthodes d'analyse temps fréquence, temps échelle et plus particulièrement sur la décomposition modale empirique en faisant d'abord un parcours sur les méthodes traditionnelles, de l'analyse de Fourier à la transformée en ondelettes, notamment la représentation multi-résolution. Le besoin d'une précision sur les mesures aussi bien dans l'espace temporel que dans l'espace fréquentiel a toujours été une préoccupation majeure. En fait, la transformation de Fourier ne permet pas de concilier la description fréquentielle et la localisation dans le temps. La transformée de Fourier à court terme (TFCT) et ses dérivées - notamment le spectrogramme - ont depuis longtemps été les méthodes temps-fréquence les plus utilisées dans les applications pratiques. Il faut cependant reconnaître que malgré ses nombreux aspects séduisants, ces techniques sont naturellement limitées par le fait qu'elles se sont montrées inefficaces pour l'analyse de signaux non-stationnaires. La transformée en ondelettes a connu un grand succès ces dernières décennies avec le nombre important de ses applications en traitement du signal et de l'image. Malgré son efficacité dans la représentation et la manipulation des signaux, même non-stationnaires, une connaissance a priori sur le signal à décomposer est nécessaire pour un choix d'ondelette adéquat à chaque type de signal. La décomposition modale empirique - EMD pour Empirical Mode Decomposition - est une méthode de décomposition de signaux non-stationnaires ou issus de systèmes non linéaires, en une somme de modes, chaque mode étant localisé en fréquence. Cette décomposition est associée à une transformation de Hilbert-Huang (HHT) dans le but d'extraire localement une fréquence instantanée et une amplitude instantanée. Elle s'apparente à la décomposition en ondelettes avec l'avantage supplémentaire que constitue son auto-adaptabilité. Dans la suite de ces travaux, nous avons introduit une nouvelle méthode de décomposition basée sur une décomposition spectrale d'un opérateur d'interpolation basé sur les équations aux dérivées partielles. La nouvelle méthode appelée Décomposition Spectrale Intrinsèque, - SID, pour Spectrale Intrinsic Decomposition - est auto-adaptative et est plus générale que le principe de base de la Décomposition Modale Empirique. La méthode SID permet de produire un dictionnaire de Fonction Mode Spectrale Propre, en - anglais Spectral Proper Mode Function (SPMF) - qui sont semblables à des atomes dans les représentations parcimonieuses
In this thesis, it is about a study on the time-frequency, time-scale analysis methods and more particularly on Empirical Mode Decomposition (EMD), by first a course on traditional methods from Fourier analysis to wavelets, including the multiresolution representation. The need for precision measurements both in time space and in frequency space has always been a major preoccupation. In fact, the Fourier transformation does not reconcile the frequency description and location in time. The Short-Term Fourier Transform (STFT) and its derivatives - including the spectrogram - have long been the most used in practical applications. It must be recognized that despite its many attractive aspects, these technics are naturally limited by the fact that they were ineffective for non-stationary signals analysis. The wavelet transform has been very successful in recent decades with the large number of its applications in signal and image processing. Despite its effectiveness in the representation and manipulation of signals, even non-stationary, a priori knowledge about the signal to be decomposed is necessary for an appropriate wavelet choice for each type of signal. The empirical mode decomposition (EMD) is a decomposition method of non-stationary or from non-linear systems signals, in an amount of modes, each mode being localized in frequency. This decomposition is associated with a Hilbert-Huang transformation (HHT) to locally extract instantaneous amplitude and instantaneous frequency. It is similar to the wavelet decomposition with the added benefit that constitutes its auto-adaptability. In the remainder of this work, we introduced a new decomposition method based on a spectral decomposition of an interpolation intrinsic operator. The new method called Spectral Decomposition Intrinsic (SID) is auto-adaptive and is more general than the basic principle of Empirical Mode Decomposition. The SID method can produce a dictionary of Spectral Proper Mode Functions (SPMF) that are similar to atoms in sparse representations
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Doghmane, Noureddine. „Application des techniques de traitement du signal en spectroscopie Auger“. Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb37613301g.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Wu, Jiasong. „Algorithmes rapides pour transformées orthogonales discrètes et leurs applications en traitement du signal et de l'image“. Rennes 1, 2011. http://www.theses.fr/2011REN1S153.

Der volle Inhalt der Quelle
Annotation:
The thesis mainly concentrates on the fast algorithms’ research of some recently proposed transforms (MDCT, MCLT, DHT, SCHT, CS-SCHT). We reduce their computational complexity to achieve the practical requirement, compare their performance with other ones and also explore the potential applications in the signal and image processing domain. The main research achievements and contributions are summarized as follows: 1. Fast algorithms for the lapped orthogonal transforms (1) For one-dimensional (1-D) MDCT, we proposed a unified framework for mixed-radix MDCT algorithm, which is composed of a radix-2 decimation-in-frequency (DIF) algorithm and radix-q algorithms, for q = 3, 5, 7, 9,…, including radix-3 DIF algorithm, radix-3 decimation-in-time (DIT) algorithm and radix-q DIT algorithm. (2) For two-dimensional (2-D) MDCT, we proposed a fast algorithm based on 2-D DCT-II. (3) For 1-D MCLT, we proposed an indirect algorithm based on GDHT-II. 2. Fast algorithms for discrete Hartley transform (DHT) and applications (1) For 1-D DHT, considering a long length-N sequence is composed of three adjacent short length-N/3 ones, if we know the DHT coefficients of three short ones, we proposed a fast algorithm to compute the DHT coefficients of the length-N sequence efficiently. (2) For 2-D DHT, we proposed two fast algorithms. The first one is odd-factor split vector radix-(2×2)/(8×8) DIF algorithm and the second one is vector radix-(3×3) DIF algorithm. We also applied the first algorithm to medical image encoding and decoding. (3) For three-dimensional (3-D) GDHT, we proposed a vector radix-(2×2×2) DIF GDHT-III algorithm and applied it to the computation of 3-D skew convolution. 3. Fast algorithms for sliding complex Hadamard transforms and applications (1) For 1-D SCHT, we proposed two sliding fast algorithms such as the radix-2 decimation-in-sequency (DIS) algorithm and the radix-4 DIS algorithm. (2) For 1-D CS-SCHT, we proposed three sliding fast algorithms, including a radix-2 DIS algorithm, a radix-4 DIS algorithm, and a gray code kernel (GCK) algorithm. (3) We applied the proposed sliding SCHT and sliding CS-SCHT algorithm to signal spectrum analysis and transform domain adaptive filtering
Cette thèse se focalise principalement sur les algorithmes rapides dédiés à certaines transformations trigonométriques (MDCT, MCLT, DHT) et à des transformations de Hadamard (SCHT et CS-SCHT). Nous proposons des approches algorithmiques qui permettent de réduire leur complexité numérique et nous comparons leur performance à d’autres algorithmes de la littérature. Nous explorons aussi leurs applications potentielles en traitement du signal et de l’image. Les principaux résultats et contributions de cette thèse peuvent être résumés ainsi : 1. Algorithmes rapides pour les transformations orthogonales à recouvrement (1) Pour la MDCT monodimensionnelle, nous avons proposé une approche unifiée pour des algorithmes de MDCT combinant plusieurs subdivisions du nombre de points du signal à transformer. Il s’agit de méthodes agrégeant des algorithmes de décimation en fréquence et ou en temps pour un nombre de points composite en puissance de 2 et en puissance d’un nombre impair q (radix-2 decimation-in-frequency (DIF), radix-3 DIF algorithm, radix-3 decimation-in-time (DIT) algorithm et radix-q DIT algorithm). (2) Pour la MDCT en 2D, nous avons proposé un algorithme rapide basé sur la DCT de type II. (3) En ce qui concerne la MCLT monodimensionnelle, nous avons proposé une approche de mise en œuvre à partir de la transformée de Hartley généralisée de type II (GDHT-II). 2. Algorithmes rapides pour la transformée de Hartley discrète (GHT) (1) Pour la DHT monodimensionnelle, en considérant une séquence de longueur N subdivisée en trois sous séquences adjacentes de longueur N/3 dont on connaît les DHT, nous avons proposé un algorithme rapide et efficace de calcul de la DHT de la séquence. (2) Nous avons proposé deux algorithmes rapides pour la DHT en 2D. Le premier est un algorithme de type DIF où le nombre de points est composite et multiple impair d’une puissance de 2. Nous avons mis en œuvre cet algorithme pour la compression d’image notamment médicale. Le second, se fond sur une approche DIF pour un nombre de points qui est une puissance de trois. (3) Une extension en 3D a aussi été entreprise pour la GDHT, nous avons proposé un algorithme pour cette transformation en prenant comme point de départ l’algorithme DIF et en considérant un nombre de points en puissance de deux. Cette approche a été mise en œuvre pour le calcul de convolutions circulaires en 3D. 3. Algorithmes rapides pour la transformée complexe de Hadamard sur fenêtre glissante (SCHT). (1) Dans le cas monodimensionnel, nous avons proposé deux algorithmes, l’un du type « radix-2 DIS » et l’autre du type « radix-4 DIS » pour le calcul de la SCHT. (2) Pour le calcul de la transformation CS-SCHT, nous avons proposé trois approches rapides, incluant les méthodes « radix-2 DIS » et « radix-4 DIS » et le codage de gray (GCK). (3) Nous avons mis en œuvre les transformations SCHT et CS-SCHT dans le contexte de l’estimation spectrale et du filtrage adaptatif
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Benazouz, Mohamed. „Dimensionnement des mémoires pour les applications de traitement de flux de données“. Paris 6, 2012. http://www.theses.fr/2012PA066067.

Der volle Inhalt der Quelle
Annotation:
Les récents travaux en conception électronique au niveau système (ESL) et la synthèse haut niveau (HLS) ont permis l'essor des techniques d'exploration de l'espace de conception dans le but de satisfaire des exigences croissantes tout en réduisant le temps de mise sur le marché. Plusieurs métriques sont utilisées durant ce processus d'exploration; le débit constitue une des plus importantes mesures de performance d'une application de traitement de flux de données. Un des facteurs qui limite le débit atteint est la taille des mémoires tampons (buffers) assurant l'échange de données entre les différentes tâches d'une application. Des méthodes exactes ou heuristiques ont été proposées ces dernières années pour calculer la taille des buffers sous contrainte de débit. Cependant, elles ne sont pas satisfaisantes du fait de leur temps de calcul prohibitif. Le but de cette thèse est de proposer une approche analytique permettant de résoudre en temps polynomial le problème de minimisation de la taille globale des mémoires tampons tout en garantissant d'atteindre un débit préfixé. Deux modèles de calcul (MoC) très répandus ont été retenus pour décrire le parallélisme des tâches et les taux de transfert de données entre elles: graphes d'événements généralisés temporisés (TMWEG) et graphes cyclo-static dataflow (CSDFG). En supposant que les tâches sont exécutées périodiquement, nous montrons que le problème d'optimisation avec contrainte de débit minimum est un programme linéaire en nombres entiers (PLNE). Nous proposons alors des algorithmes polynomiaux exacts pour certaines sous-classes de graphes ainsi qu'un algorithme polynomial 2-approché dans le cas général.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Flamary, Rémi. „Apprentissage statistique pour le signal : applications aux interfaces cerveau-machine“. Phd thesis, Université de Rouen, 2011. http://tel.archives-ouvertes.fr/tel-00687501.

Der volle Inhalt der Quelle
Annotation:
Les Interfaces Cerveau-Machine (ICM) nécessitent l'utilisation de méthodes d'apprentissage statistique pour la reconnaissance de signaux. Dans cette thèse, nous proposons une approche générale permettant d'intégrer des connaissances a priori dans le processus d'apprentissage. Cette approche consiste à apprendre de manière jointe le classifieur et la représentation des données lors d'une optimisation unique. Nous nous sommes plus particulièrement intéressés à des problèmes de sélection de capteurs et proposons plusieurs termes de régularisation adaptés pour ces problèmes. Notre première contribution est une méthode d'apprentissage supervisé de filtres: le filtrage vaste marge. Un filtrage maximisant la marge entre les échantillons est appris et permet de s'adapter automatiquement aux caractéristiques des signaux tout en restant interprétable. Une application ICM et une extension 2D du filtrage a été réalisée. La seconde contribution est une méthode d'apprentissage multitâche parcimonieuse. Elle permet de sélectionner de manière jointe un ensemble de noyaux pertinents pour l'ensemble des tâches de classification. Des algorithmes efficaces ont été proposés pour résoudre le problème d'optimisation et des expérimentations numériques ont montré l'intérêt de l'approche. Finalement, la troisième contribution est une application de l'apprentissage multitâche parcimonieux sur un ensemble de jeux de données ICM. Un terme de régularisation plus général permettant de promouvoir une similarité entre classifieurs est également proposé. Les résultats numériques ont montré qu'une réduction importante du temps de calibration peut être obtenue grâce à l'apprentissage multitâche proposé.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Morfu, Savério. „Etude des défauts et perturbations dans les réseaux électroniques dissipatifs non linéaires : applications à la transmission et au traitement du signal“. Dijon, 2002. http://www.theses.fr/2002DIJOS015.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Latiri, Mohamed Anis. „Architecture et conception de récepteur reconfigurable à échantillonnage RF pour les applications mutistandard“. Paris, ENST, 2008. http://pastel.archives-ouvertes.fr/pastel-00004551/fr/.

Der volle Inhalt der Quelle
Annotation:
Le développement rapide des systèmes de communication sans fil exige des architectures radio de plus en plus flexibles et reconfigurables. Le concept de "Software Defined Radio" qui décrit une chaîne de transmission totalement reconfigurable par logiciel répond à cette demande mais reste irréalisable aujourd'hui, en raison des fortes contraintes imposées sur le convertisseur analogique numérique. Plusieurs techniques ayant pour but de déplacer le traitement complexe des blocs RF et analogiques vers le domaine numérique ont été développées récemment. Basées sur l'échantillonnage direct RF et sur le traitement du signal analogique à temps discret, ces techniques permettent d'obtenir une grande flexibilité, un haut niveau d'intégration et une faible consommation électrique. Ces concepts ont été utilisés dans cette thèse pour développer le front-end RF d'un récepteur radio reconfigurable pour applications multi-standards. Composé principalement de deux étages de traitement analogique à temps discret, le circuit réalise les opérations d'échantillonnage RF, filtrage anti-repliement, translation en fréquences, décimation et filtrage passe-bas. Les standards de communication GSM900 et 802. 11g ont été choisis pour valider la flexibilité et la reconfigurabilité de l'architecture. Le circuit a été conçu en technologie CMOS 90nm et des premiers résultats de mesures ont démontré la fonctionnalité du récepteur. Un filtre anti-repliement de second ordre totalement passif a été également étudié et implémenté dans le récepteur proposé. Ce filtre permet d'améliorer considérablement la réjection d'alias et d'adresser plusieurs bandes de fréquences RF grâce à sa structure reconfigurable
The fast development of wireless communication systems requires more flexible and cost effective radio architectures. The concept of "Software Defined Radio" where communication standards are chosen by reconfiguration of hardware is attractive but still unrealistic at present time, due to the high requirements imposed on the analog to digital converter. Different techniques for shifting the RF and analog circuit design complexity to digitally intensive domain were developed recently. These techniques are based on direct RF sampling and discrete-time analog signal processing and allow for a great flexibility and ease of reconfigurability, as well as a high level of hardware integration and a reduction of cost and power consumption. These concepts have been used in this thesis to develop a reconfigurable discrete-time radio receiver front-end. The circuit, mainly structured around two discrete-time analog signal processing stages, performs RF sampling, anti-alias filtering, frequency downconversion, decimation and lowpass filtering. The GSM900 and 802. 11g communication standards have been targeted in order to validate the flexibility and reconfigurability of the receiver. The circuit has been designed in 90nm CMOS technology and first measurement results demonstrated the functionality of the receiver. In addition, a fully passive second order discrete-time anti-alias filter has been described and included in the proposed receiver. This filter is intended to considerably improve the alias filter rejection and can be tuned to different RF frequency bands thanks to its reconfigurable structure and is hence suitable for true multi-standard operations
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

Flamary, Rémi. „Apprentissage statistique pour le signal : applications aux interfaces cerveau-machine“. Phd thesis, Rouen, 2011. http://www.theses.fr/2011ROUES044.

Der volle Inhalt der Quelle
Annotation:
Les Interfaces Cerveau-Machine (ICM) nécessitent l'utilisation de méthodes d'apprentissage statistique pour la reconnaissance de signaux. Dans cette thèse, nous proposons une approche générale permettant d'intégrer des connaissances a priori dans le processus d'apprentissage. Cette approche consiste à apprendre de manière jointe le classifieur et la représentation des données lors d'une optimisation unique. Nous nous sommes plus particulièrement intéressés à des problèmes de sélection de capteurs et proposons plusieurs termes de régularisation adaptés pour ces problèmes. Notre première contribution est une méthode d'apprentissage supervisé de filtres: le filtrage vaste marge. Un filtrage maximisant la marge entre les échantillons est appris et permet de s'adapter automatiquement aux caractéristiques des signaux tout en restant interprétable. Une application ICM et une extension 2D du filtrage a été réalisée. La seconde contribution est une méthode d'apprentissage multitâche parcimonieuse. Elle permet de sélectionner de manière jointe un ensemble de noyaux pertinents pour l'ensemble des tâches de classification. Des algorithmes efficaces ont été proposés pour résoudre le problème d'optimisation et des expérimentations numériques ont montré l'intérêt de l'approche. Finalement, la troisième contribution est une application de l'apprentissage multitâche parcimonieux sur un ensemble de jeux de données ICM. Un terme de régularisation plus général permettant de promouvoir une similarité entre classifieurs est également proposé. Les résultats numériques ont montré qu'une réduction importante du temps de calibration peut être obtenue grâce à l'apprentissage multitâche proposé
Brain Computer Interfaces (BCI) require the use of statistical learning methods for signal recognition. In this thesis we propose a general approach using prior knowledge on the problem at hand through regularization. To this end, we learn jointly the classifier and the feature extraction step in a unique optimization problem. We focus on the problem of sensor selection, and propose several regularization terms adapted to the problem. Our first contribution is a filter learning method called large margin filtering. It consists in learning a filtering maximizing the margin between samples of each classe so as to adapt to the properties of the features. In addition, this approach is easy to interpret and can lead to the selection of the most relevant sensors. Numerical experiments on a real life BCI problem and a 2D image classification show the good behaviour of our method both in terms of performance and interpretability. The second contribution is a general sparse multitask learning approach. Several classifiers are learned jointly and discriminant kernels for all the tasks are automatically selected. We propose some efficient algorithms and numerical experiments have shown the interest of our approach. Finally, the third contribution is a direct application of the sparse multitask learning to a BCI event-related potential classification problem. We propose an adapted regularization term that promotes both sensor selection and similarity between the classifiers. Numerical experiments show that the calibration time of a BCI can be drastically reduced thanks to the proposed multitask approach
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Rosenberg, Nicole. „La suppression du fond en spectrométrie Auger : étude générale et applications“. Lyon 1, 1990. http://www.theses.fr/1990LYO10004.

Der volle Inhalt der Quelle
Annotation:
Pour mener a bien, en spectrometrie auger, une analyse qualitative finie ou quantitative, il faut pouvoir eliminer le fond c. -a-d. Les contributions des electrons retrodiffuses, secondaires et auger inelastiques. L'evaluation de la contribution des electrons auger inelastiques s'appuie sur les travaux theoriques de tougaard et tofterup. La section efficace differentielle de diffusion inelastique est obtenue a partir du spectre de retrodiffuses lorsque l'energie primaire est voisine de celle des electrons etudies. Les travaux theoriques supposant une symetrie cylindrique, realisee dans la pratique par les analyseurs a miroir cylindrique; cependant une soustraction satisfaisante a ete effectuee sur les spectres realises avec un analyseur hemispherique. Les pics auger deduits de cette soustraction de fond sont tres voisins de ceux obtenus grace a une deconvolution par un spectre de retrodiffusion. La precision du fond est telle que l'on peut determiner le spectre llv du silicium, d'intensite tres faible. Le rapport signal sur bruit, mediocre, est ameliore par une methode d'intercorrelation avec une fonction convenablement choisie
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie