Tesi sul tema "Séparation en composantes"

Segui questo link per vedere altri tipi di pubblicazioni sul tema: Séparation en composantes.

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Vedi i top-50 saggi (tesi di laurea o di dottorato) per l'attività di ricerca sul tema "Séparation en composantes".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Vedi le tesi di molte aree scientifiche e compila una bibliografia corretta.

1

Betoule, Marc. "Analyse des données du fond diffus cosmologique : simulation et séparation de composantes". Phd thesis, Observatoire de Paris, 2009. http://tel.archives-ouvertes.fr/tel-00462157.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La prochaine génération d'expériences dédiées à la mesure des anisotropies de température et de polarisation du fond diffus cosmologique (CMB), inaugurée avec le lancement de Planck, va permettre la détection et l'étude d'effets de plus en plus fins. Toutefois, la superposition d'émissions astrophysiques d'avant-plan contamine le signal cosmologique et constituera, dans ces futures données, la principale source d'incertitude devant le bruit instrumental. L'amélioration de la modélisation des émissions d'avant-plan et le développement de méthodes statistiques pour permettre leur séparation sont donc des étapes cruciales de l'analyse scientifique des mesures à venir. Ce travail s'inscrit dans cette problématique et comprend le développement du Planck Sky Model, un outil de modélisation et de simulation de l'émission du ciel. Ces simulations sont par ailleurs mises à profit pour le développement et l'évaluation de méthode statistiques adaptées au problème des avant-plans. Nous explorons ainsi les possibilités offertes par l'analyse en ondelettes sur la sphère (needlets) pour le problème de l'estimation spectrale sur des mesures incomplètes avec une contamination inhomogène, et proposons une méthode pour traiter la contamination induites aux petites échelles par les sources ponctuelles dans les données Planck et WMAP. Nous étudions également l'impact des avant-plans sur la possibilité de détection des ondes gravitationnelles primordiales (prédites par l'inflation) et proposons une prospective des performances des futures missions dédiées à leur mesure.
2

Betoule, Marc. "Analyse des données du fond diffus cosmologique : simulation et séparation de composantes". Phd thesis, Observatoire de Paris (1667-....), 2009. https://theses.hal.science/tel-00462157v2.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La prochaine génération d'expériences dédiées à la mesure des anisotropies de température et de polarisation du fond diffus cosmologique (CMB), inaugurée avec le lancement de Planck, va permettre la détection et l'étude d'effets de plus en plus fins. Toutefois, la superposition d'émissions astrophysiques d'avant-plan contamine le signal cosmologique et constituera, dans ces futures données, la principale source d'incertitude devant le bruit instrumental. L'amélioration de la modélisation des émissions d'avant-plan et le développement de méthodes statistiques pour permettre leur séparation sont donc des étapes cruciales de l'analyse scientifique des mesures à venir. Ce travail s'inscrit dans cette problématique et comprend le développement du Planck Sky Model, un outil de modélisation et de simulation de l'émission du ciel. Ces simulations sont par ailleurs mises à profit pour le développement et l'évaluation de méthode statistiques adaptées au problème des avant-plans. Nous explorons ainsi les possibilités offertes par l'analyse en ondelettes sur la sphère (needlets) pour le problème de l'estimation spectrale sur des mesures incomplètes avec une contamination inhomogène, et proposons une méthode pour traiter la contamination induites aux petites échelles par les sources ponctuelles dans les données Planck et WMAP. Nous étudions également l'impact des avant-plans sur la possibilité de détection des ondes gravitationnelles primordiales (prédites par l'inflation) et proposons une prospective des performances des futures missions dédiées à leur mesure
The next generation of experiments dedicated to measuring temperature and polarization anisotropies of the microwave background radiation (CMB), inaugurated with the launch of the Planck satellite, will enable the detection and study of increasingly subtle effects. However, the superposition of astrophysical foreground emissions hinder the analysis of the cosmological signal and will contribute as the main source of uncertainty in the forthcoming measurements. An improved modeling of foreground emissions and the development of statistical methods to extract the cosmological information from this contamination are thus crucial steps in the scientific analysis of incoming datasets. In this work we describe the development of the Planck Sky Model, a tool for modeling and simulating the sky emission. We then make use of these simulations to develop and evaluate statistical treatments of foreground emission. We explore the efficiency of wavelet analysis on the sphere (needlets) in the domain of spectral estimation on incomplete data with inhomogeneous contamination, and design a method for treating small scales contamination induced by point sources in the Planck and WMAP data. We also study the impact of foregrounds on our ability to detect primordial gravitational waves (predicted by inflation) and offer forecasts of the performance of future dedicated experiments
3

Anthoine, Sandrine. "Plusieurs approches en ondelettes pour la séparation et déconvolection de composantes. Application à des données astrophysiques". Phd thesis, Ecole Polytechnique X, 2005. http://pastel.archives-ouvertes.fr/pastel-00001556.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse est consacree au problµeme de separation de composantes lorsque celles ci sont des images de structure differente et que l'on en observe un ou plusieurs melange(s) ou(s) et bruite(s). Les problµemes de deconvolution et de separation, traditionnellement etudies separement, sont ici traites simultanément. Une façon naturelle d'aborder le problµeme multicomposants/multiobservations est de generaliser les techniques de deconvolution d'une image unique. Le premier resultat presente est une etude mathematique d'un tel algorithme. Preuve est faite que celuici est convergent mais pas regularisant et une modification restaurant cette propriete est proposee. Le sujet principal est le developpement et la comparaison de deux methodes pour traiter la deconvolution et separation simultanees de composantes. La premiµere methode est basee sur les propriétes statistiques locales des composantes tandis que dans la seconde, ces signaux sont decrits par des espaces fonctionnels. Les deux methodes utilisent des transformees en ondelettes redondantes pour simplifier les donnees. Les performances des deux algorithmes sont evaluees et comparees dans le cadre d'un problµeme astrophysique : celui de l'extraction des amas de galaxies par l'effet Sunyaev-Zel'dovich dans les images multispectrales des anisotropies du fond cosmique. Des simulations realistes sont etudiees. On montre qu'µa haute resolution et niveau de bruit modere, les deux methodes permettent d'extraire des cartes d'amas de galaxies de qualite suffisante pour des etudes cosmologiques. Le niveau de bruit est un facteur limitant µa basse resolution et la methode statistique est robuste µa la presence de points sources.
4

Jarboui, Lina. "Méthodes avancées de séparation de sources applicables aux mélanges linéaires-quadratiques". Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30295/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans cette thèse, nous nous sommes intéressés à proposer de nouvelles méthodes de Séparation Aveugle de Sources (SAS) adaptées aux modèles de mélange non-linéaires. La SAS consiste à estimer les signaux sources inconnus à partir de leurs mélanges observés lorsqu'il existe très peu d'informations disponibles sur le modèle de mélange. La contribution méthodologique de cette thèse consiste à prendre en considération les interactions non-linéaires qui peuvent se produire entre les sources en utilisant le modèle linéaire-quadratique (LQ). A cet effet, nous avons développé trois nouvelles méthodes de SAS. La première méthode vise à résoudre le problème du démélange hyperspectral en utilisant un modèle linéaire-quadratique. Celle-ci se repose sur la méthode d'Analyse en Composantes Parcimonieuses (ACPa) et nécessite l'existence des pixels purs dans la scène observée. Dans le même but, nous proposons une deuxième méthode du démélange hyperspectral adaptée au modèle linéaire-quadratique. Elle correspond à une méthode de Factorisation en Matrices Non-négatives (FMN) se basant sur l'estimateur du Maximum A Posteriori (MAP) qui permet de prendre en compte les informations a priori sur les distributions des inconnus du problème afin de mieux les estimer. Enfin, nous proposons une troisième méthode de SAS basée sur l'analyse en composantes indépendantes (ACI) en exploitant les Statistiques de Second Ordre (SSO) pour traiter un cas particulier du mélange linéaire-quadratique qui correspond au mélange bilinéaire
In this thesis, we were interested to propose new Blind Source Separation (BSS) methods adapted to the nonlinear mixing models. BSS consists in estimating the unknown source signals from their observed mixtures when there is little information available on the mixing model. The methodological contribution of this thesis consists in considering the non-linear interactions that can occur between sources by using the linear-quadratic (LQ) model. To this end, we developed three new BSS methods. The first method aims at solving the hyperspectral unmixing problem by using a linear-quadratic model. It is based on the Sparse Component Analysis (SCA) method and requires the existence of pure pixels in the observed scene. For the same purpose, we propose a second hyperspectral unmixing method adapted to the linear-quadratic model. It corresponds to a Non-negative Matrix Factorization (NMF) method based on the Maximum A Posteriori (MAP) estimate allowing to take into account the available prior information about the unknown parameters for a better estimation of them. Finally, we propose a third BSS method based on the Independent Component Analysis (ICA) method by using the Second Order Statistics (SOS) to process a particular case of the linear-quadratic mixture that corresponds to the bilinear one
5

Anthoine, Sandrine. "Approches en ondelettes pour la séparation et la déconvolution simultanées de composantes : application à des données astrophysiques". Palaiseau, Ecole polytechnique, 2005. http://www.theses.fr/2005EPXX0019.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
6

Khan, Amir Ali. "Séparation de sources thermométriques". Phd thesis, Grenoble INPG, 2009. http://www.theses.fr/2009INPG0160.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail de thèse aborde un problème de la détection des fuites d'eau dans des digues en terre. L'écoulement préférentiel, un indicateur de destruction interne, résulte dans une anomalie thermique. Les capteurs DTS basés sur la fibre optique offrent une solution efficace pour les mesures spatio-temporelles de température. Les données thermométriques sont influencées par différents facteurs comme la réponse du sol, les variations saisonnières, l'environnement géomécanique, etc. Afin d'écarter des phénomènes comme les précipitations, nous proposons un critère basé sur le skewness et le kurtosis. La détection des fuites étant formulée comme un problème de séparation de sources, nous présentons un système basé sur la SVD et l'ICA pour séparer les informations utiles liées aux fuites des autres facteurs. Dans le cas où le nombre d'acquisitions en temps est limité, nous proposons un détecteur de singularités exploitant les dissimilarités entre les mesures journalières de température aux différentes distances
The aim of this research is to address the problem of leakage detection in embankment dikes. Significant flow of water through the dike, an indicator of internal erosion, results in a thermal anomaly. The measurement of temperature is therefore capable of revealing information linked to leakage. Fiber optic based distributed temperature sensors present en economically viable solution for recording spatio-temporel temperature data. The data are influenced by several factors amongst them the leakages, the response of the near surface, the seasonal variations, geomechanical environment, etc. In order to remove phenomena like precipitations, we propose a criterion based on skewness and kurtosis. Formulating leakage detection as a source separation problem, firstly, we present a system based on SVD and ICA for the separation of useful information relevant to the leakages from other “non relevant” factors. Secondly, for the case of limited acquisitions, we propose a singularity detector exploiting the dissimilarity of daily temperature variations at different distances
7

Khan, Amir Ali. "Séparation de sources thermométriques". Phd thesis, Grenoble INPG, 2009. http://tel.archives-ouvertes.fr/tel-00477455.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail de thèse aborde un problème de la détection des fuites d'eau dans des digues en terre. L'écoulement préférentiel, un indicateur de destruction interne, résulte dans une anomalie thermique. Les capteurs DTS basés sur la fibre optique offrent une solution efficace pour les mesures spatio-temporelles de température. Les données thermométriques sont influencées par différents facteurs comme la réponse du sol, les variations saisonnières, l'environnement géomécanique, etc. Afin d'écarter des phénomènes comme les précipitations, nous proposons un critère basé sur le skewness et le kurtosis. La détection des fuites étant formulée comme un problème de séparation de sources, nous présentons un système basé sur la SVD et l'ICA pour séparer les informations utiles liées aux fuites des autres facteurs. Dans le cas où le nombre d'acquisitions en temps est limité, nous proposons un détecteur de singularités exploitant les dissimilarités entre les mesures journalières de température aux différentes distances.
8

Karoui, Moussa Sofiane. "Méthodes de séparation aveugle de sources et application à la télédétection spatiale". Phd thesis, Université Paul Sabatier - Toulouse III, 2012. http://tel.archives-ouvertes.fr/tel-00790655.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse concerne la séparation aveugle de sources, qui consiste à estimer un ensemble de signaux sources inconnus à partir d'un ensemble de signaux observés qui sont des mélanges à paramètres inconnus de ces signaux sources. C'est dans ce cadre que le travail de recherche de cette thèse concerne le développement et l'utilisation de méthodes linéaires innovantes de séparation de sources pour des applications en imagerie de télédétection spatiale. Des méthodes de séparation de sources sont utilisées pour prétraiter une image multispectrale en vue d'une classification supervisée de ses pixels. Deux nouvelles méthodes hybrides non-supervisées, baptisées 2D-Corr-NLS et 2D-Corr-NMF, sont proposées pour l'extraction de cartes d'abondances à partir d'une image multispectrale contenant des pixels purs. Ces deux méthodes combinent l'analyse en composantes parcimonieuses, le clustering et les méthodes basées sur les contraintes de non-négativité. Une nouvelle méthode non-supervisée, baptisée 2D-VM, est proposée pour l'extraction de spectres à partir d'une image hyperspectrale contenant des pixels purs. Cette méthode est basée sur l'analyse en composantes parcimonieuses. Enfin, une nouvelle méthode est proposée pour l'extraction de spectres à partir d'une image hyperspectrale ne contenant pas de pixels purs, combinée avec une image multispectrale, de très haute résolution spatiale, contenant des pixels purs. Cette méthode est fondée sur la factorisation en matrices non-négatives couplée avec les moindres carrés non-négatifs. Comparées à des méthodes de la littérature, d'excellents résultats sont obtenus par les approches méthodologiques proposées.
9

Massouti, Bayan. "Contribution à la réalisation en temps réel de la séparation des composantes acoustique et turbulente d'un signal microphonique". Aix-Marseille 2, 1989. http://www.theses.fr/1989AIX22061.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Realisation d'une methode de filtrage en temps reel pour contribuer a l'amelioration des systemes actifs d'aborption acoustique en conduite dans les basses frequences, la ou la turbulence d'ecoulement affecte grandement la prise d'information microphonique
10

Chaouchi, Chahinez. "Méthodes de séparation aveugle de sources non linéaires, étude du modèle quadratique 2X2". Toulouse 3, 2011. http://thesesups.ups-tlse.fr/1375/.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse présente des méthodes de séparation aveugle de sources pour un modèle de mélange non-linéaire particulier, le cas quadratique avec auto-termes et termes croisés. Dans la première partie, nous présentons la structure de séparation étudiée qui se décline sous deux formes : étendue ou basique. Les propriétés de ce réseau récurrent sont ensuite analysées (points d'équilibre, stabilité locale). Nous proposons alors deux méthodes de séparation aveugle de sources. La première exploite les cumulants des observations en un bloc placé en amont de la structure récurrente. La deuxième méthode est basée sur une approche par maximum de vraisemblance. Le tout est validé par des simulations numériques
This thesis presents blind source separation (BSS) methods for a particular model of mixture, the quadratic one. The first part presents the separating structure (basic and extended versions). The equilibrium points of the structure and their local stability are then studied. We propose two methods of BSS. The first method uses the cumulants and the second is based on a maximum likelihood approach. We validate our results by numerical tests
11

Benachir, Djaouad. "Méthodes de séparation aveugle de sources pour le démélange d'images de télédétection". Toulouse 3, 2014. http://thesesups.ups-tlse.fr/2809/.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Nous proposons dans le cadre de cette thèse, de nouvelles méthodes de séparation aveugle de mélanges linéaires instantanés pour des applications de télédétection. La première contribution est fondée sur la combinaison de deux grandes classes de méthodes de Séparation Aveugle de Sources (SAS) : l'Analyse en Composantes Indépendantes (ACI), et la Factorisation en Matrices Non-négatives (NMF). Nous montrons comment les contraintes physiques de notre problème peuvent être utilisées pour éliminer une partie des indéterminations liées à l'ACI et fournir une première approximation des spectres de endmembers et des fractions d'abondance associées. Ces approximations sont ensuite utilisées pour initialiser un algorithme de NMF, avec pour objectif de les améliorer. Les résultats obtenus avec notre méthode sont satisfaisants en comparaison avec les méthodes de la littérature utilisées dans les tests réalisés. La deuxième méthode proposée est fondée sur la parcimonie ainsi que sur des propriétés géométriques. Nous commençons par mettre en avant quelques propriétés facilitant la présentation des hypothèses considérées dans cette méthode, puis nous mettons en lumière les grandes lignes de cette dernière qui est basée sur la détermination des zones bi-sources contenues dans une image de télédétection, ceci à l'aide d'un critère de corrélation. A partir des intersections des droites générées par ces zones bi-sources, nous détaillons le moyen d'obtention des colonnes de la matrice de mélange et enfin des sources recherchées. Les résultats obtenus, en comparaison avec plusieurs méthodes de la littérature sont très encourageants puisque nous avons obtenu les meilleures performances
Within this thesis, we propose new blind source separation (BSS) methods intended for instantaneous linear mixtures, aimed at remote sensing applications. The first contribution is based on the combination of two broad classes of BSS methods : Independent Component Analysis (ICA), and Non-negative Matrix Factorization (NMF). We show how the physical constraints of our problem can be used to eliminate some of the indeterminacies related to ICA and provide a first approximation of endmembers spectra and associated sources. These approximations are then used to initialize an NMF algorithm with the goal of improving them. The results we reached are satisfactory as compared with the classical methods used in our undertaken tests. The second proposed method is based on sparsity as well as on geometrical properties. We begin by highlighting some properties facilitating the presentation of the hypotheses considered 153 in the method. We then provide the broad lines of this approach which is based on the determination of the two-source zones that are contained in a remote sensing image, with the help of a correlation criterion. From the intersections of the lines generated by these two-source zones, we detail how to obtain the columns of the mixing matrix and the sought sources. The obtained results are quite attractive as compared with those reached by several methods from literature
12

Patanchon, Guillaume. "Analyse multi-composantes d'observations du fond diffus cosmologique". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2003. http://tel.archives-ouvertes.fr/tel-00004512.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les anisotropies du fond diffus cosmologique (CMB) sont une mine d'informations sur la physique de l'Univers primordial. Leur spectre spatial de puissance depend des parametres cosmologiques qui caracterisent le contenu et l'evolution de l'Univers. La mesure precise de ce spectre de puissance permet de contraindre fortement les modeles, mais est rendue difficile par la presence de emissions astrophysiques d'avant-plan qui se superposent au signal primordial. Apres une presentation succinte du modele standard de la cosmologie et des differentes sources d'emission dans le domaine millimetrique, nous passons en revue les methodes de separation de composantes couramment employees au sein de la communaute. Nous developpons dans cette these des methodes ameliorees pour la separation et la caracterisation des composantes de signal et de bruit presentes dans les donnees. Tout d'abord, les methodes classiques, basees sur un modele extremement simplifie, ne permettent pas de separer efficacement certaines composantes systematiques instrumentales correlees entre les detecteurs. Nous presentons une methode de separation de composante adaptee au traitement de tels effets systematiques. Cette technique est testee sur des simulations d'observation du satellite Planck.Par ailleurs, les methodes "standard" de separation de composantes ne sont pas entierement satisfaisantes, car elles ne sont pas optimisees pour l'estimation des spectres de puissance, et elles necessitent la connaissance, a priori, des spectres electromagnetiques des composantes. Nous decrivons une nouvelle methode destimation du spectre de puissance du CMB (et des autres composantes) realisant en aveugle la separation des composantes. Cette approche est validee a l'aide de nombreuses simulations. Dans une derniere partie, nous appliquons cette methode aux donnees obtenues avec l'experience Archeops.
13

Akam, Bita Isidore Paul. "Sur une approche de l'analyse en composantes indépendantes à la compression des images multi composantes". Phd thesis, Université Joseph Fourier (Grenoble), 2007. http://tel.archives-ouvertes.fr/tel-00151987.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans une première partie, nous définissons plusieurs schémas de compression en partant de l'état de l'art qu'est JPEG 2000 aujourd'hui. Les schémas de compressions que nous avons définis proposent d'utiliser une transformation pour la réduction de la redondance spatiale transformée en ondelette discrète (TOD) et une autre transformation pour réduire la redondance spectrale. Les transformations optimales sous les hypothèses faible distortion, permettant de réduire la redondance spectrale, s'obtiennent dans certains cas en minimisant un critère qui peut être interprété comme le critère de l'analyse en composantes indépendantes (ACI) (minimisation de l'information mutuelle) additionné d'un terme toujours positif ou nul qui est une certaine mesure à l'orthogonalité de la transformation obtenue. Les performances obtenues en intégrant ces transformations dans nos schémas de compression montrent une amélioration des performances en comparaison à la transformation de Karhunen Loève (TKL). Dans la deuxième partie, nous proposons un modèle de mélange convolutif pour rechercher une transformation unique réduisant à la fois les redondances spatiales et spectrales. Nous définissons le critère à minimiser sous les hypothèses faibles distortions et nous montrons que ce critère peut s'interprété comme celui de l'ACI pour la séparation et déconvolution lorsque le critère à minimiser est l'information mutuelle auquel s'additionne un terme toujours positif ou nul. Puis nous proposons deux algorithmes permettant d'obtenir d'une part la transformation minimisant le critère dans le cas général, et d'autre part celle qui minimise le critère sous la contrainte que la distorsion dans le domaine transformée est la même que celle du domaine de l'image.
14

Batany, Yves-Marie. "Séparation de signaux en mélanges convolutifs : contributions à la séparation aveugle de sources parcimonieuses et à la soustraction adaptative des réflexions multiples en sismique". Thesis, Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLEM093/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La séparation de signaux corrélés à partir de leurs combinaisons linéaires est une tâche difficile et possède plusieurs applications en traitement du signal. Nous étudions deux problèmes, à savoir la séparation aveugle de sources parcimonieuses et le filtrage adaptatif des réflexions multiples en acquisition sismique. Un intérêt particulier est porté sur les mélanges convolutifs : pour ces deux problèmes, des filtres à réponses impulsionnelles finies peuvent être estimés afin de récupérer les signaux désirés.Pour les modèles de mélange instantanés et convolutifs, nous donnons les conditions nécessaires et suffisantes pour l'extraction et la séparation exactes de sources parcimonieuses en utilisant la pseudo-norme L0 comme une fonction de contraste. Des équivalences entre l'analyse en composantes parcimonieuses et l'analyse en composantes disjointes sont examinées.Pour la soustraction adaptative des réflexions sismiques, nous discutons les limites des méthodes basées sur l'analyse en composantes indépendantes et nous soulignons l'équivalence avec les méthodes basées sur les normes Lp. Nous examinons de quelle manière les paramètres de régularisation peuvent être plus décisifs pour l'estimation des primaires. Enfin, nous proposons une amélioration de la robustesse de la soustraction adaptative en estimant les filtres adaptatifs directement dans le domaine des curvelets. Les coûts en calcul et en mémoire peuvent être atténués par l'utilisation de la transformée en curvelet discrète et uniforme
The recovery of correlated signals from their linear combinations is a challenging task and has many applications in signal processing. We focus on two problems that are the blind separation of sparse sources and the adaptive subtraction of multiple events in seismic processing. A special focus is put on convolutive mixtures: for both problems, finite impulse response filters can indeed be estimated for the recovery of the desired signals.For instantaneous and convolutive mixing models, we address the necessary and sufficient conditions for the exact extraction and separation of sparse sources by using the L0 pseudo-norm as a contrast function. Equivalences between sparse component analysis and disjoint component analysis are investigated.For adaptive multiple subtraction, we discuss the limits of methods based on independent component analysis and we highlight equivalence with Lp-norm-based methods. We investigate how other regularization parameters may have more influence on the estimation of the desired primaries. Finally, we propose to improve the robustness of adaptive subtraction by estimating the extracting convolutive filters directly in the curvelet domain. Computation and memory costs are limited by using the uniform discrete curvelet transform
15

Ehsandoust, Bahram. "Séparation de Sources Dans des Mélanges non-Lineaires". Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAT033/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La séparation aveugle de sources aveugle (BSS) est une technique d’estimation des différents signaux observés au travers de leurs mélanges à l’aide de plusieurs capteurs, lorsque le mélange et les signaux sont inconnus. Bien qu’il ait été démontré mathématiquement que pour des mélanges linéaires, sous des conditions faibles, des sources mutuellement indépendantes peuvent être estimées, il n’existe dans de résultats théoriques généraux dans le cas de mélanges non-linéaires. La littérature sur ce sujet est limitée à des résultats concernant des mélanges non linéaires spécifiques.Dans la présente étude, le problème est abordé en utilisant une nouvelle approche utilisant l’information temporelle des signaux. L’idée originale conduisant à ce résultat, est d’étudier le problème de mélanges linéaires, mais variant dans le temps, déduit du problème non linéaire initial par dérivation. Il est démontré que les contre-exemples déjà présentés, démontrant l’inefficacité de l’analyse par composants indépendants (ACI) pour les mélanges non-linéaires, perdent leur validité, considérant l’indépendance au sens des processus stochastiques, au lieu de l’indépendance au sens des variables aléatoires. Sur la base de cette approche, de bons résultats théoriques et des développements algorithmiques sont fournis. Bien que ces réalisations ne soient pas considérées comme une preuve mathématique de la séparabilité des mélanges non-linéaires, il est démontré que, compte tenu de quelques hypothèses satisfaites dans la plupart des applications pratiques, elles sont séparables.De plus, les BSS non-linéaires pour deux ensembles utiles de signaux sources sont également traités, lorsque les sources sont (1) spatialement parcimonieuses, ou (2) des processus Gaussiens. Des méthodes BSS particulières sont proposées pour ces deux cas, dont chacun a été largement étudié dans la littérature qui correspond à des propriétés réalistes pour de nombreuses applications pratiques.Dans le cas de processus Gaussiens, il est démontré que toutes les applications non-linéaires ne peuvent pas préserver la gaussianité de l’entrée, cependant, si on restreint l’étude aux fonctions polynomiales, la seule fonction préservant le caractère gaussiens des processus (signaux) est la fonction linéaire. Cette idée est utilisée pour proposer un algorithme de linéarisation qui, en cascade par une méthode BSS linéaire classique, sépare les mélanges polynomiaux de processus Gaussiens.En ce qui concerne les sources parcimonieuses, on montre qu’elles constituent des variétés distinctes dans l’espaces des observations et peuvent être séparées une fois que les variétés sont apprises. À cette fin, plusieurs problèmes d’apprentissage multiple ont été généralement étudiés, dont les résultats ne se limitent pas au cadre proposé du SRS et peuvent être utilisés dans d’autres domaines nécessitant un problème similaire
Blind Source Separation (BSS) is a technique for estimating individual source components from their mixtures at multiple sensors, where the mixing model is unknown. Although it has been mathematically shown that for linear mixtures, under mild conditions, mutually independent sources can be reconstructed up to accepted ambiguities, there is not such theoretical basis for general nonlinear models. This is why there are relatively few results in the literature in this regard in the recent decades, which are focused on specific structured nonlinearities.In the present study, the problem is tackled using a novel approach utilizing temporal information of the signals. The original idea followed in this purpose is to study a linear time-varying source separation problem deduced from the initial nonlinear problem by derivations. It is shown that already-proposed counter-examples showing inefficiency of Independent Component Analysis (ICA) for nonlinear mixtures, loose their validity, considering independence in the sense of stochastic processes instead of simple random variables. Based on this approach, both nice theoretical results and algorithmic developments are provided. Even though these achievements are not claimed to be a mathematical proof for the separability of nonlinear mixtures, it is shown that given a few assumptions, which are satisfied in most practical applications, they are separable.Moreover, nonlinear BSS for two useful sets of source signals is also addressed: (1) spatially sparse sources and (2) Gaussian processes. Distinct BSS methods are proposed for these two cases, each of which has been widely studied in the literature and has been shown to be quite beneficial in modeling many practical applications.Concerning Gaussian processes, it is demonstrated that not all nonlinear mappings can preserve Gaussianity of the input. For example being restricted to polynomial functions, the only Gaussianity-preserving function is linear. This idea is utilized for proposing a linearizing algorithm which, cascaded by a conventional linear BSS method, separates polynomial mixturesof Gaussian processes.Concerning spatially sparse sources, it is shown that spatially sparsesources make manifolds in the observations space, and can be separated once the manifolds are clustered and learned. For this purpose, multiple manifold learning problem has been generally studied, whose results are not limited to the proposed BSS framework and can be employed in other topics requiring a similar issue
16

Assoul, Mohamed. "Analyse de la topographie des surfaces quelconques : étude et réalisation d'un appareillage de mesure 3D ; séparation des différentes composantes et quantification". Besançon, 1991. http://www.theses.fr/1991BESA2049.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les surfaces mecaniques peuvent etre generees par un grand nombre de procedes. Le developpement de nouvelles techniques ainsi que l'utilisation de nouveaux materiaux conduisent a des formes tres diverses. Le present travail propose une chaine de mesure d'etat de surface, susceptible de traiter toute forme de surface. L'augmentation de l'echelle verticale est assuree a l'aide d'un asservissement vertical du palpeur en fonction du signal delivre par celui-ci. Ce deplacement est correle a une variation de la position de l'origine du repere de mesure. Les causes physiques et geometriques d'erreurs de ce systeme sont analysees. Un tel systeme, par l'automatisme qu'il autorise, permet la mesure d'une serie d'echantillons sans aucune intervention. Le defaut de forme ou les ondulations doivent etre filtres. Cinq filtres numeriques sont proposes et compares. Le filtrage entrainant une erreur systematique sur les parametres de rugosite, une determination theorique de cette erreur est realisee pour chacun des filtres et pour differentes formes geometriques. Ces resultats sont compares a ceux issus de l'experience et montrent une bonne correspondance. Une quantification des surfaces est proposee. Le filtrage est obtenu par des filtres bidimensionnels et par transformation de fourier rapide
17

Rafi, Selwa. "Chaînes de Markov cachées et séparation non supervisée de sources". Thesis, Evry, Institut national des télécommunications, 2012. http://www.theses.fr/2012TELE0020/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le problème de la restauration est rencontré dans domaines très variés notamment en traitement de signal et de l'image. Il correspond à la récupération des données originales à partir de données observées. Dans le cas de données multidimensionnelles, la résolution de ce problème peut se faire par différentes approches selon la nature des données, l'opérateur de transformation et la présence ou non de bruit. Dans ce travail, nous avons traité ce problème, d'une part, dans le cas des données discrètes en présence de bruit. Dans ce cas, le problème de restauration est analogue à celui de la segmentation. Nous avons alors exploité les modélisations dites chaînes de Markov couples et triplets qui généralisent les chaînes de Markov cachées. L'intérêt de ces modèles réside en la possibilité de généraliser la méthode de calcul de la probabilité à posteriori, ce qui permet une segmentation bayésienne. Nous avons considéré ces méthodes pour des observations bi-dimensionnelles et nous avons appliqué les algorithmes pour une séparation sur des documents issus de manuscrits scannés dans lesquels les textes des deux faces d'une feuille se mélangeaient. D'autre part, nous avons attaqué le problème de la restauration dans un contexte de séparation aveugle de sources. Une méthode classique en séparation aveugle de sources, connue sous l'appellation "Analyse en Composantes Indépendantes" (ACI), nécessite l'hypothèse d'indépendance statistique des sources. Dans des situations réelles, cette hypothèse n'est pas toujours vérifiée. Par conséquent, nous avons étudié une extension du modèle ACI dans le cas où les sources peuvent être statistiquement dépendantes. Pour ce faire, nous avons introduit un processus latent qui gouverne la dépendance et/ou l'indépendance des sources. Le modèle que nous proposons combine un modèle de mélange linéaire instantané tel que celui donné par ACI et un modèle probabiliste sur les sources avec variables cachées. Dans ce cadre, nous montrons comment la technique d'Estimation Conditionnelle Itérative permet d'affaiblir l'hypothèse usuelle d'indépendance en une hypothèse d'indépendance conditionnelle
The restoration problem is usually encountered in various domains and in particular in signal and image processing. It consists in retrieving original data from a set of observed ones. For multidimensional data, the problem can be solved using different approaches depending on the data structure, the transformation system and the noise. In this work, we have first tackled the problem in the case of discrete data and noisy model. In this context, the problem is similar to a segmentation problem. We have exploited Pairwise and Triplet Markov chain models, which generalize Hidden Markov chain models. The interest of these models consist in the possibility to generalize the computation procedure of the posterior probability, allowing one to perform bayesian segmentation. We have considered these methods for two-dimensional signals and we have applied the algorithms to retrieve of old hand-written document which have been scanned and are subject to show through effect. In the second part of this work, we have considered the restoration problem as a blind source separation problem. The well-known "Independent Component Analysis" (ICA) method requires the assumption that the sources be statistically independent. In practice, this condition is not always verified. Consequently, we have studied an extension of the ICA model in the case where the sources are not necessarily independent. We have introduced a latent process which controls the dependence and/or independence of the sources. The model that we propose combines a linear instantaneous mixing model similar to the one of ICA model and a probabilistic model on the sources with hidden variables. In this context, we show how the usual independence assumption can be weakened using the technique of Iterative Conditional Estimation to a conditional independence assumption
18

Fourt, Olivier. "Traitement des signaux à phase polynomiale dans des environnements fortement bruités : séparation et estimation des paramètres". Paris 11, 2008. http://www.theses.fr/2008PA112064.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les travaux de cette thèse sont consacrés aux différents problèmes de traitement des Signaux à Phase Polynomiale dans des environnements fortement dégradés, que se soit par de fort niveaux de bruit ou par la présence de bruit impulsif, bruit que nous avons modélisé en ayant recourt à des lois alpha-stables. La robustesse au bruit est un sujet classique de traitement du signal et si de nombreux algorithmes sont capables de fonctionner avec de forts niveaux de bruits gaussiens, la présence de bruit impulsif a souvent pour conséquence une forte dégradation des performances voir une impossibilité d'utilisation. Récemment, plusieurs algorithmes ont été proposés pour prendre en compte la présence de bruit impulsif avec toutefois une contrainte: ces algorithmes voient généralement leurs performances se dégrader lorsqu'ils sont utilisés avec du bruit gaussien, et en conséquence nécessitent une sélection préalable de l'algorithme adapté en fonction de l'usage. L'un des points abordé dans cette thèse a donc été la réalisation d'algorithmes robustes à la nature du bruit en ce sens que leurs performances sont similaires, que le bruit additif soit gaussien ou alpha-stable. Le deuxième point abordé a été la réalisation d'algorithmes rapides, une capacité difficile à cumuler à la robustesse
The research works of this thesis deal with the processings of polynomial phase signals in heavily corrupted environnements, whatsoever noise with high levels or impulse noise, noise modelled by the use of alpha-stable laws. Noise robustness is a common task in signal processing and if several algorithms are able to work with high gaussian noise level, the presence of impulse noise often leads to a great loss in performances or makes algorithms unable to work. Recently, some algorithms have been built in order to support impulse noise environnements but with one limit: the achievable results decrease with gaussian noise situations and thus needs as a first step to select the good method versus the kind of the noise. So one of the key points of this thesis was building algorithms who were robust to the kind of the noise which means that they have similar performances with gaussian noise or alpha-stable noise. The second key point was building fast algorithms, something difficult to add to robustness
19

Batany, Yves-Marie. "Séparation de signaux en mélanges convolutifs : contributions à la séparation aveugle de sources parcimonieuses et à la soustraction adaptative des réflexions multiples en sismique". Electronic Thesis or Diss., Paris Sciences et Lettres (ComUE), 2016. http://www.theses.fr/2016PSLEM093.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La séparation de signaux corrélés à partir de leurs combinaisons linéaires est une tâche difficile et possède plusieurs applications en traitement du signal. Nous étudions deux problèmes, à savoir la séparation aveugle de sources parcimonieuses et le filtrage adaptatif des réflexions multiples en acquisition sismique. Un intérêt particulier est porté sur les mélanges convolutifs : pour ces deux problèmes, des filtres à réponses impulsionnelles finies peuvent être estimés afin de récupérer les signaux désirés.Pour les modèles de mélange instantanés et convolutifs, nous donnons les conditions nécessaires et suffisantes pour l'extraction et la séparation exactes de sources parcimonieuses en utilisant la pseudo-norme L0 comme une fonction de contraste. Des équivalences entre l'analyse en composantes parcimonieuses et l'analyse en composantes disjointes sont examinées.Pour la soustraction adaptative des réflexions sismiques, nous discutons les limites des méthodes basées sur l'analyse en composantes indépendantes et nous soulignons l'équivalence avec les méthodes basées sur les normes Lp. Nous examinons de quelle manière les paramètres de régularisation peuvent être plus décisifs pour l'estimation des primaires. Enfin, nous proposons une amélioration de la robustesse de la soustraction adaptative en estimant les filtres adaptatifs directement dans le domaine des curvelets. Les coûts en calcul et en mémoire peuvent être atténués par l'utilisation de la transformée en curvelet discrète et uniforme
The recovery of correlated signals from their linear combinations is a challenging task and has many applications in signal processing. We focus on two problems that are the blind separation of sparse sources and the adaptive subtraction of multiple events in seismic processing. A special focus is put on convolutive mixtures: for both problems, finite impulse response filters can indeed be estimated for the recovery of the desired signals.For instantaneous and convolutive mixing models, we address the necessary and sufficient conditions for the exact extraction and separation of sparse sources by using the L0 pseudo-norm as a contrast function. Equivalences between sparse component analysis and disjoint component analysis are investigated.For adaptive multiple subtraction, we discuss the limits of methods based on independent component analysis and we highlight equivalence with Lp-norm-based methods. We investigate how other regularization parameters may have more influence on the estimation of the desired primaries. Finally, we propose to improve the robustness of adaptive subtraction by estimating the extracting convolutive filters directly in the curvelet domain. Computation and memory costs are limited by using the uniform discrete curvelet transform
20

Thomas, Johan. "Algorithmes temporels rapides à point fixe pour la séparation aveugle de mélanges convolutifs et/ou sous-déterminés". Phd thesis, Université Paul Sabatier - Toulouse III, 2007. http://tel.archives-ouvertes.fr/tel-00268239.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La première partie de cette thèse est consacrée aux mélanges convolutifs (sur-)déterminés. Nous cherchons à étendre l'algorithme FastICA aux mélanges convolutifs en proposant un algorithme à point fixe opérant dans le domaine temporel. Nous introduisons un processus de blanchiment spatio-temporel non-causal, qui, en initialisant les paramètres d'extraction d'une façon particulière, permet d'utiliser des itérations d'optimisation de type point fixe. L'estimation des contributions dans les observations est réalisée grâce à un critère quadratique optimisé par un filtre de Wiener non-causal.
Dans la deuxième partie, consacrée aux mélanges sous-déterminés instantanés et convolutifs, nous cherchons aussi à étendre l'algorithme FastICA en nous basant sur le concept de séparation différentielle. Nous proposons des procédures de blanchiment différentiel des observations qui permettent l'emploi d'itérations à point fixe pour séparer entre elles des sources dites utiles. En convolutif, les contributions sont estimées au moyen d'un filtre de Wiener différentiel non-causal.
La troisième partie, consacrée aux mélanges instantanés de sources contenant un grand nombre d'échantillons, met d'abord en évidence une limitation de l'algorithme FastICA, qui, à chaque itération d'optimisation, calcule des statistiques sur l'ensemble des échantillons disponibles. Le critère du kurtosis étant polynômial relativement aux coefficients d'extraction, nous proposons une procédure d'identification de ce polynôme qui permet d'effectuer l'optimisation dans un espace de calcul moins gourmand. Ce principe est ensuite appliqué aux mélanges instantanés sous-déterminés.
21

Carlos, Mickaël. "Dissociation induite par collisions d'hydrocarbures aromatiques polycycliques dans un piège à ions quadripolaire : Séparation des structures isomériques des composantes de la poussière cosmique". Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30232.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les hydrocarbures aromatiques polycycliques (HAP) sont des molécules carbonées de grande taille dont l'étude intéresse différents champs disciplinaires qui vont de l'environnement à l'astrochimie. Constituant majeur de la poussière cosmique, elles jouent un rôle clé dans les régions de formation stellaire, où leur émission infrarouge est excitée par les photons ultraviolets. Les mécanismes impliqués dans leur formation restent néanmoins mal connus. Dans les expériences de simulation en laboratoire comme dans les météorites, la masse m/z = 202.08 correspondant à l'espèce C_16H_10, a été identifiée comme une espèce clé dans la croissance de ces HAP. Cette espèce comprend plusieurs structures isomériques qu'il est important de pouvoir différencier. Nous avons utilisé l'analyseur moléculaire AROMA pour étudier la différentiation des isomères de C_16H_10 par dissociation induite par collisions (CID), dans le cas du fluoranthène et du pyrène (structures compactes) et celui du 9-éthynylphenanthrène (structure avec un groupe alkyl). Les différents paramètres contrôlant la CID ont été explorés afin de déterminer des conditions optimisées pour notre dispositif expérimental. A basse énergie de collision, nous avons montré que le critère de 50 % de dissociation des ions parents peut être utilisé pour différencier les structures condensées des non condensées et plus difficilement pour différencier les structures condensées entre elles. La procédure a été appliquée sur des espèces individuelles, leurs mélanges et des échantillons plus complexes de météorite (Allende) et d'analogues en laboratoire de poussière cosmique (plasma poussiéreux). Nous avons modélisé la dynamique des ions dans le piège et extrait des distributions de fréquence et d'énergie de collisions. La compétition avec le taux de dissociation a été traitée par méthode Monte Carlo. L'ajustement par le modèle de la courbe de dissociation du pyrène a permis de quantifier le paramètre de transfert d'énergie cinétique en énergie interne. La courbe de dissociation du fluoranthène a pu être modélisée en utilisant les mêmes valeurs pour êta. Enfin nous avons pu déterminer le taux de dissociation du 9-éthynylphenanthrène, qui n'est pas connu à ce jour
Polycyclic aromatic hydrocarbons (PAH) are large carbonaceous molecules that are the subject of investigation in various fields from astrochemistry to environmental science. Being a major constituent of cosmic dust, they play a key role in regions of star formation, where their infrared emission is excited by ultraviolet photons. However, the mechanisms involved in their formation remain poorly understood. In simulation experiments in the laboratory as in meteorites, the mass m/z = 202.08 corresponding to the species C_16H_10, has been identified as a key species in the growth of these PAHs. This chemical formula includes several isomeric structures that need to be differentiated. We used the AROMA molecular analyzer to study the differentiation of C_16H_10 isomers by collision-induced dissociation (CID), in the case of fluoranthene and pyrene (two compact structures) and that of9-ethynylphenanthrene (structure with an alkyl group). The various experimental parameters control-ling the CID were explored in order to determine optimized conditions for our experimental conditions. At low collision energy, we have shown that the criterion of 50 % dissociation of parent ions can be used to differentiate condensed from non-condensed structures but is more difficult to differentiate between condensed structures. The procedure has been applied to individual species, their mixtures, and more complex samples of meteorite (Allende) and laboratory analogues of cosmic dust (dusty plasma). We have modeled the dynamics of the ions in the trap and extracted frequency and energy distributions of collisions. The competition with the dissociation rate was treated by Monte Carlo method. The model fit of the pyrene dissociation curve quantified the parameter êta of transfer of kinetic energy into internal energy. The fluoranthene dissociation curve could be modeled using the same values for êta. Finally, we were able to determine the dissociation rate of 9-ethynylphenanthrene, which is not yet known
22

RAFI, Selwa. "Chaînes de Markov cachées et séparation non supervisée de sources". Phd thesis, Institut National des Télécommunications, 2012. http://tel.archives-ouvertes.fr/tel-00995414.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le problème de la restauration est rencontré dans domaines très variés notamment en traitement de signal et de l'image. Il correspond à la récupération des données originales à partir de données observées. Dans le cas de données multidimensionnelles, la résolution de ce problème peut se faire par différentes approches selon la nature des données, l'opérateur de transformation et la présence ou non de bruit. Dans ce travail, nous avons traité ce problème, d'une part, dans le cas des données discrètes en présence de bruit. Dans ce cas, le problème de restauration est analogue à celui de la segmentation. Nous avons alors exploité les modélisations dites chaînes de Markov couples et triplets qui généralisent les chaînes de Markov cachées. L'intérêt de ces modèles réside en la possibilité de généraliser la méthode de calcul de la probabilité à posteriori, ce qui permet une segmentation bayésienne. Nous avons considéré ces méthodes pour des observations bi-dimensionnelles et nous avons appliqué les algorithmes pour une séparation sur des documents issus de manuscrits scannés dans lesquels les textes des deux faces d'une feuille se mélangeaient. D'autre part, nous avons attaqué le problème de la restauration dans un contexte de séparation aveugle de sources. Une méthode classique en séparation aveugle de sources, connue sous l'appellation "Analyse en Composantes Indépendantes" (ACI), nécessite l'hypothèse d'indépendance statistique des sources. Dans des situations réelles, cette hypothèse n'est pas toujours vérifiée. Par conséquent, nous avons étudié une extension du modèle ACI dans le cas où les sources peuvent être statistiquement dépendantes. Pour ce faire, nous avons introduit un processus latent qui gouverne la dépendance et/ou l'indépendance des sources. Le modèle que nous proposons combine un modèle de mélange linéaire instantané tel que celui donné par ACI et un modèle probabiliste sur les sources avec variables cachées. Dans ce cadre, nous montrons comment la technique d'Estimation Conditionnelle Itérative permet d'affaiblir l'hypothèse usuelle d'indépendance en une hypothèse d'indépendance conditionnelle
23

Fuentes, Benoît. "L'analyse probabiliste en composantes latentes et ses adaptations aux signaux musicaux : application à la transcription automatique de musique et à la séparation de sources". Thesis, Paris, ENST, 2013. http://www.theses.fr/2013ENST0011/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La transcription automatique de musique polyphonique consiste à estimer automatiquernent les notes présentes dans un enregistrement via trois de leurs attributs : temps d'attaque, durée et hauteur. Pour traiter ce problème, il existe une classe de méthodes dont le principe est de modéliser un signal comme une somme d'éléments de base, porteurs d'informations symboliques. Parmi ces techniques d'analyse, on trouve l'analyse probabiliste en composantes latentes (PLCA). L'objet de cette thèse est de proposer des variantes et des améliorations de la PLCA afin qu'elle puisse mieux s'adapter aux signaux musicaux et ainsi mieux traiter le problème de la transcription. Pour cela, un premier angle d'approche est de proposer de nouveaux modèles de signaux, en lieu et place du modèle inhérent à la PLCA, suffisamment expressifs pour pouvoir s'adapter aux notes de musique possédant simultanément des variations temporelles de fréquence fondamentale et d'enveloppe spectrale. Un deuxième aspect du travail effectué est de proposer des outils permettant d'aider l'algorithme d'estimation des paramètres à converger vers des solutions significatives via l'incorporation de connaissances a priori sur les signaux à analyser, ainsi que d'un nouveau modèle dynamique. Tous les algorithmes ainsi imaginés sont appliqués à la tâche de transcription automatique. Nous voyons également qu'ils peuvent être directement utilisés pour la séparation de sources, qui consiste à séparer plusieurs sources d'un mélange, et nous proposons deux applications dans ce sens
Automatic music transcription consists in automatically estimating the notes in a recording, through three attributes: onset time, duration and pitch. To address this problem, there is a class of methods which is based on the modeling of a signal as a sum of basic elements, carrying symbolic information. Among these analysis techniques, one can find the probabilistic latent component analysis (PLCA). The purpose of this thesis is to propose variants and improvements of the PLCA, so that it can better adapt to musical signals and th us better address the problem of transcription. To this aim, a first approach is to put forward new models of signals, instead of the inherent model 0 PLCA, expressive enough so they can adapt to musical notes having variations of both pitch and spectral envelope over time. A second aspect of this work is to provide tools to help the parameters estimation algorithm to converge towards meaningful solutions through the incorporation of prior knowledge about the signals to be analyzed, as weil as a new dynamic model. Ali the devised algorithms are applie to the task of automatic transcription. They can also be directly used for source separation, which consists in separating several sources from a mixture, and Iwo applications are put forward in this direction
24

Fuentes, Benoit. "L'analyse probabiliste en composantes latentes et ses adaptations aux signaux musicaux : application à la transcription automatique de musique et à la séparation de sources". Electronic Thesis or Diss., Paris, ENST, 2013. http://www.theses.fr/2013ENST0011.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La transcription automatique de musique polyphonique consiste à estimer automatiquernent les notes présentes dans un enregistrement via trois de leurs attributs : temps d'attaque, durée et hauteur. Pour traiter ce problème, il existe une classe de méthodes dont le principe est de modéliser un signal comme une somme d'éléments de base, porteurs d'informations symboliques. Parmi ces techniques d'analyse, on trouve l'analyse probabiliste en composantes latentes (PLCA). L'objet de cette thèse est de proposer des variantes et des améliorations de la PLCA afin qu'elle puisse mieux s'adapter aux signaux musicaux et ainsi mieux traiter le problème de la transcription. Pour cela, un premier angle d'approche est de proposer de nouveaux modèles de signaux, en lieu et place du modèle inhérent à la PLCA, suffisamment expressifs pour pouvoir s'adapter aux notes de musique possédant simultanément des variations temporelles de fréquence fondamentale et d'enveloppe spectrale. Un deuxième aspect du travail effectué est de proposer des outils permettant d'aider l'algorithme d'estimation des paramètres à converger vers des solutions significatives via l'incorporation de connaissances a priori sur les signaux à analyser, ainsi que d'un nouveau modèle dynamique. Tous les algorithmes ainsi imaginés sont appliqués à la tâche de transcription automatique. Nous voyons également qu'ils peuvent être directement utilisés pour la séparation de sources, qui consiste à séparer plusieurs sources d'un mélange, et nous proposons deux applications dans ce sens
Automatic music transcription consists in automatically estimating the notes in a recording, through three attributes: onset time, duration and pitch. To address this problem, there is a class of methods which is based on the modeling of a signal as a sum of basic elements, carrying symbolic information. Among these analysis techniques, one can find the probabilistic latent component analysis (PLCA). The purpose of this thesis is to propose variants and improvements of the PLCA, so that it can better adapt to musical signals and th us better address the problem of transcription. To this aim, a first approach is to put forward new models of signals, instead of the inherent model 0 PLCA, expressive enough so they can adapt to musical notes having variations of both pitch and spectral envelope over time. A second aspect of this work is to provide tools to help the parameters estimation algorithm to converge towards meaningful solutions through the incorporation of prior knowledge about the signals to be analyzed, as weil as a new dynamic model. Ali the devised algorithms are applie to the task of automatic transcription. They can also be directly used for source separation, which consists in separating several sources from a mixture, and Iwo applications are put forward in this direction
25

Boulais, Axel. "Méthodes de séparation aveugle de sources et application à l'imagerie hyperspectrale en astrophysique". Thesis, Toulouse 3, 2017. http://www.theses.fr/2017TOU30318/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ces travaux de thèse concernent le développement de nouvelles méthodes de séparation aveugle de mélanges linéaires instantanés pour des applications à des données hyperspectrales en astrophysique. Nous avons proposé trois approches pour effectuer la séparation des données. Une première contribution est fondée sur l'hybridation de deux méthodes existantes de séparation aveugle de source (SAS) : la méthode SpaceCORR nécessitant une hypothèse de parcimonie et une méthode de factorisation en matrices non négatives (NMF). Nous montrons que l'utilisation des résultats de SpaceCORR pour initialiser la NMF permet d'améliorer les performances des méthodes utilisées seules. Nous avons ensuite proposé une première méthode originale permettant de relâcher la contrainte de parcimonie de SpaceCORR. La méthode MASS (pour \textit{Maximum Angle Source Separation}) est une méthode géométrique basée sur l'extraction de pixels mono-sources pour réaliser la séparation des données. Nous avons également étudié l'hybridation de MASS avec la NMF. Enfin, nous avons proposé une seconde approche permettant de relâcher la contrainte de parcimonie de SpaceCORR. La méthode originale SIBIS (pour \textit{Subspace-Intersection Blind Identification and Separation}) est une méthode géométrique basée sur l'identification de l'intersection de sous-espaces engendrés par des régions de l'image hyperspectrale. Ces intersections permettent, sous une hypothèse faible de parcimonie, de réaliser la séparation des données. L'ensemble des approches proposées dans ces travaux ont été validées par des tests sur données simulées puis appliquées sur données réelles. Les résultats obtenus sur ces données sont très encourageants et sont comparés à ceux obtenus par des méthodes de la littérature
This thesis deals with the development of new blind separation methods for linear instantaneous mixtures applicable to astrophysical hyperspectral data sets. We propose three approaches to perform data separation. A first contribution is based on hybridization of two existing blind source separation (BSS) methods: the SpaceCORR method, requiring a sparsity assumption, and a non-negative matrix factorization (NMF) method. We show that using SpaceCORR results to initialize the NMF improves the performance of the methods used alone. We then proposed a first original method to relax the sparsity constraint of SpaceCORR. The method called MASS (Maximum Angle Source Separation) is a geometric method based on the extraction of single-source pixels to achieve the separation of data. We also studied the hybridization of MASS with the NMF. Finally, we proposed an approach to relax the sparsity constraint of SpaceCORR. The original method called SIBIS (Subspace-Intersection Blind Identification and Separation) is a geometric method based on the identification of intersections of subspaces generated by regions of the hyperspectral image. Under a sparsity assumption, these intersections allow one to achieve the separation of the data. The approaches proposed in this manuscript have been validated by experimentations on simulated data and then applied to real data. The results obtained on our data are very encouraging and are compared with those obtained by methods from the literature
26

Guidara, Rima. "Méthodes markoviennes pour la séparation aveugle de signaux et images". Toulouse 3, 2009. http://thesesups.ups-tlse.fr/705/.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse présente de nouvelles méthodes markoviennes pour la séparation aveugle de mélanges linéaires instantanés des signaux unidimensionnels et des images. Dans la première partie, nous avons proposé plusieurs améliorations pour une méthode existante de séparation de signaux temporels. La nouvelle méthode exploite simultanément la non-gaussianité, l'autocorrélation et la nonstationnarité des sources. D'excellentes performances ont été obtenues pour la séparation de mélanges artificiels de signaux de parole, et nous avons réussi à séparer des mélanges réels de spectres astrophysiques. Une extension à la séparation des images a été ensuite proposée. La dépendance entre pixels a été modélisée par un champ de Markov à demi-plan non-symétrique. De très bonnes performances ont été obtenues pour la séparation de mélanges artificiels d'images naturelles et d'observations non-bruitées du satellite Planck. Les résultats pour un faible bruit sont acceptables
This thesis presents new Markovian methods for blind separation of instantaneous linear mixtures of one-dimensional signals and images. In the first part, we propose several improvements to an existent method for separating temporal signals. The new method exploits simultaneously non-Gaussianity, autocorrelation and non-stationarity of the sources. Excellent performance is obtained for the separation of artificial mixtures of speech signals, and we succeed to separate real mixtures of astrophysical spectra. An extension to image separation is then proposed. The dependence within the image pixels is modelled by non-symetrical half-plane Markov random fields. Very good performance is obtained for the separation of artificial mixtures of natural images and noiseless observations of the Planck satellite. The results obtained with a low level noise are acceptable
27

Becker, Hanna. "Débruitage, séparation et localisation de sources EEG dans le contexte de l'épilepsie". Thesis, Nice, 2014. http://www.theses.fr/2014NICE4075/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'électroencéphalographie (EEG) est une technique qui est couramment utilisée pour le diagnostic et le suivi de l'épilepsie. L'objectif de cette thèse consiste à fournir des algorithmes pour l'extraction, la séparation, et la localisation de sources épileptiques à partir de données EEG. D'abord, nous considérons deux étapes de prétraitement. La première étape vise à éliminer les artéfacts musculaires à l'aide de l'analyse en composantes indépendantes (ACI). Dans ce contexte, nous proposons un nouvel algorithme par déflation semi-algébrique qui extrait les sources épileptiques de manière plus efficace que les méthodes conventionnelles, ce que nous démontrons sur données EEG simulées et réelles. La deuxième étape consiste à séparer des sources corrélées. A cette fin, nous étudions des méthodes de décomposition tensorielle déterministe exploitant des données espace-temps-fréquence ou espace-temps-vecteur-d'onde. Nous comparons les deux méthodes de prétraitement à l'aide de simulations pour déterminer dans quels cas l'ACI, la décomposition tensorielle, ou une combinaison des deux approches devraient être utilisées. Ensuite, nous traitons la localisation de sources distribuées. Après avoir présenté et classifié les méthodes de l'état de l'art, nous proposons un algorithme pour la localisation de sources distribuées qui s'appuie sur les résultats du prétraitement tensoriel. L'algorithme est évalué sur données EEG simulées et réelles. En plus, nous apportons quelques améliorations à une méthode de localisation de sources basée sur la parcimonie structurée. Enfin, une étude des performances de diverses méthodes de localisation de sources est conduite sur données EEG simulées
Electroencephalography (EEG) is a routinely used technique for the diagnosis and management of epilepsy. In this context, the objective of this thesis consists in providing algorithms for the extraction, separation, and localization of epileptic sources from the EEG recordings. In the first part of the thesis, we consider two preprocessing steps applied to raw EEG data. The first step aims at removing muscle artifacts by means of Independent Component Analysis (ICA). In this context, we propose a new semi-algebraic deflation algorithm that extracts the epileptic sources more efficiently than conventional methods as we demonstrate on simulated and real EEG data. The second step consists in separating correlated sources that can be involved in the propagation of epileptic phenomena. To this end, we explore deterministic tensor decomposition methods exploiting space-time-frequency or space-time-wave-vector data. We compare the two preprocessing methods using computer simulations to determine in which cases ICA, tensor decomposition, or a combination of both should be used. The second part of the thesis is devoted to distributed source localization techniques. After providing a survey and a classification of current state-of-the-art methods, we present an algorithm for distributed source localization that builds on the results of the tensor-based preprocessing methods. The algorithm is evaluated on simulated and real EEG data. Furthermore, we propose several improvements of a source imaging method based on structured sparsity. Finally, a comprehensive performance study of various brain source imaging methods is conducted on physiologically plausible, simulated EEG data
28

Chaouchi, Chahinez. "Méthodes de séparation aveugle de sources non linéaires, étude du modèle quadratique 2*2". Phd thesis, Université Paul Sabatier - Toulouse III, 2011. http://tel.archives-ouvertes.fr/tel-00683204.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse présente des méthodes de séparation aveugle de sources pour un modèle de mélange non-linéaire particulier, le cas quadratique avec auto-termes et termes croisés. Dans la première partie, nous présentons la structure de séparation étudiée qui se décline sous deux formes : étendue ou basique. Les propriétés de ce réseau récurrent sont ensuite analysées (points d'équilibre, stabilité locale). Nous proposons alors deux méthodes de séparation aveugle de sources. La première exploite les cumulants des observations en un bloc placé en amont de la structure récurrente. La deuxième méthode est basée sur une approche par maximum de vraisemblance. Le tout est validé par des simulations numériques.
29

Moussaoui, Saïd. "Séparation de sources non-négatives : Application au traitement des signaux de spectroscopie". Phd thesis, Université Henri Poincaré - Nancy I, 2005. http://tel.archives-ouvertes.fr/tel-00012096.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Lors de l'analyse physico-chmique d'un échantillon d'une substance multi-composantes par des techniques spectroscopiques, les signaux mesurés sont des mélanges linéaires des spectres purs des différentes composantes de cette substance. L'objectif de l'analyse est d'identifier la composition de la substance via l'estimation des spectres purs et la détermination de leurs concentrations. C'est un problème de séparation de sources dans lequel les spectres purs sont les signaux sources et les coefficients de mélange permettent de déduire les proportions des différentes composantes. La contrainte principale est la non-négativité des signaux sources et des coefficients de mélange. Il s'agit donc d'un problème de séparation de sources non-négatives.

La séparation de sources est un problème fondamental en traitement du signal dont une hypothèse forte est celle de l'indépendance statistique des signaux sources. Compte tenu du recouvrement entre les spectres purs, leur corrélation mutuelle devient parfois importante. Dans une telle situation, l'application d'une méthode fondée sur l'hypothèse d'orthogonalité s'avère infructueuse. Par ailleurs, une analyse des solutions admissibles sous la contrainte de non-négativité montre que cette contrainte toute seule ne permet d'obtenir une solution unique que dans certains cas particuliers. Ces deux constats motivent le développement de deux méthodes qui considèrent conjointement l'hypothèse d'indépendance et l'information de non-négativité. La première méthode est issue de l'approche de séparation par maximum de vraisemblance et la deuxième se fonde sur une inférence bayésienne. Une évaluation numérique des performances des méthodes développées à l'aide de données synthétiques et le traitement de signaux expérimentaux permettent, d'une part, de mettre en évidence les avantages de ces méthodes par rapport aux approches usuelles et, d'autre part, de déceler leurs limitations. Des applications au traitement de signaux réels issus de trois types de spectroscopies (Infrarouge, Raman et Ultraviolet-Visible) illustrent l'apport de la séparation de sources non-négatives à l'analyse physico-chimique.
30

Jurczynski, Pauline. "Étude de relations entre activités aux échelles cellulaires et macroscopiques. Application au système visuel de reconnaissance des visages". Electronic Thesis or Diss., Université de Lorraine, 2023. http://www.theses.fr/2023LORR0084.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les techniques actuelles permettent l'exploration de l'activité électrique cérébrale à différentes échelles spatiales, comme l'EEG de surface, la SEEG, ou les enregistrements par micro-électrodes. L'EEG/SEEG offrent une vision de l'activité à l'échelle macroscopique, largement dominée par l'activité synaptique des populations de neurones synchronisées, plus ou moins éloignées des électrodes. Au niveau des enregistrements micro, l'activité est un mélange entre les potentiels d'action (PA) des neurones très proches de l'électrode et le LFP (principalement d'origine synaptique) provenant des populations environnantes ainsi que des populations lointaines par propagation volumique. L'identification des différentes contributions qui s'ajoutent pour former le signal de chaque micro-électrode est une condition préalable à l'étude des relations entre ces composantes. Le principal objectif de ce travail est de séparer les différentes contributions dans les signaux enregistrés par les micro-électrodes. Il s'agit dans un premier temps d'extraire et classer les PA visibles (despiking et spike sorting), puis de différencier les activités LFP provenant de régions lointaines de celles provenant de la population environnante. Cette deuxième partie, qui peut être abordé à l'échelle des micro-électrodes uniquement, peut aussi prendre en compte l'étendue spatiale des sources impactant ces mesures micro, en s'appuyant notamment sur les enregistrements SEEG simultanés. Le deuxième objectif est l'étude des composantes (spikes, LFP) identifiées au préalable à l'aide des méthodes introduite dans ce travail de thèse, et de leurs relations intra et inter-échelles. Sur la base des protocoles d'enregistrement employés dans l'équipe, les activités multi-échelles des structures impliquées dans la reconnaissance faciale sont décrites et leurs relations sont analysées, notamment dans le contexte des protocoles visuels rapides périodiques utilisés pour étudier les mécanismes de la reconnaissance des visages chez l'Homme
Current techniques allow the exploration of brain electrical activity at different spatial scales, such as surface EEG, SEEG, or microelectrode recordings. EEG/SEEG offer a view of activity at the macroscopic scale, largely dominated by the synaptic activity of synchronised neuron populations, more or less distant from the electrodes. At the micro level, the activity is a mixture of action potentials (APs) from neurons very close to the electrode and LFPs (mainly of synaptic origin) from surrounding populations as well as from distant populations by volume propagation. The identification of the different contributions that add up to the signal of each microelectrode is a prerequisite to study the relationships between these components. The main objective of this work is to separate the different contributions in the signals recorded by the microelectrodes. The first step is to extract and classify the visible APs (despiking and spike sorting), and then to differentiate the LFP activities coming from distant regions from those coming from the surrounding population. This second part, which can be approached at the microelectrode scale only, can also take into account the spatial extent of the sources impacting these micro measurements, relying in particular on simultaneous SEEG recordings. The second objective is to study the components (spikes, LFP) previously identified using the methods introduced in this thesis, and their intra- and inter-scale relationships. Based on the recording protocols used in the team, the multi-scale activities of the structures involved in face recognition are described and their relationships are analysed, especially in the context of the periodic fast visual protocols used to study the mechanisms of face recognition in humans
31

Wang, Wei-Min. "Estimation of component temperatures of vegetative canopy with Vis/NIR and TIR multiple-angular data through inversion of vegetative canopy radiative transfer model". Strasbourg, 2009. http://www.theses.fr/2009STRA6027.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les mesures de la température de brillance des couverts végétaux s’appliquent à de très nombreux domaines comme la climatologie, l’hydrologie, l’agronomie, écologie. Son intérêt principal est de permettre d’accéder à l’estimation du bilan énergétique de la surface. Les mauvaises performances des modèles actuels en terme de restitution de la température de surface sont attribuées, en grande partie, à l'hétérogénéité des surfaces continentales. Les modèles actuels sont inaptes à rendre compte correctement des flux dans ces conditions (même éventuellement avec une correction de type kB-1). Les espoirs portent sur les modèles à deux sources qui traitent de façon différente les flux surface/atmosphère pour les sols et pour la végétation. Ce travail a permis de montrer que les paramètres structurels de la végétation comprenant l'indice de superficie foliaire, la distribution d'angle foliaire et l’indice de groupement exercent de grands effets sur la simulation du transfert radiatif dans le couvert végétal, et également sur la séparation des températures composantes du couvert végétal à partir des données multidirectionnelles dans les domaines visible et infrarouge thermique. Ce travail a aussi montré qu’il était possible d’amélioration la séparation des températures composantes du couvert végétal en utilisant la distribution d'angle foliaire et l’indice de groupement obtenus de données satellitaires. Un modèle analytique en tenant compte de la structure de la végétation a été développé et l'architecture optimale du réseau neuronal a été étudiée et proposée pour extraire les températures composantes du couvert végétal à partir des données multidirectionnelles dans les domaines visible et infrarouge thermique
The separation of component temperature is the basic step for the application of two-source algorithm. Multi-angular thermal infrared measurements provide a chance for the estimation of component temperatures (namely, soil and vegetation temperatures) with remotely-sensed data. The objective of this study is to explore the factors that affect the estimation of component temperatures and propose new algorithm for inverting the canopy radiative transfer models to compute component temperatures. The objectives of this dissertation include: (1) finding an appropriate candidate leaf angle distribution functions for modeling and inversion, (2) evaluating the scaling behavior of Beer's law and its effect on the estimation of component temperatures, (3) proposing an analytical model for directional brightness temperature at top of canopy, (4) retrieving component temperatures with neural network and simplex algorithms. The effects of leaf angle distribution function on extinction coefficient, which is a key parameter for simulating the radiative transfer through vegetative canopy, is explored to improve the radiative transfer modeling. These contributions will enhance our understanding of the basic problems existing in thermal IR remote sensing and improve the simulation of land surface energy balance. Further work can be conducted to continue the enhancement and application of proposed algorithm to remote sensing images
32

Vergès, Clara. "Searching for cosmological B-modes in the presence of astrophysical contaminants and instrumental effects". Thesis, Université de Paris (2019-....), 2020. http://www.theses.fr/2020UNIP7092.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La cosmologie a connu un essor considérable au cours des vingt dernières années, et a désormais acquis le statut de science de précision. Les mesures précises des anisotropies de température du fond diffus cosmologique (Cosmic Microwave Background - CMB) ont ouvert une fenêtre sans précédent sur l'Univers primordial, tandis que les mesures des anisotropies de polarisation du CMB ont confirmé notre compréhension de la physique de l'Univers primordial. Ces différents résultats ont notamment permis de vérifier la cohérence et de tester la validité des modèles actuels. La prochaine étape dans l'observation du CMB est la cartographie précise des anisotropies de polarisation, et en particulier la détection d'une signature spécifique dans ce même signal, les modes B primordiaux. Ces observations nous permettront de pousser toujours plus loin notre connaissance de l'Univers et de ses secrets les mieux gardés, en particulier l'énergie noire, la matière noire et l'inflation.Cette détection est cependant particulièrement difficile, car le signal recherché est très faible, et écranté par plusieurs sources de contamination galactiques et extra-galactiques : émission polarisée de la poussière, rayonnement synchrotron ou encore effet de lentillage gravitationnel faible, pour n'en citer que quelques-unes. La prochaine génération d'expériences d'observation de la polarisation du CMB doit donc non seulement atteindre une sensibilité instrumentale brute sans précédent, mais également être capable de distinguer le signal de ces contaminations. Cela nécessite des capacités de détection améliorées, de nouvelles technologies, ainsi que de nouvelles méthodes d'analyse des données. L'objectif du travail présenté dans cette thèse est d'évaluer, pour certains effets, si cette complexité accrue des expériences d'observation du CMB conduira effectivement à de meilleures performances, et à quel coût en ce qui concerne le contrôle des effets systématiques. Je développe de nouveaux modèles de données prenant en compte divers paramètres instrumentaux pour assurer une meilleure modélisation des effets systématiques pour la nouvelle génération d'expériences de mesure de la polarisation du CMB: POLARBEAR/Simons Array et Simons Observatory. Pour préparer ces futures expériences, je propose une extension des méthodes de séparation de composantes afin de prendre en compte les effets systématiques instrumentaux. Je démontre également les possibilités de ce nouvel outil pour prévoir les performances des futures expériences, et aider à l'établissement des stratégies de calibration afin d'atteindre les performances requises
Cosmology has known a considerable surge in the past twenty years and is now well established as a precision science. Accurate measurements of temperature anisotropies of the Cosmic Microwave Background (CMB) opened an unprecedented window on the primordial Universe. Furthermore, the existing measurements of CMB polarisation anisotropies have confirmed our understanding of early universe physics, and provided important consistency tests of the currently popular models. The next frontier in CMB science is the precise mapping of polarisation anisotropies, and the detection of a specific signature in the polarisation signal, the primordial B-modes. These observations will allow us to push further our knowledge of the Universe and its best-kept secrets, such as dark energy, dark matter and inflation.This detection is particularly challenging, as the signal we look for is very low, and shadowed by various sources of galactic and extra-galactic contamination: polarised dust, synchrotron radiation and weak gravitational lensing - to name a few. The next generation of CMB polarisation experiments therefore needs not only to reach an unprecedented raw instrumental sensitivity, but also to be able to distinguish the signal from these contaminations. This calls for enhanced detection capabilities, new technologies, as well as novel data analysis methods. This work focuses on understanding whether this increased complexity of CMB experiments will effectively lead to better performances, and at which cost regarding the control of systematic effects. I develop new, involved data models taking into account various instrumental parameters to ensure a better modelling of instrumental systematic effects, in the context of new generation CMB polarisation experiments - POLARBEAR/Simons Array and the Simons Observatory. To prepare for future experiments, I propose an extension of component separation forecasting framework to take into account instrumental systematic effects. I demonstrate its capabilities as a key tool to forecast the performance of future experiments, and inform calibration strategies to achieve required performance
33

Vansyngel, Flavien. "The blind Bayesian approach to Cosmic Microwave Background data analysis". Thesis, Paris 6, 2014. http://www.theses.fr/2014PA066609/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le thème principal de cette thèse est l'analyse de données du fond diffus cosmologique (CMB). En particulier, je présente une méthode, Bayesian Independent Analysis (BICA), qui effectue à la fois la séparation des composants et l'inférence du spectre de puissance du CMB. Je commence par présenter les principes de base du CMB et souligne la nécessité d'une modélisation robuste des erreurs au niveau de la carte. Puis je présente la principale source d'erreurs dans les produits du CMB, à savoir les avant-plans. La séparation des composants est une étape cruciale dans l'analyse de données de CMB. Je passe en revue plusieurs méthodes visant à nettoyer le CMB des avant-plans. Puis je présente BICA. La méthode est formulée dans le cadre bayésien aveugle. Il en résulte une inférence jointe de la carte de CMB et de son spectre de puissance. Ainsi, les erreurs sur la reconstruction comprennent les incertitudes dues à la présence d'avant-plans dans les données. En considérant des choix particuliers de prior et d'échantillonnage, je montre comment la formulation bayésienne de séparation des composantes fournit un cadre unificateur dont les méthodes précédentes sont des cas particuliers. Je présente les résultats de BICA lorsqu'elle est appliquée sur des données simulées et les données Planck. Cette méthode est capable de reconstruire la carte du CMB et son spectre sur une large fraction du ciel. Les principales contributions de cette thèse sont : 1) un spectre de puissance du CMB dont les erreurs prennent en compte la présence d'avant-plans mais sans modèle physique, 2) une carte CMB avec un modèle d'erreur incluant à la fois le bruit et avant-plans
The main topic of this thesis is the analysis of Cosmic Microwave Background (CMB) data. In particular, I present a method, Bayesian Independent component analysis (BICA), that performs both CMB component separation and CMB power spectrum inference.I begin by presenting the basics of our understanding of the CMB emission and highlight the need for a robust error modelling at the map level. Then I present the main source of errors in the CMB products, namely the foregrounds.Component separation is a crucial and delicate step in CMB data analysis. I review several methods aiming at cleaning the CMB from foregroundsThen I present BICA. The method is formulated in a blind Bayesian framework. The posterior distribution provides an inference of the CMB map and power spectrum from the observation maps. Thus, the errors on the reconstruction include the uncertainties due the presence of foregrounds in the data. By considering particular choices of prior and sampling scheme, I show how the Bayesian formulation of component separation provide a unifying framework of which previous methods are special cases.I present the results of BICA when applied on both simulated data and 2013 Planck data. This method is able to reconstruct the CMB map and power spectrum on a large fraction of the sky. The main contributions of this thesis is to provide: 1) a CMB power spectrum on a large multipole range whose errors take the presence of foregrounds into account but without assuming physical models, 2) a CMB map inference together with an error model including both noise and foregrounds residuals
34

Puigt, Matthieu. "Méthodes de séparation aveugle de sources fondées sur des transformées temps-fréquence : application à des signaux de parole". Toulouse 3, 2007. http://thesesups.ups-tlse.fr/217/.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Plusieurs méthodes de séparation aveugle de source (SAS), fondées sur des transformées temps-fréquence (TF), ont été proposées au cours de cette thèse. En sortie des systèmes utilisés, une contribution de chaque source est estimée, uniquement à l'aide des signaux mélangés. Toutes les méthodes étudiées dans ce manuscrit trouvent des petites zones du plan TF où une seule source est présente et estiment dans ces zones les paramètres de mélange. Ces approches sont particulièrement adaptées aux sources non-stationnaires. Nous avons tout d'abord étudié et amélioré des méthodes proposées précédemment par l'équipe, basées sur des critères de variance ou de corrélation, pour des mélanges linéaires instantanés. Elles apportent d'excellentes performances pour des signaux de parole et peuvent aussi séparer des spectres issus de données astrophysiques. Cependant, la nature des mélanges qu'elles peuvent traiter limite leur champ d'application. Nous avons donc étendu ces approches à des mélanges plus réalistes. Les premières extensions considèrent des mélanges de sources atténuées et décalées temporellement, ce qui correspond physiquement aux mélanges en chambre anéchoïque. Elles nécessitent des hypothèses de parcimonie beaucoup moins fortes que certaines approches de la littérature, tout en traitant le même type de mélanges. Nous avons étudié l'apport de méthodes de classification non-supervisée sur nos approches et avons obtenu de bonnes performances pour des mélanges de signaux de parole. Enfin, une extension théorique aux mélanges convolutifs généraux est décrite mais nécessite de fortes hypothèses de parcimonie et le réglage d'indéterminations propres aux méthodes fréquentielles
Several time-frequency (TF) blind source separation (BSS) methods have been proposed in this thesis. In the systems output that have been used, a contribution of each source is estimated, using only mixed signals. All the methods proposed in this manuscript find tiny TF zones where only one source is active and estimate the mixing parameters in these zones. These approaches are particularly well suited for non-stationary sources (speech, music). We first studied and improved linear instantaneous methods based on variance or correlation criteria, that have been previously proposed by our team. They yield excellent performance for signals of speech and can also separate spectra from astrophysical data. However, the nature of the mixtures that they can process limits their application fields. We have extended these approaches to more realistic mixtures. The first extensions consider attenuated and delayed mixtures of sources, which corresponds to mixtures in anechoic chamber. They require less restrictive sparsity assumptions than some approaches previously proposed in the literature, while addressing the same type of mixtures. We have studied the contribution of clustering techniques to our approaches and have achieved good performance for mixtures of speech signals. Lastly, a theoretical extension of these methods to general convolutive mixtures is described. It needs strong sparsity hypotheses and we have to solve classical indeterminacies of frequency-domain BSS methods
35

Umiltà, Caterina. "Development and assessment of a blind component separation method for cosmological parameter estimation". Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066453/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le rayonnement fossile, ou CMB, est un sujet d’étude clé pour la cosmologie car il indique l’état de l’univers à une époque primordiale. Le CMB est observable dans le ciel dans la bande de fréquences des micro-ondes. Cependant, il existe des processus astrophysiques, les avant-plans, qui émettent dans les micro-ondes, et rendent indispensable le traitement des données avec des méthodes de séparation de composantes. J'utilisé la méthode aveugle SMICA pour obtenir une estimation directe du spectre de puissance angulaire du CMB. La détermination des petites échelles de ce spectre est limité par les avant-plans comme les galaxies lointaines, et par le biais du bruit. Dans cette analyse, ces deux limitations sont abordées. En ajoutant des hypothèses sur la physique des galaxies lointaines, il est possible de guider l’algorithme pour estimer leur loi d'émission. Un spectre de puissance angulaire obtenu d'une carte du ciel a un biais dû au bruit à petites échelles. Toutefois, les spectres obtenus en croisant différentes cartes n'ont pas ce biais. J'ai donc adapté la méthode SMICA pour qu'elle n'utilise que ces derniers, diminuant l'incertitude due au bruit dans l'estimation du CMB. Cette méthode a été étudiée sur des nombreuses simulations et sur les données Planck 2015, afin d'estimer des paramètres cosmologiques. Les résultats montrent que la contamination résiduelle des avant-plans présente dans le spectre CMB, même si fortement réduite, peut introduire des biais dans l'estimation des paramètres si la forme des résiduels n'est pas bien connue. Dans cette thèse, je montre les résultats obtenus en étudiant un modèle de gravité modifiée
The Planck satellite observed the whole sky at various frequencies in the microwave range. These data are of high value to cosmology, since they help understanding the primordial universe through the observation of the cosmic microwave background (CMB) signal. To extract the CMB information, astrophysical foreground emissions need to be removed via component separation techniques. In this work I use the blind component separation method SMICA to estimate the CMB angular power spectrum with the aim of using it for the estimation of cosmological parameters. In order to do so, small scales limitations as the residual contamination of unresolved point sources and the noise need to be addressed. In particular, the point sources are modelled as two independent populations with a flat angular power spectrum: by adding this information, the SMICA method is able to recover the joint emission law of point sources. Auto-spectra deriving from one sky map have a noise bias at small scales, while cross-spectra show no such bias. This is particularly true in the case of cross-spectra between data-splits, corresponding to sky maps with the same astrophysical content but different noise properties. I thus adapt SMICA to use data-split cross-spectra only. The obtained CMB spectra from simulations and Planck 2015 data are used to estimate cosmological parameters. Results show that this estimation can be biased if the shape of the (weak) foreground residuals in the angular power spectrum is not well known. In the end, I also present results of the study of a Modified Gravity model called Induced Gravity
36

Maurandi, Victor. "Algorithmes pour la diagonalisation conjointe de tenseurs sans contrainte unitaire. Application à la séparation MIMO de sources de télécommunications numériques". Thesis, Toulon, 2015. http://www.theses.fr/2015TOUL0009/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse développe des méthodes de diagonalisation conjointe de matrices et de tenseurs d’ordre trois, et son application à la séparation MIMO de sources de télécommunications numériques. Après un état, les motivations et objectifs de la thèse sont présentés. Les problèmes de la diagonalisation conjointe et de la séparation de sources sont définis et un lien entre ces deux domaines est établi. Par la suite, plusieurs algorithmes itératifs de type Jacobi reposant sur une paramétrisation LU sont développés. Pour chacun des algorithmes, on propose de déterminer les matrices permettant de diagonaliser l’ensemble considéré par l’optimisation d’un critère inverse. On envisage la minimisation du critère selon deux approches : la première, de manière directe, et la seconde, en supposant que les éléments de l’ensemble considéré sont quasiment diagonaux. En ce qui concerne l’estimation des différents paramètres du problème, deux stratégies sont mises en œuvre : l’une consistant à estimer tous les paramètres indépendamment et l’autre reposant sur l’estimation indépendante de couples de paramètres spécifiquement choisis. Ainsi, nous proposons trois algorithmes pour la diagonalisation conjointe de matrices complexes symétriques ou hermitiennes et deux algorithmes pour la diagonalisation conjointe d’ensembles de tenseurs symétriques ou non-symétriques ou admettant une décomposition INDSCAL. Nous montrons aussi le lien existant entre la diagonalisation conjointe de tenseurs d’ordre trois et la décomposition canonique polyadique d’un tenseur d’ordre quatre, puis nous comparons les algorithmes développés à différentes méthodes de la littérature. Le bon comportement des algorithmes proposés est illustré au moyen de simulations numériques. Puis, ils sont validés dans le cadre de la séparation de sources de télécommunications numériques
This thesis develops joint diagonalization of matrices and third-order tensors methods for MIMO source separation in the field of digital telecommunications. After a state of the art, the motivations and the objectives are presented. Then the joint diagonalisation and the blind source separation issues are defined and a link between both fields is established. Thereafter, five Jacobi-like iterative algorithms based on an LU parameterization are developed. For each of them, we propose to derive the diagonalization matrix by optimizing an inverse criterion. Two ways are investigated : minimizing the criterion in a direct way or assuming that the elements from the considered set are almost diagonal. Regarding the parameters derivation, two strategies are implemented : one consists in estimating each parameter independently, the other consists in the independent derivation of couple of well-chosen parameters. Hence, we propose three algorithms for the joint diagonalization of symmetric complex matrices or hermitian ones. The first one relies on searching for the roots of the criterion derivative, the second one relies on a minor eigenvector research and the last one relies on a gradient descent method enhanced by computation of the optimal adaptation step. In the framework of joint diagonalization of symmetric, INDSCAL or non symmetric third-order tensors, we have developed two algorithms. For each of them, the parameters derivation is done by computing the roots of the considered criterion derivative. We also show the link between the joint diagonalization of a third-order tensor set and the canonical polyadic decomposition of a fourth-order tensor. We confront both methods through numerical simulations. The good behavior of the proposed algorithms is illustrated by means of computing simulations. Finally, they are applied to the source separation of digital telecommunication signals
37

Boudet, Samuel. "Filtrage d'artefacts par analyse multicomposante de l'électroencéphalogramme de patients épileptiques". Thesis, Lille 1, 2008. http://www.theses.fr/2008LIL10156/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'électroencéphalographie (EEG) consiste à mesurer l'activité électrique du cerveau à l'aide d'électrodes placées à la surface du cuir chevelu. Cette technique est principalement utilisée pour le diagnostic de l'épilepsie. Certains grapho-éléments comme des ondes lentes et des pointes-ondes peuvent apparaitre sur l'EEG permettant au neurologue de détecter une souffrance épileptique. Malheureusement, cette activité peut être fortement contaminée par des signaux parasites appelés artefacts. Ces artefacts ont pour origines principales l'activité oculaire, l'activité musculaire, le rythme cardiaque et les légers déplacements d'électrodes. Les fréquences des grapho-éléments pathologique recouvrent celles des artefacts et nous avons alors recours à des filtres spatiaux, reposant sur la séparation de sources. Le principe est de déterminer un ensemble de sources d'origines cérébrales et un ensemble de sources d'artefacts. Les sources d'artefacts sont supprimées et les sources cérébrales sont utilisées pour reconstruire le signal. Nous présentons dans cette thèse plusieurs méthodes combinant les filtres spatiaux et les filtres frèquentiels afin d'automatiser le filtrage. Une démarche quantitative a été définie afin de valider ces méthodes, nous permettant de choisir la méthode la plus performante appelée Adaptive Filtering by Optimal Projection (AFOP). Les tests sur des enregistrements cliniques de patient épileptiques, ont montré, selon l'avis du neurologue, l'efficacité d'AFOP sur la plupart des types d'artefacts ainsi que son respect des rythmes cérébraux
The electroencephalography (EEG) consists in measuring brain electrical activity thanks to electrodes located on the scalp surface. This technique is mainly used for the diagnostic of epilepsy. Sorne grapho-elements like slow waves and spike waves can appear on the EEG, enabling the neurologist to detect an epilepsy pain. Unfortunately, this activity can be highly contaminated by parasitical signals called artifacts. These artifacts have for main origins, the ocular activity, the muscular activity, the cardiac rhythm and tight electrode displacements. The frequencies of pathological grapho-elements recover those of artifacts, and it is then required to use spatial filter which rests on source separation. The principle is to determine a set of cerebral sources and a set of artifacts sources. Artifact sources are then cancelled and the cerebral ones are used to rebuild the signal. This thesis presents several methods using both spatial and frequential filters, making the EEG filtering automated. A quantitative approach of filtering validation is defined, which enables the author to choose the most efficient called Adaptive Filtering by Optimal Projection (AFOP). According to the neurologist, tests on clinical recordings of epileptic patients prove AFOP efficiency on cancelling most of artifact types as well as on respecting cerebn rhythms
38

Dupont, M. "Tomographie spectrale à comptage de photons~: développement du prototype PIXSCAN et preuve de concept". Phd thesis, Aix-Marseille Université, 2014. http://tel.archives-ouvertes.fr/tel-01019735.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans le domaine de la tomographie par rayons X préclinique, la tomographie spectrale est une voie de plus en plus en plus explorée. Les objectifs de la tomographie spectrale sont tant la caractérisation et la quantification des tissus et agents de contraste que l'amélioration de contraste entre tissus mous. Cela passe par l'exploitation de l'information spectrale (ou énergétique) des photons X et non plus seulement par la quantité de rayons X détectée comme en tomographie standard par absorption de rayons X. L'intérêt de la tomographie spectrale se trouve renforcé par l'arrivée des caméras à comptage comme le détecteur à pixels hybrides XPAD3 qui ont la capacité de sélectionner les photons X en fonction de leur énergie. Ce détecteur a été développé pour fonctionner dans le micro-tomodensitomètre PIXSCAN construit au CPPM. Dans ce contexte, cette thèse a deux buts~: participer à la construction du prototype PIXSCAN et y effectuer une preuve de concept de la tomographie spectrale. Le premier but est rempli grâce au développement de l'interface d'acquisition du PIXSCAN. Le second est atteint par l'implantation de la méthode de séparation de composantes dont le but est d'isoler les contributions photoélectrique, Compton et celles des agents de contraste. Ce travail débute par la caractérisation de cette méthode et se termine par sa démonstration sur données réelles acquises à l'aide du prototype PIXSCAN.
39

Sorel, Maud. "Les fluctuations du fond diffus extragalactique et ses avant-plans, de l'infrarouge au domaine millimétrique". Phd thesis, Université Paris Sud - Paris XI, 2005. http://tel.archives-ouvertes.fr/tel-00009750.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse présente un travail sur le fond diffus extragalactique dans les domaines de longueurs d'onde infrarouge et millimétrique. (1) L'étude de la couleur (ou rapport de brillance) des cirrus aux longueurs d'onde 60 et 100 microns a montré une augmentation de celle-ci de B(60)/B(100)=0.21 à 0.28 pour des brillances inférieures à B(100)=3 MJy/sr. Ceci se traduit par une augmentation des très petits grains de poussières dans les régions diffuses de haute latitude provoquée par l'érosion et la fragmentation des grains par les ondes de choc des supernovae. (2) La séparation entre les cirrus et les fluctuations du fond diffus infrarouge extragalactique à l'aide des couleurs B(60)/B(100), B(60)/B(170), B(100)/B(170) s'est révélée non efficace, car les spectres des deux composantes sont trop proches à ces longueurs d'onde. Il faudra renouveler l'étude aux plus grandes longueurs d'onde de Planck et Herschel. (3) Le spectre de puissance des fluctuations du fond diffus infrarouge extragalactique ne montre aucune corrélation particulière. On en déduit un biais des galaxies infrarouges inférieur à 0.6. Ceci implique que les galaxies formant les fluctuations du fond sont à bas redshift. On espère détecter des corrélations en sondant les cartes plus grandes de SPITZER. (4) la séparation statistique du fond diffus cosmologique (FDC) et de l'effet Sunyaev-Zel'dovich (SZ) cinétique pourrait se faire à l'aide d'une loi à priori entre l'effet SZ cinétique et le produit de covariance entre la carte de mélange (FDC+SZ cinétique) et l'effet SZ thermique.
40

Hattay, Jamel. "Wavelet-based lifting structures and blind source separation : applications to digital in-line holography". Rouen, 2016. http://www.theses.fr/2016ROUES016.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce projet de thèse expose des méthodes de traitement, dans le domaine des ondelettes, pour résoudre certains problèmes liés à la mise en oeuvre de l’holographie numérique dans l’axe. Ce developpement utilise des outils de la théorie de l’information et des divers moyens de traitement du signal tels que la séparation aveugle de sources (SAS). Cette technique est exploitée, ici, pour améliorer l’efficacité de l’holographie numérique, tels que la suppression de l’image jumelle, l’estimation de l’indice de réfraction, le codage et la transmission temps réel des hologrammes. Tout d’abord, nous donnons une brève introduction à la configuration dans l’axe de l’holographie numérique telle qu’elle est mise en oeuvre à l’UMR 6614 CORIA: l'explication de l’étape d’enregistrement ainsi que les différentes approches de restitution des hologrammes utilisés dans cette thèse. Ensuite, nous présentons un état de l’art des méthodes permettant de résoudre les deux principaux obstacles rencontrés dans la reconstruction des hologrammes numériques: l’étape de mise au point et la suppression de l’image jumelle. Ensuite, nous expliquons méticuleusement l’outil basé sur la transformée d’ondelettes, pour assurer une décomposition multi résolution de l’image, qui permet la séparation aveugle des images mélangées par un produit de convolution. Notre proposition consiste à utiliser la 2ème génération de la transformée en ondelettes d’une manière adaptative appelée aussi Schéma de lifting en quinconce Adaptif (SLQA). Cette décomposition est couplée à un algorithme de séparation appropriée pour former les trois étapes suivantes : les images d’entrées, mélangées par convolution, sont décomposées par SLQA pour former un arbre d’ondelettes. Ensuite, on applique l’algorithme de séparation sur le noeud le plus parcimonieux, généralement à la résolution la plus élevée, et enfin les images séparées sont reconstruites à l’aide de l’inverse de SLQA. Cet outil est appliqué pour résoudre plusieurs problèmes liés à des applications d’holographie numérique dans l’axe. Dans ce contexte, deux méthodes sont proposées. La première méthode, utilisant l’entropie globale, est développée pour rechercher de manière automatique le meilleur plan de mise au point des images holographiques. La deuxième méthode sert à supprimer l’image jumelle qui accompagne l’image restituée. Cette dernière se base sur la décomposition SLQA avec un algorithme de séparation statistique qui utilise la fameuse technique Analyse en Composantes Indépendantes (ACI). Vu que le formalisme d’un produit de convolution est retenu dans l’étape de formation de l’hologramme, l’outil SLQA et ACI assurent parfaitement la tâche de déconvolution. Les résultats expérimentaux confirment bien que nos deux méthodes proposées sont capables d’estimer le meilleur plan de mise au point et d’éliminer l’effet de l’image jumelle dans l’image restituée. Puis, nous proposons d’estimer l’épaisseur d’un anneau dans une image restituée d’un hologramme contenant la diffraction d’une bulle de vapeur stable dans une gouttelette d’un liquide. La dernière partie met en oeuvre le nouveau concept de Télé-Holographie. Il s’agit de mettre en place un échange de flux interactif entre la chambre d’enregistrement des hologrammes in-situ et un laboratoire distant au sein duquel s’effectue le traitement numérique de ces hologrammes. Pour atteindre cet objectif, nous proposons de réaliser une compression sans perte des hologrammes numériques par transformée en ondelettes. Pour la phase de la transmission progressive, selon la capacité du canal de transmission, nous proposons une manière efficace pour le codage de l’arbre des zéros des coefficients emboités obtenu par la transformée d’ondelette en quinconce (SLQA). Ce codeur nous permet une réduction considérable du débit binaire lors de la transmission des hologrammes. Les premiers tests effectués sur des hologrammes réels, enregistrés au sein du laboratoire CORIA, montrent une amélioration significative des taux de compression totale et de la taille de l’hologramme compressé
The present thesis is meant to develop specific processes, in the realm of wavelets domain, for certain digital holography applications. We mainly use the so-called blind source separation (BSS) techniques to solve numerous digital holography problems, namely, the twin image suppression, real time coding and transmission of holograms. Firstly, we give a brief introduction to in-line configuration of digital holography in flow measurements: the recording step explanation and the study of two reconstruction approaches that have been used during this thesis. Then, we emphasize the two well known obstacles of digital holograms reconstruction, namely, the determination of the best focus plane and the twin image removal. Secondly, we propose a meticulous scrutiny of the tool, based on the Blind Source Separation (BSS), enhanced by a multiscale decomposition algorithm, which enables the blind separation of convolutively mixed images. The suggested algorithm uses a wavelet-based transformer, called Adaptive Quincunx Lifting Scheme (AQLS), coupled with an appropriate unmixing algorithm. The resulting deconvolution process is made up of three steps. In the first step, the convolutively mixed images are decomposed by AQLS. Then, separation algorithm is applied to the most relevant component to unmix the transformed images. The unmixed images are, thereafter, reconstructed using the inverse of the AQLS transform. In a subsequent part, we adopt the blind source separation technique in the wavelet field domain to solve several problems related to digital holography. In this context, we present two main contributions for digital in-line hologram processing. The first contribution consists in an entropy-based method to retrieve the best focus plane, a crucial issue in digital hologram reconstruction. The second contribution consists in a new approach to remove a common unwanted artifact in holography called the twin image. The latter contribution is based on the blind source separation technique, and the resulting algorithm is made up of two steps: an Adaptive Quincunx Lifting Scheme (AQLS) based on the wavelet packet transform and a statistical unmixing algorithm based on Independent Component Analysis (ICA) tool. The role of the AQLS is to maximize the sparseness of the input holograms. Since the convolutive formalism is retained in digital in-line holography, BSS-based tool is extended and coupled with wavelet-based AQLS to fulfill the deconvolution task. Experimental results confirm that convolutive blind source separation is able to discard the unwanted twin image from digital in-line holograms. The last of this part consists in measuring the thickness of a ring. This ring is obtained from an improved reconstructed image of an hologram containing a vapor bubble created by thermal coupling between a laser pulse and nanoparticles in a droplet of a liquid. The last part introduces the Tele-Holography concept. Once the image of the object is perfectly reconstructed, the next objective is to code and transmit the reconstructed image for an interactive flow of exchange between a given laboratory, where the holograms are recorded, and a distant partner research. We propose the tele-holography process that involves the wavelet transform tool for lossless compression and transmission of digital holograms. The concept of tele-holography is motivated by the fact that the digital holograms are considered as a 2D image yielding the depth information of 3D objects. Besides, we propose a quincunx embedded zero-tree wavelet coder (QEZW) for scalable transmission. Owing to the transmission channel capacity, it reduces drastically the bit rate of the holography transmission flow. A flurry of experimental results carried out on real digital holograms show that the proposed lossless compression process yields a significant improvement in compression ratio and total compressed size. These experimentations reveal the capacities of the proposed coder in terms of real bitrate for progressive transmission
41

Baque, Mathieu. "Analyse de scène sonore multi-capteurs : un front-end temps-réel pour la manipulation de scène". Thesis, Le Mans, 2017. http://www.theses.fr/2017LEMA1013/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La thèse s’inscrit dans un contexte d’essor de l’audio spatialisé (5.1, Dolby Atmos...). Parmi les formats audio 3D existants, l’ambisonie permet une représentation spatiale homogène du champ sonore et se prête naturellement à des manipulations : rotations, distorsion du champ sonore. L’objectif de cette thèse est de fournir un outil d’analyse et de manipulation de contenus audio (essentiellement vocaux) au format ambisonique. Un fonctionnement temps-réel et en conditions acoustiques réelles sont les principales contraintes à respecter. L’algorithme mis au point est basé sur une analyse en composantes indépendantes (ACI) appliquée trame à trame qui permet de décomposer le champ acoustique en un ensemble de contributions, correspondant à des sources (champ direct) ou à de la réverbération. Une étape de classification bayésienne, appliquée aux composantes extraites, permet alors l’identification et le dénombrement des sources sonores contenues dans le mélange. Les sources identifiées sont localisées grâce à la matrice de mélange obtenue par ACI, pour fournir une cartographie de la scène sonore. Une étude exhaustive des performances est menée sur des contenus réels en fonction de plusieurs paramètres : nombre de sources, environnement acoustique, longueur des trames, ou ordre ambisonique utilisé. Des résultats fiables en terme de localisation et de comptage de sources ont été obtenus pour des trames de quelques centaines de ms. L’algorithme, exploité comme prétraitement dans un prototype d’assistant vocal domestique, permet d’améliorer significativement les performances de reconnaissance, notamment en prise de son lointaine et en présence de sources interférentes
The context of this thesis is the development of spatialized audio (5.1 contents, Dolby Atmos...) and particularly of 3D audio. Among the existing 3D audio formats, Ambisonics and Higher Order Ambisonics (HOA) allow a homogeneous spatial representation of a sound field and allows basics manipulations, like rotations or distorsions. The aim of the thesis is to provides efficient tools for ambisonics and HOA sound scene analyse and manipulations. A real-time implementation and robustness to reverberation are the main constraints to deal with. The implemented algorithm is based on a frame-by-frame Independent Component Analysis (ICA), wich decomposes the sound field into a set of acoustic contributions. Then a bayesian classification step is applied to the extracted components to identify the real sources and the residual reverberation. Direction of arrival of the sources are extracted from the mixing matrix estimated by ICA, according to the ambisonic formalism, and a real-time cartography of the sound scene is obtained. Performances have been evaluated in different acoustic environnements to assess the influence of several parameters such as the ambisonic order, the frame length or the number of sources. Accurate results in terms of source localization and source counting have been obtained for frame lengths of a few hundred milliseconds. The algorithm is exploited as a pre-processing step for a speech recognition prototype and allows a significant increasing of the recognition results, in far field conditions and in the presence of noise and interferent sources
42

Wei, Tianwen. "Analyse de la convergence de l'algorithme FastICA : échantillon de taille finie et infinie". Thesis, Lille 1, 2013. http://www.theses.fr/2013LIL10030/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L'algorithme FastICA est l'un des algorithmes les plus populaires dans le domaine de l'analyse en composantes indépendantes (ICA). Il existe deux versions de FastICA: Celle qui correspond au cas où l'échantillon est de taille infinie, et celle qui traite de la situation concrète, où seul un échantillon de taille finie est disponible. Dans cette thèse, nous avons fait une étude détaillée des vitesses de convergence de l'algorithme FastICA dans le cas où la taille de l'échantillon est finie ou infinie, et nous avons établi cinq critères pour le choix des fonctions de non-linéarité. Dans les trois premiers chapitres, nous avons introduit le problème de l'ICA et revisité les résultats existants. Dans le Chapitre 4, nous avons étudié la convergence du FastICA empirique et le lien entre la limite de FastICA empirique et les points critiques de la fonction de contraste empirique. Dans le Chapitre 5, nous avons utilisé la technique du M-estimateur pour obtenir la normalité asymptotique et la matrice de covariance asymptotique de l'estimateur FastICA. Ceci nous a permis aussi de déduire quatre critères pour choisir les fonctions de non-linéarité. Un cinquième critère de choix de non-linéarité a été étudié dans le chapitre 6. Ce critère est basé sur une étude fine de la vitesse de convergence de FastICA empirique. Nous avons illustré chaque chapitre par des résultats numériques qui valident nos résultats théoriques
The FastICA algorithm is one of the most popular algorithms in the domain of Independent Component Analysis (ICA). There exist two versions of FastICA: the one that corresponds to the ideal case that the sample size is infinite, and the one that deal with the practical situation, where a sample of finite size is available. In this thesis, we made a detailed study of the rate of convergence of the FastICA algorithm of both versions, and we established five criteria for the choice of the non-linearity function. In the first three chapters, we introduced the problem of ICA and revisited the classical results. In Chapitre 4, we studied the convergence of empirical FastICA and the link between the limit of empirical FastICA and the critical points of the empirical contrast function. In Chapter 5, we used the technique of M-estimator to obtain the asymptotic normality and the asymptotic covariance matrix of the FastICA estimator. This allowed us to derive four criteria to choose the non-linearity function. A fifth criterion for the choice of the non-linearity function was studied in Chapter 6. This criterion is based on the rate of convergence of the empirical FastICA algorithm. At the end of each chapter, we provided numerical simulations that validate our theoretical results
43

Dupont, Mathieu. "Tomographie spectrale à comptage de photons : développement du prototype PIXSCAN et preuve de concept". Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM4011/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Dans le domaine de la tomographie par rayons X préclinique, la tomographie spectrale est une voie de plus en plus en plus explorée. Les objectifs de la tomographie spectrale sont la caractérisation et la quantification des tissus et agents de contraste que l'amélioration de contraste entre tissus mous. Cela passe par l'exploitation de l'information spectrale (ou énergétique) des photons X et non plus seulement par leur quantité détectée comme en tomographie standard par rayons X. L'intérêt de la tomographie spectrale se trouve renforcé par l'arrivée des caméras à pixels hybrides comme le XPAD qui ont la capacité de sélectionner les photons X en fonction de leur énergie. La caméra XPAD3, la troisième version du XPAD est construite pour fonctionner dans le micro-tomodensitomètre, PIXSCAN développé au CPPM.Dans ce contexte, cette thèse a deux buts~: participer au développement du PIXSCAN et effectuer une preuve de concept de la tomographie spectrale à l'aide du PIXSCAN. Le premier but est rempli grâce au développement de l'interface d'acquisition du PIXSCAN. Le second est accompli par l'implantation de la méthode par séparation de composantes dont le but est d'isoler les contributions photoélectrique, Compton et des agents de contraste. Ce travail débute par la caractérisation de la méthode et se termine par la preuve de concept sur données réelles acquises à l'aide du PIXSCAN
In the field of preclinical X-ray tomography, spectral tomography is actively explorated. The aims of spectral tomography are the caracterisation of tissues and contrast agentstogether with the quantification of the latter and the enhancement of contrast between soft tissues. This is achived by the exploitation of spectral information (i.e. energy) and not only the detected quantities of photons X. The interest in spectral tomography is enforced by the arrival of hybrid pixel cameras like XPAD, because of their ability to select photons according to their energy. The XPAD3 camera, third version of XPAD, is built to be used in the micro-CT demonstrator PIXCAN fully developped at CPPM.In this context, this thesis has two goals : a contribution to the developement of the PIXSCAN and a realisation of a proof of concept of spectral tomography in PIXSCAN. The first goal is done by developing the data acquisition system of PIXSCAN. To accomplish the second one, we perform spectral tomography by implementing component separation in order to isolate photoelectric, compton and contrast agents contribution. This work begins by the caracterisation of this method and ends by a proof of concept on real data acquired by PIXSCAN
44

Hermosilla-Lara, Sébastien. "Amélioration d'une caméra photothermique par traitements d'images adaptés à la détection de fissures débouchantes". Cachan, Ecole normale supérieure, 2002. http://www.theses.fr/2002DENS0042.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
45

Peña, Manchón Francisco Javier de la. "Advanced methods for Electron Energy Loss Spectroscopy core-loss analysis". Paris 11, 2010. http://www.theses.fr/2010PA112379.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les microscopes électroniques en transmission modernes sont capables de fournir une grande quantité d'informations sous la forme de jeux de données multi-dimensionnelles. Bien que les procédures développées pour l'analyse des spectres uniques soient utilisables pour le traitement de ces données, le développement de techniques plus avancées est indispensable pour une exploitation optimale de ces informations hautement redondantes. Dans ce contexte, nous avons exploré des alternatives aux méthodes standard de quantification, et cherché à optimiser les acquisitions expérimentales afin d'améliorer la précision des analyses. Cela constitue une réponse aux défis actuels de la spectroscopie de perte d'énergie d'électrons (EELS) dont les facteurs limitants sont souvent liés aux dégâts d'irradiation et à la contamination. La quantification élémentaire par la méthode standard d'intégration est limitée aux cas simples. Nous avons montré que l'utilisation d'une méthode basée sur l'ajustement des courbes expérimentales peut surmonter la plupart des limitations de la méthode standard. Cette nouvelle méthode nous a non seulement permis d'obtenir des cartographies élémentaires mais aussi les premières cartographies des liaisons chimiques à l'échelle nanométrique. Les méthodes quantitatives exigent de connaître à priori la composition de l'échantillon, ce qui constitue une difficulté majeur lors de l'analyse d'échantillons inconnus. Nous avons montré que les méthodes de séparation aveugle des sources permettent une analyse rapide et efficace des données multi-dimensionnelles, sans nécessiter la définition d'un modèle. En conditions optimales, il est ainsi possible d'extraire à partir des données expérimentales les signaux correspondants aux différents constituants chimiques ainsi que leur distribution dans l'échantillon
Modern analytical transmission electron microscopes are able to gather a large amount of information from the sample in the form of multi-dimensional datasets. Although the analytical procedures developed for single spectra can be extended to the analysis of multi-dimensional datasets, for an optimal use of this highly redundant information, more advanced techniques must be deployed. In this context, we investigate alternatives to the standard quantification methods and seek to optimise the experimental acquisition for accurate analysis. This addresses the current challenges facing the electron energy-loss spectroscopy (EELS) community, for whom beam damage and contamination are often the limiting factors. EELS elemental quantification by the standard integration method is limited to well-behaved cases. As an alternative we use curve fitting which, as we show, can overcome most of the limitations of the standard method. Furthermore, we extend the method to obtain, in addition to elemental maps, the first bonding maps at the nanoscale. A major difficulty when analysing multi-dimensional datasets of samples of unknown composition is that the quantitative methods require as an input the composition of the sample. We show that blind source separation methods enable fast and accurate analysis of multi-dimensional datasets without defining a model. In optimal conditions these methods are capable of extracting signals from the dataset corresponding to the different chemical compounds in the sample and their distribution
46

Yavuz, Esin. "Source separation analysis of visual cortical dynamics revealed by voltage sensitive dye imaging". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2012. http://tel.archives-ouvertes.fr/tel-00836931.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail consiste en une analyse statistique de la séparation des sources des enregistrements d'imagerie VSD afin de 1) séparer le signal neuronal des artefacts, et 2) d'étudier la dynamique des motifs spatio-temporels de l'activité créés par les populations neuronales qui partagent des statistiques communes. À cette fin, nous avons effectué des enregistrements en imagerie VSD des zones 17 et 18 du cortex du chat anesthésié et paralysé, en réponse à des réseaux sinusoïdaux de luminance en mouvement et en plein champ. Nous avons développé une méthode d'analyse pour l'imagerie VSD qui sépare la réponse neuronale des artefacts, et extrait les motifs de l'activité qui sont fonctionnellement liés à des populations différentiables. Notre méthode de débruitage permet d'effectuer des analyses sur des essais unitaires, par exemple pour étudier la variabilité intrinsèque de chaque réponse de la population neuronale enregistrée pour une même stimulation. En outre, nous avons pu séparer des populations de neurones qui montrent différents profils de réponse à l'orientation et/ou à la direction des stimuli à l'aide de la PCA et de l'ICA. La compression et la projection de l'activité de V1 sur trois axes de composantes principales nous a permis d'étudier la dynamique des états corticaux et de démontrer la séparabilité des trajectoires d'état en fonction de l'orientation. Nos résultats indiquent que le codage neuronal de la préférence à l'orientation au niveau de la population plutôt que des canaux individuels est plus efficace. Nous espérons à l'avenir fournir un cadre de mesure pour la quantification et l'interprétation des réponses à des stimuli plus naturels
47

Achvar, Didier. "Séparation de sources : généralisation à un modèle convolutif". Montpellier 2, 1993. http://www.theses.fr/1993MON20222.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette these est consacree a l'etude du probleme de la separation de sources et s'est inspiree de la solution neuromimetique de herault-jutten. L'etude de ce probleme a travers les melanges instantanes et lineaires de deux sources a debouche en premier lieu sur une implementation de l'algorithme de herault-jutten sur un circuit electronique. Ce premier travail a motive l'analyse de certaines proprietes de convergence de cet algorithme. Apres une breve discussion autour de la definition du modele du melange, cette these propose finalement un nouvel algorithme de separation de sources fonde sur un modele de melange convolutif tres general. Les simulations prouvent de tres bonnes performances de cette methode. De plus, cet algorithme est tres simple et son implementation sur un circuit electronique en composants discrets et analogiques est immediate
48

Fabresse, Luc. "Du découpage à l'assemblage non anticipé de composants : Conception et mise en oeuvre du langage à composants Scl". Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2007. http://tel.archives-ouvertes.fr/tel-00207499.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les composants logiciels sont des entités logicielles réutilisables promettant une réduction des coûts liés au développement, à la maintenance et à l'évolution d'un logiciel. Actuellement, de nombreuses propositions se réclament du mode de développement par assemblage de composants logiciels. Malgré un vocabulaire parfois commun (composant, port, interface, service, connexion, connecteur), ces propositions sont disparates de par leurs origines, leurs objectifs, leurs concepts ou encore leurs mécanismes. De plus, elles restent difficiles à utiliser en pratique par manque de véritables langages de programmation sémantiquement fondés et concrètement utilisables. Devant tant de profusion, nous nous intéressons, dans cette thèse, aux problématiques suivantes: qu'est-ce qu'un langage à composants? Quels sont les avantages de ces langages? Comment réaliser un langage à composants?
Cette thèse propose donc Scl, un langage de programmation à composants permettant de mettre en pratique réellement la programmation par composants (PPC). De par sa conception, Scl se veut être un langage : (i) minimal dans le sens où toutes les abstractions et tous les mécanismes qui lui sont intégrés répondent à un besoin identifié ; (ii) simple car ses abstractions et ses mécanismes sont de haut niveau ; (iii) détaillé car nous avons abordé un ensemble de questions souvent oubliées dans les autres propositions comme l'auto-référence, le passage d'arguments ou le statut des composants de base (collections, entiers, etc) dans un monde unifié ; (iv) dédié à la PPC, car prenant en compte les deux préoccupations que nous jugeons majeures en PPC et qui sous-tendent toute l'étude: le découplage et la non-anticipation.
Le coeur de Scl repose principalement sur les concepts de composant, de port, de service, de connecteur et de « code glue » ainsi que sur les mécanismes de liaison de ports et d'invocation de service. La séparation des préoccupations au niveau du code occupe une part importante de l'étude qui établit un lien entre la programmation par composants et la programmation par aspects (PPA). Scl propose dans ce cadre une amélioration des approches dites « symétriques » de la PPA, via une unification des concepts d'aspect et de composant et via un ensemble de différents types de liaisons de ports qui permettent d'utiliser un même composant de façon standard ou de façon transversale. Scl intègre aussi un mécanisme général permettant d'établir des connexions entre composants basées sur les changements d'états de leurs propriétés sans que leurs programmeurs n'aient à écrire une ligne de code spécifique à cet effet. Deux prototypes de Scl sont également présentés, le premier et le plus abouti est écrit en Smalltalk et le second en Ruby.
49

Mauviel, Guillain. "Transport multi-composants dans les polymères : séparation hydrocarbures / hydrogène par membrane à sélectivité inverse". Vandoeuvre-les-Nancy, INPL, 2003. http://docnum.univ-lorraine.fr/public/INPL_T_2003_MAUVIEL_G.pdf.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La séparation hydrocarbures / hydrogène par membrane à sélectivité inverse est étudiée. Le premier objectif est d'élaborer des matériaux dont la sélectivité est accrue. Des composites silicone - charges minérales sont réalisées, mais l'amélioration attendue n'est pas observée. Le second objectif est de modéliser le transport de plusieurs pénétrants dans les élastomères. En effet, le modèle de perméabilité ne permet pas de décrire correctement la perméation lorsque des vapeurs sont présentes. Dès lors, plusieurs phénomènes sont considérés: l'interdépendance diffusionnelle, la synergie de sorption, le gonflement et l'entraînement convectif. La dépendance des diffusivités avec la composition est représentée par la théorie du volume libre. La résolution numérique du modèle permet de prédire correctement les flux en mélange à partir des mesures sur les corps purs. Pour les systèmes étudiés, l'interdépendance diffusionnelle est prépondérante et la synergie de sorption ne peut être négligée
Hydrocarbon / hydrogen separation by reverse selectivity membranes is investigated. The first goal is to develop materials showing an increased selectivity. Silicone membranes loaded with inorganic fillers have been prepared, but the expected enhancement is not observed. The second goal is to model the multi- component transport through rubbers. Indeed the permeability model is not able to predict correctly permeation when a vapour is present. Thus many phenomena have to be considered: diffusional interdependancy, sorption synergy, membrane swelling and drag effect. The dependence of diffusivities with the local composition is modelled according to free-volume theory. The model resolution allows to predict the permeation flow-rates of mixed species from their pure sorption and diffusion data. For the systems under consideration, the diffusional interdependancy is shown to be preponderant. Besides, sorption synergy importance is pointed out, whereas it is most often neglected
50

Marvie, Raphaël. "Séparation des préoccupations et méta-modélisation pour environnements de manipulation d'architectures logicielles à base de composants". Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2002. http://tel.archives-ouvertes.fr/tel-00007381.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les architectures logicielles sont centrales vis-à-vis des processus logiciels de construction des applications. Les langages de description d'architectures (ADLs) représentent la solution la plus adaptée pour définir de telles architectures. Toutefois, les concepts de ces ADLs sont en règle générale figés et leurs utilisations ne répond pas nécessairement aux différentes préoccupations des processus logiciels. De plus, leur aspect syntaxique ne facilite pas la coopération des différents acteurs de processus logiciels. Notre proposition, CODeX, fournit un cadre de travail pour méta-modéliser des ADLs. Ces méta-modèles permettent de définir les concepts liés aux architectures nécessaires à un processus logiciel. Dans le but de structurer les ADLs ainsi définis et de permettre la collaboration des différents acteurs d'un processus logiciel, les méta-modèles sont définis en mettant en œuvre la séparation des préoccupations architecturales d'un processus logiciel. Cette séparation définit l'organisation des différents concepts d'un ADL. Un outillage complément de ce cadre de travail permet de produire automatiquement, sur la base du méta-modèle d'un ADL, l'environnement associé pour la manipulation des architectures logicielles. Ce dernier est architecturé autour d'une représentation réifiée des architectures logicielles. Cette représentation suit la séparation des préoccupations définie dans le méta-modèle et permet d'offrir à chaque acteur d'un processus logiciel une vue dédiée sur l'architecture d'une application.

Vai alla bibliografia