Дисертації з теми "Estimation de séparation"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Estimation de séparation.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-50 дисертацій для дослідження на тему "Estimation de séparation".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Ichir, Mahieddine Mehdi. "Estimation bayésienne et approche multi-résolution en séparation de sources." Paris 11, 2005. http://www.theses.fr/2005PA112370.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Mamouni, Nezha. "Utilisation des Copules en Séparation Aveugle de Sources Indépendantes/Dépendantes." Thesis, Reims, 2020. http://www.theses.fr/2020REIMS007.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le problème de la séparation aveugle de sources (SAS) consiste à retrouver des signaux non observés à partir de mélanges inconnus de ceux-ci, où on ne dispose pas, ou très peu, d'informations sur les signaux source et/ou le système de mélange. Dans cette thèse, nous présentons des algorithmes pour séparer des mélanges linéaires instantanés et convolutifs de sources avec composantes indépendantes/dépendantes. Le principe des algorithmes proposés est de minimiser des critères de séparation, bien définis, basés sur les densités de copules, en utilisant des algorithmes de type descente du gradient.Nous montrons que les méthodes proposées peuvent séparer des mélanges de sources avec composantes dépendantes, où le modèle de copule est inconnu
The problem of Blind Source Separation (BSS) consists in retrieving unobserved mixed signals from unknown mixtures of them, where there is no, or very limited, information about the source signals and/or the mixing system. In this thesis, we present algorithms in order to separate instantaneous and convolutive mixtures. The principle of these algorithms is to minimize, appropriate separation criteria based on copula densities, using descent gradient type algorithms. These methods can magnificently separate instantaneous and convolutive mixtures of possibly dependent source components even when the copula model is unknown
3

Rafi, Selwa. "Chaînes de Markov cachées et séparation non supervisée de sources." Thesis, Evry, Institut national des télécommunications, 2012. http://www.theses.fr/2012TELE0020/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le problème de la restauration est rencontré dans domaines très variés notamment en traitement de signal et de l'image. Il correspond à la récupération des données originales à partir de données observées. Dans le cas de données multidimensionnelles, la résolution de ce problème peut se faire par différentes approches selon la nature des données, l'opérateur de transformation et la présence ou non de bruit. Dans ce travail, nous avons traité ce problème, d'une part, dans le cas des données discrètes en présence de bruit. Dans ce cas, le problème de restauration est analogue à celui de la segmentation. Nous avons alors exploité les modélisations dites chaînes de Markov couples et triplets qui généralisent les chaînes de Markov cachées. L'intérêt de ces modèles réside en la possibilité de généraliser la méthode de calcul de la probabilité à posteriori, ce qui permet une segmentation bayésienne. Nous avons considéré ces méthodes pour des observations bi-dimensionnelles et nous avons appliqué les algorithmes pour une séparation sur des documents issus de manuscrits scannés dans lesquels les textes des deux faces d'une feuille se mélangeaient. D'autre part, nous avons attaqué le problème de la restauration dans un contexte de séparation aveugle de sources. Une méthode classique en séparation aveugle de sources, connue sous l'appellation "Analyse en Composantes Indépendantes" (ACI), nécessite l'hypothèse d'indépendance statistique des sources. Dans des situations réelles, cette hypothèse n'est pas toujours vérifiée. Par conséquent, nous avons étudié une extension du modèle ACI dans le cas où les sources peuvent être statistiquement dépendantes. Pour ce faire, nous avons introduit un processus latent qui gouverne la dépendance et/ou l'indépendance des sources. Le modèle que nous proposons combine un modèle de mélange linéaire instantané tel que celui donné par ACI et un modèle probabiliste sur les sources avec variables cachées. Dans ce cadre, nous montrons comment la technique d'Estimation Conditionnelle Itérative permet d'affaiblir l'hypothèse usuelle d'indépendance en une hypothèse d'indépendance conditionnelle
The restoration problem is usually encountered in various domains and in particular in signal and image processing. It consists in retrieving original data from a set of observed ones. For multidimensional data, the problem can be solved using different approaches depending on the data structure, the transformation system and the noise. In this work, we have first tackled the problem in the case of discrete data and noisy model. In this context, the problem is similar to a segmentation problem. We have exploited Pairwise and Triplet Markov chain models, which generalize Hidden Markov chain models. The interest of these models consist in the possibility to generalize the computation procedure of the posterior probability, allowing one to perform bayesian segmentation. We have considered these methods for two-dimensional signals and we have applied the algorithms to retrieve of old hand-written document which have been scanned and are subject to show through effect. In the second part of this work, we have considered the restoration problem as a blind source separation problem. The well-known "Independent Component Analysis" (ICA) method requires the assumption that the sources be statistically independent. In practice, this condition is not always verified. Consequently, we have studied an extension of the ICA model in the case where the sources are not necessarily independent. We have introduced a latent process which controls the dependence and/or independence of the sources. The model that we propose combines a linear instantaneous mixing model similar to the one of ICA model and a probabilistic model on the sources with hidden variables. In this context, we show how the usual independence assumption can be weakened using the technique of Iterative Conditional Estimation to a conditional independence assumption
4

Arberet, Simon. "Estimation robuste et apprentissage aveugle de modèles pour la séparation de sources sonores." Phd thesis, Rennes 1, 2008. ftp://ftp.irisa.fr/techreports/theses/2008/arberet.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La séparation de sources aveugle dans le cas sous-déterminé est un problème mal posé pour lequel on suppose que les sources sont indépendantes et parcimonieuses dans le domaine temps-fréquence. La séparation se fait alors en deux étapes : une étape d'estimation des paramètres du mélange, suivi d'une étape d'estimation des sources. Les hypothèses faites sur les sources ne sont cependant pas valides sur l'ensemble des points temps-fréquence, si bien que les approches qui traitent naïvement de l'ensemble des points de manière identiques et indépendantes, sont peu robustes pour estimer les paramètres du mélange et les sources. L'objet de cette thèse est d'exploiter la distribution locale du mélange dans les voisinages de chaque point temps-fréquence, afin de : - Détecter les régions temps-fréquence où une seule source est active et d'estimer la direction de la source dominante dans ces régions ; - Estimer la distribution des sources en chaque point temps-fréquence à l'aide de la connaissance sur les paramètres du mélange. L'approche locale que nous proposons est étayée par un algorithme de clustering appelé DEMIX, qui estime de façon robuste les paramètres du mélange dans les cas instantanés et anéchoïques. D'autre part, l'estimation locale de la distribution des sources peut être utilisée pour apprendre des MMG spectraux qui jusqu'à présent nécessitaient une étape d'apprentissage à partir d'exemples. Nous montrons que cette approche améliore l'estimation des sources de plusieurs dB en SDR
Blind source separation in the underdetermined case is an ill-posed problem where it is usually assumed that sources are independent and sparse in the time-frequency domain. Separation is then done in two steps : the estimation of the mixture parameters, followed by the estimation of the sources. The assumptions made about the sources are not valid for all the time-frequency points, so that the approaches which naively address all the points identically and independently, are little robust in estimating the mixture parameters and the sources. In this thesis we exploit the local distribution of the mixture in the neighborhood of each time-frequency point, to : - Detect the time-frequency regions where only one source is active and to estimate the direction of the dominant source in these regions; - Estimate the distribution of the sources in each time-frequency point using the knowledge on the mixture parameters. The proposed local approach is supported by a clustering algorithm called DEMIX, which robustly estimates the mixture parameters in the instantaneous and anechoic cases. On the other hand, the local spatial distribution of the sources can be used to learn Spectral-GMM which until now required a learning step with source examples. We show that this approach improve the source estimation performance of some dB in SDR
5

Arberet, Simon. "Estimation robuste et apprentissage aveugle de modèles pour la séparation de sources sonores." Phd thesis, Université Rennes 1, 2008. http://tel.archives-ouvertes.fr/tel-00564052.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La séparation de sources aveugle dans le cas sous-déterminé est un problème mal posé pour lequel on suppose que les sources sont indépendantes et parcimonieuses dans le domaine temps-fréquence. La séparation se fait alors en deux étapes : une étape d'estimation des paramètres du mélange, suivi d'une étape d'estimation des sources. Les hypothèses faites sur les sources ne sont cependant pas valides sur l'ensemble des points temps-fréquence, si bien que les approches qui traitent naïvement de l'ensemble des points de manière identiques et indépendantes, sont peu robustes pour estimer les paramètres du mélange et les sources. L'objet de cette thèse est d'exploiter la distribution locale du mélange dans les voisinages de chaque point temps-fréquence, afin de : - Détecter les régions temps-fréquence où une seule source est active et d'estimer la direction de la source dominante dans ces régions ; - Estimer la distribution des sources en chaque point temps-fréquence à l'aide de la connaissance sur les paramètres du mélange. L'approche locale que nous proposons est étayée par un algorithme de clustering appelé DEMIX, qui estime de façon robuste les paramètres du mélange dans les cas instantanés et anéchoïques. D'autre part, l'estimation locale de la distribution des sources peut être utilisée pour apprendre des MMG spectraux qui jusqu'à présent nécessitaient une étape d'apprentissage à partir d'exemples. Nous montrons que cette approche améliore l'estimation des sources de plusieurs dB en SDR.
6

Essebbar, Abderrahman. "Séparation paramétrique des ondes en sismique." Phd thesis, Grenoble INPG, 1992. http://tel.archives-ouvertes.fr/tel-00785644.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette étude, nous nous intéressons à la séparation des ondes sismiques, traitement principal conditionnant toute interprétation physique des données. En première partie, les méthodes de séparation non paramétriques (Matrice spectrale, Transformée de Karhunen-Loève et Filtrage FK) sont étudiées. La limitation de ces méthodes nous a conduit à utiliser l'approche paramétrique. Cette approche fait apparaître une modélisation qui permet de tenir compte des divers types d'ondes sismiques. La séparation paramétrique des ondes utilise l'estimateur du maximum de vraisemblance. Elle est réalisée en estimant les différents paramètres (lenteur apparente, amplitude, forme de l'onde, phase et angle d'incidence) caractérisant chaque onde. Les différentes méthodes d'estimation ainsi que les limites et les performances de la séparation paramétrique sont étudiées en deuxième partie. Les résultats de cette étude sont appliqués, en dernière partie, au traitement des signaux sismiques de puits issus d'une expérimentation ainsi qu'à des ondes dispersives de sismique de, surface.
7

Rosier, Julie. "Estimation de fréquences fondamentales multiples : application à la séparation de signaux de parole et musique." Phd thesis, Télécom ParisTech, 2003. http://pastel.archives-ouvertes.fr/pastel-00000723.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objet de cette thèse est l'étude du problème d'estimation de fréquences fondamentales multiples, pour des mélanges de parole et de musique dont le nombre de sources est inconnu. Dans le cadre de la parole, nous proposons une méthode itérative qui estime successivement les fréquences fondamentales. La nature «voisée/non-voisée» des mélanges est caractérisée par un modèle du type "sommes de sinusoïdes harmoniques + bruit autorégressif". L'estimation consiste à maximiser un terme de Vraisemblance pénalisée qui permet également d'estimer le nombre de sources. Dans le cadre musical, nous proposons trois nouvelles méthodes qui estiment simultanément les fréquences fondamentales. Basées sur une classification des pics spectraux du mélange, elles diffèrent par leur technique de classification. Toutes permettent d'estimer le nombre de sources. Elles permettent également de prendre en compte les recouvrements spectraux entre notes et sont ainsi applicables au traitement d'accords musicaux.
8

RAFI, Selwa. "Chaînes de Markov cachées et séparation non supervisée de sources." Phd thesis, Institut National des Télécommunications, 2012. http://tel.archives-ouvertes.fr/tel-00995414.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le problème de la restauration est rencontré dans domaines très variés notamment en traitement de signal et de l'image. Il correspond à la récupération des données originales à partir de données observées. Dans le cas de données multidimensionnelles, la résolution de ce problème peut se faire par différentes approches selon la nature des données, l'opérateur de transformation et la présence ou non de bruit. Dans ce travail, nous avons traité ce problème, d'une part, dans le cas des données discrètes en présence de bruit. Dans ce cas, le problème de restauration est analogue à celui de la segmentation. Nous avons alors exploité les modélisations dites chaînes de Markov couples et triplets qui généralisent les chaînes de Markov cachées. L'intérêt de ces modèles réside en la possibilité de généraliser la méthode de calcul de la probabilité à posteriori, ce qui permet une segmentation bayésienne. Nous avons considéré ces méthodes pour des observations bi-dimensionnelles et nous avons appliqué les algorithmes pour une séparation sur des documents issus de manuscrits scannés dans lesquels les textes des deux faces d'une feuille se mélangeaient. D'autre part, nous avons attaqué le problème de la restauration dans un contexte de séparation aveugle de sources. Une méthode classique en séparation aveugle de sources, connue sous l'appellation "Analyse en Composantes Indépendantes" (ACI), nécessite l'hypothèse d'indépendance statistique des sources. Dans des situations réelles, cette hypothèse n'est pas toujours vérifiée. Par conséquent, nous avons étudié une extension du modèle ACI dans le cas où les sources peuvent être statistiquement dépendantes. Pour ce faire, nous avons introduit un processus latent qui gouverne la dépendance et/ou l'indépendance des sources. Le modèle que nous proposons combine un modèle de mélange linéaire instantané tel que celui donné par ACI et un modèle probabiliste sur les sources avec variables cachées. Dans ce cadre, nous montrons comment la technique d'Estimation Conditionnelle Itérative permet d'affaiblir l'hypothèse usuelle d'indépendance en une hypothèse d'indépendance conditionnelle
9

Fourt, Olivier. "Traitement des signaux à phase polynomiale dans des environnements fortement bruités : séparation et estimation des paramètres." Paris 11, 2008. http://www.theses.fr/2008PA112064.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les travaux de cette thèse sont consacrés aux différents problèmes de traitement des Signaux à Phase Polynomiale dans des environnements fortement dégradés, que se soit par de fort niveaux de bruit ou par la présence de bruit impulsif, bruit que nous avons modélisé en ayant recourt à des lois alpha-stables. La robustesse au bruit est un sujet classique de traitement du signal et si de nombreux algorithmes sont capables de fonctionner avec de forts niveaux de bruits gaussiens, la présence de bruit impulsif a souvent pour conséquence une forte dégradation des performances voir une impossibilité d'utilisation. Récemment, plusieurs algorithmes ont été proposés pour prendre en compte la présence de bruit impulsif avec toutefois une contrainte: ces algorithmes voient généralement leurs performances se dégrader lorsqu'ils sont utilisés avec du bruit gaussien, et en conséquence nécessitent une sélection préalable de l'algorithme adapté en fonction de l'usage. L'un des points abordé dans cette thèse a donc été la réalisation d'algorithmes robustes à la nature du bruit en ce sens que leurs performances sont similaires, que le bruit additif soit gaussien ou alpha-stable. Le deuxième point abordé a été la réalisation d'algorithmes rapides, une capacité difficile à cumuler à la robustesse
The research works of this thesis deal with the processings of polynomial phase signals in heavily corrupted environnements, whatsoever noise with high levels or impulse noise, noise modelled by the use of alpha-stable laws. Noise robustness is a common task in signal processing and if several algorithms are able to work with high gaussian noise level, the presence of impulse noise often leads to a great loss in performances or makes algorithms unable to work. Recently, some algorithms have been built in order to support impulse noise environnements but with one limit: the achievable results decrease with gaussian noise situations and thus needs as a first step to select the good method versus the kind of the noise. So one of the key points of this thesis was building algorithms who were robust to the kind of the noise which means that they have similar performances with gaussian noise or alpha-stable noise. The second key point was building fast algorithms, something difficult to add to robustness
10

Boudjellal, Abdelouahab. "Contributions à la localisation et à la séparation de sources." Thesis, Orléans, 2015. http://www.theses.fr/2015ORLE2063.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les premières recherches en détection, localisation et séparation de signaux remontent au début du 20ème siècle. Ces recherches sont d’actualité encore aujourd’hui, notamment du fait de la croissance rapide des systèmes de communications constatée ces deux dernières décennies. Par ailleurs, la littérature du domaine consacre très peu d’études relatives à certains contextes jugés difficiles dont certains sont traités dans cette thèse. Ce travail porte sur la localisation de signaux par détection des temps d’arrivée ou estimation des directions d’arrivée et sur la séparation de sources dépendantes ou à module constant. L’idée principale est de tirer profit de certaines informations a priori disponibles sur les signaux sources telles que la parcimonie, la cyclostationarité, la non-circularité, le module constant, la structure autoregressive et les séquences pilote dans un contexte coopératif. Une première partie détaille trois contributions : (i) un nouveau détecteur pour l’estimation des temps d’arrivée basé sur la minimisation de la probabilité d’erreur ; (ii) une estimation améliorée de la puissance du bruit, basée sur les statistiques d’ordre ; (iii) une quantification de la précision et de la résolution de l’estimation des directions d’arrivée au regard de certains a priori considérés sur les sources. Une deuxième partie est consacrée à la séparation de sources exploitant différentes informations sur celles-ci : (i) la séparation de signaux de communication à module constant ; (ii) la séparation de sources dépendantes connaissant la nature de la dépendance et (iii) la séparation de sources autorégressives dépendantes connaissant la structure autorégressive
Signal detection, localization, and separation problems date back to the beginning of the twentieth century. Nowadays, this subject is still a hot topic receiving more and more attention, notably with the rapid growth of wireless communication systems that arose in the last two decades and it turns out that many challenging aspects remain poorly addressed by the available literature relative to this subject. This thesis deals with signal detection, localization using temporal or directional measurements, and separation of dependent source signals. The main objective is to make use of some available priors about the source signals such as sparsity, cyclo-stationarity, non-circularity, constant modulus, autoregressive structure or training sequences in a cooperative framework. The first part is devoted to the analysis of (i) signal’s time-of-arrival estimation using a new minimum error rate based detector, (ii) noise power estimation using an improved order-statistics estimator and (iii) side information impact on direction-of-arrival estimation accuracy and resolution. In the second part, the source separation problem is investigated at the light of different priors about the original sources. Three kinds of prior have been considered : (i) separation of constant modulus communication signals, (ii) separation of dependent source signals knowing their dependency structure and (iii) separation of dependent autoregressive sources knowing their autoregressive structure
11

Liutkus, Antoine. "Processus gaussiens pour la séparation de sources et le codage informé." Electronic Thesis or Diss., Paris, ENST, 2012. http://www.theses.fr/2012ENST0069.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La séparation de sources est la tâche qui consiste à récupérer plusieurs signaux dont on observe un ou plusieurs mélanges. Ce problème est particulièrement difficile et de manière à rendre la séparation possible, toute information supplémentaire connue sur les sources ou le mélange doit pouvoir être prise en compte. Dans cette thèse, je propose un formalisme général permettant d’inclure de telles connaissances dans les problèmes de séparation, où une source est modélisée comme la réalisation d’un processus gaussien. L’approche a de nombreux intérêts : elle généralise une grande partie des méthodes actuelles, elle permet la prise en compte de nombreux a priori et les paramètres du modèle peuvent être estimés efficacement. Ce cadre théorique est appliqué à la séparation informée de sources audio, où la séparation est assistée d'une information annexe calculée en amont de la séparation, lors d’une phase préliminaire où à la fois le mélange et les sources sont disponibles. Pour peu que cette information puisse se coder efficacement, cela rend possible des applications comme le karaoké ou la manipulation des différents instruments au sein d'un mix à un coût en débit bien plus faible que celui requis par la transmission séparée des sources. Ce problème de la séparation informée s’apparente fortement à un problème de codage multicanal. Cette analogie permet de placer la séparation informée dans un cadre théorique plus global où elle devient un problème de codage particulier et bénéficie à ce titre des résultats classiques de la théorie du codage, qui permettent d’optimiser efficacement les performances
Source separation consists in recovering different signals that are only observed through their mixtures. To solve this difficult problem, any available prior information about the sources must be used so as to better identify them among all possible solutions. In this thesis, I propose a general framework, which permits to include a large diversity of prior information into source separation. In this framework, the sources signals are modeled as the outcomes of independent Gaussian processes, which are powerful and general nonparametric Bayesian models. This approach has many advantages: it permits the separation of sources defined on arbitrary input spaces, it permits to take many kinds of prior knowledge into account and also leads to automatic parameters estimation. This theoretical framework is applied to the informed source separation of audio sources. In this setup, a side-information is computed beforehand on the sources themselves during a so-called encoding stage where both sources and mixtures are available. In a subsequent decoding stage, the sources are recovered using this information and the mixtures only. Provided this information can be encoded efficiently, it permits popular applications such as karaoke or active listening using a very small bitrate compared to separate transmission of the sources. It became clear that informed source separation is very akin to a multichannel coding problem. With this in mind, it was straightforwardly cast into information theory as a particular source-coding problem, which permits to derive its optimal performance as rate-distortion functions as well as practical coding algorithms achieving these bounds
12

Song, Yingying. "Amélioration de la résolution spatiale d’une image hyperspectrale par déconvolution et séparation-déconvolution conjointes." Electronic Thesis or Diss., Université de Lorraine, 2018. http://www.theses.fr/2018LORR0207.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Une image hyperspectrale est un cube de données 3D dont chaque pixel fournit des informations spectrales locales sur un grand nombre de bandes contiguës sur une scène d'intérêt. Les images observées peuvent subir une dégradation due à l'instrument de mesure, avec pour conséquence l'apparition d'un flou sur les images qui se modélise par une opération de convolution. La déconvolution d'image hyperspectrale (HID) consiste à enlever le flou pour améliorer au mieux la résolution spatiale des images. Un critère de HID du type Tikhonov avec contrainte de non-négativité est proposé dans la thèse de Simon Henrot. Cette méthode considère les termes de régularisations spatiale et spectrale dont la force est contrôlée par deux paramètres de régularisation. La première partie de cette thèse propose le critère de courbure maximale MCC et le critère de distance minimum MDC pour estimer automatiquement ces paramètres de régularisation en formulant le problème de déconvolution comme un problème d'optimisation multi-objectif. La seconde partie de cette thèse propose l'algorithme de LMS avec un bloc lisant régularisé (SBR-LMS) pour la déconvolution en ligne des images hyperspectrales fournies par les systèmes de whiskbroom et pushbroom. L'algorithme proposé prend en compte la non-causalité du noyau de convolution et inclut des termes de régularisation non quadratiques tout en maintenant une complexité linéaire compatible avec le traitement en temps réel dans les applications industrielles. La troisième partie de cette thèse propose des méthodes de séparation-déconvolution conjointes basés sur le critère de Tikhonov en contextes hors-ligne ou en-ligne. L'ajout d'une contrainte de non-négativité permet d’améliorer leurs performances
A hyperspectral image is a 3D data cube in which every pixel provides local spectral information about a scene of interest across a large number of contiguous bands. The observed images may suffer from degradation due to the measuring device, resulting in a convolution or blurring of the images. Hyperspectral image deconvolution (HID) consists in removing the blurring to improve the spatial resolution of images at best. A Tikhonov-like HID criterion with non-negativity constraint is considered here. This method considers separable spatial and spectral regularization terms whose strength are controlled by two regularization parameters. First part of this thesis proposes the maximum curvature criterion MCC and the minimum distance criterion MDC to automatically estimate these regularization parameters by formulating the deconvolution problem as a multi-objective optimization problem. The second part of this thesis proposes the sliding block regularized (SBR-LMS) algorithm for the online deconvolution of hypserspectral images as provided by whiskbroom and pushbroom scanning systems. The proposed algorithm accounts for the convolution kernel non-causality and including non-quadratic regularization terms while maintaining a linear complexity compatible with real-time processing in industrial applications. The third part of this thesis proposes joint unmixing-deconvolution methods based on the Tikhonov criterion in both offline and online contexts. The non-negativity constraint is added to improve their performances
13

Song, Yingying. "Amélioration de la résolution spatiale d’une image hyperspectrale par déconvolution et séparation-déconvolution conjointes." Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0207/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Une image hyperspectrale est un cube de données 3D dont chaque pixel fournit des informations spectrales locales sur un grand nombre de bandes contiguës sur une scène d'intérêt. Les images observées peuvent subir une dégradation due à l'instrument de mesure, avec pour conséquence l'apparition d'un flou sur les images qui se modélise par une opération de convolution. La déconvolution d'image hyperspectrale (HID) consiste à enlever le flou pour améliorer au mieux la résolution spatiale des images. Un critère de HID du type Tikhonov avec contrainte de non-négativité est proposé dans la thèse de Simon Henrot. Cette méthode considère les termes de régularisations spatiale et spectrale dont la force est contrôlée par deux paramètres de régularisation. La première partie de cette thèse propose le critère de courbure maximale MCC et le critère de distance minimum MDC pour estimer automatiquement ces paramètres de régularisation en formulant le problème de déconvolution comme un problème d'optimisation multi-objectif. La seconde partie de cette thèse propose l'algorithme de LMS avec un bloc lisant régularisé (SBR-LMS) pour la déconvolution en ligne des images hyperspectrales fournies par les systèmes de whiskbroom et pushbroom. L'algorithme proposé prend en compte la non-causalité du noyau de convolution et inclut des termes de régularisation non quadratiques tout en maintenant une complexité linéaire compatible avec le traitement en temps réel dans les applications industrielles. La troisième partie de cette thèse propose des méthodes de séparation-déconvolution conjointes basés sur le critère de Tikhonov en contextes hors-ligne ou en-ligne. L'ajout d'une contrainte de non-négativité permet d’améliorer leurs performances
A hyperspectral image is a 3D data cube in which every pixel provides local spectral information about a scene of interest across a large number of contiguous bands. The observed images may suffer from degradation due to the measuring device, resulting in a convolution or blurring of the images. Hyperspectral image deconvolution (HID) consists in removing the blurring to improve the spatial resolution of images at best. A Tikhonov-like HID criterion with non-negativity constraint is considered here. This method considers separable spatial and spectral regularization terms whose strength are controlled by two regularization parameters. First part of this thesis proposes the maximum curvature criterion MCC and the minimum distance criterion MDC to automatically estimate these regularization parameters by formulating the deconvolution problem as a multi-objective optimization problem. The second part of this thesis proposes the sliding block regularized (SBR-LMS) algorithm for the online deconvolution of hypserspectral images as provided by whiskbroom and pushbroom scanning systems. The proposed algorithm accounts for the convolution kernel non-causality and including non-quadratic regularization terms while maintaining a linear complexity compatible with real-time processing in industrial applications. The third part of this thesis proposes joint unmixing-deconvolution methods based on the Tikhonov criterion in both offline and online contexts. The non-negativity constraint is added to improve their performances
14

Signol, François. "Estimation de fréquences fondamentales multiples en vue de la séparation de signaux de parole mélangés dans un même canal." Phd thesis, Université Paris Sud - Paris XI, 2009. http://tel.archives-ouvertes.fr/tel-00618687.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse propose un algorithme d'estimation de F0 multiples (AEP) pour la parole superposée. Il s'appuie sur deux familles de peignes spectraux nommées Peignes à Dents Négatives (PDN) et Peignes à Dents Manquantes (PDM). Le produit scalaire entre un spectre d'amplitude et un peigne spectral produit une fonction de pitch qui quanti fie la force de la structure harmonique d'une fréquence donnée. Les fonctions de pitch contiennent des pics parasites provoquant des erreurs d'estimation de F0. La combinaison des fonctions de pitch de chaque PDN et PDM permet d'atténuer ces pics parasites. Cette combinaison est nommée principe de Peigne à Suppression Harmonique (PSH). Deux implémentations du principe de PSH sont décrites dont une est évaluée de manière comparative à d'autres algorithmes existant dans les situations monopitch et bipitch. Quatre méthodologies sont proposées. Les performances obtenues sont largement à la hauteur de l'état de l'art (10% d'erreurs grossières en bipitch). Cette évaluation a permis de mettre en évidence l'influence critique de la décision voisé/non-voisé sur les taux d'erreurs.
15

Anthoine, Sandrine. "Plusieurs approches en ondelettes pour la séparation et déconvolection de composantes. Application à des données astrophysiques." Phd thesis, Ecole Polytechnique X, 2005. http://pastel.archives-ouvertes.fr/pastel-00001556.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse est consacree au problµeme de separation de composantes lorsque celles ci sont des images de structure differente et que l'on en observe un ou plusieurs melange(s) ou(s) et bruite(s). Les problµemes de deconvolution et de separation, traditionnellement etudies separement, sont ici traites simultanément. Une façon naturelle d'aborder le problµeme multicomposants/multiobservations est de generaliser les techniques de deconvolution d'une image unique. Le premier resultat presente est une etude mathematique d'un tel algorithme. Preuve est faite que celuici est convergent mais pas regularisant et une modification restaurant cette propriete est proposee. Le sujet principal est le developpement et la comparaison de deux methodes pour traiter la deconvolution et separation simultanees de composantes. La premiµere methode est basee sur les propriétes statistiques locales des composantes tandis que dans la seconde, ces signaux sont decrits par des espaces fonctionnels. Les deux methodes utilisent des transformees en ondelettes redondantes pour simplifier les donnees. Les performances des deux algorithmes sont evaluees et comparees dans le cadre d'un problµeme astrophysique : celui de l'extraction des amas de galaxies par l'effet Sunyaev-Zel'dovich dans les images multispectrales des anisotropies du fond cosmique. Des simulations realistes sont etudiees. On montre qu'µa haute resolution et niveau de bruit modere, les deux methodes permettent d'extraire des cartes d'amas de galaxies de qualite suffisante pour des etudes cosmologiques. Le niveau de bruit est un facteur limitant µa basse resolution et la methode statistique est robuste µa la presence de points sources.
16

Efligenir, Anthony. "Estimation des propriétés électriques/diélectriques et des performances de séparation d'ions métalliques de membranes d'ultrafiltration et/ou de nanofiltration." Thesis, Besançon, 2015. http://www.theses.fr/2015BESA2039/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La caractérisation des propriétés électriques et diélectriques des membranes d’UF et de NF constitue une étape essentielle pour la compréhension de leurs performances de filtration. Une nouvelle approche a été développée pour déterminer les propriétés diélectriques d’une membrane de NF par spectroscopie d’impédance. Celle-ci repose sur l’isolement de la couche active du support membranaire et sur l’utilisation de mercure comme matériau conducteur, ce qui nous a permis de prouver que la constante diélectrique de la solution à l’intérieur des nanopores est inférieure à celle de la solution externe. Deux configurations de cellule (fibres immergées dans la solution d’étude ou fibres noyées dans un gel isolant) ont été étudiées pour la réalisation de mesures électrocinétiques tangentielles sur fibres creuses et la solution autour des fibres s’est avérée influencer à la fois le courant d’écoulement et la conductance électrique de la cellule. De plus, la contribution importante du corps poreux des fibres au courant d’écoulement ne permet pas de convertir cette grandeur en potentiel zêta luminal. Les propriétés intéressantes de ces membranes ont finalement été mises à profit pour décontaminer des solutions contenant des ions métalliques. Les performances de dépollution, en termes de rétention des polluants et d’impact écotoxicologique, ont été étudiées sur des solutions synthétiques et un rejet issu de l’industrie du traitement de surface. Bien que les performances de rétention aient été remarquables, la toxicité de l’effluent réel n’a pu être totalement annihilée. Une étude approfondie de la rétention des polluants non métalliques s’avère donc nécessaire
The characterization of electrical and dielectric properties of UF and NF membranes is an essential step to understand their filtration performance. A new approach has been developed to determine the dielectric properties of a NF membrane by impedance spectroscopy. This is based on the isolation of the membrane active layer and the use of mercury as conductive material, which allowed us to prove that the dielectric constant of the solution inside nanopores is lower than that of the external solution. Two cell configurations (fibers immersed in the solution or fibers embedded in an insulating gel) were investigated for the implementation of tangential electrokinetic measurements with hollow fibers and the solution around the fibers was found to influence both streaming current and cell electrical conductance. Moreover, the important contribution of the fiber porous body to the streaming current does not allow the conversion of the latter to luminal zeta potential. The advantageous properties of these membranes were finally used to decontaminate solutions containing metal ions. Decontamination performances in terms of both pollutant retention and ecotoxicological impact were studied on synthetic solutions and a discharge water from surface treatment industry. Although retention performances were remarkable, the toxicity of the real effluent could not be totally annihilated. A thorough study of the retention of non-metallic contaminants is thus required
17

Degottex, Gilles. "Séparation de la source glottique des influences du conduit vocal." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2010. http://tel.archives-ouvertes.fr/tel-00554763.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette étude s'intéresse au problème de l'inversion d'un modèle de production de la voix pour obtenir, à partir d'un enregistrement audio de parole, une représentation de le source sonore qui est générée au niveau de la glotte, la source glottique, ainsi qu'un représentation des résonances et anti-résonances créées par le conduit vocal. Cette séparation permet de manipuler les éléments composant la voix de façon indépendente. On trouve de nombreuses applications de ce sujet comme celles présentées dans cette étude (transformation de la voix et synthèse de la parole) et bien d'autres comme la conversion d'identité, la synthèse d'expressivité, la restauration de la voix qui peuvent être utilisées dans les technologies de divertissement, des installations sonores, les industries de la musique et du cinéma, les jeux vidéos et autres jouets sonores, la télécommunication, etc. Dans cette étude, nous supposons que les éléments perçus de la voix peuvent être manipulés en utilisant le modèle source-filtre. Dans le domaine spectral, la production de la voix est donc décrite comme une multiplication des spectres de ses éléments, la source glottique, le filtre du conduit vocal et la radiation. La seconde hypothèse utilisée dans cette étude concerne la composante déterministe de la source glottique. En effet, nous supposons qu'un modèle glottique peut schématiser une période de la source glottique. En utilisant une telle description analytique, les spectres d'amplitude et de phase de la source déterministe sont donc liés par les paramètres de forme du modèle glottique. Vis-à-vis de l'état de l'art des méthodes de transformation de la voix et de sa synthèse, le naturel et le contrôle de ces voix devraient donc être améliorés en utilisant un tel modèle. Par conséquent, nous essayons de répondre au trois questions suivantes dans cette étude: 1) Comment estimer un paramètre de forme d'un modèle glottique. 2) Comment estimer le filtre du conduit vocal en utilisant ce modèle glottique. 3) Comment transformer et synthétiser un signal vocal en utilisant toujours ce même modèle. Une attention toute particulière à été portée à la première question. Premièrement, nous supposons que la source glottique est un signal à phase mixte et que la réponse impulsionnelle du filtre du conduit vocal est un signal à minimum de phase. Puis, considérant ces propriétés, différentes méthodes sont proposées qui minimisent la phase carrée moyenne du résiduel convolutif d'un spectre de parole observé et de son modèle. Une dernière méthode est décrite où un unique paramètre de forme est solution d'une forme quasi fermée du spectre observé. De plus, cette étude discute les conditions qu'un modèle glottique et sa paramétrisation doivent satisfaire pour assurer que les paramètres sont estimés de façon fiable en utilisant les méthodes proposées. Ces méthodes sont également évaluées et comparées avec des méthodes de l'état de l'art en utilisant des signaux synthétiques et electro-glotto-graphiques. En utilisant une des méthodes proposées, l'estimation du paramètre de forme est indépendante de la position et de l'amplitude du modèle glottique. En plus, il est montré que cette même méthode surpasse toute les méthodes comparées en terme d'efficacité. Pour répondre à la deuxième et à la troisième question, nous proposons une procédure d'analyse/synthèse qui estime le filtre du conduit vocal en utilisant un spectre observé et sa source estimée. Des tests de préférences ont été menés et leurs résultats sont présentés dans cette étude pour comparer la procédure décrite et d'autres méthodes existantes. En terme de transposition de hauteur perçue, il est montré que la qualité globale des segments voisés d'un enregistrement peut être meilleure pour des facteurs de transposition importants en utilisant la méthode proposée. Il est aussi montré que le souffle perçu d'une voix peut être contrôlé efficacement.
18

Liutkus, Antoine. "Processus gaussiens pour la séparation de sources et le codage informé." Phd thesis, Télécom ParisTech, 2012. http://pastel.archives-ouvertes.fr/pastel-00790841.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La séparation de sources est la tâche qui consiste à récupérer plusieurs signaux dont on observe un ou plusieurs mélanges. Ce problème est particulièrement difficile et de manière à rendre la séparation possible, toute information supplémentaire connue sur les sources ou le mélange doit pouvoir être prise en compte. Dans cette thèse, je propose un formalisme général permettant d'inclure de telles connaissances dans les problèmes de séparation, où une source est modélisée comme la réalisation d'un processus gaussien. L'approche a de nombreux intérêts : elle généralise une grande partie des méthodes actuelles, elle permet la prise en compte de nombreux a priori et les paramètres du modèle peuvent être estimés efficacement. Ce cadre théorique est appliqué à la séparation informée de sources audio, où la séparation est assistée d'une information annexe calculée en amont de la séparation, lors d'une phase préliminaire où à la fois le mélange et les sources sont disponibles. Pour peu que cette information puisse se coder efficacement, cela rend possible des applications comme le karaoké ou la manipulation des différents instruments au sein d'un mix à un coût en débit bien plus faible que celui requis par la transmission séparée des sources. Ce problème de la séparation informée s'apparente fortement à un problème de codage multicanal. Cette analogie permet de placer la séparation informée dans un cadre théorique plus global où elle devient un problème de codage particulier et bénéficie à ce titre des résultats classiques de la théorie du codage, qui permettent d'optimiser efficacement les performances.
19

Cohen-Hadria, Alice. "Estimation de descriptions musicales et sonores par apprentissage profond." Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS607.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
En Music Information Retrieval (MIR, ou recherche d'information musicales) et en traitement de la parole, les outils d'apprentissage automatique deviennent de plus en plus standard. En particulier, de nombreux systèmes état de l'art reposent désormais sur l'utilisation des réseaux de neurones. Nous présenterons le travail effectué pour résoudre quatre tâches de traitement de la musique ou de la parole, en utilisant de réseaux de neurones. Plus précisément, nous utiliserons des réseaux de neurones convolutionnels, dont l'utilisation a permis de nombreuses avancées notamment en traitement d'image. La première tâche présentée sera l'estimation de structure musicale. Pour cette tâche, nous montrerons à quel point le choix de la représentation en entrée des réseaux de neurones convolutionnels peut être critique pour l'estimation de structure. La deuxième tâche présentée sera la détection de la voix chantée. Dans cette partie, nous expliquerons comment utiliser un modèle de détection de la voix afin d'aligner automatiquement des paroles et des pistes audio. La séparation de voix chantée sera la troisième tâche présentée. Pour cette tâche, nous présenterons une stratégie d'augmentation de données, un moyen d'augmenter considérablement la taille d'un ensemble d'entraînement. Enfin, nous aborderons l'anonymisation vocale dans des enregistrements urbains. Nous présenterons une méthode d'anonymisation qui masque le contenu et floute l'identité du locuteur, tout en préservant la scène acoustique restante
In Music Information Retrieval (MIR) and voice processing, the use of machine learning tools has become in the last few years more and more standard. Especially, many state-of-the-art systems now rely on the use of Neural Networks.In this thesis, we propose a wide overview of four different MIR and voice processing tasks, using systems built with neural networks. More precisely, we will use convolutional neural networks, an image designed class neural networks. The first task presented is music structure estimation. For this task, we will show how the choice of input representation can be critical, when using convolutional neural networks. The second task is singing voice detection. We will present how to use a voice detection system to automatically align lyrics and audio tracks.With this alignment mechanism, we have created the largest synchronized audio and speech data set, called DALI. Singing voice separation is the third task. For this task, we will present a data augmentation strategy, a way to significantly increase the size of a training set. Finally, we tackle voice anonymization. We will present an anonymization method that both obfuscate content and mask the speaker identity, while preserving the acoustic scene
20

Boyer, Eric. "Estimation paramétrique de moments spectraux d'échos doppler : application aux radars strato-troposphériques." Cachan, Ecole normale supérieure, 2002. http://www.theses.fr/2002DENS0037.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
21

Turgeon, Keven. "Séparation des éléments de terres rares par extraction par solvant : estimation des constantes d'équilibre d'extraction pour la simulation du procédé." Master's thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/28326.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce mémoire porte sur la séparation des éléments de terres rares (ETR) par le procédé d’extraction par solvant. L’objectif est de développer un diagramme d’écoulement permettant la séparation des ETR présents dans une solution de lixiviation d’un minerai d’ETR. Pour ce faire, un simulateur permettant de prédire la distribution des ETR dans les phases d’un mélangeur-décanteur qui sont à l’équilibre chimique a été développé. Ce simulateur utilise les constantes d’équilibre chimique de la réaction de transfert entre phases de chaque élément présent en solution. Une méthode d’analyse juste et précise des ETR avec un spectromètre à émission atomique à plasma induit par micro-onde (MP-AES) a été développée. Des tests d’extraction par solvant sont réalisés en laboratoire et les données sont traitées afin de produire des constantes d’équilibre d’extraction qui sont utilisées en simulation. Une étude de la cinétique des extractions a permis de déterminer que trente secondes d’agitation dans une ampoule à décanter sont suffisantes pour atteindre l’équilibre chimique dans le cas des extracteurs utilisés. Une méthode novatrice de réconciliation de donnée permettant de balancer les résultats des tests d’extraction est appliquée aux données brutes des tests expérimentaux. Cela permet d’estimer des constantes d’équilibre d’extraction plus reproductibles que celles obtenues par les méthodes classiques de traitement de données de tests d’extraction. Le simulateur prédit les concentrations à l’équilibre dans les phases aqueuses et organiques pour une ou plusieurs extractions consécutives. Un diagramme d’écoulement permettant la séparation des ETR en deux sous-groupes (ETR légers et SEG avec ETR lourds) est développé pour le traitement d’une solution réelle d’ETR produite par le traitement du minerai de terres rares de la mine Niobec. Le diagramme d’écoulement développé a été simulé et testé expérimentalement. Les résultats expérimentaux obtenus sont similaires aux prédictions du simulateur pour l’ensemble du procédé, ce qui tend à démontrer la validité de l’approche proposée pour l’estimation des constantes d’équilibre et de l’approche utilisée pour la simulation du procédé d’extraction par solvant.
This thesis discusses the separation of rare earth elements (REE) using the solvent extraction process. The objective is to develop a flow sheet allowing the separation of the REE present in a leaching solution of REE ore. To achieve this, a simulator to predict the distribution of REE in the phases of a mixer-settler that are in chemical equilibrium was developed. This simulator uses the chemical equilibrium constants of each element present in solution. A method for accurate and precise analysis of REE with a microwave-induced plasma atomic emission spectrometer (MP-AES) was also developed. Solvent extraction tests are performed in the laboratory and the data is processed to produce extraction equilibrium constants that are used in the simulation. A study of the kinetics of the extraction process shows that thirty seconds of agitation in a separating funnel are sufficient to reach the chemical equilibrium in the case of the extractors used. An innovative data reconciliation method for balancing the extraction test results and estimating the equilibrium constants for the species transferred between the phases is applied to the raw data of experimental tests. It is shown that the proposed method provides more reproducible extraction equilibrium constants than standard data processing methods. A simulator based on the estimated equilibrium constants has then been written to predict the equilibrium concentrations in the phases of one or several consecutive extractions. A flow sheet allowing the separation of REE into two subgroups (light REE and SEG with heavy REE) is developed. The flow sheet consisting of three extraction steps, three scrubbing stages and two stripping stages is simulated and tested at a laboratory scale on a leaching solution of REE ore. The experimental results obtained are similar to the predictions of the simulator for the whole process showing the validity of the simulation method based on the use of the equilibrium constants.
22

Che, Viet Nhat Anh. "Cyclostationary analysis : cycle frequency estimation and source separation." Thesis, Saint-Etienne, 2011. http://www.theses.fr/2011STET4035.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le problème de séparation aveugle de sources a but de retrouver un ensemble des sources signaux statistiquement indépendants à partir seulement d’un ensemble des observations du capteur. Ces observations peuvent être modélisées comme un mélanges linéaires instantané ou convolutifs de sources. Dans cette thèse, les sources signaux sont supposées être cyclostationnaire où leurs fréquences cycles peuvent être connues ou inconnu par avance. Premièrement, nous avons établi des relations entre le spectre, spectre de puissance d’un signal source et leurs composants, puis nous avons proposé deux nouveaux algorithmes pour estimer sa fréquences cycliques. Ensuite, pour la séparation aveugle de sources en mélanges instantanés, nous présentons quatre algorithmes basés sur diagonalisation conjoint approchées orthogonale (ou non-orthogonales) d’une famille des matrices cycliques multiples moment temporel, or l’approche matricielle crayon pour extraire les sources signaux. Nous introduisons aussi et prouver une nouvelle condition identifiabilité pour montrer quel type de sources cyclostationnaires d’entrée peuvent être séparées basées sur des statistiques cyclostationnarité à l’ordre deux. Pour la séparation aveugle de sources en mélanges convolutifs, nous présentons un algorithme en deux étapes basées sur une approche dans le domaine temporel pour récupérer les signaux source. Les simulations numériques sont utilisés dans cette thèse pour démontrer l’efficacité de nos approches proposées, et de comparer les performances avec leurs méthodes précédentes
Blind source separation problem aims to recover a set of statistically independent source signals from a set of sensor observations. These observations can be modeled as an instantaneous or convolutive mixture of the same sources. In this dissertation, the source signals are assumed to be cyclostationary where their cycle frequencies may be known or unknown a priori. First, we establish relations between the spectrum, power spectrum of a source signal and its component, then we propose two novel algorithms to estimate its cycle frequencies. Next, for blind separation of instantaneous mixtures of sources, we present four algorithms based on orthogonal (or non-orthogonal) approximate diagonalization of the multiple cyclic temporal moment matrices, and the matrix pencil approach to extract the source signal. We also introduce and prove a new identifiability condition to show which kind of input cyclostationary sources can be separated based on second-order cyclostationarity statistics. For blind separation of convolutive mixtures of sources signal or blind deconvolution of FIR MIMO systems, we present a two-steps algorithm based on time domain approach for recovering the source signals. Numerical simulations are used throughout this thesis to demonstrate the effectiveness of our proposed approaches, and compare theirs performances with previous methods
23

Guidara, Rima. "Méthodes markoviennes pour la séparation aveugle de signaux et images." Toulouse 3, 2009. http://thesesups.ups-tlse.fr/705/.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse présente de nouvelles méthodes markoviennes pour la séparation aveugle de mélanges linéaires instantanés des signaux unidimensionnels et des images. Dans la première partie, nous avons proposé plusieurs améliorations pour une méthode existante de séparation de signaux temporels. La nouvelle méthode exploite simultanément la non-gaussianité, l'autocorrélation et la nonstationnarité des sources. D'excellentes performances ont été obtenues pour la séparation de mélanges artificiels de signaux de parole, et nous avons réussi à séparer des mélanges réels de spectres astrophysiques. Une extension à la séparation des images a été ensuite proposée. La dépendance entre pixels a été modélisée par un champ de Markov à demi-plan non-symétrique. De très bonnes performances ont été obtenues pour la séparation de mélanges artificiels d'images naturelles et d'observations non-bruitées du satellite Planck. Les résultats pour un faible bruit sont acceptables
This thesis presents new Markovian methods for blind separation of instantaneous linear mixtures of one-dimensional signals and images. In the first part, we propose several improvements to an existent method for separating temporal signals. The new method exploits simultaneously non-Gaussianity, autocorrelation and non-stationarity of the sources. Excellent performance is obtained for the separation of artificial mixtures of speech signals, and we succeed to separate real mixtures of astrophysical spectra. An extension to image separation is then proposed. The dependence within the image pixels is modelled by non-symetrical half-plane Markov random fields. Very good performance is obtained for the separation of artificial mixtures of natural images and noiseless observations of the Planck satellite. The results obtained with a low level noise are acceptable
24

Betoule, Marc. "Analyse des données du fond diffus cosmologique : simulation et séparation de composantes." Phd thesis, Observatoire de Paris, 2009. http://tel.archives-ouvertes.fr/tel-00462157.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La prochaine génération d'expériences dédiées à la mesure des anisotropies de température et de polarisation du fond diffus cosmologique (CMB), inaugurée avec le lancement de Planck, va permettre la détection et l'étude d'effets de plus en plus fins. Toutefois, la superposition d'émissions astrophysiques d'avant-plan contamine le signal cosmologique et constituera, dans ces futures données, la principale source d'incertitude devant le bruit instrumental. L'amélioration de la modélisation des émissions d'avant-plan et le développement de méthodes statistiques pour permettre leur séparation sont donc des étapes cruciales de l'analyse scientifique des mesures à venir. Ce travail s'inscrit dans cette problématique et comprend le développement du Planck Sky Model, un outil de modélisation et de simulation de l'émission du ciel. Ces simulations sont par ailleurs mises à profit pour le développement et l'évaluation de méthode statistiques adaptées au problème des avant-plans. Nous explorons ainsi les possibilités offertes par l'analyse en ondelettes sur la sphère (needlets) pour le problème de l'estimation spectrale sur des mesures incomplètes avec une contamination inhomogène, et proposons une méthode pour traiter la contamination induites aux petites échelles par les sources ponctuelles dans les données Planck et WMAP. Nous étudions également l'impact des avant-plans sur la possibilité de détection des ondes gravitationnelles primordiales (prédites par l'inflation) et proposons une prospective des performances des futures missions dédiées à leur mesure.
25

Meseguer, Brocal Gabriel. "Multimodal analysis : informed content estimation and audio source separation." Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS111.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse propose l'étude de l'apprentissage multimodal dans le contexte de signaux musicaux. Tout au long de ce manuscrit, nous nous concentrerons sur l'interaction entre les signaux audio et les informations textuelles. Parmi les nombreuses sources de texte liées à la musique qui peuvent être utilisées (par exemple les critiques, les métadonnées ou les commentaires des réseaux sociaux), nous nous concentrerons sur les paroles. La voix chantée relie directement le signal audio et les informations textuelles d'une manière unique, combinant mélodie et paroles où une dimension linguistique complète l'abstraction des instruments de musique. Notre étude se focalise sur l'interaction audio et paroles pour cibler la séparation de sources et l'estimation de contenu informé. Les stimuli du monde réel sont produits par des phénomènes complexes et leur interaction constante dans divers domaines. Notre compréhension apprend des abstractions utiles qui fusionnent différentes modalités en une représentation conjointe. L'apprentissage multimodal décrit des méthodes qui analysent les phénomènes de différentes modalités et leur interaction afin de s'attaquer à des tâches complexes. Il en résulte des représentations meilleures et plus riches qui améliorent les performances des méthodes d'apprentissage automatique actuelles. Pour développer notre analyse multimodale, nous devons d'abord remédier au manque de données contenant une voix chantée avec des paroles alignées. Ces données sont obligatoires pour développer nos idées. Par conséquent, nous étudierons comment créer une telle base de données en exploitant automatiquement les ressources du World Wide Web. La création de ce type de base de données est un défi en soi qui soulève de nombreuses questions de recherche. Nous travaillons constamment avec le paradoxe classique de la `` poule ou de l'œuf '': l'acquisition et le nettoyage de ces données nécessitent des modèles précis, mais il est difficile de former des modèles sans données. Nous proposons d'utiliser le paradigme enseignant-élève pour développer une méthode où la création de bases de données et l'apprentissage de modèles ne sont pas considérés comme des tâches indépendantes mais plutôt comme des efforts complémentaires. Dans ce processus, les paroles et les annotations non-expertes de karaoké décrivent les paroles comme une séquence de notes alignées sur le temps avec leurs informations textuelles associées. Nous lions ensuite chaque annotation à l'audio correct et alignons globalement les annotations dessus
This dissertation proposes the study of multimodal learning in the context of musical signals. Throughout, we focus on the interaction between audio signals and text information. Among the many text sources related to music that can be used (e.g. reviews, metadata, or social network feedback), we concentrate on lyrics. The singing voice directly connects the audio signal and the text information in a unique way, combining melody and lyrics where a linguistic dimension complements the abstraction of musical instruments. Our study focuses on the audio and lyrics interaction for targeting source separation and informed content estimation. Real-world stimuli are produced by complex phenomena and their constant interaction in various domains. Our understanding learns useful abstractions that fuse different modalities into a joint representation. Multimodal learning describes methods that analyse phenomena from different modalities and their interaction in order to tackle complex tasks. This results in better and richer representations that improve the performance of the current machine learning methods. To develop our multimodal analysis, we need first to address the lack of data containing singing voice with aligned lyrics. This data is mandatory to develop our ideas. Therefore, we investigate how to create such a dataset automatically leveraging resources from the World Wide Web. Creating this type of dataset is a challenge in itself that raises many research questions. We are constantly working with the classic ``chicken or the egg'' problem: acquiring and cleaning this data requires accurate models, but it is difficult to train models without data. We propose to use the teacher-student paradigm to develop a method where dataset creation and model learning are not seen as independent tasks but rather as complementary efforts. In this process, non-expert karaoke time-aligned lyrics and notes describe the lyrics as a sequence of time-aligned notes with their associated textual information. We then link each annotation to the correct audio and globally align the annotations to it. For this purpose, we use the normalized cross-correlation between the voice annotation sequence and the singing voice probability vector automatically, which is obtained using a deep convolutional neural network. Using the collected data we progressively improve that model. Every time we have an improved version, we can in turn correct and enhance the data
26

Gouldieff, Vincent. "Etude des techniques de séparation de signaux satellitaires dans un contexte d'interférences." Thesis, CentraleSupélec, 2017. http://www.theses.fr/2017CSUP0004.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les systèmes de télécommunications satellitaires récents font appel à des technologies avancées, en particulier afin d'accroître leur efficacité spectrale. Dans ce contexte, plusieurs scenarios de transmission conduisent à des situations d’interférence co-canal sévère tant en voie montante qu’en voie descendante. Le rapport signal-à-interférent (SIR) du mélange reçu peut ainsi s’avérer faible voire négatif. Afin de recouvrer les signaux transmis par chacun des utilisateurs, il est nécessaire de traiter ces porteuses avec des méthodes adéquates. Au cours de cette thèse, nous étudions les techniques aveugles de traitement du signal permettant de détecter, caractériser et séparer les signaux satellitaires présentant de l’interférence co-canal. La complexité et les performances des méthodes envisagées sont des éléments déterminants en vue de leur intégration dans des modems satellites intelligents
Recent satellite telecommunications systems use advanced technologies, in particular to increase their spectral efficiency. In this context, several transmission scenarios lead to severe co-channel interference situations, both in the uplink and in the downlink. Thus, the signal-to-interference ratio (SIR) of the received mixture may prove to be weak or even negative. In order to recover the signals transmitted by each of the co-channel users, it is necessary to process the carrier-of-interest with suitable methods. In this thesis, we study blind signal processing techniques for the detection, characterization and separation of satellite signals showing co-channel interference. The complexity and the performance of the proposed methods are decisive factors for their integration in intelligent satellite modems
27

Betoule, Marc. "Analyse des données du fond diffus cosmologique : simulation et séparation de composantes." Phd thesis, Observatoire de Paris (1667-....), 2009. https://theses.hal.science/tel-00462157v2.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La prochaine génération d'expériences dédiées à la mesure des anisotropies de température et de polarisation du fond diffus cosmologique (CMB), inaugurée avec le lancement de Planck, va permettre la détection et l'étude d'effets de plus en plus fins. Toutefois, la superposition d'émissions astrophysiques d'avant-plan contamine le signal cosmologique et constituera, dans ces futures données, la principale source d'incertitude devant le bruit instrumental. L'amélioration de la modélisation des émissions d'avant-plan et le développement de méthodes statistiques pour permettre leur séparation sont donc des étapes cruciales de l'analyse scientifique des mesures à venir. Ce travail s'inscrit dans cette problématique et comprend le développement du Planck Sky Model, un outil de modélisation et de simulation de l'émission du ciel. Ces simulations sont par ailleurs mises à profit pour le développement et l'évaluation de méthode statistiques adaptées au problème des avant-plans. Nous explorons ainsi les possibilités offertes par l'analyse en ondelettes sur la sphère (needlets) pour le problème de l'estimation spectrale sur des mesures incomplètes avec une contamination inhomogène, et proposons une méthode pour traiter la contamination induites aux petites échelles par les sources ponctuelles dans les données Planck et WMAP. Nous étudions également l'impact des avant-plans sur la possibilité de détection des ondes gravitationnelles primordiales (prédites par l'inflation) et proposons une prospective des performances des futures missions dédiées à leur mesure
The next generation of experiments dedicated to measuring temperature and polarization anisotropies of the microwave background radiation (CMB), inaugurated with the launch of the Planck satellite, will enable the detection and study of increasingly subtle effects. However, the superposition of astrophysical foreground emissions hinder the analysis of the cosmological signal and will contribute as the main source of uncertainty in the forthcoming measurements. An improved modeling of foreground emissions and the development of statistical methods to extract the cosmological information from this contamination are thus crucial steps in the scientific analysis of incoming datasets. In this work we describe the development of the Planck Sky Model, a tool for modeling and simulating the sky emission. We then make use of these simulations to develop and evaluate statistical treatments of foreground emission. We explore the efficiency of wavelet analysis on the sphere (needlets) in the domain of spectral estimation on incomplete data with inhomogeneous contamination, and design a method for treating small scales contamination induced by point sources in the Planck and WMAP data. We also study the impact of foregrounds on our ability to detect primordial gravitational waves (predicted by inflation) and offer forecasts of the performance of future dedicated experiments
28

Umiltà, Caterina. "Development and assessment of a blind component separation method for cosmological parameter estimation." Thesis, Paris 6, 2017. http://www.theses.fr/2017PA066453/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le rayonnement fossile, ou CMB, est un sujet d’étude clé pour la cosmologie car il indique l’état de l’univers à une époque primordiale. Le CMB est observable dans le ciel dans la bande de fréquences des micro-ondes. Cependant, il existe des processus astrophysiques, les avant-plans, qui émettent dans les micro-ondes, et rendent indispensable le traitement des données avec des méthodes de séparation de composantes. J'utilisé la méthode aveugle SMICA pour obtenir une estimation directe du spectre de puissance angulaire du CMB. La détermination des petites échelles de ce spectre est limité par les avant-plans comme les galaxies lointaines, et par le biais du bruit. Dans cette analyse, ces deux limitations sont abordées. En ajoutant des hypothèses sur la physique des galaxies lointaines, il est possible de guider l’algorithme pour estimer leur loi d'émission. Un spectre de puissance angulaire obtenu d'une carte du ciel a un biais dû au bruit à petites échelles. Toutefois, les spectres obtenus en croisant différentes cartes n'ont pas ce biais. J'ai donc adapté la méthode SMICA pour qu'elle n'utilise que ces derniers, diminuant l'incertitude due au bruit dans l'estimation du CMB. Cette méthode a été étudiée sur des nombreuses simulations et sur les données Planck 2015, afin d'estimer des paramètres cosmologiques. Les résultats montrent que la contamination résiduelle des avant-plans présente dans le spectre CMB, même si fortement réduite, peut introduire des biais dans l'estimation des paramètres si la forme des résiduels n'est pas bien connue. Dans cette thèse, je montre les résultats obtenus en étudiant un modèle de gravité modifiée
The Planck satellite observed the whole sky at various frequencies in the microwave range. These data are of high value to cosmology, since they help understanding the primordial universe through the observation of the cosmic microwave background (CMB) signal. To extract the CMB information, astrophysical foreground emissions need to be removed via component separation techniques. In this work I use the blind component separation method SMICA to estimate the CMB angular power spectrum with the aim of using it for the estimation of cosmological parameters. In order to do so, small scales limitations as the residual contamination of unresolved point sources and the noise need to be addressed. In particular, the point sources are modelled as two independent populations with a flat angular power spectrum: by adding this information, the SMICA method is able to recover the joint emission law of point sources. Auto-spectra deriving from one sky map have a noise bias at small scales, while cross-spectra show no such bias. This is particularly true in the case of cross-spectra between data-splits, corresponding to sky maps with the same astrophysical content but different noise properties. I thus adapt SMICA to use data-split cross-spectra only. The obtained CMB spectra from simulations and Planck 2015 data are used to estimate cosmological parameters. Results show that this estimation can be biased if the shape of the (weak) foreground residuals in the angular power spectrum is not well known. In the end, I also present results of the study of a Modified Gravity model called Induced Gravity
29

Bertholon, Francois. "Analyse de mélanges à partir de signaux de chromatographie gazeuse." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAT110.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les dispositifs dédiés à l’analyse de gaz ont de nombreuses applications, notamment le contrôle de la qualité de l’air et des gaz naturels ou industriels, ou l’étude des gaz respiratoires. Le LETI travaille en collaboration avec la société APIX sur une nouvelle génération de dispositifs microsystèmes combinant des étapes de préparation des échantillons, de séparation des composants gazeux par des dispositifs de microchromatographie intégrés sur silicium, et de transduction par des détecteurs NEMS (Nano Electro Mechanical Systems) à base de nanocantilevers utilisés comme des détecteurs dits gravimétriques. Ces capteurs NEMS sont constitués de nano poutres vibrantes dont la fréquence de résonance dépend de la masse de matière déposée sur la poutre. Ces poutres sont fonctionnalisées avec un matériau capable d’adsorber puis de désorber certains composants ciblés. Lors du passage d’une impulsion de matière dans la colonne chromatographique au niveau d’un NEMS, le signal, défini par sa fréquence de résonance instantanée en fonction du temps, varie. Le pic observé sur ce signal traduira le pic de matière dans la colonne et permettra d’estimer la concentration du composant. Partant de l’ensemble des signaux mesurés sur l’ensemble des capteurs, l’objectif du traitement du signal est de fournir le profil moléculaire, c’est-à-dire la concentration de chaque composant, et d’estimer le pouvoir calorifique supérieur (PCS) associé. Le défi est d’associer une haute sensibilité pour détecter de très petites quantités de composants, et des capacités de séparation efficaces pour s’affranchir de la complexité du mélange et identifier la signature des molécules ciblées. L’objectif de cette thèse en traitement du signal est de travailler sur la formalisation des problèmes d’analyse des signaux abordés et d’étendre notre méthodologie d’analyse reposant sur l’approche problème inverse associée à un modèle hiérarchique de la chaîne d’analyse, aux dispositifs de microchromatographie gazeuse intégrant des capteurs NEMS multiples. La première application visée est le suivi du pouvoir calorifique d’un gaz naturel. Les ruptures concernent notamment la décomposition de signaux NEMS, la fusion multi-capteurs, l’autocalibrage et le suivi dynamique temporel. Le travail comportera des phases d’expérimentation réalisées notamment sur le banc d’analyse de gaz du laboratoire commun APIX-LETI
The chromatography is a chemical technique to separate entities from a mixture. In this thesis, we will focused on the gaseous mixture, and particularly on the signal processing of gas chromatography. To acquire those signal we use different sensors. However whatever the sensor used, we obtain a peaks succession, where each peak corresponds to an entity present in the mixture. Our aim is then to analyze gaseous mixtures from acquired signals, by characterizing each peaks. After a bibliographic survey of the chromatography, we chose the Giddings and Eyring distribution to describe a peak shape. This distribution define the probability that a molecule walking randomly through the chromatographic column go out at a given time. Then we propose analytical model of the chromatographic signal which corresponds to a peak shape mixture model. Also in first approximation, this model is considered as Gaussian mixture model. To process those signals, we studied two broad groups of methods, executed upon real data and simulated data. The first family of algorithms consists in a Bayesian estimation of unknown parameters of our model. The order of mixture model can be include in the unknown parameters. It corresponds also to the number of entity in the gaseous mixture. To estimate those parameters, we use a Gibbs sampler, and Markov Chain Monte Carlo sampling, or a variational approach. The second methods consists in a sparse representation of the signal upon a dictionary. This dictionary includes a large set of peak shapes. The sparsity is then characterized by the number of components of the dictionary needed to describe the signal. At last we propose a sparse Bayesian method
30

Grosfils, Valérie. "Modelling and parametric estimation of simulated moving bed chromatographic processes (SMB)." Doctoral thesis, Universite Libre de Bruxelles, 2009. http://hdl.handle.net/2013/ULB-DIPOT:oai:dipot.ulb.ac.be:2013/210313.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La chromatographie à lit mobile simulé (procédé SMB) est une technique de séparation bien maîtrisée dans certains secteurs traditionnels tels que la séparation de sucres et d’hydrocarbures. Cependant, son application à la séparation de composés à haute valeur ajoutée dans l’industrie pharmaceutique pose de nouveaux problèmes liés à la nature des produits à séparer ainsi qu'aux exigences plus strictes en matière de pureté et de quantités produites. Les principaux problèmes ouverts sont notamment la détermination des conditions de fonctionnement optimales, la conception de structures robustes de régulation, et le développement d’un système de supervision permettant la détection et la localisation de dégradations de fonctionnement. Ces tâches requièrent l’usage d’un modèle mathématique du procédé ainsi qu’une méthodologie d’estimation paramétrique. L’étude et le développement des modèles mathématiques pour ce type d’installation ainsi que l’estimation des paramètres des modèles sur base de mesures expérimentales constituent précisément l’objet de nos travaux de doctorat.

Les modèles mathématiques décrivant les procédés SMB consistent en les bilans massiques des composés à séparer. Ce sont des modèles à paramètres distribués (décrit par des équations aux dérivées partielles). Certains ont un comportement dynamique de type hybride (c'est-à-dire faisant intervenir des dynamiques à temps continu et des événements discrets). Quelques modèles ont été développés dans la littérature. Il s’agit de sélectionner ceux qui paraissent les plus intéressants au niveau de leur temps de calcul, de leur efficacité et du nombre de paramètres à déterminer. En outre, de nouvelles structures de modèles sont également proposées afin d’améliorer le compromis précision / temps de calcul.

Ces modèles comportent généralement certains paramètres inconnus. Ils consistent soit, en des grandeurs physiques mal définies au départ des données de base, soit, en des paramètres fictifs, introduits à la suite d'hypothèses simplificatrices et englobant à eux seuls un ensemble de phénomènes. Il s’agit de mettre au point une procédure systématique d’estimation de ces paramètres requérant le moins d’expériences possible et un faible temps de calcul. La valeur des paramètres est estimée, au départ de mesures réelles, à l'aide d'une procédure de minimisation d'une fonction de coût qui indique l’écart entre les grandeurs estimées par le modèle et les mesures. La sensibilité du modèle aux écarts sur les paramètres, ainsi que l’identifiabilité du modèle (possibilité de déterminer de manière univoque les paramètres du modèle) sur la base de mesures en fonctionnement normal sont étudiées. Ceci fournit un critère de comparaison supplémentaire entre les différents modèles et permet en outre de déterminer les conditions expérimentales optimales (choix du type d’expérience, choix des signaux d’entrée, choix du nombre et de la position des points de mesures…) dans lesquelles les mesures utilisées lors de l’estimation paramétrique doivent être relevées. De plus, les erreurs d’estimation sur les paramètres et les erreurs de simulation sont estimées. La procédure choisie est ensuite validée sur des données expérimentales recueillies sur un procédé pilote existant au Max-Planck-Institut für Dynamik komplexer technischer systeme (Magdebourg, Allemagne).


Doctorat en Sciences de l'ingénieur
info:eu-repo/semantics/nonPublished

31

Gloaguen, Jean-Rémy. "Estimation du niveau sonore de sources d'intérêt au sein de mixtures sonores urbaines : application au trafic routier." Thesis, Ecole centrale de Nantes, 2018. http://www.theses.fr/2018ECDN0023/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Des réseaux de capteurs acoustiques sont actuellement mis en place dans plusieurs grandes villes afin d’obtenir une description plus fine de l’environnement sonore urbain. Un des défis à relever est celui de réussir,à partir d’enregistrements sonores, à estimer des indicateurs utiles tels que le niveau sonore du trafic routier. Cette tâche n’est en rien triviale en raison de la multitude de sources sonores qui composent cet environnement. Pour cela, la Factorisation en Matrices Non-négatives (NMF) est considérée et appliquée sur deux corpus de mixtures sonores urbaines simulés. L’intérêt de simuler de tels mélanges est la possibilité de connaitre toutes les caractéristiques de chaque classe de son dont le niveau sonore exact du trafic routier. Le premier corpus consiste en 750 scènes de 30 secondes mélangeant une composante de trafic routier dont le niveau sonore est calibré et une classe de son plus générique. Les différents résultats ont notamment permis de proposer une nouvelle approche, appelée « NMF initialisée seuillée », qui se révèle être la plus performante. Le deuxième corpus créé permet de simuler des mixtures sonores plus représentatives des enregistrements effectués en villes, dont leur réalisme a été validé par un test perceptif. Avec une erreur moyenne d’estimation du niveau sonore inférieure à 1,2 dB, la NMF initialisée seuillée se révèle, là encore, la méthode la plus adaptée aux différents environnements sonores urbains. Ces résultats ouvrent alors la voie vers l’utilisation de cette méthode à d’autres sources sonores, celles que les voix et les sifflements d’oiseaux, qui pourront mener, à terme, à la réalisation de cartes de bruits multi-sources
Acoustic sensor networks are being set up in several major cities in order to obtain a more detailed description of the urban sound environment. One challenge is to estimate useful indicators such as the road traffic noise level on the basis of sound recordings. This task is by no means trivial because of the multitude of sound sources that composed this environment. For this, Non-negative Matrix Factorization (NMF) is considered and applied on two corpuses of simulated urban sound mixtures. The interest of simulating such mixtures is the possibility of knowing all the characteristics of each sound class including the exact road traffic noise level. The first corpus consists of 750 30-second scenes mixing a road traffic component with a calibrated sound level and a more generic sound class. The various results have notably made it possible to propose a new approach, called ‘Thresholded Initialized NMF', which is proving to be the most effective. The second corpus created makes it possible to simulate sound mixtures more representatives of recordings made in cities whose realism has been validated by a perceptual test. With an average noise level estimation error of less than 1.3 dB, the Thresholded Initialized NMF stays the most suitable method for the different urban noise environments. These results open the way to the use of this method for other sound sources, such as birds' whistling and voices, which can eventually lead to the creation of multi-source noise maps
32

Poilleux-Milhem, Hélène. "Test de validation adaptatif dans un modèle de régression : modélisation et estimation de l'effet d'une discontinuité du couvert végétal sur la dispersion du pollen de colza." Paris 11, 2002. http://www.theses.fr/2002PA112297.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'étude de la dissémination de trans-gènes dans l'environnement constitue l'une des parties de la thèse. Plusieurs modélisations paramétriques de la fonction de dispersion de pollen ont déjà été élaborées en milieu homogène (plantes émettant du pollen marqué entourées de plantes identiques non marquées). Afin de prédire la "pollution génétique" dans des dispositifs de cultures variés, il convient de tenir compte de l'effet d'une discontinuité dans une culture ( e. G. Une route traversant un champ) sur la dispersion du pollen. Cet effet est modélisé et estimé pour deux expériences en champ sur le colza. Il correspond alors à une accélération de la dispersion du pollen qui dépend de la largeur de la discontinuité. Des méthodes graphiques de diagnostic ont permis de conclure que la modélisation par des fonctions constantes par morceaux, de la décroissance de la fonction de dispersion individuelle et de l'effet de la discontinuité, est celle ajustant au mieux les données. Avant d'utiliser les modèles paramétriques pour prédire la pollution génétique, il est indispensable de disposer d'outils de validation. Aussi nous proposons un test de validation de modèle paramétrique dans un cadre de régression non linéaire, les observations étant gaussiennes, indépendantes et de même variance. Ce test ne nécessite aucune connaissance a priori sur la fonction de régression et la variance des observations. Il généralise les tests d'hypothèses linéaires élaborés par Baraud et al (Ann. Statist. 2003, Vol. 31) au cadre non linéaire. Il est asymptotiquement de niveau α et asymptotiquement puissant sur une classe de fonctions que nous avons caractérisée. Il atteint la vitesse de séparation optimale au sens adaptatif minimax pour des classes de fonctions höldériennes, isotropes ou anisotropes. La vitesse de séparation pour des alternatives directionnelles est proche de la vitesse paramétrique. Une étude de simulation valide la procédure à distance finie
This thesis framework is the spread of genetically modified organisms in the environment. Several parametric models of the individual pollen dispersal distribution have already been proposed for homogeneous experiments (plants emitting marked pollen surrounded by the same unmarked plants). In order to predict the "genetic pollution" in an agricultural landscape, a discontinuity effect on pollen flows in a cultivated area (e. G. A road crosses a field) has to be taken into account. This effect was modelled and estimated: according to the size of the discontinuity, it may correspond to a significant acceleration of the pollen flow. Graphical diagnosis methods show that the modelling of the individual pollen dispersal distribution and of the discontinuity effect, is best fitting the data when using constant piecewise functions. Prior to using parametric models to predict genetic pollution, goodness-of-fit tools are essential. We therefore propose a goodness-of-fit test in a nonlinear Gaussian regression model, where the errors are independent and identically distributed. This test does not require any knowledge on the regression function and on the variance of the observations. It generalises the linear hypothesis tests proposed by Baraud et al (Ann. Statist. 2003, Vol. 31) to the nonlinear hypothesis. It is asymptotically of level α and a set of functions over which it is asymptotically powerful is characterized. It is rate optimal among adaptive procedures over isotropic and anisotropic Hölder classes of alternatives. It is consistent against directional alternatives that approach the null hypothesis at a rate close to the parametric rate. According to a simulation study, this test is powerful even for fixed sample sizes
33

Fourer, Dominique. "Approche informée pour l’analyse du son et de la musique." Thesis, Bordeaux 1, 2013. http://www.theses.fr/2013BOR14973/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
En traitement du signal audio, l’analyse est une étape essentielle permettant de comprendre et d’inter-agir avec les signaux existants. En effet, la qualité des signaux obtenus par transformation ou par synthèse des paramètres estimés dépend de la précision des estimateurs utilisés. Cependant, des limitations théoriques existent et démontrent que la qualité maximale pouvant être atteinte avec une approche classique peut s’avérer insuffisante dans les applications les plus exigeantes (e.g. écoute active de la musique). Le travail présenté dans cette thèse revisite certains problèmes d’analyse usuels tels que l’analyse spectrale, la transcription automatique et la séparation de sources en utilisant une approche dite “informée”. Cette nouvelle approche exploite la configuration des studios de musique actuels qui maitrisent la chaîne de traitement avant l’étape de création du mélange. Dans les solutions proposées, de l’information complémentaire minimale calculée est transmise en même temps que le signal de mélange afin de permettre certaines transformations sur celui-ci tout en garantissant le niveau de qualité. Lorsqu’une compatibilité avec les formats audio existants est nécessaire, cette information est cachée à l’intérieur du mélange lui-même de manière inaudible grâce au tatouage audionumérique. Ce travail de thèse présente de nombreux aspects théoriques et pratiques dans lesquels nous montrons que la combinaison d’un estimateur avec de l’information complémentaire permet d’améliorer les performances des approches usuelles telles que l’estimation non informée ou le codage pur
In the field of audio signal processing, analysis is an essential step which allows interactions with existing signals. In fact, the quality of transformed or synthesized audio signals depends on the accuracy over the estimated model parameters. However, theoretical limits exist and show that the best accuracy which can be reached by a classic estimator can be insufficient for the most demanding applications (e.g. active listening of music). The work which is developed in this thesis revisits well known audio analysis problems like spectral analysis, automatic transcription of music and audio sources separation using the novel ``informed'' approach. This approach takes advantage of a specific configuration where the parameters of the elementary signals which compose a mixture are known before the mixing process. Using the tools which are proposed in this thesis, the minimal side information is computed and transmitted with the mixture signal. This allows any kind of transformation of the mixture signal with a constraint over the resulting quality. When the compatibility with existing audio formats is required, the side information is embedded directly into the analyzed audio signal using a watermarking technique. This work describes several theoretical and practical aspects of audio signal processing. We show that a classic estimator combined with the sufficient side information can obtain better performances than classic approaches (classic estimation or pure coding)
34

Yeh, Chunghsin. "Extraction de fréquences fondamentales multiples dans des enregistrements polyphoniques." Paris 6, 2008. http://www.theses.fr/2008PA066261.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La fréquence fondamentale, dite F0, est un descripteur essentiel des signaux audio de musique. Bien que les algorithmes d’estimation de F0 unique aient considérablement progressé, leur application aux signaux de musique reste limitée parce que la plupart d’entre eux contiennent non pas une, mais plusieurs sources harmoniques en même temps. Par conséquent, l’estimation des F0s multiples est une analyse plus appropriée, et qui permet d’élargir le champ d’application à des tâches telles que la séparation de sources, l’extraction d’information de musique ou la transcription automatique de la musique. La difficulté d’estimer des F0s multiples d’un signal audio réside dans le fait que les sources sonores se superposent souvent dans le domaine temporel ainsi que dans le domaine fréquentiel. Les informations extraites sont en partie ambiguës. En particulier, lorsque des notes de musique en relation harmonique sont jouées en même temps, les partiels des notes aiguës peuvent recouvrir les partiels des notes graves. D’ailleurs, les caractéristiques spectrales des instruments de musique sont variées, ce qui augmente l’incertitude des amplitudes estimées des partiels des sources sonores. La complexité qui en résulte génère aussi une ambiguïté d’octave et il est d’autre part difficile d’estimer le nombre de sources. Cette thèse traite ces problèmes en trois étapes: l’ estimation du bruit, l’évaluation conjointe des F0 hypothèses, et l’inférence de la polyphonie. Le signal observé est modélisé par la somme de plusieurs sources harmoniques et du bruit, où chaque source harmonique est modélisée par une somme de sinusoïdes. Dans le cas de l’estimation des F0s, le nombre de sources est à estimer également. Si la partie bruit n’est pas estimée à l’avance, le nombre de sources risque d’être surestimé, les sources supplémentaires servant à expliquer la partie bruit. Un algorithme d’estimation du niveau de bruit est donc développé afin de distinguer les pics relatifs au bruit des pics sinusoïdaux qui correspondent aux partiels des sources harmoniques. Une fois les composantes spectrales identifiées comme étant des sinusoïdes ou du bruit, les partiels d’un ensemble de sources hypothétiques devraient s’ajuster à la plupart des pics sinusoïdaux. Afin d’évaluer leur plausibilité, un algorithme d’estimation conjointe est proposé, ce qui permet de traiter le problème des partiels superposés. L’algorithme d’estimation conjointe proposé est fondé sur trois hypothèses liées aux caractéristiques des instruments de musique: l’harmonicité, la douceur de l’enveloppe spectrale, et l’évolution synchrone des amplitudes des partiels. Lorsque le nombre de sources est connu, les F0s estiméees sont déterminés par la combinaison la plus probable. Dans ce cas, l’algorithme proposé donne un résultat prometteur qui se compare favorablement à l´état de l’art. L’estimation conjointe des F0s multiples permet de traiter de manière satisfaisante le problème des partiels superposés. Cependant, le temps de calcul de cette approche est élevé, parce que le nombre de combinaisons hypothétiques s’accroît exponentiellement avec le nombre de F0s candidats. Au contraire, l’approche basée sur une estimation itérative est plus rapide mais elle est moins optimale pour traiter le problème des partiels superposés. Dans l’espoir d’obtenir d’une part efficacité et d’autre part robustesse, ces deux approches sont combinées. Un algorithme itératif de sélection des F0s candidats, visant à en diminuer le nombre, est proposé. Comparé à deux fonctions de saillance polyphonique, cet algorithme itératif réduit de cents fois le nombre de candidats en perdant seulement 1 à 2% de la précision d’estimation des F0s multiples. Le résultat montre d’ailleurs qu’une augmentation du nombre des F0s candidats ne garantit pas une meilleure performance de l’algorithme d’estimation conjointe. L’estimation du nombre de sources, dite inférence de la polyphonie, est le problème le plus ardu. L’approche proposée consiste à faire une hypothèse sur le nombre de sources maximal et ensuite à sélectionner les meilleures F0s estimés. Pour cela, les F0s candidats qui se trouvent dans les meilleures combinaisons, sous l’hypothèse du nombre de sources maximal, sont retenus. L’estimation finale des F0s est obtenue en vérifiant de manière itérative les combinaisons de F0s sélectionnées selon l’ordre de probabilité de chaque F0. Une hypothèse de F0 est considérée comme valide si elle permet d’expliquer des pics d’énergie significatifs ou si elle améliore la douceur de l’enveloppe spectrale pour l’ensemble des F0s estimés. Le système proposé est évalué en utilisant une base de données de morceaux de musique construite spécialement pour l’occasion. La précision obtenue est environ 65%. Lors de la compétition d’estimation de F0s multiples de MIREX (Music Information Retrieval Evaluation eXchange) 2007, le système proposé a été évalué comme l’un des meilleurs parmi les 16 systèmes soumis.
35

Ould, Mohamed Mohamed Salem. "Contribution à la séparation aveugle de sources par utilisation des divergences entre densités de probabilité: application à l'analyse vibratoire." Reims, 2010. http://theses.univ-reims.fr/sciences/2010REIMS010.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans cette thèse, nous proposons un nouvel algorithme de séparation aveugle de sources, basé sur l'optimisation de l'information mutuelle sous contraintes. Le problème d'optimisation sous contraintes est résolu par passage au problème dual. L'estimateur proposé du gradient stochastique utilise l'estimation des densités par maximum de vraisemblance dans des modèles de lois exponentielles choisis par mi- nimisation du critère AIC. Ensuite, la méthode a été généralisée à l'ensemble des divergences entre densités de probabilité. Nous avons montré que l'algorithme uti- lisant la divergence particulière de Hellinger a de bonnes propriétés d'efficacité et robustesse en présence du bruit en comparaison avec l'information mutuelle. Dans le cadre de signaux cyclostationnaires, les méthodes précédentes de séparation ont été adaptées en utilisant des statistiques du second ordre. Nous illustrons les per- formances des algorithmes proposés pour des signaux simulés et pour des signaux réels issus de machines tournantes
In this thesis, we propose a new blind source separation algorithm based on the optimization of mutual information under constraints. The optimization problem is solved by using the dual problem. The estimator of stochastic gradient is based on the estimation of the densities by maximum likelihood method. The densities are chosen from exponential families using the AIC criterion. Then, we propose a new al- gorithm for blind source separation based on the minimization of divergences witch generalizes the Mutual Information (MI) approach. We show that the algorithm using Hellinger's divergence has better properties in terms of effciency-robustness, for noisy data. In the context of cyclostationary signals, the above methods of sepa- ration were adapted using second order statistics. We illustrate the performances of the proposed algorithms through simulations and on real rotating machine vibration signals
36

Wang, Wei-Min. "Estimation of component temperatures of vegetative canopy with Vis/NIR and TIR multiple-angular data through inversion of vegetative canopy radiative transfer model." Strasbourg, 2009. http://www.theses.fr/2009STRA6027.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les mesures de la température de brillance des couverts végétaux s’appliquent à de très nombreux domaines comme la climatologie, l’hydrologie, l’agronomie, écologie. Son intérêt principal est de permettre d’accéder à l’estimation du bilan énergétique de la surface. Les mauvaises performances des modèles actuels en terme de restitution de la température de surface sont attribuées, en grande partie, à l'hétérogénéité des surfaces continentales. Les modèles actuels sont inaptes à rendre compte correctement des flux dans ces conditions (même éventuellement avec une correction de type kB-1). Les espoirs portent sur les modèles à deux sources qui traitent de façon différente les flux surface/atmosphère pour les sols et pour la végétation. Ce travail a permis de montrer que les paramètres structurels de la végétation comprenant l'indice de superficie foliaire, la distribution d'angle foliaire et l’indice de groupement exercent de grands effets sur la simulation du transfert radiatif dans le couvert végétal, et également sur la séparation des températures composantes du couvert végétal à partir des données multidirectionnelles dans les domaines visible et infrarouge thermique. Ce travail a aussi montré qu’il était possible d’amélioration la séparation des températures composantes du couvert végétal en utilisant la distribution d'angle foliaire et l’indice de groupement obtenus de données satellitaires. Un modèle analytique en tenant compte de la structure de la végétation a été développé et l'architecture optimale du réseau neuronal a été étudiée et proposée pour extraire les températures composantes du couvert végétal à partir des données multidirectionnelles dans les domaines visible et infrarouge thermique
The separation of component temperature is the basic step for the application of two-source algorithm. Multi-angular thermal infrared measurements provide a chance for the estimation of component temperatures (namely, soil and vegetation temperatures) with remotely-sensed data. The objective of this study is to explore the factors that affect the estimation of component temperatures and propose new algorithm for inverting the canopy radiative transfer models to compute component temperatures. The objectives of this dissertation include: (1) finding an appropriate candidate leaf angle distribution functions for modeling and inversion, (2) evaluating the scaling behavior of Beer's law and its effect on the estimation of component temperatures, (3) proposing an analytical model for directional brightness temperature at top of canopy, (4) retrieving component temperatures with neural network and simplex algorithms. The effects of leaf angle distribution function on extinction coefficient, which is a key parameter for simulating the radiative transfer through vegetative canopy, is explored to improve the radiative transfer modeling. These contributions will enhance our understanding of the basic problems existing in thermal IR remote sensing and improve the simulation of land surface energy balance. Further work can be conducted to continue the enhancement and application of proposed algorithm to remote sensing images
37

Durrieu, Jean-Louis. "Transcription et séparation automatique de la mélodie principale dans les signaux de musique polyphoniques." Phd thesis, Paris, Télécom ParisTech, 2010. https://pastel.hal.science/pastel-00006123.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous proposons de traiter l'extraction de la mélodie principale, ainsi que la séparation de l'instrument jouant cette mélodie. La première tâche appartient au domaine de la recherche d'information musicale (MIR) : nous cherchons à indexer les morceaux de musique à l'aide de leur mélodie. La seconde application est la séparation aveugle de sources sonores (BASS) : extraire une piste audio pour chaque source présente dans un mélange sonore. La séparation de la mélodie principale et de l'accompagnement et l'extraction de cette mélodie sont traitées au sein d'un même cadre statistique. Le modèle pour l'instrument principal est un modèle de production source/filtre. Il suppose deux états cachés correspondant à l'état du filtre et de la source. Le modèle spectral choisi permet de prendre compte les fréquences fondamentales de l'instrument désiré et de séparer ce dernier de l'accompagnement. Deux modèles de signaux sont proposés, un modèle de mélange de gaussiennes amplifiées (GSMM) et un modèle de mélange instantané (IMM). L'accompagnement est modélisé par un modèle spectral plus général. Cinq systèmes sont proposés, trois systèmes fournissent la mélodie sous forme de séquence de fréquences fondamentales, un système fournit les notes de la mélodie et le dernier système sépare l'instrument principal de l'accompagnement. Les résultats en estimation de la mélodie et en séparation sont du niveau de l'état de l'art, comme l'ont montré nos participations aux évaluations internationales (MIREX'08, MIREX'09 et SiSEC'08). Nous avons ainsi réussi à intégrer de la connaissance musicale améliorant les résultats de travaux antérieurs sur la séparation de sources sonores
We propose to address the problem of melody extraction along with the monaural lead instrument and accompaniment separation problem. The first task is related to Music Information Retrieval (MIR), since it aims at indexing the audio music signals with their melody. The separation problem is related to Blind Audio Source Separation (BASS), as it aims at breaking an audio mixture into several source tracks. Leading instrument source separation and main melody extraction are addressed within a unified framework. The lead instrument is modelled thanks to a source/filter production model. Its signal is generated by two hidden states, the filter state and the source state. The proposed signal spectral model therefore explicitly uses pitches both to separate the lead instrument from the others and to transcribe the pitch sequence played by that instrument, the "main melody". This model gives rise to two alternative models, a Gaussian Scaled Mixture Model (GSMM) and the Instantaneous Mixture Model (IMM). The accompaniment is modelled with a more general spectral model. Five systems are proposed. Three systems detect the fundamental frequency sequence of the lead instrument, i. E. They estimate the main melody. A system returns a musical melody transcription and the last system separates the lead instrument from the accompaniment. The results in melody transcription and source separation are at the state of the art, as shown by our participations to international evaluation campaigns (MIREX'08, MIREX'09 and SiSEC'08). The proposed extension of previous source separation works using "MIR" knowledge is therefore a very successful combination
38

Durrieu, Jean-Louis. "Transcription et séparation automatique de la mélodie principale dans les signaux de musique polyphoniques." Phd thesis, Télécom ParisTech, 2010. http://pastel.archives-ouvertes.fr/pastel-00006123.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Nous proposons de traiter l'extraction de la mélodie principale, ainsi que la séparation de l'instrument jouant cette mélodie. La première tâche appartient au domaine de la recherche d'information musicale (MIR) : nous cherchons à indexer les morceaux de musique à l'aide de leur mélodie. La seconde application est la séparation aveugle de sources sonores (BASS) : extraire une piste audio pour chaque source présente dans un mélange sonore. La séparation de la mélodie principale et de l'accompagnement et l'extraction de cette mélodie sont traitées au sein d'un même cadre statistique. Le modèle pour l'instrument principal est un modèle de production source/filtre. Il suppose deux états cachés correspondant à l'état du filtre et de la source. Le modèle spectral choisi permet de prendre compte les fréquences fondamentales de l'instrument désiré et de séparer ce dernier de l'accompagnement. Deux modèles de signaux sont proposés, un modèle de mélange de gaussiennes amplifiées (GSMM) et un modèle de mélange instantané (IMM). L'accompagnement est modélisé par un modèle spectral plus général. Cinq systèmes sont proposés, trois systèmes fournissent la mélodie sous forme de séquence de fréquences fondamentales, un système fournit les notes de la mélodie et le dernier système sépare l'instrument principal de l'accompagnement. Les résultats en estimation de la mélodie et en séparation sont du niveau de l'état de l'art, comme l'ont montré nos participations aux évaluations internationales (MIREX'08, MIREX'09 et SiSEC'08). Nous avons ainsi réussi à intégrer de la connaissance musicale améliorant les résultats de travaux antérieurs sur la séparation de sources sonores.
39

Rouvière, Clémentine. "Experimental parameter estimation in incoherent images via spatial-mode demultiplexing." Electronic Thesis or Diss., Sorbonne université, 2024. http://www.theses.fr/2024SORUS033.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La résolution des systèmes d'imagerie optique a été historiquement limitée par la diffraction et la limite de Rayleigh a longtemps été considérée comme insurmontable. Des techniques de super-résolution ont été développées pour aller au-delà de cette limite, mais elles sont adaptées spécifiquement à chaque contexte et atteindre une résolution sub-Rayleigh demeure très difficile. En examinant les problèmes d'imagerie à travers le prisme de la théorie d'estimation de paramètre, il est possible de comprendre les contraintes intrinsèques aux approches traditionnelles de super-résolution et de déterminer une méthode optimale, basée sur la détection d'intensité dans la base de modes d'Hermite-Gauss. Dans cette thèse, nous avons mis en place cette approche fournie par la métrologie quantique pour estimer la séparation entre deux sources incohérentes et nous avons atteint une sensibilité cinq ordres de grandeur au-delà du critère de Rayleigh. Avec notre dispositif expérimental, basé sur un démultiplexeur en modes spatiaux, nous avons étudié des scènes avec des sources à haut et bas flux de photons. En portant une attention particulière à l'exactitude et à la sensibilité des mesures, nous démontrons que le démultiplexage en modes spatiaux est particulièrement adapté pour effectuer des estimations de séparations sub-Rayleigh. Ce travail ouvre la voie à l'amélioration de la sensibilité des mesures dans des scènes optiques plus complexes se rapprochant de réelles situations d'imagerie
Historically, the resolution of optical imaging systems was dictated by diffraction, and the Rayleigh criterion was long considered an unsurpassable limit. In superresolution microscopy, this limit is overcome by manipulating the emission properties of the object. However, in passive imaging, when sources are uncontrolled, reaching sub-Rayleigh resolution remains a challenge. Here, we implement a quantum-metrology-inspired approach for estimating the separation between two incoherent sources, achieving a sensitivity five orders of magnitude beyond the Rayleigh limit. Using a spatial mode demultiplexer, we examine scenes with bright and faint sources, through intensity measurements in the Hermite-Gauss basis. Analysing sensitivity and accuracy over an extensive range of separations, we demonstrate the remarkable effectiveness of demultiplexing for sub-Rayleigh separation estimation. These results effectively render the Rayleigh limit obsolete for passive imaging
40

Fuentes, Benoit. "L'analyse probabiliste en composantes latentes et ses adaptations aux signaux musicaux : application à la transcription automatique de musique et à la séparation de sources." Electronic Thesis or Diss., Paris, ENST, 2013. http://www.theses.fr/2013ENST0011.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La transcription automatique de musique polyphonique consiste à estimer automatiquernent les notes présentes dans un enregistrement via trois de leurs attributs : temps d'attaque, durée et hauteur. Pour traiter ce problème, il existe une classe de méthodes dont le principe est de modéliser un signal comme une somme d'éléments de base, porteurs d'informations symboliques. Parmi ces techniques d'analyse, on trouve l'analyse probabiliste en composantes latentes (PLCA). L'objet de cette thèse est de proposer des variantes et des améliorations de la PLCA afin qu'elle puisse mieux s'adapter aux signaux musicaux et ainsi mieux traiter le problème de la transcription. Pour cela, un premier angle d'approche est de proposer de nouveaux modèles de signaux, en lieu et place du modèle inhérent à la PLCA, suffisamment expressifs pour pouvoir s'adapter aux notes de musique possédant simultanément des variations temporelles de fréquence fondamentale et d'enveloppe spectrale. Un deuxième aspect du travail effectué est de proposer des outils permettant d'aider l'algorithme d'estimation des paramètres à converger vers des solutions significatives via l'incorporation de connaissances a priori sur les signaux à analyser, ainsi que d'un nouveau modèle dynamique. Tous les algorithmes ainsi imaginés sont appliqués à la tâche de transcription automatique. Nous voyons également qu'ils peuvent être directement utilisés pour la séparation de sources, qui consiste à séparer plusieurs sources d'un mélange, et nous proposons deux applications dans ce sens
Automatic music transcription consists in automatically estimating the notes in a recording, through three attributes: onset time, duration and pitch. To address this problem, there is a class of methods which is based on the modeling of a signal as a sum of basic elements, carrying symbolic information. Among these analysis techniques, one can find the probabilistic latent component analysis (PLCA). The purpose of this thesis is to propose variants and improvements of the PLCA, so that it can better adapt to musical signals and th us better address the problem of transcription. To this aim, a first approach is to put forward new models of signals, instead of the inherent model 0 PLCA, expressive enough so they can adapt to musical notes having variations of both pitch and spectral envelope over time. A second aspect of this work is to provide tools to help the parameters estimation algorithm to converge towards meaningful solutions through the incorporation of prior knowledge about the signals to be analyzed, as weil as a new dynamic model. Ali the devised algorithms are applie to the task of automatic transcription. They can also be directly used for source separation, which consists in separating several sources from a mixture, and Iwo applications are put forward in this direction
41

El, Guedri Mabrouka. "Caractérisation aveugle de la courbe de charge électrique : Détection, classification et estimation des usages dans les secteurs résidentiel et tertiaire." Phd thesis, Université Paris Sud - Paris XI, 2009. http://tel.archives-ouvertes.fr/tel-00461671.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le problème de caractérisation non-intrusive des usages dans des conditions réelles à partir de l'unique observation de la courbe de charge (CdC) générale résidentielle et tertiaire disponible (puissance moyenne quotidienne disponible en sortie du compteur) a été peu étudié. L'objectif de la thèse est d'explorer les possibilités et les méthodes permettant une caractérisation aveugle des composantes du mélange observé. Plus précisément, il s'agit d'extraire des descripteurs temporels, énergétiques ou encore événementiels à partir d'un mélange unique de sources non-stationnaires de nombre inconnu. Nous considérons quatre sous-problématiques sous-jacentes à la caractérisation de la CdC : la détection des usages, la classification des signaux de la CdC, l'estimation des paramètres des usages (énergie, amplitude, etc.) et la séparation des sources du mélange observé. Les algorithmes mis en œuvre sont évalués sur les données réelles. Les performances obtenues sont satisfaisantes. Outre les contributions de formalisation et algorithmiques, un des apports marquants de cette étude est une solution non-intrusive pour la segmentation automatique la CdC générale résidentielle et pour la cartographie de l'énergie quotidienne consommée en quatre composantes : le chauffage électrique, le chauffe-eau, le froid alimentaire et les autres usages. Au delà des améliorations algorithmiques et de l'étude de performance à poursuivre, nous proposons en perspective de cette thèse une approche générique pour décomposer une CdC quelconque fondée sur une modélisation stochastique de la série des événements de la CdC.
42

Lassami, Nacerredine. "Représentations parcimonieuses et analyse multidimensionnelle : méthodes aveugles et adaptatives." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2019. http://www.theses.fr/2019IMTA0139.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Au cours de la dernière décennie, l’étude mathématique et statistique des représentations parcimonieuses de signaux et de leurs applications en traitement du signal audio, en traitement d’image, en vidéo et en séparation de sources a connu une activité intensive. Cependant, l'exploitation de la parcimonie dans des contextes de traitement multidimensionnel comme les communications numériques reste largement ouverte. Au même temps, les méthodes aveugles semblent être la réponse à énormément de problèmes rencontrés récemment par la communauté du traitement du signal et des communications numériques tels que l'efficacité spectrale. Aussi, dans un contexte de mobilité et de non-stationnarité, il est important de pouvoir mettre en oeuvre des solutions de traitement adaptatives de faible complexité algorithmique en vue d'assurer une consommation réduite des appareils. L'objectif de cette thèse est d'aborder ces challenges de traitement multidimensionnel en proposant des solutions aveugles de faible coût de calcul en utilisant l'à priori de parcimonie. Notre travail s'articule autour de trois axes principaux : la poursuite de sous-espace principal parcimonieux, la séparation adaptative aveugle de sources parcimonieuses et l'identification aveugle des systèmes parcimonieux. Dans chaque problème, nous avons proposé de nouvelles solutions adaptatives en intégrant l'information de parcimonie aux méthodes classiques de manière à améliorer leurs performances. Des simulations numériques ont été effectuées pour confirmer l’intérêt des méthodes proposées par rapport à l'état de l'art en termes de qualité d’estimation et de complexité calculatoire
During the last decade, the mathematical and statistical study of sparse signal representations and their applications in audio, image, video processing and source separation has been intensively active. However, exploiting sparsity in multidimensional processing contexts such as digital communications remains a largely open problem. At the same time, the blind methods seem to be the answer to a lot of problems recently encountered by the signal processing and the communications communities such as the spectral efficiency. Furthermore, in a context of mobility and non-stationarity, it is important to be able to implement adaptive processing solutions of low algorithmic complexity to ensure reduced consumption of devices. The objective of this thesis is to address these challenges of multidimensional processing by proposing blind solutions of low computational cost by using the sparsity a priori. Our work revolves around three main axes: sparse principal subspace tracking, adaptive sparse source separation and identification of sparse systems. For each problem, we propose new adaptive solutions by integrating the sparsity information to the classical methods in order to improve their performance. Numerical simulations have been conducted to confirm the superiority of the proposed methods compared to the state of the art
43

Xiong, Wenmeng. "Localisation de sources dispersées : Performances de MUSIC en présence d'erreurs de modèle et estimation parcimonieuse à rang faible." Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLC076/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse porte sur la localisation de sources spatialement distribuées. Premièrement, des résultats théoriques ont été établis concernant les performances des méthodes à haute résolution en présence d'erreurs de modèle dues à la distribution angulaire de source. Ainsi, le biais d'estimation et l'erreur quadratique moyenne sont exprimées en fonction des paramètres liés à l'erreur de modèle. De plus, les performances ont été étudiées en fonction de la géométrie de l'antenne afin de déterminer les configurations les plus robustes aux sources dispersées.Les résultats théoriques ont été validés par des simulations numériques. Dans un deuxième temps, une nouvelle approche non paramétrique a été proposée pour la localisation de sources distribuées : cette approche exploite les propriétés de parcimonie et de rang-faible de la matrice de covariance spatiale des sources. Cette méthode permet en outre d'estimer la forme de la distribution spatiale des sources. Les résultats de simulations ont permis de mettre en avant l'intérêt de l'hypothèse rang faible par rapport aux critères exploitant uniquement la parcimonie
This thesis focuses on the distributed source localization problem. In a first step, performance of high resolution methods in the presence of model errors due to the angular distribution of source has been studied. Theoretical expressions of the estimation bias and the mean square error of the direction of arrival of sources have been established in terms of model error. The impacts of the array geometry on the performances have studied in order to optimize the robustness of the array to the model error due to distributed sources.Theoretical results have been validated by numerical simulations.In a second step, a new approach for the localization of spatially distributed source has been proposed: the approach is based on the sparsity and low-rank property of the spatial covariance matrix of the sources. The proposed method provides also an estimation of the distribution shapes of the sources. Simulation results exhibit the advantages of exploiting the sparsity and the low rank properties
44

Madrolle, Stéphanie. "Méthodes de traitement du signal pour l'analyse quantitative de gaz respiratoires à partir d’un unique capteur MOX." Thesis, Université Grenoble Alpes (ComUE), 2018. http://www.theses.fr/2018GREAT065/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Prélevés de manière non invasive, les gaz respiratoires sont constitués de nombreux composés organiques volatils (VOCs) dont la quantité dépend de l’état de santé du sujet. L’analyse quantitative de l’air expiré présente alors un fort intérêt médical, que ce soit pour le diagnostic ou le suivi de traitement. Dans le cadre de ma thèse, nous proposons d’étudier un dispositif d’analyse des gaz respiratoires, et notamment de ces VOCs. Cette thèse multidisciplinaire aborde différents aspects, tels que le choix des capteurs, du matériel et des modes d’acquisition, l’acquisition des données à l’aide d’un banc gaz, et ensuite le traitement des signaux obtenus de manière à quantifier un mélange de gaz. Nous étudions la réponse d’un capteur à oxyde métallique (MOX) à des mélanges de deux gaz (acétone et éthanol) dilués dans de l’air synthétique (oxygène et azote). Ensuite, nous utilisons des méthodes de séparation de sources de manière à distinguer les deux gaz, et déterminer leur concentration. Pour donner des résultats satisfaisants, ces méthodes nécessitent d’utiliser plusieurs capteurs dont on connait la forme mathématique du modèle décrivant l’interaction du mélange avec le capteur, et qui présentent une diversité suffisante dans les mesures d’étalonnage pour estimer les coefficients de ce modèle. Dans cette thèse, nous montrons que les capteurs MOX peuvent être décrits par un modèle de mélange linéaire quadratique, et qu’un mode d’acquisition fonctionnant en double température permet de générer deux capteurs virtuels à partir d’un unique capteur physique. Pour quantifier précisément les composants du mélange à partir des mesures sur ces capteurs (virtuels), nous avons conçu des méthodes de séparation de sources, supervisées et non supervisées appliquées à ce modèle non-linéaire : l’analyse en composantes indépendantes, des méthodes de moindres carrés (algorithme de Levenberg-Marquardt), et une méthode bayésienne ont été étudiées. Les résultats expérimentaux montrent que ces méthodes permettent d’estimer les concentrations de VOCs contenus dans un mélange de gaz, de façon précise, en ne nécessitant que très peu de points de calibration
Non-invasively taken, exhaled breath contains many volatile organic compounds (VOCs) whose amount depends on the health of the subject. Quantitative analysis of exhaled air is of great medical interest, whether for diagnosis or for a treatment follow-up. As part of my thesis, we propose to study a device to analyze exhaled breath, including these VOCs. This multidisciplinary thesis addresses various aspects, such as the choice of sensors, materials and acquisition modes, the acquisition of data using a gas bench, and then the processing of the signals obtained to quantify a gas mixture. We study the response of a metal oxide sensor (MOX) to mixtures of two gases (acetone and ethanol) diluted in synthetic air (oxygen and nitrogen). Then, we use source separation methods in order to distinguish the two gases, and to determine their concentration. To give satisfactory results, these methods require first to use several sensors for which we know the mathematical model describing the interaction of the mixture with the sensor, and which present a sufficient diversity in the calibration measurements to estimate the model coefficients. In this thesis, we show that MOX sensors can be described by a linear-quadratic mixing model, and that a dual temperature acquisition mode can generate two virtual sensors from a single physical sensor. To quantify the components of the mixture from measurements on these (virtual) sensors, we have develop supervised and unsupervised source separation methods, applied to this nonlinear model: independent component analysis, least squares methods (Levenberg Marquardt algorithm), and a Bayesian method were studied. The experimental results show that these methods make it possible to estimate the VOC concentrations of a gas mixture, accurately, while requiring only a few calibration points
45

Fuentes, Benoît. "L'analyse probabiliste en composantes latentes et ses adaptations aux signaux musicaux : application à la transcription automatique de musique et à la séparation de sources." Thesis, Paris, ENST, 2013. http://www.theses.fr/2013ENST0011/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La transcription automatique de musique polyphonique consiste à estimer automatiquernent les notes présentes dans un enregistrement via trois de leurs attributs : temps d'attaque, durée et hauteur. Pour traiter ce problème, il existe une classe de méthodes dont le principe est de modéliser un signal comme une somme d'éléments de base, porteurs d'informations symboliques. Parmi ces techniques d'analyse, on trouve l'analyse probabiliste en composantes latentes (PLCA). L'objet de cette thèse est de proposer des variantes et des améliorations de la PLCA afin qu'elle puisse mieux s'adapter aux signaux musicaux et ainsi mieux traiter le problème de la transcription. Pour cela, un premier angle d'approche est de proposer de nouveaux modèles de signaux, en lieu et place du modèle inhérent à la PLCA, suffisamment expressifs pour pouvoir s'adapter aux notes de musique possédant simultanément des variations temporelles de fréquence fondamentale et d'enveloppe spectrale. Un deuxième aspect du travail effectué est de proposer des outils permettant d'aider l'algorithme d'estimation des paramètres à converger vers des solutions significatives via l'incorporation de connaissances a priori sur les signaux à analyser, ainsi que d'un nouveau modèle dynamique. Tous les algorithmes ainsi imaginés sont appliqués à la tâche de transcription automatique. Nous voyons également qu'ils peuvent être directement utilisés pour la séparation de sources, qui consiste à séparer plusieurs sources d'un mélange, et nous proposons deux applications dans ce sens
Automatic music transcription consists in automatically estimating the notes in a recording, through three attributes: onset time, duration and pitch. To address this problem, there is a class of methods which is based on the modeling of a signal as a sum of basic elements, carrying symbolic information. Among these analysis techniques, one can find the probabilistic latent component analysis (PLCA). The purpose of this thesis is to propose variants and improvements of the PLCA, so that it can better adapt to musical signals and th us better address the problem of transcription. To this aim, a first approach is to put forward new models of signals, instead of the inherent model 0 PLCA, expressive enough so they can adapt to musical notes having variations of both pitch and spectral envelope over time. A second aspect of this work is to provide tools to help the parameters estimation algorithm to converge towards meaningful solutions through the incorporation of prior knowledge about the signals to be analyzed, as weil as a new dynamic model. Ali the devised algorithms are applie to the task of automatic transcription. They can also be directly used for source separation, which consists in separating several sources from a mixture, and Iwo applications are put forward in this direction
46

Carlo, Diego Di. "Echo-aware signal processing for audio scene analysis." Thesis, Rennes 1, 2020. http://www.theses.fr/2020REN1S075.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La plupart des méthodes de traitement du signal audio considèrent la réverbération et en particulier les échos acoustiques comme une nuisance. Cependant, ceux-ci transmettent des informations spatiales et sémantiques importantes sur les sources sonores et des méthodes essayant de les prendre en compte ont donc récemment émergé.. Dans ce travail, nous nous concentrons sur deux directions. Tout d’abord, nous étudions la manière d’estimer les échos acoustiques à l’aveugle à partir d’enregistrements microphoniques. Deux approches sont proposées, l’une s’appuyant sur le cadre des dictionnaires continus, l’autre sur des techniques récentes d’apprentissage profond. Ensuite, nous nous concentrons sur l’extension de méthodes existantes d’analyse de scènes audio à leurs formes sensibles à l’écho. Le cadre NMF multicanal pour la séparation de sources audio, la méthode de localisation SRP-PHAT et le formateur de voies MVDR pour l’amélioration de la parole sont tous étendus pour prendre en compte les échos. Ces applications montrent comment un simple modèle d’écho peut conduire à une amélioration des performances
Most of audio signal processing methods regard reverberation and in particular acoustic echoes as a nuisance. However, they convey important spatial and semantic information about sound sources and, based on this, recent echo-aware methods have been proposed. In this work we focus on two directions. First, we study the how to estimate acoustic echoes blindly from microphone recordings. Two approaches are proposed, one leveraging on continuous dictionaries, one using recent deep learning techniques. Then, we focus on extending existing methods in audio scene analysis to their echo-aware forms. The Multichannel NMF framework for audio source separation, the SRP-PHAT localization method, and the MVDR beamformer for speech enhancement are all extended to their echo-aware versions
47

Raguet, Hugo. "A Signal Processing Approach to Voltage-Sensitive Dye Optical Imaging." Thesis, Paris 9, 2014. http://www.theses.fr/2014PA090031/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L’imagerie optique par colorant potentiométrique est une méthode d’enregistrement de l’activité corticale prometteuse, mais dont le potentiel réel est limité par la présence d’artefacts et d’interférences dans les acquisitions. À partir de modèles existant dans la littérature, nous proposons un modèle génératif du signal basé sur un mélange additif de composantes, chacune contrainte dans une union d’espaces linéaires déterminés par son origine biophysique. Motivés par le problème de séparation de composantes qui en découle, qui est un problème inverse linéaire sous-déterminé, nous développons : (1) des régularisations convexes structurées spatialement, favorisant en particulier des solutions parcimonieuses ; (2) un nouvel algorithme proximal de premier ordre pour minimiser efficacement la fonctionnelle qui en résulte ; (3) des méthodes statistiques de sélection de paramètre basées sur l’estimateur non biaisé du risque de Stein. Nous étudions ces outils dans un cadre général, et discutons leur utilité pour de nombreux domaines des mathématiques appliqués, en particulier pour les problèmes inverses ou de régression en grande dimension. Nous développons par la suite un logiciel de séparation de composantes en présence de bruit, dans un environnement intégré adapté à l’imagerie optique par colorant potentiométrique. Finalement, nous évaluons ce logiciel sur différentes données, synthétiques et réelles, montrant des résultats encourageants quant à la possibilité d’observer des dynamiques corticales complexes
Voltage-sensitive dye optical imaging is a promising recording modality for the cortical activity, but its practical potential is limited by many artefacts and interferences in the acquisitions. Inspired by existing models in the literature, we propose a generative model of the signal, based on an additive mixtures of components, each one being constrained within an union of linear spaces, determined by its biophysical origin. Motivated by the resulting component separation problem, which is an underdetermined linear inverse problem, we develop: (1) convex, spatially structured regularizations, enforcing in particular sparsity on the solutions; (2) a new rst-order proximal algorithm for minimizing e›ciently the resulting functional; (3) statistical methods for automatic parameters selection, based on Stein’s unbiased risk estimate.We study thosemethods in a general framework, and discuss their potential applications in variouselds of applied mathematics, in particular for large scale inverse problems or regressions. We develop subsequently a soŸware for noisy component separation, in an integrated environment adapted to voltage-sensitive dye optical imaging. Finally, we evaluate this soŸware on dišerent data set, including synthetic and real data, showing encouraging perspectives for the observation of complex cortical dynamics
48

Guilloux, Frédéric. "Analyse harmonique et Estimation spectrale sur la Sphère.Applications à l'étude du Fond diffus cosmologique." Phd thesis, Université Paris-Diderot - Paris VII, 2008. http://tel.archives-ouvertes.fr/tel-00347673.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse porte sur l'utilisation d'ondelettes de seconde génération pour l'étude statistique de champs aléatoires sphériques. Parmi les phénomènes modélisables par un tel champ, on s'intéressera en particulier au Fond diffus cosmologique (CMB).

La localisation des needlets (récente construction d'ondelettes) sur la sphère est étudiée et optimisée en terme de concentration spatiale et d'estimation statistique. Ces fonctions sont ensuite utilisées pour construire un nouvel estimateur du spectre de puissance angulaire. L'examen des propriété de cet estimateur, d'un point de vue théorique (dans l'asymptotique des hautes fréquences angulaires) et pratique, montre qu'il améliore les méthodes existantes dans un modèle réaliste comportant des données manquantes et un bruit hétéroscédastique. A côté de l'estimation spectrale, l'utilisation des needlets est également introduite dans un problème de séparation de sources.

Après quatre chapitres introductifs (dédiés respectivement aux aspects physiques, analytiques et statistiques de l'étude du CMB, puis à une présentation d'ensemble des résultats), quatre articles de revue (en collaboration) sont présentés : "Practical wavelet design on the sphere" ; "CMB power spectrum estimation using wavelets" ; "Spectral estimation on the sphere with needlets: high frequency asymptotics" et "A full sky, low foreground, high resolution CMB map from WMAP".
49

Khaddour, Fadi. "Amélioration de la production de gaz des « Tight Gas Reservoirs »." Thesis, Pau, 2014. http://www.theses.fr/2014PAUU3005/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La valorisation des réservoirs gaziers compacts, dits Tight Gas Reservoirs (TGR), dont les découvertes sont importantes, permettrait d’augmenter significativement les ressources mondiales d’hydrocarbures. Dans l’objectif d’améliorer la production de ces types de réservoirs, nous avons mené une étude ayant pour but de parvenir à une meilleure compréhension de la relation entre l’endommagement et les propriétés de transport des géomatériaux. L’évolution de la microstructure d’éprouvettes qui ont été soumises préalablement à des chargements dynamiques est étudiée. Une estimation de leurs perméabilités avec l’endommagement est tout d’abord présentée à l’aide d’un modèle de pores parallèles couplant un écoulement de Poiseuille avec la diffusion de Knudsen. Nous avons ensuite mené des travaux expérimentaux afin d’estimer l’évolution de la perméabilité avec l’endommagement en relation avec l’évolution de la distribution de tailles de pores. Les mesures de perméabilité sont effectuées sur des cylindres en mortier similaire aux roches tight gas, soumis à une compression uniaxiale. La caractérisation des microstructures des mortiers endommagés est réalisée par porosimétrie par intrusion de mercure. Afin d’estimer l’évolution de la perméabilité, un nouveau modèle hiérarchique aléatoire est présenté. Les comparaisons avec les données expérimentales montrent la capacité de ce modèle à estimer non seulement les perméabilités apparentes et intrinsèques mais aussi leurs évolutions sous l’effet d’un chargement introduisant une évolution de la distribution de taille de pores. Ce modèle, ainsi que le dispositif expérimental employé, ont été étendus afin d’estimer à l’avenir les perméabilités relatives de mélanges gazeux. Le dernier chapitre présente une étude de l’adsorption de méthane dans différents milieux fracturés par chocs électriques. Les résultats, utiles pour l’estimation des ressources en place, ont montré que la fracturation permet de favoriser l’extraction du gaz initialement adsorbé
The valorization of compact gas reservoirs, called tight gas reservoirs (TGR), whose discoveries are important, would significantly increase the global hydrocarbon resources. With the aim of improving the production of these types of gas, we have conducted a study to achieve a better understanding of the relationship between damage and the transport properties of geomaterials. The microstructure evolution of specimens, which were submitted beforehand to dynamic loading, has been investigated. An estimation of their permeability upon damage is first presented with the help of a bundle model of parallel capillaries coupling Poiseuille flow with Knudsen diffusion. Then, we have carried out an experimental work to estimate the permeability evolution upon damage in relation to the evolution of the pore size distribution in uniaxial compression. The measurements of permeability have been performed on mortar cylinders, designed to mimic typical tight rocks that can be found in tight gas reservoirs. Microstructural characterization of damaged mortars has been performed with the help of mercury intrusion porosimetry (MIP). To estimate the permeability evolution, a new random hierarchical model has been devised. The comparisons with the experimental data show the ability of this model to estimate not only the apparent and intrinsic permeabilities but also their evolutions under loading due to a change in the pore size distribution. This model and the experimental set up have been extended to estimate the relative permeabilities of gas mixtures in the future. The final chapter presents a study of the adsorption of methane on different porous media fractured by electrical shocks. The results, concerning the estimation of the in-place resources, have shown that fracturing can enhance the extraction of the initial amount of adsorbed gas
50

Patanchon, Guillaume. "Analyse multi-composantes d'observations du fond diffus cosmologique." Phd thesis, Université Pierre et Marie Curie - Paris VI, 2003. http://tel.archives-ouvertes.fr/tel-00004512.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les anisotropies du fond diffus cosmologique (CMB) sont une mine d'informations sur la physique de l'Univers primordial. Leur spectre spatial de puissance depend des parametres cosmologiques qui caracterisent le contenu et l'evolution de l'Univers. La mesure precise de ce spectre de puissance permet de contraindre fortement les modeles, mais est rendue difficile par la presence de emissions astrophysiques d'avant-plan qui se superposent au signal primordial. Apres une presentation succinte du modele standard de la cosmologie et des differentes sources d'emission dans le domaine millimetrique, nous passons en revue les methodes de separation de composantes couramment employees au sein de la communaute. Nous developpons dans cette these des methodes ameliorees pour la separation et la caracterisation des composantes de signal et de bruit presentes dans les donnees. Tout d'abord, les methodes classiques, basees sur un modele extremement simplifie, ne permettent pas de separer efficacement certaines composantes systematiques instrumentales correlees entre les detecteurs. Nous presentons une methode de separation de composante adaptee au traitement de tels effets systematiques. Cette technique est testee sur des simulations d'observation du satellite Planck.Par ailleurs, les methodes "standard" de separation de composantes ne sont pas entierement satisfaisantes, car elles ne sont pas optimisees pour l'estimation des spectres de puissance, et elles necessitent la connaissance, a priori, des spectres electromagnetiques des composantes. Nous decrivons une nouvelle methode destimation du spectre de puissance du CMB (et des autres composantes) realisant en aveugle la separation des composantes. Cette approche est validee a l'aide de nombreuses simulations. Dans une derniere partie, nous appliquons cette methode aux donnees obtenues avec l'experience Archeops.

До бібліографії