Dissertationen zum Thema „Traitement du signal Tensor“

Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Traitement du signal Tensor.

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "Traitement du signal Tensor" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Sorensen, Mikael. „Tensor tools with application in signal processing“. Nice, 2010. http://www.theses.fr/2010NICE4030.

Der volle Inhalt der Quelle
Annotation:
Several problems in signal processing can be put in a tensorial framework. In many cases, these problems lead to compute structured tensor decompositions. The main purpose of this thesis is the development of computational methods for structured tensor decomposition problems with application in signal processing. First, we propose methods for the computation of the CANDECOMP/PARAFAC (CP) decomposition with a semi-unitary matrix factor. Moreover, we develop methods to solve CP structured independent component analysis problems by addressing them as semi-unitary constrained CP decompositions problems. Second, we propose simultaneous (generalized) Schur decomposition methods to compute CP decompositions possibly with partial (Hermitian) symmetries. Moreover, a Jacobi-type sweeping procedure for the computation of a real CP decomposition will be considered. Third, we propose methods to compute tensor decompositions with banded or Hankel/Toeplitz matrix factors and possibly also with partial (Hermitian) symmetries. The methods will be applied to solve some cumulant based blind identification problems. Fourth, we propose a more efficient Jacobi method for blind equalization of paraunitary channels. Furthermore, we also derive an algebraic solution for the Jacobi method for likelihood based joint diagonalization of real positive definite matrices
Nombre de problèmes issus du traitement de signal peuvent être modélisés par des équations/problèmes tensoriels. La spécificité des problèmes de traitement de signal est qu’ils donnent lieu à des décompositions tensorielles structurées. L’objectif principal de cette thèse est, d’une part, le développement de méthodes numériques appliquées aux problèmes de décompositions de tenseurs structurés et, d’autre part, leur application en traitement de signal. Dans un premier temps, nous proposons des méthodes pour le calcul de la décomposition CANDECOMP/PARAFAC (CP) avec un facteur matriciel semi-unitaire. De plus, nous développons des méthodes pour résoudre des problèmes d’analyse en composantes indépendantes (ICA) pouvant être modélisés par une décomposition CP structurée, en les considérant comme des problèmes de décompositions CP sous contrainte de semi-unitarité. Ensuite, pour le calcul de décompositions CP avec symétries hermitiennes partielles, nous proposons des méthodes de décompositions simultanées de Schur généralisées. D’un point de vue numérique, nous développons le calcul de décompositions CP réelles par une méthode de Jacobi. En troisième lieu, nous nous attaquons à la décomposition de tenseurs ayant des facteurs matriciels bande ou Hankel/Toeplitz, conjointement (ou non) à des symétries hermitiennes partielles. Ces méthodes sont appliquées à la résolution de problèmes d’identification aveugle basés sur des cumulants. Enfin, nous proposons une méthode (plus) efficace pour l’égalisation aveugle de canaux paraunitaires basée sur les itérations de Jacobi. Dans le même esprit, nous dérivons une solution algébrique à la méthode de Jacobi pour effectuer la diagonalisation conjointe de matrices réelles définies positives
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Silva, Alex Pereira da. „Techniques tensorielles pour le traitement du signal : algorithmes pour la décomposition polyadique canonique“. Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAT042/document.

Der volle Inhalt der Quelle
Annotation:
L’approximation tensorielle de rang faible joue ces dernières années un rôle importantdans plusieurs applications, telles que la séparation aveugle de source, les télécommunications, letraitement d’antennes, les neurosciences, la chimiométrie, et l’exploration de données. La décompositiontensorielle Canonique Polyadique est très attractive comparativement à des outils matriciels classiques,notamment pour l’identification de systèmes. Dans cette thèse, nous proposons (i) plusieursalgorithmes pour calculer quelques approximations de rang faible spécifique: approximation de rang-1 itérative et en un nombre fini d’opérations, l’approximation par déflation itérative, et la décompositiontensorielle orthogonale; (ii) une nouvelle stratégie pour résoudre des systèmes quadratiquesmultivariés, où ce problème peut être réduit à la meilleure approximation de rang-1 d’un tenseur; (iii)des résultats théoriques pour étudier les performances ou prouver la convergence de quelques algorithmes.Toutes les performances sont illustrées par des simulations informatiques
Low rank tensor decomposition has been playing for the last years an important rolein many applications such as blind source separation, telecommunications, sensor array processing,neuroscience, chemometrics, and data mining. The Canonical Polyadic tensor decomposition is veryattractive when compared to standard matrix-based tools, manly on system identification. In this thesis,we propose: (i) several algorithms to compute specific low rank-approximations: finite/iterativerank-1 approximations, iterative deflation approximations, and orthogonal tensor decompositions. (ii)A new strategy to solve multivariate quadratic systems, where this problem is reduced to a best rank-1 tensor approximation problem. (iii) Theoretical results to study and proof the performance or theconvergence of some algorithms. All performances are supported by numerical experiments
A aproximação tensorial de baixo posto desempenha nestes últimos anos um papel importanteem várias aplicações, tais como separação cega de fontes, telecomunicações, processamentode antenas, neurociênca, quimiometria e exploração de dados. A decomposição tensorial canônicaé bastante atrativa se comparada às técnicas matriciais clássicas, principalmente na identificação desistemas. Nesta tese, propõe-se (i) vários algoritmos para calcular alguns tipos de aproximação deposto: aproximação de posto-1 iterativa e em um número finito de operações, a aproximação pordeflação iterativa, e a decomposição tensorial ortogonal; (ii) uma nova estratégia para resolver sistemasquadráticos em várias variáveis, em que tal problema pode ser reduzido à melhor aproximaçãode posto-1 de um tensor; (iii) resultados teóricos visando estudar o desempenho ou demonstrar aconvergência de alguns algoritmos. Todas os desempenhos são ilustrados através de simulações computacionais
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Marmin, Arthur. „Rational models optimized exactly for solving signal processing problems“. Electronic Thesis or Diss., université Paris-Saclay, 2020. http://www.theses.fr/2020UPASG017.

Der volle Inhalt der Quelle
Annotation:
Une vaste classe de problèmes d'optimisation non convexes est celle de l'optimisation rationnelle. Cette dernière apparaît naturellement dans de nombreux domaines tels que le traitement du signal ou le génie des procédés. Toutefois, trouver les optima globaux pour ces problèmes est difficile. Une approche récente, appelée la hiérarchie de Lasserre, fournit néanmoins une suite de problèmes convexes assurée de converger vers le minimum global. Cependant, cette approche représente un défi calculatoire du fait de la très grande dimension de ses relaxations. Dans cette thèse, nous abordons ce défi pour divers problèmes de traitement du signal.Dans un premier temps, nous formulons la reconstruction de signaux parcimonieux en un problème d'optimisation rationnelle. Nous montrons alors que ce dernier possède une structure que nous exploitons afin de réduire la complexité des relaxations associées. Nous pouvons ainsi résoudre plusieurs problèmes pratiques comme la restoration de signaux de chromatographie. Nous étendons également notre méthode à la restoration de signaux dans différents contextes en proposant plusieurs modèles de bruit et de signal. Dans une deuxième partie, nous étudions les relaxations convexes générées par nos problèmes et qui se présentent sous la forme de problèmes d'optimisation semi-définie positive de très grandes dimensions. Nous considérons plusieurs algorithmes basés sur les opérateurs proximaux pour les résoudre efficacement.La dernière partie de cette thèse est consacrée au lien entre les problèmes d'optimisation polynomiaux et la décomposition de tenseurs symétriques. En effet, ces derniers peuvent être tous deux vus comme une instance du problème des moments. Nous proposons ainsi une méthode de détection de rang et de décomposition pour les tenseurs symétriques basée sur les outils connus en optimisation polynomiale. Parallèlement, nous proposons une technique d'extraction robuste des solutions d'un problème d'optimisation poylnomiale basée sur les algorithmes de décomposition de tenseurs. Ces méthodes sont illustrées sur des problèmes de traitement du signal
A wide class of nonconvex optimization problem is represented by rational optimization problems. The latter appear naturally in many areas such as signal processing or chemical engineering. However, finding the global optima of such problems is intricate. A recent approach called Lasserre's hierarchy provides a sequence of convex problems that has the theoretical guarantee to converge to the global optima. Nevertheless, this approach is computationally challenging due to the high dimensions of the convex relaxations. In this thesis, we tackle this challenge for various signal processing problems.First, we formulate the reconstruction of sparse signals as a rational optimization problem. We show that the latter has a structure that we wan exploit in order to reduce the complexity of the associated relaxations. We thus solve several practical problems such as the reconstruction of chromatography signals. We also extend our method to the reconstruction of various types of signal corrupted by different noise models.In a second part, we study the convex relaxations generated by our problems which take the form of high-dimensional semi-definite programming problems. We consider several algorithms mainly based on proximal operators to solve those high-dimensional problems efficiently.The last part of this thesis is dedicated to the link between polynomial optimization and symmetric tensor decomposition. Indeed, they both can be seen as an instance of the moment problem. We thereby propose a detection method as well as a decomposition algorithm for symmetric tensors based on the tools used in polynomial optimization. In parallel, we suggest a robust extraction method for polynomial optimization based on tensor decomposition algorithms. Those methods are illustrated on signal processing problems
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Han, Xu. „Robust low-rank tensor approximations using group sparsity“. Thesis, Rennes 1, 2019. http://www.theses.fr/2019REN1S001/document.

Der volle Inhalt der Quelle
Annotation:
Le développement de méthodes de décomposition de tableaux multi-dimensionnels suscite toujours autant d'attention, notamment d'un point de vue applicatif. La plupart des algorithmes, de décompositions tensorielles, existants requièrent une estimation du rang du tenseur et sont sensibles à une surestimation de ce dernier. Toutefois, une telle estimation peut être difficile par exemple pour des rapports signal à bruit faibles. D'un autre côté, estimer simultanément le rang et les matrices de facteurs du tenseur ou du tenseur cœur n'est pas tâche facile tant les problèmes de minimisation de rang sont généralement NP-difficiles. Plusieurs travaux existants proposent d'utiliser la norme nucléaire afin de servir d'enveloppe convexe de la fonction de rang. Cependant, la minimisation de la norme nucléaire engendre généralement un coût de calcul prohibitif pour l'analyse de données de grande taille. Dans cette thèse, nous nous sommes donc intéressés à l'approximation d'un tenseur bruité par un tenseur de rang faible. Plus précisément, nous avons étudié trois modèles de décomposition tensorielle, le modèle CPD (Canonical Polyadic Decomposition), le modèle BTD (Block Term Decomposition) et le modèle MTD (Multilinear Tensor Decomposition). Pour chacun de ces modèles, nous avons proposé une nouvelle méthode d'estimation de rang utilisant une métrique moins coûteuse exploitant la parcimonie de groupe. Ces méthodes de décomposition comportent toutes deux étapes : une étape d'estimation de rang, et une étape d'estimation des matrices de facteurs exploitant le rang estimé. Des simulations sur données simulées et sur données réelles montrent que nos méthodes présentent toutes une plus grande robustesse à la présence de bruit que les approches classiques
Last decades, tensor decompositions have gained in popularity in several application domains. Most of the existing tensor decomposition methods require an estimating of the tensor rank in a preprocessing step to guarantee an outstanding decomposition results. Unfortunately, learning the exact rank of the tensor can be difficult in some particular cases, such as for low signal to noise ratio values. The objective of this thesis is to compute the best low-rank tensor approximation by a joint estimation of the rank and the loading matrices from the noisy tensor. Based on the low-rank property and an over estimation of the loading matrices or the core tensor, this joint estimation problem is solved by promoting group sparsity of over-estimated loading matrices and/or the core tensor. More particularly, three new methods are proposed to achieve efficient low rank estimation for three different tensors decomposition models, namely Canonical Polyadic Decomposition (CPD), Block Term Decomposition (BTD) and Multilinear Tensor Decomposition (MTD). All the proposed methods consist of two steps: the first step is designed to estimate the rank, and the second step uses the estimated rank to compute accurately the loading matrices. Numerical simulations with noisy tensor and results on real data the show effectiveness of the proposed methods compared to the state-of-the-art methods
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Ionita, Razvan-Adrian. „Conception de circuits à signaux mixtes pour des communications portables à basse tension et haute fréquence en CMOS bulk et SOI“. Evry-Val d'Essonne, 2005. http://www.theses.fr/2005EVRY0028.

Der volle Inhalt der Quelle
Annotation:
Deep sub-micron CMOS technologies allow a very good integration of mocroelectronics circuits, as well as an increase of the implemented functions and speed of computations. At the same time, the problems created by parasitic effects and process fluctuations are an issue to be taken into consideration. New CMOS processes have been developed such as triple-well and silicon-on-insulator (SOI); they offer the freedom to isolate functional blocks in integrated circuits in separate islands, and therefore to have better control of the power consumption and of the circuit performance. Due to these technologies it is possible to tune some intrinsic parameters of the transistors, like threshold voltage or leakage current, by controlling the bulk/body of MOS transistors. A method for the threshold voltage control in deep-submicron triple-well 120 nm CMOS technology is described in this work; this process gives full access to the bulk of both transistors tyupes, NMOS and PMOS. This method can also be used for circuits implemented in PD-SOI processes. Two functionnal blocks, an operational amplifier and a threshold voltage mismatch VT monitor, have been developed for this application. This tchnique of threshold voltage control by body-biasing can be also used to diminish the parasitic effects caused by technology fluctuations on transistor parameters. RF circuits represent the second subjects of this research. Two frequency dividers have been realized in silicon-on-insulator (SOI) and bulk 90 nm CMOS; they reach an input frequency of 34 GHz and are supplied from a 1 V voltage source. Using the same method of VT control by body-biasing the circuit input sensitivity and the maximum input frequency can be tuned. The same approach has been applied in the case if a high-frequency quadrature voltage-controlled oscillator (VCO) where the transistor bulk is used as an external input for changing not only the transistors threshold voltage but also the oscillation frequency.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Poisson, Olivier. „Nouvelles techniques du traitement du signal et d'identification pour l'analyse des perturbations de la tension“. Paris 6, 1998. http://www.theses.fr/1998PA066595.

Der volle Inhalt der Quelle
Annotation:
Cette these est consacree a l'application des nouvelles techniques du traitement du signal et d'identification pour l'analyse des perturbations de la tension. L'analyse de la qualite de la tension implique, entre autres, la mesure des creux de tensions, des phenomenes transitoires, des surtensions, des distorsions harmoniques et des variations rapides de la tension. A chaque perturbation correspond une methode de mesure specifique dont la precision influence la fiabilite des resultats. Les nouvelles techniques de traitement du signal - transformees en ondelettes, analyses multiresolution et distributions d'energie - presentent de fortes potentialites d'analyse. Cette etude expose les proprietes des representations temps-frequence fournies par chacune de ces methodes, ainsi que les liens entre les differents formalismes. Leur application a des perturbations caracteristiques de la tension determine la methode la plus appropriee pour ce type d'analyse. Un algorithme de detection et de caracterisation des perturbations, base sur une transformee en ondelettes continues, est developpe. La robustesse de cette procedure d'identification est evaluee sur des simulations. Puis, cette procedure est validee experimentalement par comparaison - pour une base de plus de 1500 enregistrements provenant des reseaux htb, hta et bt - des performances de la transformee en ondelettes avec celles de methodes classiques. Les resultats mettent en evidence les bonnes performances de la transformee en ondelettes pour l'analyse des perturbations. Un logiciel et une interface homme/machine facilitent l'utilisation de cette methode pour le depouillement de campagnes de mesure. Un prototype d'appareil de mesure detectant les creux de tension, surtensions et phenomenes transitoires est egalement mis au point.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

André, Rémi. „Algorithmes de diagonalisation conjointe par similitude pour la décomposition canonique polyadique de tenseurs : applications en séparation de sources“. Electronic Thesis or Diss., Toulon, 2018. http://www.theses.fr/2018TOUL0011.

Der volle Inhalt der Quelle
Annotation:
Cette thèse présente de nouveaux algorithmes de diagonalisation conjointe par similitude. Cesalgorithmes permettent, entre autres, de résoudre le problème de décomposition canonique polyadiquede tenseurs. Cette décomposition est particulièrement utilisée dans les problèmes deséparation de sources. L’utilisation de la diagonalisation conjointe par similitude permet de paliercertains problèmes dont les autres types de méthode de décomposition canonique polyadiquesouffrent, tels que le taux de convergence, la sensibilité à la surestimation du nombre de facteurset la sensibilité aux facteurs corrélés. Les algorithmes de diagonalisation conjointe par similitudetraitant des données complexes donnent soit de bons résultats lorsque le niveau de bruit est faible,soit sont plus robustes au bruit mais ont un coût calcul élevé. Nous proposons donc en premierlieu des algorithmes de diagonalisation conjointe par similitude traitant les données réelles etcomplexes de la même manière. Par ailleurs, dans plusieurs applications, les matrices facteursde la décomposition canonique polyadique contiennent des éléments exclusivement non-négatifs.Prendre en compte cette contrainte de non-négativité permet de rendre les algorithmes de décompositioncanonique polyadique plus robustes à la surestimation du nombre de facteurs ou lorsqueces derniers ont un haut degré de corrélation. Nous proposons donc aussi des algorithmes dediagonalisation conjointe par similitude exploitant cette contrainte. Les simulations numériquesproposées montrent que le premier type d’algorithmes développés améliore l’estimation des paramètresinconnus et diminue le coût de calcul. Les simulations numériques montrent aussi queles algorithmes avec contrainte de non-négativité améliorent l’estimation des matrices facteurslorsque leurs colonnes ont un haut degré de corrélation. Enfin, nos résultats sont validés à traversdeux applications de séparation de sources en télécommunications numériques et en spectroscopiede fluorescence
This thesis introduces new joint eigenvalue decomposition algorithms. These algorithms allowamongst others to solve the canonical polyadic decomposition problem. This decomposition iswidely used for blind source separation. Using the joint eigenvalue decomposition to solve thecanonical polyadic decomposition problem allows to avoid some problems whose the others canonicalpolyadic decomposition algorithms generally suffer, such as the convergence rate, theoverfactoring sensibility and the correlated factors sensibility. The joint eigenvalue decompositionalgorithms dealing with complex data give either good results when the noise power is low, orthey are robust to the noise power but have a high numerical cost. Therefore, we first proposealgorithms equally dealing with real and complex. Moreover, in some applications, factor matricesof the canonical polyadic decomposition contain only nonnegative values. Taking this constraintinto account makes the algorithms more robust to the overfactoring and to the correlated factors.Therefore, we also offer joint eigenvalue decomposition algorithms taking advantage of thisnonnegativity constraint. Suggested numerical simulations show that the first developed algorithmsimprove the estimation accuracy and reduce the numerical cost in the case of complexdata. Our numerical simulations also highlight the fact that our nonnegative joint eigenvaluedecomposition algorithms improve the factor matrices estimation when their columns have ahigh correlation degree. Eventually, we successfully applied our algorithms to two blind sourceseparation problems : one concerning numerical telecommunications and the other concerningfluorescence spectroscopy
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

André, Rémi. „Algorithmes de diagonalisation conjointe par similitude pour la décomposition canonique polyadique de tenseurs : applications en séparation de sources“. Thesis, Toulon, 2018. http://www.theses.fr/2018TOUL0011/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse présente de nouveaux algorithmes de diagonalisation conjointe par similitude. Cesalgorithmes permettent, entre autres, de résoudre le problème de décomposition canonique polyadiquede tenseurs. Cette décomposition est particulièrement utilisée dans les problèmes deséparation de sources. L’utilisation de la diagonalisation conjointe par similitude permet de paliercertains problèmes dont les autres types de méthode de décomposition canonique polyadiquesouffrent, tels que le taux de convergence, la sensibilité à la surestimation du nombre de facteurset la sensibilité aux facteurs corrélés. Les algorithmes de diagonalisation conjointe par similitudetraitant des données complexes donnent soit de bons résultats lorsque le niveau de bruit est faible,soit sont plus robustes au bruit mais ont un coût calcul élevé. Nous proposons donc en premierlieu des algorithmes de diagonalisation conjointe par similitude traitant les données réelles etcomplexes de la même manière. Par ailleurs, dans plusieurs applications, les matrices facteursde la décomposition canonique polyadique contiennent des éléments exclusivement non-négatifs.Prendre en compte cette contrainte de non-négativité permet de rendre les algorithmes de décompositioncanonique polyadique plus robustes à la surestimation du nombre de facteurs ou lorsqueces derniers ont un haut degré de corrélation. Nous proposons donc aussi des algorithmes dediagonalisation conjointe par similitude exploitant cette contrainte. Les simulations numériquesproposées montrent que le premier type d’algorithmes développés améliore l’estimation des paramètresinconnus et diminue le coût de calcul. Les simulations numériques montrent aussi queles algorithmes avec contrainte de non-négativité améliorent l’estimation des matrices facteurslorsque leurs colonnes ont un haut degré de corrélation. Enfin, nos résultats sont validés à traversdeux applications de séparation de sources en télécommunications numériques et en spectroscopiede fluorescence
This thesis introduces new joint eigenvalue decomposition algorithms. These algorithms allowamongst others to solve the canonical polyadic decomposition problem. This decomposition iswidely used for blind source separation. Using the joint eigenvalue decomposition to solve thecanonical polyadic decomposition problem allows to avoid some problems whose the others canonicalpolyadic decomposition algorithms generally suffer, such as the convergence rate, theoverfactoring sensibility and the correlated factors sensibility. The joint eigenvalue decompositionalgorithms dealing with complex data give either good results when the noise power is low, orthey are robust to the noise power but have a high numerical cost. Therefore, we first proposealgorithms equally dealing with real and complex. Moreover, in some applications, factor matricesof the canonical polyadic decomposition contain only nonnegative values. Taking this constraintinto account makes the algorithms more robust to the overfactoring and to the correlated factors.Therefore, we also offer joint eigenvalue decomposition algorithms taking advantage of thisnonnegativity constraint. Suggested numerical simulations show that the first developed algorithmsimprove the estimation accuracy and reduce the numerical cost in the case of complexdata. Our numerical simulations also highlight the fact that our nonnegative joint eigenvaluedecomposition algorithms improve the factor matrices estimation when their columns have ahigh correlation degree. Eventually, we successfully applied our algorithms to two blind sourceseparation problems : one concerning numerical telecommunications and the other concerningfluorescence spectroscopy
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Boudehane, Abdelhak. „Structured-joint factor estimation for high-order and large-scale tensors“. Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG085.

Der volle Inhalt der Quelle
Annotation:
Les données et les signaux multidimensionnels occupent une place importante dans les applications modernes. La décomposition tensorielle est un outil mathématique puissant permettant de modéliser les données et les signaux multidimensionnels, tout en préservant les relations interdimensionnelles. Le modèle Canonique Polyadique (CP), un modèle de décomposition tensorielle largement utilisé, est unique à des indéterminations d'échelle et de permutation près. Cette propriété facilite l'interprétation physique, ce qui a encouragé l'intégration du modèle CP dans divers contextes. Le défi auquel est confrontée la modélisation tensorielle est la complexité de calcul et l'espace mémoire requis. Les tenseurs d'ordre élevé représentent un problème délicat, car la complexité de calcul et l'espace mémoire requis augmentent de façon exponentielle en fonction de l'ordre. Les tenseurs de grandes tailles (lorsque le nombre de variables selon une ou plusieurs dimensions du tenseur est important) ajoute un fardeau supplémentaire. La théorie des réseaux de tenseurs (Tensor Networks - TN) est une piste prometteuse, permettant de réduire les problèmes d'ordre élevé en un ensemble de problèmes d'ordre réduit. En particulier, le modèle Tensor-Train (TT), l'un des modèles TN, est un terrain intéressant pour la réduction de la dimensionnalité. Cependant, représenter un modèle CP par une représentation TT est extrêmement coûteux dans le cas des tenseurs de grande taille, car il nécessite la matricisation complète du tenseur, ce qui peut dépasser la capacité mémoire.Dans cette thèse, nous étudions la réduction de la dimensionnalité dans le contexte de la décomposition tensorielle sous-contrainte de sparsité et la décomposition couplée d'ordre élevé. Sur la base des résultats du schéma JIRAFE (Joint dImensionality Reduction And Factor rEtrieval), nous utilisons la flexibilité du modèle TT pour intégrer les contraintes physiques et les connaissances préalables sur les facteurs, dans le but de réduire le temps de calcul. Pour les problèmes de grandes tailles, nous proposons un schéma permettant de paralléliser et de randomiser les différentes étapes, i.e., la réduction de dimensionnalité et l'estimation des facteurs du modèle CP. Nous proposons également une stratégie basée sur la grille de tenseur, permettant un traitement entièrement parallèle pour le cas des très grandes tailles et de la décomposition tensorielle dynamique
Multidimensional data sets and signals occupy an important place in recent application fields. Tensor decomposition represents a powerful mathematical tool for modeling multidimensional data and signals, without losing the interdimensional relations. The Canonical Polyadic (CP) model, a widely used tensor decomposition model, is unique up to scale and permutation indeterminacies. This property facilitates the physical interpretation, which has led the integration of the CP model in various contexts. The main challenge facing the tensor modeling is the computational complexity and memory requirements. High-order tensors represent a important issue, since the computational complexity and the required memory space increase exponentially with respect to the order. Another issue is the size of the tensor in the case of large-scale problems, which adds another burden to the complexity and memory. Tensor Networks (TN) theory is a promising framework, allowing to reduce high-order problems into a set of lower order problems. In particular, the Tensor-Train (TT) model, one of the TN models, is an interesting ground for dimensionality reduction. However, respresenting a CP tensor using a TT model, is extremely expensive in the case of large-scale tensors, since it requires full matricization of the tensor, which may exceed the memory capacity.In this thesis, we study the dimensionality reduction in the context of sparse-coding and high-order coupled tensor decomposition. Based on the results of Joint dImensionality Reduction And Factor rEtrieval (JIRAFE) scheme, we use the flexibility of the TT model to integrate the physical driven constraints and the prior knowledge on the factors, with the aim to reduce the computation time. For large-scale problems, we propose a scheme allowing to parallelize and randomize the different steps, i.e., the dimensionality reduction and the factor estimation. We also propose a grid-based strategy, allowing a full parallel processing for the case of very large scales and dynamic tensor decomposition
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Cipriano, Francesco. „Recherche de matière noire scalaire légère avec des détecteurs d'ondes gravitationnelles“. Thesis, Université Côte d'Azur, 2020. http://www.theses.fr/2020COAZ4040.

Der volle Inhalt der Quelle
Annotation:
L’existence de la matière noire et la vérité sur sa nature a été l’une des plus grandes énigmes du XXe siècle et elle l'est encore aujourd’hui. Au cours des dernières décennies, plusieurs hypothèses, telles que le modèle WIMPs, ont été proposées pour résoudre une telle énigme. Aucune d’entre elles n’a pour l'instant réussi. Dans ce travail de thèse, nous nous concentrerons sur un autre modèle très attrayant dans lequel la matière noire pourrait être décrite avec succès par un champ scalaire ultra-léger. L’origine de ce champ peut être recherchée dans la limite de basse énergie de l’une des théories d’unification les plus prometteuses : la théorie des cordes.Dans ce travail, nous montrons comment un tel champ scalaire, s’il est présent, interagit avec la matière standard et en particulier avec l’appareil optique qui est au cœur des antennes d’ondes gravitationnelles. Nous evaluons et nous discutons le signal produit par cette interaction à travers différentes approches. Des solutions approximatives et exactes sont ensuite obtenues. Une attention particulière est accordée au terme du deuxième ordre de l’expansion en série approximative du signal. On trouve, en effet, que sa contribution finit par ne pas être négligeable lorsque l'on tient compte des dimensions géométriques spécifiques et de la gamme de fréquence des détecteurs d’ondes gravitationnelles comme Advanced LIGO et Advanced Virgo. En tenant compte des travaux récents, nous supposons la présence d’un flux de matière noire voisin du système solaire et nous montrons son effet sur le signal.Nous proposons et discutons une analyse statistique hiérarchique visant à la détection du signal. En cas de non-détection, une courbe limite pour le paramètre de couplage dg* est dérivée. Cette courbe est ensuite analysée en détail montrant l’ampleur de la contribution des termes de premier ordre et de deuxième ordre de l’expansion en série de signaux. Nous analysons la modification de la courbe de contrainte en raison de la variation de la fraction de matière noire locale appartenant au flux. Nous montrons enfin comment la courbe de contrainte répond aux variations du paramètre de recherche. Une discussion sur des choix optimaux est proposée
The existence of the dark matter and the truth beyond its nature has been one of the greatest puzzles of the twentieth century and still it is nowadays. In the last decades several hypotheses, such as the WIMPs model, have been proposed to solve such puzzle but none of them has been able so far to succeed.In this thesis work we will focus on another very appealing model in which dark matter is successfully described by an ultra-light scalar field whose origin can be sought in the low-energy limit of one of the most promising unification theories: the String Theory.In this work we show how such scalar field, if present, interacts with standard matter and in particular with the optical apparatus that is at the core of gravitational waves antennas. We derive and discuss the signal produced by this interaction through different approaches deriving both approximated and exact solutions. Special attention is paid to the second-order term of the signal approximate series expansion whose contribution ends up to be not negligible when one factors in the specific geometrical dimensions and frequency range of gravitational waves detectors like Advanced LIGO and Advanced Virgo.A suggested by recent surveys we assume presence of a dark matter stream in the local neighborhood of the solar system and show its effect on the signal.We then propose and discuss a hierarchical statistical analysis aimed to the signal detection. In case of no detection a limit curve for the coupling parameter dg* is derived. Such curve is then analyzed in detail showing the magnitude of the contribution of the first-order and second-order terms of the signal series expansion. We analyze the modification of the constraint curve due to the variation of the fraction of local dark matter belonging to the stream. We show finally how the constraint curve responds to variations of the search parameter and discuss the optimal choices
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Zniyed, Yassine. „Breaking the curse of dimensionality based on tensor train : models and algorithms“. Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS330.

Der volle Inhalt der Quelle
Annotation:
Le traitement des données massives, communément connu sous l’appellation “Big Data”, constitue l’un des principaux défis scientifiques de la communauté STIC.Plusieurs domaines, à savoir économique, industriel ou scientifique, produisent des données hétérogènes acquises selon des protocoles technologiques multi-modales. Traiter indépendamment chaque ensemble de données mesurées est clairement une approche réductrice et insatisfaisante. En faisant cela, des “relations cachées” ou des inter-corrélations entre les données peuvent être totalement ignorées.Les représentations tensorielles ont reçu une attention particulière dans ce sens en raison de leur capacité à extraire de données hétérogènes et volumineuses une information physiquement interprétable confinée à un sous-espace de dimension réduite. Dans ce cas, les données peuvent être organisées selon un tableau à D dimensions, aussi appelé tenseur d’ordre D.Dans ce contexte, le but de ce travail et que certaines propriétés soient présentes : (i) avoir des algorithmes de factorisation stables (ne souffrant pas de probème de convergence), (ii) avoir un faible coût de stockage (c’est-à-dire que le nombre de paramètres libres doit être linéaire en D), et (iii) avoir un formalisme sous forme de graphe permettant une visualisation mentale simple mais rigoureuse des décompositions tensorielles de tenseurs d’ordre élevé, soit pour D > 3.Par conséquent, nous nous appuyons sur la décomposition en train de tenseurs (TT) pour élaborer de nouveaux algorithmes de factorisation TT, et des nouvelles équivalences en termes de modélisation tensorielle, permettant une nouvelle stratégie de réduction de dimensionnalité et d'optimisation de critère des moindres carrés couplés pour l'estimation des paramètres d'intérêts nommé JIRAFE.Ces travaux d'ordre méthodologique ont eu des applications dans le contexte de l'analyse spectrale multidimensionelle et des systèmes de télécommunications à relais
Massive and heterogeneous data processing and analysis have been clearly identified by the scientific community as key problems in several application areas. It was popularized under the generic terms of "data science" or "big data". Processing large volumes of data, extracting their hidden patterns, while preforming prediction and inference tasks has become crucial in economy, industry and science.Treating independently each set of measured data is clearly a reductiveapproach. By doing that, "hidden relationships" or inter-correlations between thedatasets may be totally missed. Tensor decompositions have received a particular attention recently due to their capability to handle a variety of mining tasks applied to massive datasets, being a pertinent framework taking into account the heterogeneity and multi-modality of the data. In this case, data can be arranged as a D-dimensional array, also referred to as a D-order tensor.In this context, the purpose of this work is that the following properties are present: (i) having a stable factorization algorithms (not suffering from convergence problems), (ii) having a low storage cost (i.e., the number of free parameters must be linear in D), and (iii) having a formalism in the form of a graph allowing a simple but rigorous mental visualization of tensor decompositions of tensors of high order, i.e., for D> 3.Therefore, we rely on the tensor train decomposition (TT) to develop new TT factorization algorithms, and new equivalences in terms of tensor modeling, allowing a new strategy of dimensionality reduction and criterion optimization of coupled least squares for the estimation of parameters named JIRAFE.This methodological work has had applications in the context of multidimensional spectral analysis and relay telecommunications systems
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Boizard, Mélanie. „Développement et études de performances de nouveaux détecteurs/filtres rang faible dans des configurations RADAR multidimensionnelles“. Electronic Thesis or Diss., Cachan, Ecole normale supérieure, 2013. http://www.theses.fr/2013DENS0063.

Der volle Inhalt der Quelle
Annotation:
Dans le cadre du traitement statistique du signal, la plupart des algorithmes couramment utilisés reposent sur l'utilisation de la matrice de covariance des signaux étudiés. En pratique, ce sont les versions adaptatives de ces traitements, obtenues en estimant la matrice de covariance à l'aide d'échantillons du signal, qui sont utilisés. Ces algorithmes présentent un inconvénient : ils peuvent nécessiter un nombre d'échantillons important pour obtenir de bons résultats. Lorsque la matrice de covariance possède une structure rang faible, le signal peut alors être décomposé en deux sous-espaces orthogonaux. Les projecteurs orthogonaux sur chacun de ces sous espaces peuvent alors être construits, permettant de développer des méthodes dites rang faible. Les versions adaptatives de ces méthodes atteignent des performances équivalentes à celles des traitements classiques tout en réduisant significativement le nombre d'échantillons nécessaire. Par ailleurs, l'accroissement de la taille des données ne fait que renforcer l'intérêt de ce type de méthode. Cependant, cet accroissement s'accompagne souvent d'un accroissement du nombre de dimensions du système. Deux types d'approches peuvent être envisagées pour traiter ces données : les méthodes vectorielles et les méthodes tensorielles. Les méthodes vectorielles consistent à mettre les données sous forme de vecteurs pour ensuite appliquer les traitements classiques. Cependant, lors de la mise sous forme de vecteur, la structure des données est perdue ce qui peut entraîner une dégradation des performances et/ou un manque de robustesse. Les méthodes tensorielles permettent d'éviter cet écueil. Dans ce cas, la structure est préservée en mettant les données sous forme de tenseurs, qui peuvent ensuite être traités à l'aide de l'algèbre multilinéaire. Ces méthodes sont plus complexes à utiliser puisqu'elles nécessitent d'adapter les algorithmes classiques à ce nouveau contexte. En particulier, l'extension des méthodes rang faible au cas tensoriel nécessite l'utilisation d'une décomposition tensorielle orthogonale. Le but de cette thèse est de proposer et d'étudier des algorithmes rang faible pour des modèles tensoriels. Les contributions de cette thèse se concentrent autour de trois axes. Un premier aspect concerne le calcul des performances théoriques d'un algorithme MUSIC tensoriel basé sur la Higher Order Singular Value Decomposition (HOSVD) et appliqué à un modèle de sources polarisées. La deuxième partie concerne le développement de filtres rang faible et de détecteurs rang faible dans un contexte tensoriel. Ce travail s'appuie sur une nouvelle définition de tenseur rang faible et sur une nouvelle décomposition tensorielle associée : l'Alternative Unfolding HOSVD (AU-HOSVD). La dernière partie de ce travail illustre l'intérêt de l'approche tensorielle basée sur l'AU-HOSVD, en appliquant ces algorithmes à configuration radar particulière: le Traitement Spatio-Temporel Adaptatif ou Space-Time Adaptive Process (STAP)
Most of statistical signal processing algorithms, are based on the use of signal covariance matrix. In practical cases this matrix is unknown and is estimated from samples. The adaptive versions of the algorithms can then be applied, replacing the actual covariance matrix by its estimate. These algorithms present a major drawback: they require a large number of samples in order to obtain good results. If the covariance matrix is low-rank structured, its eigenbasis may be separated in two orthogonal subspaces. Thanks to the LR approximation, orthogonal projectors onto theses subspaces may be used instead of the noise CM in processes, leading to low-rank algorithms. The adaptive versions of these algorithms achieve similar performance to classic classic ones with less samples. Furthermore, the current increase in the size of the data strengthens the relevance of this type of method. However, this increase may often be associated with an increase of the dimension of the system, leading to multidimensional samples. Such multidimensional data may be processed by two approaches: the vectorial one and the tensorial one. The vectorial approach consists in unfolding the data into vectors and applying the traditional algorithms. These operations are not lossless since they involve a loss of structure. Several issues may arise from this loss: decrease of performance and/or lack of robustness. The tensorial approach relies on multilinear algebra, which provides a good framework to exploit these data and preserve their structure information. In this context, data are represented as multidimensional arrays called tensor. Nevertheless, generalizing vectorial-based algorithms to the multilinear algebra framework is not a trivial task. In particular, the extension of low-rank algorithm to tensor context implies to choose a tensor decomposition in order to estimate the signal and noise subspaces. The purpose of this thesis is to derive and study tensor low-rank algorithms. This work is divided into three parts. The first part deals with the derivation of theoretical performance of a tensor MUSIC algorithm based on Higher Order Singular Value Decomposition (HOSVD) and its application to a polarized source model. The second part concerns the derivation of tensor low-rank filters and detectors in a general low-rank tensor context. This work is based on a new definition of tensor rank and a new orthogonal tensor decomposition : the Alternative Unfolding HOSVD (AU-HOSVD). In the last part, these algorithms are applied to a particular radar configuration : the Space-Time Adaptive Process (STAP). This application illustrates the interest of tensor approach and algorithms based on AU-HOSVD
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Loudot, Serge. „Filtrage actif des réseaux moyenne tension : association d'un convertisseur multicellulaire et d'un circuit passif“. Toulouse, INPT, 1997. http://www.theses.fr/1997INPT089H.

Der volle Inhalt der Quelle
Annotation:
Cette these traite de la reduction des courants harmoniques dans les reseaux moyenne tension par filtrage actif. Apres un etat de l'art sur les effets connus de la pollution harmonique et les solutions deja existantes (filtrage passif, augmentation de l'immunite des materiels, augmentation de la puissance des reseaux. . . ), l'interet du filtrage mixte actif-passif est presente. De par sa modularite et ses performances (forte puissance, qualite de la tension delivree), le convertisseur multicellulaire serie s'impose comme la topologie la mieux adaptee pour assurer la partie active d'un filtre mixte. Une etude theorique du fonctionnement de l'ensemble et de sa commande pour un reseau 20 kv sont valides par simulation. Sur ce principe, une maquette de 40kva fonctionnant sous 6,6 kv et commandee par un systeme numerique (dspace) base sur un dsp estrealisee. Les resultats du fonctionnement en filtre actif basse tension du convertisseur multicellulaire seul sont presentes.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Rigot, David. „Contribution à l'étude de l'érosion des électrodes de torches à plasma d'arc pour la projection par suivi en ligne des signaux de tension et de son“. Limoges, 2003. http://aurore.unilim.fr/theses/nxfile/default/76eed5c7-37ed-4a93-a31a-2f2c4c44acdb/blobholder:0/2003LIMO0053.pdf.

Der volle Inhalt der Quelle
Annotation:
En projection thermique, les conséquences de l'érosion des électrodes d'une torche plasma peuvent être dommageables pour un dépôt en cours de réalisation (écaillage, mauvaise qualité, etc. ). Ce travail de thèse a consisté à suivre dans le temps de fonctionnement de la torche, depuis la mise en place d'électrodes neuves, jusqu'à leur remplacement, l'évolution de nombreux paramètres liés aux signaux émis par la torche (tension aux bornes des électrodes et signal acoustique) et à choisir ceux qui étaient les plus pertinents pour rendre compte de l'érosion. Les trois paramètres retenus sont la tension moyenne et l'écart quadratique moyen du signal de tension ainsi que la fréquence du pic principal du spectre du signal acoustique. Cette étude a été menée avec un logiciel d'acquisition et de traitement des données que nous avons développé sous Labview, dont l'algorithme est désormais intégré dans un module autonome construit autour d'un DSP (Digital Signal Processor) qui affiche suivant la comparaison avec deux seuils, l'état des trois paramètres. Un modèle thermique de l'érosion est également proposé
In plasma spraying, the consequences of the wear of the electrodes of d. C. Plasma torches may be catastrophic for a coating (bad quality, peeling, etc. ). This paper presents a new method that has consisted in monitoring along the working hours of the torch, starting with brand new electrodes ("initial time"), till they are replaced, the evolution of many parameters in relation with the signals emitted by the torch (voltage at the edges of the electrodes and sound). This study has allowed choosing those parameters that were the more relevant for giving an account of the erosion. They are the mean voltage, the root mean square value of the voltage, and the frequency of the main peak in the spectrum of the sound and especially the evolution of theirs ratio relatively to the values obtained at the initial time. This study was performed with a software, developed with Labview on a PC, now replaced by an electronic device. The latter, designed with the DSP (Digital Signal Processor) technology, displays, on light indicators, the state of the three parameters according to their comparison with two thresholds. A thermal simulation of the erosion is also proposed
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Xu, Yanli. „Une mesure de non-stationnarité générale : Application en traitement d'images et du signaux biomédicaux“. Thesis, Lyon, INSA, 2013. http://www.theses.fr/2013ISAL0090/document.

Der volle Inhalt der Quelle
Annotation:
La variation des intensités est souvent exploitée comme une propriété importante du signal ou de l’image par les algorithmes de traitement. La grandeur permettant de représenter et de quantifier cette variation d’intensité est appelée une « mesure de changement », qui est couramment employée dans les méthodes de détection de ruptures d’un signal, dans la détection des contours d’une image, dans les modèles de segmentation basés sur les contours, et dans des méthodes de lissage d’images avec préservation de discontinuités. Dans le traitement des images et signaux biomédicaux, les mesures de changement existantes fournissent des résultats peu précis lorsque le signal ou l’image présentent un fort niveau de bruit ou un fort caractère aléatoire, ce qui conduit à des artefacts indésirables dans le résultat des méthodes basées sur la mesure de changement. D’autre part, de nouvelles techniques d'imagerie médicale produisent de nouveaux types de données dites à valeurs multiples, qui nécessitent le développement de mesures de changement adaptées. Mesurer le changement dans des données de tenseur pose alors de nouveaux problèmes. Dans ce contexte, une mesure de changement, appelée « mesure de non-stationnarité (NSM) », est améliorée et étendue pour permettre de mesurer la non-stationnarité de signaux multidimensionnels quelconques (scalaire, vectoriel, tensoriel) par rapport à un paramètre statistique, et en fait ainsi une mesure générique et robuste. Une méthode de détection de changements basée sur la NSM et une méthode de détection de contours basée sur la NSM sont respectivement proposées et appliquées aux signaux ECG et EEG, ainsi qu’a des images cardiaques pondérées en diffusion (DW). Les résultats expérimentaux montrent que les méthodes de détection basées sur la NSM permettent de fournir la position précise des points de changement et des contours des structures tout en réduisant efficacement les fausses détections. Un modèle de contour actif géométrique basé sur la NSM (NSM-GAC) est proposé et appliqué pour segmenter des images échographiques de la carotide. Les résultats de segmentation montrent que le modèle NSM-GAC permet d’obtenir de meilleurs résultats comparativement aux outils existants avec moins d'itérations et de temps de calcul, et de réduire les faux contours et les ponts. Enfin, et plus important encore, une nouvelle approche de lissage préservant les caractéristiques locales, appelée filtrage adaptatif de non-stationnarité (NAF), est proposée et appliquée pour améliorer les images DW cardiaques. Les résultats expérimentaux montrent que la méthode proposée peut atteindre un meilleur compromis entre le lissage des régions homogènes et la préservation des caractéristiques désirées telles que les bords ou frontières, ce qui conduit à des champs de tenseurs plus homogènes et par conséquent à des fibres cardiaques reconstruites plus cohérentes
The intensity variation is often used in signal or image processing algorithms after being quantified by a measurement method. The method for measuring and quantifying the intensity variation is called a « change measure », which is commonly used in methods for signal change detection, image edge detection, edge-based segmentation models, feature-preserving smoothing, etc. In these methods, the « change measure » plays such an important role that their performances are greatly affected by the result of the measurement of changes. The existing « change measures » may provide inaccurate information on changes, while processing biomedical images or signals, due to the high noise level or the strong randomness of the signals. This leads to various undesirable phenomena in the results of such methods. On the other hand, new medical imaging techniques bring out new data types and require new change measures. How to robustly measure changes in theos tensor-valued data becomes a new problem in image and signal processing. In this context, a « change measure », called the Non-Stationarity Measure (NSM), is improved and extended to become a general and robust « change measure » able to quantify changes existing in multidimensional data of different types, regarding different statistical parameters. A NSM-based change detection method and a NSM-based edge detection method are proposed and respectively applied to detect changes in ECG and EEG signals, and to detect edges in the cardiac diffusion weighted (DW) images. Experimental results show that the NSM-based detection methods can provide more accurate positions of change points and edges and can effectively reduce false detections. A NSM-based geometric active contour (NSM-GAC) model is proposed and applied to segment the ultrasound images of the carotid. Experimental results show that the NSM-GAC model provides better segmentation results with less iterations that comparative methods and can reduce false contours and leakages. Last and more important, a new feature-preserving smoothing approach called « Nonstationarity adaptive filtering (NAF) » is proposed and applied to enhance human cardiac DW images. Experimental results show that the proposed method achieves a better compromise between the smoothness of the homogeneous regions and the preservation of desirable features such as boundaries, thus leading to homogeneously consistent tensor fields and consequently a more reconstruction of the coherent fibers
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Frusque, Gaëtan. „Inférence et décomposition modale de réseaux dynamiques en neurosciences“. Thesis, Lyon, 2020. http://www.theses.fr/2020LYSEN080.

Der volle Inhalt der Quelle
Annotation:
Les graphes dynamiques permettent de comprendre l'évolution de systèmes complexes qui évoluent dans le temps. Ce type de graphe a récemment fait l'objet d'une attention considérable. Cependant, il n'existe pas de consensus sur les manières d'inférer et d'étudier ces graphes. Dans cette thèse, on propose des méthodes d'analyse de graphes dynamiques spécifiques. Ceux-ci peuvent être vues comme une succession de graphes complets partageant les mêmes nœuds, mais dont les poids associés à chaque lien évoluent dans le temps. Les méthodes proposées peuvent avoir des applications en neurosciences ou dans l'étude des réseaux sociaux comme Twitter et Facebook par exemple. L'enjeu applicatif de cette thèse est l'épilepsie, l'une des maladies neurologiques les plus rependues dans le monde affectant environ 1% de la population.La première partie concerne l'inférence de graphe dynamique à partir de signaux neurophysiologiques. Cette inférence est généralement réalisée à l'aide de mesures de connectivité fonctionnelle permettant d'évaluer la similarité entre deux signaux. La comparaison de ces mesures est donc d'un grand intérêt pour comprendre les caractéristiques des graphes obtenus. On compare alors des mesures de connectivité fonctionnelle impliquant la phase et l'amplitude instantanée des signaux. On s'intéresse en particulier à une mesure nommée Phase-Locking-Value (PLV) qui quantifie la synchronie des phases entre deux signaux. On propose ensuite, afin d'inférer des graphes dynamiques robustes et interprétables, deux nouvelles mesures de PLV conditionnées et régulariséesLa seconde partie présente des méthodes de décomposition de graphes dynamiques. L'objectif est de proposer une méthode semi-automatique afin de caractériser les informations les plus importantes du réseau pathologique de plusieurs crises d'un même patient. Dans un premier temps on considère des crises qui ont des durées et des évolutions temporelles similaires. Une décomposition tensorielle spécifique est alors appliquée. Dans un second temps, on considère des crises qui ont des durées hétérogènes. Plusieurs stratégies sont proposées et comparées. Ce sont des méthodes qui en plus d'extraire les sous-graphes caractéristiques communs à toutes les crises, permettent d'observer leurs profils d'activation temporelle spécifiques à chaque crise. Finalement, on utilise la méthode retenue pour une application clinique. Les décompositions obtenues sont comparées à l'interprétation visuelle du clinicien. Dans l'ensemble, on constate que les sous-graphes extraits correspondent aux régions du cerveau impliquées dans la crise d'épilepsie. De plus l'évolution de l'activation de ces sous-graphes est cohérente avec l'interprétation visuelle
Dynamic graphs make it possible to understand the evolution of complex systems evolving over time. This type of graph has recently received considerable attention. However, there is no consensus on how to infer and study these graphs. In this thesis, we propose specific methods for dynamical graph analysis. A dynamical graph can be seen as a succession of complete graphs sharing the same nodes, but with the weights associated with each link changing over time. The proposed methods can have applications in neuroscience or in the study of social networks such as Twitter and Facebook for example. The issue of this thesis is epilepsy, one of the most common neurological diseases in the world affecting around 1% of the population.The first part concerns the inference of dynamical graph from neurophysiological signals. To assess the similarity between each pairs of signals, in order to make the graph, we use measures of functional connectivity. The comparison of these measurements is therefore of great interest to understand the characteristics of the resulting graphs. We then compare functional connectivity measurements involving the instantaneous phase and amplitude of the signals. We are particularly interested in a measure called Phase-Locking-Value (PLV) which quantifies the phase synchrony between two signals. We then propose, in order to infer robust and interpretable dynamic graphs, two new indexes that are conditioned and regularized PLV. The second part concerns tools for dynamical graphs decompositions. The objective is to propose a semi-automatic method in order to characterize the most important patterns in the pathological network from several seizures of the same patient. First, we consider seizures that have similar durations and temporal evolutions. In this case the data can be conveniently represented as a tensor. A specific tensor decomposition is then applied. Secondly, we consider seizures that have heterogeneous durations. Several strategies are proposed and compared. These are methods which, in addition to extracting the characteristic subgraphs common to all the seizures, make it possible to observe their temporal activation profiles specific to each seizures. Finally, the selected method is used for a clinical application. The obtained decompositions are compared to the visual interpretation of the clinician. As a whole, we found that activated subgraphs corresponded to brain regions involved during the course of the seizures and their time course were highly consistent with classical visual interpretation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Cohen, Jérémy E. „Fouille de données tensorielles environnementales“. Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAT054/document.

Der volle Inhalt der Quelle
Annotation:
Parmi les techniques usuelles de fouille de données, peu sont celles capables de tirer avantage de la complémentarité des dimensions pour des données sous forme de tableaux à plusieurs dimensions. A l'inverse les techniques de décomposition tensorielle recherchent spécifiquement les processus sous-jacents aux données, qui permettent d'expliquer les données dans toutes les dimensions. Les travaux rapportés dans ce manuscrit traitent de l'amélioration de l'interprétation des résultats de la décomposition tensorielle canonique polyadique par l'ajout de connaissances externes au modèle de décomposition, qui est par définition un modèle aveugle n'utilisant pas la connaissance du problème physique sous-jacent aux données. Les deux premiers chapitres de ce manuscrit présentent respectivement les aspects mathématiques et appliqués des méthodes de décomposition tensorielle. Dans le troisième chapitre, les multiples facettes des décompositions sous contraintes sont explorées à travers un formalisme unifié. Les thématiques abordées comprennent les algorithmes de décomposition, la compression de tenseurs et la décomposition tensorielle basée sur les dictionnaires. Le quatrième et dernier chapitre présente le problème de la modélisation d'une variabilité intra-sujet et inter-sujet au sein d'un modèle de décomposition contraint. L'état de l'art en la matière est tout d'abord présenté comme un cas particulier d'un modèle flexible de couplage de décomposition développé par la suite. Le chapitre se termine par une discussion sur la réduction de dimension et quelques problèmes ouverts dans le contexte de modélisation de variabilité sujet
Among commonly used data mining techniques, few are those which are able to take advantage of the multiway structure of data in the form of a multiway array. In contrast, tensor decomposition techniques specifically look intricate processes underlying the data, where each of these processes can be used to describe all ways of the data array. The work reported in the following pages aims at incorporating various external knowledge into the tensor canonical polyadic decomposition, which is usually understood as a blind model. The first two chapters of this manuscript introduce tensor decomposition techniques making use respectively of a mathematical and application framework. In the third chapter, the many faces of constrained decompositions are explored, including a unifying framework for constrained decomposition, some decomposition algorithms, compression and dictionary-based tensor decomposition. The fourth chapter discusses the inclusion of subject variability modeling when multiple arrays of data are available stemming from one or multiple subjects sharing similarities. State of the art techniques are studied and expressed as particular cases of a more general flexible coupling model later introduced. The chapter ends on a discussion on dimensionality reduction when subject variability is involved, as well a some open problems
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Marinho, Ramos de Oliveira Pedro. „Modélisation Tensorielle de l'ECG pour l'Analyse de la Fibrillation Atriale Persistante“. Thesis, Université Côte d'Azur, 2020. https://tel.archives-ouvertes.fr/tel-03177971.

Der volle Inhalt der Quelle
Annotation:
La fibrillation atriale (FA) est l'arythmie soutenue la plus couramment diagnostiquée dans la pratique clinique. Elle est responsable de taux élevés d'hospitalisation et de décès. Les mécanismes électrophysiologiques qui sous-tendent ce trouble du rythme cardiaque ne sont pas complètement compris. Une stratégie non invasive et efficace pour étudier cette arythmie consiste à analyser l'activité atriale (AA) présente dans l'électrocardiogramme (ECG) de surface. Toutefois, l'AA est masquée par l'activité ventriculaire (AV) dans chaque battement, et elle a une amplitude faible, ce qui rend difficile son analyse. Au fil des années, des méthodes de traitement du signal ont aidé les cardiologues pour l'étude de la FA en extrayant l'AA de l'ECG. En particulier, des méthodes matricielles de séparation aveugle de sources (SAS) se sont révélées des outils d'extraction de l'AA efficaces. Cependant, certaines contraintes doivent être imposées pour garantir l'unicité de ces techniques de factorisation matricielle et, bien que mathématiquement cohérentes, elles peuvent manquer de fondements physiologiques, avec pour conséquence d'entraver l'interprétation des résultats. En revanche, les décompositions tensorielles peuvent garantir l'unicité sous des contraintes moins restrictives. En particulier, la décomposition en termes de blocs (Block Term Decomposition, BTD), récemment proposée comme technique SAS, peut être unique sous certaines contraintes satisfaites par les facteurs matriciels, facilement verifiées tant du point de vue mathématique que physiologique. Par ailleurs, les sources cardiaques peuvent être bien modélisées par des fonctions mathématiques spécifiques qui, lorsqu'elles sont mappées dans les facteurs matriciels structurés de la BTD, présentent un lien avec leur rang. Un autre avantage par rapport aux méthodes matricielles est que l'approche tensorielle est capable d'extraire l'AA à partir d'enregistrements ECG très courts. Dans la présente thèse de doctorat, on étudie tout d'abord le modèle Hankel-BTD comme outil d'extraction d'AA dans des épisodes de FA persistante, avec une validation basée sur des expériences statistiques concernant une population de patients atteints de FA et plusieurs types de segments ECG. Les enregistrements ECG avec des intervalles courts entre les battements cardiaques et de l'AA à faible amplitude sont des cas difficiles courants à ce stade de l'arythmie. Ces cas motivent l'utilisation d'une autre approche tensorielle, appelée Löwner-BTD, pour estimer un signal AA de meilleure qualité. Une telle approche est présentée dans le cadre d'une nouvelle stratégie optimale pour assurer la structure de Löwner qui est implémentée comme une variante d'un algorithme robuste récemment proposé pour le calcul de la BTD. Une autre contribution est la modélisation des ECG en FA par le modèle dit de Hankel-BTD couplé, qui offre une meilleure extraction d'AA avec un coût de calcul réduit par rapport à son homologue non couplé. D'autres contributions concernent les défis qui découlent du problème de l'extraction d'AA des ECG de FA, tels que la détection de la source d'AA parmi d'autres sources séparées dans des expériences réelles, où la vérité est inconnue. Pour cette tâche, plusieurs approches utilisent des algorithmes d'apprentissage automatique et des réseaux de neurones sont évaluées, offrant une précision satisfaisante. Un autre défi à relever est la difficulté de mesurer la qualité de l'estimation de l'AA. De nouveaux indices sont proposés et évalués pour quantifier la qualité de l'estimation AA pendant la FA. En résumé, cette thèse de doctorat fournit la première étude approfondie de l'application des techniques de traitement du signal tensoriel pour l'analyse de la fibrillation atriale, en mettant en évidence l'intérêt de l'approche tensorielle et son potentiel pour la prise en charge et la compréhension de ce trouble cardiaque complexe
Atrial Fibrillation (AF) is the most common sustained arrhythmia diagnosed in clinical practice, responsible for high hospitalization and death rates. Furthermore, the electrophysiological mechanisms underlying this cardiac rhythm disorder are not completely understood. A non-invasive and efficient strategy to study this challenging cardiac condition is analyzing the atrial activity (AA) from the Electrocardiogram (ECG). However, the AA during AF is masked by the ventricular activity (VA) in each heartbeat and often presents a very low amplitude, hampering its analysis. Throughout the years, signal processing methods have helped cardiologists in the study of AF by extracting the AA from the ECG. In particular, matrix-based blind source separation (BSS) methods have proven to be ecient AA extraction tools. However, some constraints need to be imposed to guarantee the uniqueness of such matrix factorization techniques that, although mathematically coherent, may lack physiological grounds and hinder results interpretation. In contrast, tensor decompositions can ensure uniqueness under more relaxed constraints. Particularly, the block term decomposition (BTD), recently proposed as a BSS technique, can be unique under some constraints over its matrix factors, easily satisfying in the mathematical and physiological sense. In addition, cardiac sources can be well modeled by specific mathematical functions that, when mapped into the structured matrix factors of BTD, present a link with their rank. Another advantage over matrix-based methods is that the tensor approach is able to extract AA from very short ECG recordings. The present doctoral thesis has its first focus on the investigation of the Hankel-BTD as an AA extraction tool in persistent AF episodes, with validation based on statistical experiments over a population of AF patients and several types of ECG segments. ECG recordings with a short interval between heartbeats and an AA with significantly low amplitude are challenging cases common in this stage of the arrhythmia. Such cases motivate the use of other tensor-based approach to estimate an AA signal with better quality, the Löwner-BTD. Such an approach is presented along a novel optimal strategy to ensure the Löwner structure that is implemented as a variant of a recently proposed robust algorithm for BTD computation. Another contribution is the model of persistent AF ECGs by a coupled Hankel-BTD, which shows some advantages in terms of improved AA extraction and reduced computational cost over its non-coupled counterpart. Further contributions focus on challenges that arise from the problem of AA extraction from AF ECGs, such as detecting the AA source among the other separated sources in real experiments, where the ground truth it's unknown. For this task, several approaches that use machine learning algorithms and neural networks are assessed, providing satisfactory accuracy. Another challenge that is dealt with is the difficulty in measuring the quality of AA estimation. Here, new indices for AA estimation quality from ECG recordings during AF are proposed and assessed. In summary, this PhD thesis provides the first thorough investigation of the application of tensor-based signal processing techniques to the analysis of atrial fibrillation, showing the interest of the tensor approach and its potential in the management and understanding of this challenging cardiac condition
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Coloigner, Julie. „Line search and trust region strategies for canonical decomposition of semi-nonnegative semi-symmetric tensors“. Rennes 1, 2012. http://www.theses.fr/2012REN1S172.

Der volle Inhalt der Quelle
Annotation:
Several numerical methods are proposed in this thesis in order to compute the canonical polyadic decomposition of semi-nonnegative semi-symmetric three-way arrays, say with two identical nonnegative loading matrices. Such multi-way arrays are encountered in blind source separation when a set of data cumulant matrices have to be jointly diagonalized in order to identify a nonnegative mixture of independent sources. The proposed solutions belong to two fundamental strategies of optimization: line search and trust region strategies. Each optimization takes into account the semi-symmetry but also the semi-nonnegativity of the processed tensor. The latter constraint is imposed by means of square or exponentional changes of variable, leading to an unconstrained problem. A matrix computation of derivatives is performed for most of the proposed methods, allowing for a straightforward implementation in matrix programming environments. Computer results show a better behaviour of the proposed methods in comparison with the classical Levenberg-Marquardt technique, which uses no a priori information about the considered array. It appears that a joint use of semi-symmetry and semi-nonnegativity improves the performance for low signal to noise ratios but also for rank values greater than dimensions. Our algorithms are also tested, through the semi-nonnegative ICA, on simulated magnetic resonance spectroscopy data and compared to classical independent component analysis and nonnegative matrix factorization methods
Pendant cette thèse, des méthodes numériques pour décomposer canoniquement des tableaux d'ordre 3 semi-nonnégatifs et semi-symétriques ont été proposées. Ces tableaux possèdent deux matrices de facteurs identiques à composantes positives. Ils apparaissent en séparation aveugle de sources lorsque l'on souhaite diagonaliser conjointement par congruence un ensemble de tranches matricielles de tableaux d'un mélange nonnégatif de sources independantes. Nous nous sommes intéressés à deux familles d'optimisation : la première est celle de la recherche linéaire, combinant le calcul d'une direction de descente basée sur des dérivées de premier et deuxième ordre à la recherche d'un pas optimal ; la seconde est celle de la région de confiance. Ces familles prennent en compte non seulement l'égalité mais aussi la nonnégativité de deux des trois matrices de facteurs par un changement de variable, carré ou exponentiel, permettant ainsi de se ramener à un problème d'optimisation sans contrainte. Le calcul des dérivées est effectué matriciellement pour la plupart des methodes proposées, ce qui permet une implémentation efficace de ces dernières dans un langage de programmation matricielle. Nos simulations sur des données aléatoires montrent un gain en performance par comparaison avec des méthodes n'exploitant aucun a priori notamment dans des contextes difficiles : faibles valeurs de rapport signal à bruit, collinearité des facteurs, et valeurs de rang excédant la plus grande des dimensions. Nos algorithmes sont aussi testés sur données simulées et semi-simulées de spectroscopie à résonance magnétique dans le cadre de l'analyse en composantes indépendantes (ICA) et comparés à des méthodes classiques d'ICA et de factorisation matricielle nonnégative
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Magbonde, Abilé. „Séparation de signaux électromyographiques de surface à haute densité pour la réduction de la diaphonie“. Electronic Thesis or Diss., Université Grenoble Alpes, 2024. http://www.theses.fr/2024GRALT008.

Der volle Inhalt der Quelle
Annotation:
L’utilisation du signal électrique musculaire de surface (EMG) dans une perspective biomécanique, thérapeutique ou pour la commande nécessite une forte sélectivité spatiale des signaux. Pour des muscles contigus, cette contrainte est rarement observée rendant l’utilisation du signal EMG difficile. La diaphonie, ou contamination croisée des signaux, inhérentes aux enregistrements doit alors être supprimée.Cette thèse a pour but de proposer des méthodes pour séparer la diaphonie lorsque les muscles extenseurs de l'index et du petit doigt sont en contraction simultanée. Notre travail consiste alors à extraire l’activité musculaire liée à chaque muscle dans un contexte de séparation de sources. Pour cela, une première partie du travail a consisté à élaborer une base de données, de qualité et exploitable, en enregistrant de manière non invasive les signaux EMG à partir de matrices d’électrodes, et à la mettre en forme pour la mettre à disposition de la communauté scientifique. Dans un second temps, diverses approches de traitement du signal ont été mise en œuvre pour réduire la diaphonie. Au final, nous proposons une méthode basée sur la décomposition tensorielle non négative de type PARAFAC2 appliquée aux enveloppes des signaux EMG obtenues à partir de la RMS sur des fenêtres glissantes afin de séparer l’activité de chaque muscle. L’originalité du modèle proposé repose sur l’ajout de deux contraintes principales en plus de celles relatives à PARAFAC2. La première contrainte est liée à la physiologie musculaire et implique la continuité spatiale des cartes d’acquisition, tandis que la seconde contrainte est relative à notre protocole expérimental et introduit de la parcimonie. Le modèle a été testé et validé sur des signaux réels puis sur des mélanges artificiels de signaux réels. La méthode proposée offre de meilleures performances de séparation par rapport à l’algorithme NN-PARAFAC2 et plus généralement par rapport à l’ensemble des autres méthodes de séparation de sources classiquement utilisées. Les limites et perspectives sont envisagées dans la dernière partie du document
The use of surface electromyographic (EMG) signals in a biomechanical, therapeutic, or control perspective requires a high spatial selectivity of the signals. In the case of adjacent muscles, this constraint is rarely met, making EMG signal utilization challenging. Crosstalk, or signal contamination inherent in recordings, must be eliminated.This thesis aims to propose methods for separating crosstalk when the extensor muscles of the index and little finger contract simultaneously. Our work focuses on extracting the muscle activity associated with each muscle in a source separation context. To achieve this, the initial part of the work involved creating a high-quality and usable database by non-invasively recording EMG signals from electrode arrays and formatting it for the scientific community's use. In the next phase, various signal processing approaches were employed to reduce crosstalk. Ultimately, we present a method based on non-negative tensor decomposition of the PARAFAC2 type applied to the envelopes of EMG signals obtained through root mean square (RMS) on sliding windows to separate the activity of each muscle. The uniqueness of the proposed model lies in the addition of two primary constraints in addition to those associated with PARAFAC2. The first constraint is related to muscle physiology and involves spatial continuity in the acquisition maps, while the second constraint is specific to our experimental protocol and introduces sparsity.The model was tested and validated on real signals and artificial mixtures of real signals. The proposed method demonstrates superior separation performance compared to the NN-PARAFAC2 algorithm and, more broadly, relative to conventional source separation methods. The document concludes by discussing its limitations and potential future directions
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Boizard, Maxime. „Développement et études de performances de nouveaux détecteurs/filtres rang faible dans des configurations RADAR multidimensionnelles“. Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2013. http://tel.archives-ouvertes.fr/tel-00996967.

Der volle Inhalt der Quelle
Annotation:
Dans le cadre du traitement statistique du signal, la plupart des algorithmes couramment utilisés reposent sur l'utilisation de la matrice de covariance des signaux étudiés. En pratique, ce sont les versions adaptatives de ces traitements, obtenues en estimant la matrice de covariance à l'aide d'échantillons du signal, qui sont utilisés. Ces algorithmes présentent un inconvénient : ils peuvent nécessiter un nombre d'échantillons important pour obtenir de bons résultats. Lorsque la matrice de covariance possède une structure rang faible, le signal peut alors être décomposé en deux sous-espaces orthogonaux. Les projecteurs orthogonaux sur chacun de ces sous espaces peuvent alors être construits, permettant de développer des méthodes dites rang faible. Les versions adaptatives de ces méthodes atteignent des performances équivalentes à celles des traitements classiques tout en réduisant significativement le nombre d'échantillons nécessaire. Par ailleurs, l'accroissement de la taille des données ne fait que renforcer l'intérêt de ce type de méthode. Cependant, cet accroissement s'accompagne souvent d'un accroissement du nombre de dimensions du système. Deux types d'approches peuvent être envisagées pour traiter ces données : les méthodes vectorielles et les méthodes tensorielles. Les méthodes vectorielles consistent à mettre les données sous forme de vecteurs pour ensuite appliquer les traitements classiques. Cependant, lors de la mise sous forme de vecteur, la structure des données est perdue ce qui peut entraîner une dégradation des performances et/ou un manque de robustesse. Les méthodes tensorielles permettent d'éviter cet écueil. Dans ce cas, la structure est préservée en mettant les données sous forme de tenseurs, qui peuvent ensuite être traités à l'aide de l'algèbre multilinéaire. Ces méthodes sont plus complexes à utiliser puisqu'elles nécessitent d'adapter les algorithmes classiques à ce nouveau contexte. En particulier, l'extension des méthodes rang faible au cas tensoriel nécessite l'utilisation d'une décomposition tensorielle orthogonale. Le but de cette thèse est de proposer et d'étudier des algorithmes rang faible pour des modèles tensoriels. Les contributions de cette thèse se concentrent autour de trois axes. Un premier aspect concerne le calcul des performances théoriques d'un algorithme MUSIC tensoriel basé sur la Higher Order Singular Value Decomposition (HOSVD) et appliqué à un modèle de sources polarisées. La deuxième partie concerne le développement de filtres rang faible et de détecteurs rang faible dans un contexte tensoriel. Ce travail s'appuie sur une nouvelle définition de tenseur rang faible et sur une nouvelle décomposition tensorielle associée : l'Alternative Unfolding HOSVD (AU-HOSVD). La dernière partie de ce travail illustre l'intérêt de l'approche tensorielle basée sur l'AU-HOSVD, en appliquant ces algorithmes à configuration radar particulière: le Traitement Spatio-Temporel Adaptatif ou Space-Time Adaptive Process (STAP).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Westin, Carl-Fredrik. „A Tensor Framework for Multidimensional Signal Processing“. Doctoral thesis, Linköpings universitet, Bildbehandling, 1994. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-54274.

Der volle Inhalt der Quelle
Annotation:
This thesis deals with ltering of multidimensional signals. A large part of the thesis is devoted to a novel filtering method termed "Normalized convolution". The method performs local expansion of a signal in a chosen lter basis which not necessarily has to be orthonormal. A key feature of the method is that it can deal with uncertain data when additional certainty statements are available for the data and/or the lters. It is shown how false operator responses due to missing or uncertain data can be significantly reduced or eliminated using this technique. Perhaps the most well-known of such eects are the various 'edge effects' which invariably occur at the edges of the input data set. The method is an example of the signal/certainty - philosophy, i.e. the separation of both data and operator into a signal part and a certainty part. An estimate of the certainty must accompany the data. Missing data are simply handled by setting the certainty to zero. Localization or windowing of operators is done using an applicability function, the operator equivalent to certainty, not by changing the actual operator coefficients. Spatially or temporally limited operators are handled by setting the applicability function to zero outside the window. The use of tensors in estimation of local structure and orientation using spatiotemporal quadrature filters is reviewed and related to dual tensor bases. The tensor representation conveys the degree and type of local anisotropy. For image sequences, the shape of the tensors describe the local structure of the spatiotemporal neighbourhood and provides information about local velocity. The tensor representation also conveys information for deciding if true flow or only normal flow is present. It is shown how normal flow estimates can be combined into a true flow using averaging of this tensor eld description. Important aspects of representation and techniques for grouping local orientation estimates into global line information are discussed. The uniformity of some standard parameter spaces for line segmentation is investigated. The analysis shows that, to avoid discontinuities, great care should be taken when choosing the parameter space for a particular problem. A new parameter mapping well suited for line extraction, the Möbius strip parameterization, is de ned. The method has similarities to the Hough Transform. Estimation of local frequency and bandwidth is also discussed. Local frequency is an important concept which provides an indication of the appropriate range of scales for subsequent analysis. One-dimensional and two-dimensional examples of local frequency estimation are given. The local bandwidth estimate is used for dening a certainty measure. The certainty measure enables the use of a normalized averaging process increasing robustness and accuracy of the frequency statements.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Maurandi, Victor. „Algorithmes pour la diagonalisation conjointe de tenseurs sans contrainte unitaire. Application à la séparation MIMO de sources de télécommunications numériques“. Thesis, Toulon, 2015. http://www.theses.fr/2015TOUL0009/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse développe des méthodes de diagonalisation conjointe de matrices et de tenseurs d’ordre trois, et son application à la séparation MIMO de sources de télécommunications numériques. Après un état, les motivations et objectifs de la thèse sont présentés. Les problèmes de la diagonalisation conjointe et de la séparation de sources sont définis et un lien entre ces deux domaines est établi. Par la suite, plusieurs algorithmes itératifs de type Jacobi reposant sur une paramétrisation LU sont développés. Pour chacun des algorithmes, on propose de déterminer les matrices permettant de diagonaliser l’ensemble considéré par l’optimisation d’un critère inverse. On envisage la minimisation du critère selon deux approches : la première, de manière directe, et la seconde, en supposant que les éléments de l’ensemble considéré sont quasiment diagonaux. En ce qui concerne l’estimation des différents paramètres du problème, deux stratégies sont mises en œuvre : l’une consistant à estimer tous les paramètres indépendamment et l’autre reposant sur l’estimation indépendante de couples de paramètres spécifiquement choisis. Ainsi, nous proposons trois algorithmes pour la diagonalisation conjointe de matrices complexes symétriques ou hermitiennes et deux algorithmes pour la diagonalisation conjointe d’ensembles de tenseurs symétriques ou non-symétriques ou admettant une décomposition INDSCAL. Nous montrons aussi le lien existant entre la diagonalisation conjointe de tenseurs d’ordre trois et la décomposition canonique polyadique d’un tenseur d’ordre quatre, puis nous comparons les algorithmes développés à différentes méthodes de la littérature. Le bon comportement des algorithmes proposés est illustré au moyen de simulations numériques. Puis, ils sont validés dans le cadre de la séparation de sources de télécommunications numériques
This thesis develops joint diagonalization of matrices and third-order tensors methods for MIMO source separation in the field of digital telecommunications. After a state of the art, the motivations and the objectives are presented. Then the joint diagonalisation and the blind source separation issues are defined and a link between both fields is established. Thereafter, five Jacobi-like iterative algorithms based on an LU parameterization are developed. For each of them, we propose to derive the diagonalization matrix by optimizing an inverse criterion. Two ways are investigated : minimizing the criterion in a direct way or assuming that the elements from the considered set are almost diagonal. Regarding the parameters derivation, two strategies are implemented : one consists in estimating each parameter independently, the other consists in the independent derivation of couple of well-chosen parameters. Hence, we propose three algorithms for the joint diagonalization of symmetric complex matrices or hermitian ones. The first one relies on searching for the roots of the criterion derivative, the second one relies on a minor eigenvector research and the last one relies on a gradient descent method enhanced by computation of the optimal adaptation step. In the framework of joint diagonalization of symmetric, INDSCAL or non symmetric third-order tensors, we have developed two algorithms. For each of them, the parameters derivation is done by computing the roots of the considered criterion derivative. We also show the link between the joint diagonalization of a third-order tensor set and the canonical polyadic decomposition of a fourth-order tensor. We confront both methods through numerical simulations. The good behavior of the proposed algorithms is illustrated by means of computing simulations. Finally, they are applied to the source separation of digital telecommunication signals
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Lima, Ferrer de Almeida André. „Tensor modeling and signal processing for wireless communication systems“. Nice, 2007. http://www.theses.fr/2007NICE4056.

Der volle Inhalt der Quelle
Annotation:
Dans plusieurs applications de traitement du signal pour les systèmes de communication sans fils, le signal reçu est de nature multidimensionnelle et possède une structure algébrique multilinéaire. Dans ce contexte, la décomposition tensorielle de type PARAFAC a fait l’objet de plusieurs travaux au cours des six dernières années. Il s’avère que des décompositions tensorielles plus générales sont nécessaires pour couvrir des classes plus larges de systèmes de communication faisant intervenir à la fois des modèles de transmission et de canal plus complexes et des méthodes de traitement plus efficaces. Cette thèse traite les problèmes de modélisation des systèmes multi-antennes, d’égalisation de canal, de séparation de signaux et d’estimation paramétrique de canal à l’aide d’approches tensorielles. Dans un premier temps, de nouvelles décompositions tensorielles (bloc-PARAFAC avec contraintes et CONFAC) ont été développées et étudiées en termes d’identifiabilité. Dans un deuxième temps, la décomposition bloc-PARAFAC avec contraintes a été appliquée tout d’abord pour mettre en évidence une modélisation tensorielle unifiée des systèmes suréchantillonnés, DS-CDMA et OFDM, avec application à l’égalisation multiutilisateur. Puis, cette décomposition a été utilisée pour modéliser des systèmes de transmission MIMO avec étalement spatio-temporel et détection aveugle. La décomposition CONFAC a ensuite été exploitée pour concevoir un nouveau schéma de transmission MIMO/CDMA combinant diversité et multiplexage spatial. Les propriétés d’unicité de cette décomposition ont permis de réaliser un traitement aveugle au niveau du récepteur pour la reconstruction du canal et des symboles transmis. Un troisième volet du travail concerne l’application de la décomposition PARAFAC pour la conception de nouveaux schémas de transmission spatio-temporel-fréquentiel pour des systèmes MIMO multiporteurs, et pour l’estimation paramétrique de canaux multitrajets
In several signal processing applications for wireless communications, the received signal is multidimensional in nature and may exhibit a multilinear algebraic structure. In this context, the PARAFAC tensor decomposition has been the subject of several works in the past six years. However, generalized tensor decompositions are necessary for covering a wider class of wireless communications systems with more complex transmission structures, more realistic channel models and more efficient receiver signal processing. This thesis investigates tensor modelling approaches for multiple-antenna systems, channel equalization, signal separation and parametric channel estimation? New tensor decompositions, namely, the block-constrained PARAFAC and CONFAC decompositions are developed and studied in terms of identifiability. Fist, the block-constrained PARAFAC decompositions applied for a unified tensor modelling of oversampled, DS-CDMA and OFDM systems applications to blind multiuser equalization. This decomposition is also used for modelling multiple-antenna (MIMO) transmission systems with block space-time spreading and blind detection, which generalizes previous tensor-based MIMO transmission models. The CONFAC decomposition is then exploited for designing new uniqueness properties of this decomposition? This thesis also studies new applications f third-order PARAFAC decomposition? A new space-time-frequency spreading system is proposed for multicarrier multiple-access systems, where this decomposition is used as a joint spreading and multiplexing tool at the transmitter using tridimensional spreading code with trilinear structure. Finally, we present a PARAC modelling approach for the parametric estimation of SIMO and MIMO multipath wireless channels with time-varying structure
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Ben, Abdelghani Afef. „Minimisation des courants de mode commun dans les variateurs de vitesse asynchrones alimentés par onduleurs de tension multicellulaires“. Toulouse, INPT, 2003. http://www.theses.fr/2003INPT021H.

Der volle Inhalt der Quelle
Annotation:
Ce travail traite l'utilisation des degrés de liberté qu'offre les onduleurs de tension multicellulaires pour la réduction des courants de mode commun dans les variateurs asynchrones. Nous présentons les topologies d'onduleurs multiniveaux les plus utilisées. Nous décrivons les composantes de mode commun, et leurs effets sur les roulements des machines et les solutions matérielles pour palier ces défauts. Un modèle du circuit de mode commun d'une machine asynchrone est ensuite proposé. L'analyse des onduleurs multicellulaires permet la conception de stratégies de commande, qui selon la parité du nombre de cellules, permet d'annuler ou de réduire les courants de mode commun. L'approche proposée est intégrée dans différentes stratégies de commande des machines asynchrones: Elle est validée pour un onduleur à 2 cellules avec une commande vectorielle classique, et est intégrée expérimentalement dans l'algorithme CODIFI avec un onduleur à 3 cellules alimentant une machine asynchrone 22kW.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Landström, Anders. „Adaptive tensor-based morphological filtering and analysis of 3D profile data“. Licentiate thesis, Luleå tekniska universitet, Signaler och system, 2012. http://urn.kb.se/resolve?urn=urn:nbn:se:ltu:diva-26510.

Der volle Inhalt der Quelle
Annotation:
Image analysis methods for processing 3D profile data have been investigated and developed. These methods include; Image reconstruction by prioritized incremental normalized convolution, morphology-based crack detection for steel slabs, and adaptive morphology based on the local structure tensor. The methods have been applied to a number of industrial applications.An issue with 3D profile data captured by laser triangulation is occlusion, which occurs when the line-of-sight between the projected laser light and the camera sensor is obstructed. To overcome this problem, interpolation of missing surface in rock piles has been investigated and a novel interpolation method for filling in missing pixel values iteratively from the edges of the reliable data, using normalized convolution, has been developed.3D profile data of the steel surface has been used to detect longitudinal cracks in casted steel slabs. Segmentation of the data is done using mathematical morphology, and the resulting connected regions are assigned a crack probability estimate based on a statistic logistic regression model. More specifically, the morphological filtering locates trenches in the data, excludes scale regions for further analysis, and finally links crack segments together in order to obtain a segmented region which receives a crack probability based on its depth and length.Also suggested is a novel method for adaptive mathematical morphology intended to improve crack segment linking, i.e. for bridging gaps in the crack signature in order to increase the length of potential crack segments. Standard morphology operations rely on a predefined structuring element which is repeatedly used for each pixel in the image. The outline of a crack, however, can range from a straight line to a zig-zag pattern. A more adaptive method for linking regions with a large enough estimated crack depth would therefore be beneficial. More advanced morphological approaches, such as morphological amoebas and path openings, adapt better to curvature in the image. For our purpose, however, we investigate how the local structure tensor can be used to adaptively assign to each pixel an elliptical structuring element based on the local orientation within the image. The information from the local structure tensor directly defines the shape of the elliptical structuring element, and the resulting morphological filtering successfully enhances crack signatures in the data.
Godkänd; 2012; 20121017 (andlan); LICENTIATSEMINARIUM Ämne: Signalbehandling/Signal Processing Examinator: Universitetslektor Matthew Thurley, Institutionen för system- och rymdteknik, Luleå tekniska universitet Diskutant: Associate Professor Cris Luengo, Centre for Image Analysis, Uppsala Tid: Onsdag den 21 november 2012 kl 12.30 Plats: A1545, Luleå tekniska universitet
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Morette, Nathalie. „Mesure et analyse par apprentissage artificiel des décharges partielles sous haute tension continue pour la reconnaissance de l'état de dégradation des isolants électriques“. Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS006.

Der volle Inhalt der Quelle
Annotation:
Le phénomène de décharges partielles (DP) est considéré comme l'une des principales causes de dégradation des matériaux isolants utilisés dans l’appareillage haute tension. La mesure de DP constitue un outil d’évaluation efficace pour le contrôle et le diagnostic des systèmes d’isolation électriques. Dans la perspective de stimuler le développement des énergies renouvelables, le transport de l’énergie électrique sous courant continu est économiquement avantageux. Cependant, la relation entre les caractéristiques des décharges partielles et l'état de dégradation de l'isolation des câbles sous haute tension continue (HVDC) n'est à ce jour, pas clairement établie. Dans cette thèse, une méthodologie a été développée pour la reconnaissance de l’état de dégradation des matériaux isolants à partir de la mesure de DP sous tension continue. Plusieurs dispositifs expérimentaux ont été conçus pour la mesure de DP au sein de différents types de câbles sous HVDC. Afin de collecter des signaux utiles au diagnostic des systèmes d’isolation, les signaux parasites doivent être éliminés. La discrimination des signaux de décharges partielles des signaux de bruit a été effectuée au sein de systèmes d’isolation électriques variés, à travers l’implémentation de méthodes d’apprentissage artificiel. Une fois les bases de données exemptes de signaux parasites, des techniques d’extraction, de classement et de sélection de variables, combinées à l’utilisation de méthodes de classification, ont été mises en œuvre pour la reconnaissance de l'état de dégradation des systèmes d'isolation électrique sous DC. Des scores de reconnaissance proches de 100% ont été obtenus
Partial discharges (PD) are one of the key drivers of degradation and ageing of insulating materials used in high-voltage switchgear. Consequently, partial discharges measurement has become an essential assessment tool for the monitoring of insulation systems. Given the continuing growth of renewable energy, the transport under direct current (DC) is economically advantageous. However, the relationship between partial discharges characteristics and the degradation of cables insulation under high voltage direct current (HVDC) remains unclear. In this work, a methodology is proposed for ageing state recognition of electrical insulation systems based on PD measurements under DC. For this purpose, original measuring devices have been developed and PD measurements were performed within different cable types under HVDC. In order to ensure a reliable monitoring and diagnosis of the insulation, noise signals must be eliminated. This thesis tackles the problem of the discrimination of partial discharge and noise signals acquired in different environments by applying machine learning methods. The techniques developed are a promising tool to improve the diagnosis of HV equipment under HVDC, where the need to discard automatically noise signals with high accuracy is of great importance. Once disturbances were eliminated from the databases, ageing state recognition was performed on different cable types. The feature extraction, ranking and selection methods, combined with classification techniques allowed to obtain recognition rates up to 100%
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Chaouki, Saïd. „Logiciel de traitement du signal“. Rouen, 1987. http://www.theses.fr/1987ROUES024.

Der volle Inhalt der Quelle
Annotation:
Etude d'un algorithme pour le traitement d'un signal. Cet algorithme est composé de différents programmes indépendants permettant le calcul des polynômes orthonormaux, le calcul récursif, le calcul de la transformée de Fourier, de densité spectrale, réponse impulsionnelle d'un filtre numérique. Application à la reconnaissance des formes et simulation du processus de Lévy
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Chaouki, Saïd. „Logiciel de traitement du signal“. Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb376038369.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Silva, Alex Pereira da. „Tensor techniques in signal processing: algorithms for the canonical polyadic decomposition (PARAFAC)“. reponame:Repositório Institucional da UFC, 2016. http://www.repositorio.ufc.br/handle/riufc/19361.

Der volle Inhalt der Quelle
Annotation:
SILVA, A. P. Tensor techniques in signal processing: algorithms for the canonical polyadic decomposition (PARAFAC). 2016. 124 f. Tese (Doutorado em Engenharia de Teleinformática) - Centro de Tecnologia, Universidade Federal do Ceará, Fortaleza, 2016.
Submitted by Marlene Sousa (mmarlene@ufc.br) on 2016-09-01T18:41:38Z No. of bitstreams: 1 2016_tese_apsilva.pdf: 1648271 bytes, checksum: be3747d533837939c3a410d2f017ddfa (MD5)
Approved for entry into archive by Marlene Sousa (mmarlene@ufc.br) on 2016-09-01T18:42:06Z (GMT) No. of bitstreams: 1 2016_tese_apsilva.pdf: 1648271 bytes, checksum: be3747d533837939c3a410d2f017ddfa (MD5)
Made available in DSpace on 2016-09-01T18:42:06Z (GMT). No. of bitstreams: 1 2016_tese_apsilva.pdf: 1648271 bytes, checksum: be3747d533837939c3a410d2f017ddfa (MD5) Previous issue date: 2016-06-29
Low rank tensor decomposition has been playing for the last years an important role in many applications such as blind source separation, telecommunications, sensor array processing, neuroscience, chemometrics, and data mining. The Canonical Polyadic tensor decomposition is very attractive when compared to standard matrix-based tools, manly on system identification. In this thesis, we propose: (i) several algorithms to compute specific low rank-approximations: finite/iterative rank-1 approximations, iterative deflation approximations, and orthogonal tensor decompositions. (ii) A new strategy to solve multivariate quadratic systems, where this problem is reduced to a best rank-1 tensor approximation problem. (iii) Theoretical results to study and proof the performance or the convergence of some algorithms. All performances are supported by numerical experiments
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Gomes, Paulo Ricardo Barboza. „Tensor Methods for Blind Spatial Signature Estimation“. Universidade Federal do CearÃ, 2014. http://www.teses.ufc.br/tde_busca/arquivo.php?codArquivo=11635.

Der volle Inhalt der Quelle
Annotation:
FundaÃÃo Cearense de Apoio ao Desenvolvimento Cientifico e TecnolÃgico
In this dissertation the problem of spatial signature and direction of arrival estimation in Linear 2L-Shape and Planar arrays is investigated Methods based on tensor decompositions are proposed to treat the problem of estimating blind spatial signatures disregarding the use of training sequences and knowledge of the covariance structure of the sources By assuming that the power of the sources varies between successive time blocks decompositions for tensors of third and fourth orders obtained from spatial and spatio-temporal covariance of the received data in the array are proposed from which iterative algorithms are formulated to estimate spatial signatures of the sources Then greater spatial diversity is achieved by using the Spatial Smoothing in the 2L-Shape and Planar arrays In that case the estimation of the direction of arrival of the sources can not be obtained directly from the formulated algorithms The factorization of the Khatri-Rao product is then incorporated into these algorithms making it possible extracting estimates for the azimuth and elevation angles from matrices obtained using this method A distinguishing feature of the proposed tensor methods is their efficiency to treat the cases where the covariance matrix of the sources is non-diagonal and unknown which generally happens when working with sample data covariances computed from a reduced number of snapshots
Nesta dissertaÃÃo o problema de estimaÃÃo de assinaturas espaciais e consequentemente da direÃÃo de chegada dos sinais incidentes em arranjos Linear 2L-Shape e Planar à investigado MÃtodos baseados em decomposiÃÃes tensoriais sÃo propostos para tratar o problema de estimaÃÃo cega de assinaturas espaciais desconsiderando a utilizaÃÃo de sequÃncias de treinamento e o conhecimento da estrutura de covariÃncia das fontes Ao assumir que a potÃncia das fontes varia entre blocos de tempos sucessivos decomposiÃÃes para tensores de terceira e quarta ordem obtidas a partir da covariÃncia espacial e espaÃo-temporal dos dados recebidos no arranjo de sensores sÃo propostas a partir das quais algoritmos iterativos sÃo formulados para estimar a assinatura espacial das fontes em seguida uma maior diversidade espacial à alcanÃada utilizando a tÃcnica Spatial Smoothing na recepÃÃo de sinais nos arranjos 2L-Shape e Planar Nesse caso as estimaÃÃes da direÃÃo de chegada das fontes nÃo podem ser obtidas diretamente a partir dos algoritmos formulados de forma que a fatoraÃÃo do produto de Khatri-Rao à incorporada a estes algoritmos tornando possÃvel a obtenÃÃo de estimaÃÃes para os Ãngulos de azimute e elevaÃÃo a partir das matrizes obtidas utilizando este mÃtodo Uma caracterÃstica marcante dos mÃtodos tensoriais propostos està presente na eficiÃncia obtida no tratamento de casos em que a matriz de covariÃncia das fontes à nÃo-diagonal e desconhecida o que geralmente ocorre quando se trabalha com covariÃncias de amostras reais calculadas a partir de um nÃmero reduzido de snapshots
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Maho, Pierre. „Traitement du Signal pour l'Olfaction Artificielle“. Thesis, Université Grenoble Alpes, 2020. http://www.theses.fr/2020GRALT040.

Der volle Inhalt der Quelle
Annotation:
Dans la Nature, l'olfaction est un sens clé du règne animal permettant la détection, le suivi et la reconnaissance d'un grand nombre d'odeurs présentes dans l'environnement. Un nez électronique est un instrument s'inspirant des principes de base de l'olfaction naturelle afin d'identifier des composés volatiles. La caractéristique principale de ce type d'instruments est l'utilisation de capteurs chimiques peu spécifiques. Cette faible spécificité leur permet d'être sensible à un nombre élevé de composés volatiles, laissant entrevoir un large champ d'applications. Cependant, ces appareils de mesure restent assez peu répandus. Le faible nombre de capteurs utilisés et le manque de répétabilité de l'instrument au cours du temps en sont des causes possibles. La faible spécificité n'est pas non plus sans inconvénient. Dans le cas de mélanges gazeux par exemple, chacun des composés contribue à la réponse d'un capteur chimique en fonction de sa contribution au mélange. Dans cette thèse, nous étudions plusieurs de ces problématiques à l'aide d'un nouvel instrument développé par Aryballe. L'appareil a l'avantage d'embarquer un grand nombre de capteurs dont la gamme peut être facilement enrichie. Ce nez électronique a d'ores et déjà montré des résultats prometteurs en conditions de laboratoire. Dans la lignée de ces résultats, la thèse démontre la capacité de l'instrument à différencier des molécules miroir l'une de l'autre. Cependant, l'instrument n'est pas voué à une utilisation réservée au laboratoire mais doit surtout s'avérer utile en situation réelle, tout comme son équivalent biologique. A cette fin, la thèse a permis de mettre au point plusieurs plateformes robotiques, imitant la recherche d'un certain nombre de sources odorantes dans l'environnement. Les capacités de reconnaissance de l'appareil et la problématique des mélanges gazeux ont ainsi pu être étudiées dans ces conditions très réalistes. Dans ce contexte, de nouveaux algorithmes ont été élaborés afin de pouvoir classifier et démélanger en temps-réel les signaux issus de l'instrument. Enfin, la thèse a également pu étudier la répétabilité de l'instrument sur un total de 9 mois et proposer des méthodes de correction permettant ainsi une utilisation prolongée de l'appareil
In Nature, olfaction is a key sense used by most species of animals for detecting, tracking and recognizing odors in the environment. An electronic nose is an instrument that takes inspiration from natural olfaction in order to detect volatile compounds. The main characteristic of this kind of instruments is that they use weakly-specific chemical sensors. This weak specificity allows the device to be sensitive to a broad range of volatile compounds, making it useful for a large range of applications. However, these instruments are still not a widespread technology. The small number of sensors used and the lack of repeatability of the instrument over time are some possible causes. In addition, the weak specificity of the sensors is sometimes a liability. For instance, in the case of gas mixtures, each compound contributes to the response of a chemical sensor according to its contribution to the mixture. In this thesis, we tackle several of these issues using a new instrument developed by Aryballe. Compared to other systems, this device boards a large number of sensors and this number can be easily increased. This electronic nose has already shown promising results in laboratory conditions. In the same vein, the thesis reveals the ability of the instrument to tell two mirror molecules apart. However, an electronic nose is not meant to be used only in in the laboratory but must be useful in everyday conditions, just like its biological counterpart. To that end, we have developed different robotic setups, mimicking the search for multiple gas sources in the environment. They have allowed us to study recognition performance and gas unmixing in realistic conditions. In this context, new algorithms have been designed to classify and unmix signals in real-time. Finally, the thesis has also studied the repeatability of the instrument over 9 months. Correction methods have been proposed and allow the use of the instrument to be greatly extended
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Comon, Pierre. „Quelques développements récents en traitement du signal“. Habilitation à diriger des recherches, Université de Nice Sophia-Antipolis, 1995. http://tel.archives-ouvertes.fr/tel-00473197.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Bomel, Yann. „Bibliothèque d'opérateurs de traitement numérique du signal“. Lyon, INSA, 1994. http://www.theses.fr/1994ISAL0067.

Der volle Inhalt der Quelle
Annotation:
Le chemin de données ES2 est paramétrable en fonctionnalité (bibliothèque d'opérateurs) et en nombre de bits (bus de 8 à 72 bits). Sa compilation, automatisée, génère un bloc de haute densité (de l'ordre de 5200 transistors/mm2 avec une technologie 1μm), un schéma et un symbole électrique, une vue de placement routage et une vue pour la simulation avec rétro-annotation de la capacité des connexions. L'optimisation du routage est assistée par un outil de placement manuel symbolique et interactif. Généralement, 12 pistes sont disponibles pour le routage d'une tranche de un bit. Le chemin de données comprend une partie contrôle, composée de tampons, réalisant une interface entre les signaux externes et les commandes des opérateurs. Les dimensions d'un tampon sont adaptées automatiquement à la charge capacitive de l'opérateur. Un dispositif spécifique réduit les courses entre signaux d'horloge. La génération de la partie contrôle est automatique et/ou gérée par l'utilisateur
The ES2 data path is functionally parametrisable (using an operator library). The bus width is also parametrisable from 8 to 72 bits. Compilation is automatic and produces the following: 1)a high density layout block (about 5200 transistors/mm2 with a 1μm process), 2) an electrical schematic and symbol, 3) a place and route view, 4) a view for simulation with back-annotation of nodes. Routing optimization is assisted by a Symbolic and Interactive Manual Placement tool. Up to 12 routing tracks are usually available per bit slice. Data path includes a control section, with buffers, which are automatically dimensioned to fit input operator capacitances. A specific device in the control section reduces skew and race of clock signals. The control portion may be automatically generated and/or manually handled by user
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Bouras, Bouhafs. „Traitement du signal adapté aux signaux GPS“. Valenciennes, 1994. https://ged.uphf.fr/nuxeo/site/esupversions/357ad253-2be4-452d-ad4e-eb2a9e8ef7b6.

Der volle Inhalt der Quelle
Annotation:
Parmi les systèmes de radionavigation existants, GPS est sans doute le plus complet et le plus précis. Il est conçu pour fournir des mesures précises des trois coordonnées d'un navigateur partout dans le monde, et de corriger son horloge dans un repère référentiel. Compare aux autres systèmes de navigation, il fait appel à des traitements du signal plus sophistiques, et qui font des récepteurs GPS plus complexes que d'autres. Notre objectif est de rendre ces récepteurs compétitifs en termes de cout et d'utilisation sans compromettre leurs hautes performances. Dans notre travail sur une unité de traitement GPS, prototype réalisé dans notre laboratoire, de très bonnes performances étaient obtenues sur un signal GPS simule. Des signaux fortement noyés dans le bruit (avec un rapport signal a bruit inferieur a 23 dB) et affectes par le doppler, étaient traites avec succès et la reconnaissance des codes correspondants était établie. Parmi les aspects les plus importants du système réalisé, la haute immunité au bruit des signaux d'asservissement, permettait une opération stable en présence d'un bruit intense, permettant l'acquisition des données de navigation dans de bonnes conditions
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Chamberod, Eric. „Capteur interactif à traitement de signal intégré“. Grenoble INPG, 1992. http://www.theses.fr/1992INPG0126.

Der volle Inhalt der Quelle
Annotation:
Une automatisation poussee des procedes necessite une meilleure perception de leur fonctionnement interne ou externe et par voie de consequence un plus grand nombre de capteurs. Cependant, si celui-ci augmente, la quantite d'informations a traiter devient excessive au niveau connectique et entraine des saturations au niveau des temps de calcul. Pour garder le benefice d'une excellente instrumentation, il est indispensable de distribuer quelque intelligence au niveau peripherique afin d'obtenir des reactions localisees en ligne et compresser l'information a sa source pour reduire son transport. Associe a des elements de gestion et de traitement du signal, le capteur acquiere des proprietes dignes d'un capteur intelligent. Les difficultes d'ordre connectique peuvent etre resolues par l'emploi d'un bus de terrain tel que fip. Les architectures que nous proposons, marient dans l'objectif precite, deux processeurs avec le capteur, un processeur de signal pour la partie gestion et traitement de donnees, et un processeur de communication pour le transfert bidirectionnel des informations sur le bus
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Shelton, Joel A. „Consensus Model of Families of Images using Tensor-based Fourier Analysis“. Digital Commons @ East Tennessee State University, 2016. https://dc.etsu.edu/etd/3038.

Der volle Inhalt der Quelle
Annotation:
A consensus model is a statistical approach that uses a family of signals or in our case, a family of images to generate a predictive model. In this thesis, we consider a family of images that are represented as tensors. In particular, our images are (2,0)-tensors. The consensus model is produced by utilizing the quantum Fourier transform of a family of images as tensors to transform images to images. We write a quantum Fourier transform in the numerical computation library for Python, known as Theano to produce the consensus spectrum. From the consensus spectrum, we produce the consensus model via the inverse quantum Fourier transform. Our method seeks to improve upon the phase reconstruction problem when transforming images to images under a 2-dimensional consensus model by considering images as (2,0)-tensors.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Diop, Mamadou. „Décomposition booléenne des tableaux multi-dimensionnels de données binaires : une approche par modèle de mélange post non-linéaire“. Thesis, Université de Lorraine, 2018. http://www.theses.fr/2018LORR0222/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse aborde le problème de la décomposition booléenne des tableaux multidimensionnels de données binaires par modèle de mélange post non-linéaire. Dans la première partie, nous introduisons une nouvelle approche pour la factorisation booléenne en matrices binaires (FBMB) fondée sur un modèle de mélange post non-linéaire. Contrairement aux autres méthodes de factorisation de matrices binaires existantes, fondées sur le produit matriciel classique, le modèle proposé est équivalent au modèle booléen de factorisation matricielle lorsque les entrées des facteurs sont exactement binaires et donne des résultats plus interprétables dans le cas de sources binaires corrélées, et des rangs d'approximation matricielle plus faibles. Une condition nécessaire et suffisante d'unicité pour la FBMB est également fournie. Deux algorithmes s'appuyant sur une mise à jour multiplicative sont proposés et illustrés dans des simulations numériques ainsi que sur un jeu de données réelles. La généralisation de cette approche au cas de tableaux multidimensionnels (tenseurs) binaires conduit à la factorisation booléenne de tenseurs binaires (FBTB). La démonstration de la condition nécessaire et suffisante d’unicité de la décomposition booléenne de tenseurs binaires repose sur la notion d'indépendance booléenne d'une famille de vecteurs. L'algorithme multiplicatif fondé sur le modèle de mélange post non-linéaire est étendu au cas multidimensionnel. Nous proposons également un nouvel algorithme, plus efficace, s'appuyant sur une stratégie de type AO-ADMM (Alternating Optimization -ADMM). Ces algorithmes sont comparés à ceux de l'état de l'art sur des données simulées et sur un jeu de données réelles
This work is dedicated to the study of boolean decompositions of binary multidimensional arrays using a post nonlinear mixture model. In the first part, we introduce a new approach for the boolean factorization of binary matrices (BFBM) based on a post nonlinear mixture model. Unlike the existing binary matrix factorization methods, the proposed method is equivalent to the boolean factorization model when the matrices are strictly binary and give thus more interpretable results in the case of correlated sources and lower rank matrix approximations compared to other state-of-the-art algorithms. A necessary and suffi-cient condition for the uniqueness of the BFBM is also provided. Two algorithms based on multiplicative update rules are proposed and tested in numerical simulations, as well as on a real dataset. The gener-alization of this approach to the case of binary multidimensional arrays (tensors) leads to the boolean factorisation of binary tensors (BFBT). The proof of the necessary and sufficient condition for the boolean decomposition of binary tensors is based on a notion of boolean independence of binary vectors. The multiplicative algorithm based on the post nonlinear mixture model is extended to the multidimensional case. We also propose a new algorithm based on an AO-ADMM (Alternating Optimization-ADMM) strategy. These algorithms are compared to state-of-the-art algorithms on simulated and on real data
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Veizaga, Arevalo Maria. „Automation of power quality diagnosis of industrial electrical grids“. Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPAST158.

Der volle Inhalt der Quelle
Annotation:
L'analyse de la qualité de l'électricité est une demande qui s'est vue augmentée au cours des dernières décennies. Les creux de tension sont les perturbations les plus fréquentes et les plus impactantes dans les réseaux électriques industriels, entraînant des pertes financières importantes pour les clients industriels. Le cœur de ce travail de thèse est dédié à la classification des causes de creux de tension ainsi qu'à leur localisation relative par rapport au point de mesure principale. L'algorithme développé utilise les formes d'onde de tension et de courant comme entrées pour identifier les causes des creux de tension dans les réseaux industriels BT. La solution est basée sur des signatures de séries temporelles quadridimensionnelles, obtenues par l'application de la transformée de Fourier court terme (STFT) et de la transformée de Fortescue. La source d'un creux de tension est identifiée à l'aide d'une stratégie de classification basée sur la distance avec une mesure basée sur l'algorithme Dynamic Time Warping (DTW). En outre, l'algorithme soft-DTW est utilisé pour réduire la taille de la base de signatures d'apprentissage, augmentant ainsi la vitesse de classification. Les performances de la méthode ont été analysées en termes de séparabilité des classes, d'efficacité de la prédiction (précision et robustesse au bruit) et de sensibilité aux variations de la fréquence fondamentale. La méthode est robuste aux niveaux de bruit jusqu'à un SNR = 15 dB et aux variations de fréquence fondamentale jusqu'à +/- 0.5 Hz. De plus, un indice de confiance sur la prédiction est proposé, augmentant la fiabilité de l'algorithme. Le système offre une mise en œuvre facile en milieu industriel sans avoir besoin de données enregistrées au préalable. La méthode présente l'avantage d'utiliser une base de données de référence de taille réduite, entièrement composée de données synthétiques. Les principaux avantages de la méthode proposée sont ses capacités de généralisation et la possibilité de déclencher une alerte basée sur l'indice de confiance. La précision de classification obtenue sur des données synthétiques comportant sept causes est de 100%. La méthode atteint également un F1-score supérieur à 99% avec des mesures terrain représentant cinq classes sur trois sites industriels différents. Enfin, nous étudions également l'impact des creux de tension sur les équipements industriels. Nous proposons une méthodologie pour estimer la composition de charges déconnectées suite à un creux de tension. Les résultats ont montré des limites en termes d'interaction harmonique entre les charges. Ces limites sont discutées et plusieurs propositions sont faites pour améliorer la méthode
The demand for power quality analysis has increased over the past decades. Voltage sags are the most frequent and impactful disturbances in industrial power grids, leading to high financial losses for industrial clients. The core of this thesis work is dedicated to the classification of voltage sag causes and their relative location to the monitoring point. The solution uses voltage and current waveforms as input to identify the causes of voltage sags in LV industrial grids. The methodology is based on four-dimension time series signatures, obtained through the application of the Short-Time Fourier Transform (STFT) and the Fortescue Transform. The source of a voltage sag is identified using a distance-based classification strategy with a custom distance measure based on the Dynamic Time Warping algorithm (DTW). In addition, the soft-DTW algorithm is used to reduce the size of the signature training database and increase speed. The performance of the method was analyzed in terms of class separability, prediction efficiency (accuracy and robustness to noise), and sensitivity to fundamental frequency variations. The proposal is resilient regarding noise levels up to an SNR = 15 dB and fundamental frequency variations up to +/- 0.5 Hz. Moreover, a confidence index on the prediction is proposed, increasing the algorithm's reliability. The proposal offers an easy implementation in industrial applications with no previous recorded data. It has the benefit of using a reduced-size reference database, entirely composed of synthetic data. The main advantages of the proposed method are its generalization capabilities and the possibility of raising an alert based on the confidence index. The obtained classification accuracy on synthetic data with seven causes is 100%. The method reaches a classification F1-score higher than 99% with field measurements representing five classes obtained from three different industrial sites. Finally, we also study the impact of voltage sags on industrial equipment. We propose a methodology to estimate the self-disconnected load composition following a voltage sag. The results showed some limitations in terms of harmonic interaction among the loads. Some of the limits of this approach are discussed, and several proposals to improve the load composition estimation for future work are made
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Tremblay, Nicolas. „Réseaux et signal : des outils de traitement du signal pour l'analyse des réseaux“. Thesis, Lyon, École normale supérieure, 2014. http://www.theses.fr/2014ENSL0938/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse propose de nouveaux outils adaptés à l'analyse des réseaux : sociaux, de transport, de neurones, de protéines, de télécommunications... Ces réseaux, avec l'essor de certaines technologies électroniques, informatiques et mobiles, sont de plus en plus mesurables et mesurés ; la demande d'outils d'analyse assez génériques pour s'appliquer à ces réseaux de natures différentes, assez puissants pour gérer leur grande taille et assez pertinents pour en extraire l'information utile, augmente en conséquence. Pour répondre à cette demande, une grande communauté de chercheurs de différents horizons scientifiques concentre ses efforts sur l'analyse des graphes, des outils mathématiques modélisant la structure relationnelle des objets d'un réseau. Parmi les directions de recherche envisagées, le traitement du signal sur graphe apporte un éclairage prometteur sur la question : le signal n'est plus défini comme en traitement du signal classique sur une topologie régulière à n dimensions, mais sur une topologie particulière définie par le graphe. Appliquer ces idées nouvelles aux problématiques concrètes d'analyse d'un réseau, c'est ouvrir la voie à une analyse solidement fondée sur la théorie du signal. C'est précisément autour de cette frontière entre traitement du signal et science des réseaux que s'articule cette thèse, comme l'illustrent ses deux principales contributions. D'abord, une version multiéchelle de détection de communautés dans un réseau est introduite, basée sur la définition récente des ondelettes sur graphe. Puis, inspirée du concept classique de bootstrap, une méthode de rééchantillonnage de graphes est proposée à des fins d'estimation statistique
This thesis describes new tools specifically designed for the analysis of networks such as social, transportation, neuronal, protein, communication networks... These networks, along with the rapid expansion of electronic, IT and mobile technologies are increasingly monitored and measured. Adapted tools of analysis are therefore very much in demand, which need to be universal, powerful, and precise enough to be able to extract useful information from very different possibly large networks. To this end, a large community of researchers from various disciplines have concentrated their efforts on the analysis of graphs, well define mathematical tools modeling the interconnected structure of networks. Among all the considered directions of research, graph signal processing brings a new and promising vision : a signal is no longer defined on a regular n-dimensional topology, but on a particular topology defined by the graph. To apply these new ideas on the practical problems of network analysis paves the way to an analysis firmly rooted in signal processing theory. It is precisely this frontier between signal processing and network science that we explore throughout this thesis, as shown by two of its major contributions. Firstly, a multiscale version of community detection in networks is proposed, based on the recent definition of graph wavelets. Then, a network-adapted bootstrap method is introduced, that enables statistical estimation based on carefully designed graph resampling schemes
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Colman, Pierre. „Circuits nanophotoniques pour le traitement optique du signal“. Paris 6, 2011. http://www.theses.fr/2011PA066471.

Der volle Inhalt der Quelle
Annotation:
Mon travail de thèse a porté sur l'étude des propriétés non-linéaires des guides en Cristaux Photoniques. Ces guides sont constitués d'un arrangement périodique de trous d'air gravés dans une membrane en semiconducteur. La structuration périodique ouvre une bande photonique interdite qui permet de concentrer la lumière sur de très petites surfaces (<2µm²) et de la ralentir. Ainsi, l'obtention de densités d'énergie équivalentes à des GW/cm² peut se faire en utilisant des diodes laser dont la puissance crête n’est que de quelques Watts. Cela ouvre de nombreuses perspectives en vue de l'intégration sur puce de nouvelles fonctions pour le traitement tout-optiques du signal. Nous nous sommes d'abord attachés à la maîtrise de la dispersion dans les guides en cristaux photoniques. Cet aspect est essentiel pour le contrôle de la dynamique des effets de propagation. Dans ce but, une nouvelle méthode de dessin a été proposée. Cela nous a permis d'observer la propagation d'un soliton dans un guide de seulement 1,5mm de long. Un soliton se propage sans subir aucun effet de distorsion, malgré une forte dispersion chromatique. Une de ses propriétés intéressantes est de pouvoir être compressé. Une impulsion de 3ps a ainsi été compressée jusqu'à une durée de 600fs. Le mélange à quatre ondes, où l'énergie d'une pompe est transférée vers un signal et un idler, a aussi été étudié. L'observation de ces effets n'a été possible que part le choix d'un matériau semi-conducteur approprié (GaInP), qui ne présente que très peu d'absorption non-linéaire. Enfin, nous avons aussi pu explorer d'autres effets tels que l’auto-décalage en fréquence, ou encore la radiation d'un soliton
The present work focused on non-linear propagation in Photonic Cristal waveguides. Photonic Crystals are composed of a semiconductor membrane patterned with a periodic air-hole structure. Owing to the Photonic Band Gap they exhibit, the light can then be confined on very small surfaces (<2µm²) and slowed down (ng>20). Hence power intensity of a few tens of GW/cm² are accessible using only Watt level input lasers, which can be provided by laser diodes. This opens up perspectives for on chip integration of all-optical function. Because dispersion controls the dynamics of nonlinear effects, we first aimed at a way to tailor it. Thus, we proposed a new design based on symmetry considerations; and we were able to obtain a large variety of dispersion features. Combined with efforts put on the reduction of propagation loss, especially the use of suitable semiconductor materials with minimised nonlinear absorption (e. G. GaInP), we observed for the first time the propagation of an optical soliton in a 1. 5mm-long PhC waveguide. A soliton propagates while preserving its shape, albeit the presence of a strong chromatic dispersion. This opens up access to the study others nonlinear propagation phenomena in the picosecond, Watt power regime. Thus we observed soliton-effect pulse compression where a 3ps pulse is compressed down to 600fs. We also investigated Four Wave Mixing process in the pulsed regime: the efficient parametric process resulted in a conversion efficiency of about 0dB. Finally, we observed new effects like a Raman-free Soliton Self Frequency Shift and optical Cherenkov Radiation in PhCs
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Dumont, Philippe. „Spécification multidimensionnelle pour le traitement du signal systématique“. Lille 1, 2005. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2005/50376-2005-Dumont.pdf.

Der volle Inhalt der Quelle
Annotation:
De nombreuses applications de traitement du signal ont à traiter des données comportant plusieurs dimensions, pourtant il n'existe que très peu de modèles qui soient capables de tenir compte de cet aspect multidimensionnel. Nous nous sommes donc intéressés à ce problème, mais en nous limitant au traitement du signal systématique (TSS) qui consiste en l'application de traitements très réguliers indépendants des données. Nous abordons tout d'abord la problématique de la modélisation des applications. Nous comparons différents modèles reposant sur les flux de données synchrones. Puis, nous nous intéressons à Array-OL qui est un modèle de description ayant la faculté d'exprimer les dépendances de données. Mais ce dernier ne fournit aucune méthodologie pour l'exécution des applications et aucun biais d'optimisation. Il faut donc projeter Array-OL sur un modèle de calcul pour exécuter des applications, mais en ayant proposé au préalable une phase d'optimisations. Nous étudions pour cela différentes méthodes: nous analysons les possibilités offertes par les transformations de boucles, puis nous présentons le formalisme ODT. Nous montrons que les ODT sont en mesure d'exprimer parfaitement les dépendances de données. À l'aide des ODT, nous proposons une suite de transformations constituant une "boîte à outils" capable d'effectuer de simples modifications ou des optimisations plus complexes sur des applications Array-OL. Enfin, nous analysons la projection d'Array-OL vers des modèles de calculs et nous étudions l'impact de nos transformations.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Guennouni, Jamal. „Simulation de circuits adaptés au traitement du signal /“. Paris : Ecole nationale supérieure des télécommunications, 1989. http://catalogue.bnf.fr/ark:/12148/cb35030463p.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Dumont, Philippe Boulet Pierre. „Spécification multidimensionnelle pour le traitement du signal systématique“. Villeneuve d'Ascq : Université des sciences et technologies de Lille, 2007. https://iris.univ-lille1.fr/dspace/handle/1908/363.

Der volle Inhalt der Quelle
Annotation:
Reproduction de : Thèse de doctorat : Informatique : Lille 1 : 2005.
N° d'ordre (Lille 1) : 3756. Résumé en français et en anglais. Titre provenant de la page de titre du document numérisé. Bibliogr. p. 119-122.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Fontaine, Mathieu. „Processus alpha-stables pour le traitement du signal“. Thesis, Université de Lorraine, 2019. http://www.theses.fr/2019LORR0037/document.

Der volle Inhalt der Quelle
Annotation:
En traitement du signal audio, le signal observé est souvent supposé être égal à la somme des signaux que nous souhaitons obtenir. Dans le cadre d'une modélisation probabiliste, il est alors primordial que les processus stochastiques préservent leur loi par sommation. Le processus le plus employé et vérifiant cette stabilité est le processus gaussien. Comparé aux autres processus α - stables vérifiant la même stabilité, les processus gaussiens ont la particularité d'admettre des outils statistiques facilement interprétables comme la moyenne et la covariance. L'existence de ces moments permet d'esquisser des méthodes statistiques en séparation des sources sonores (SSS) et plus généralement, en traitement du signal. La faiblesse de ces processus réside néanmoins dans l'incapacité à s'écarter trop loin de leurs moyennes. Cela limite la dynamique des signaux modélisables et peut provoquer des instabilités dans les méthodes d'inférence considérées. En dépit de non-existence d'une forme analytique des densités de probabilités, les processus α - stables jouissent de résultats non valables dans le cas gaussien. Par exemple, un vecteur α - stable non-gaussien admet une représentation spatiale unique. En résumé, le comportement d'une distribution multivariée α - stable est contrôlé par deux opérateurs. Une mesure dite «spectrale» informant sur l'énergie globale venant de chaque direction de l'espace et un vecteur localisant le centroïde de sa densité de probabilité. Ce mémoire de thèse introduit différents modèles α - stables d’un point de vue théorique et les développe dans plusieurs directions. Nous proposons notamment une extension de la théorie de filtrage α - stable monocanal au cas multicanal. En particulier, une nouvelle représentation spatiale pour les vecteurs α - stables est adoptée. Nous développons en outre un modèle de débruitage où le bruit et la parole découlent de distributions α - stables mais ayant un exposant caractéristique α différent. La valeur d' α permet de contrôler la stationnarité de chaque source. Grâce à ce modèle hybride, nous avons également déduit une explication rigoureuse sur des filtrages de Wiener heuristiques esquissés dans les années 80. Une autre partie de ce manuscrit décrit en outre comment la théorie α - stable permet de fournir une méthode pour la localisation de sources sonores. En pratique, elle nous permet d'en déduire si une source est active à un endroit précis de l'espace
It is classic in signal processing to model the observed signal as the sum of desired signals. If we adopt a probabilistic model, it is preferable that law of the additive processes is stable by summation. The Gaussian process notoriously satisfies this condition. It admits useful statistical operators as the covariance and the mean. The existence of those moments allows to provide a statistical model for SSS. However, Gaussian process has difficulty to deviate from its mean. This drawback limits signal dynamics and may cause unstable inference methods. On the contrary, non-Gaussian α - stable processes are stable under addition, and permit the modeling of signals with considerable dynamics. For the last few decades, α -stable theory have raised mathematical challenges and have already been shown to be effective in filtering applications. This class of processes enjoys outstanding properties, not available in the Gaussian case. A major asset for signal processing is the unique spatial representation of a multivariate α - stable vector, controlled by a so-called spectral measure and a deterministic vector. The spectral measure provides information on the global energy coming from all space directions while the vector localizes the centroid of the probability density function. This thesis introduces several α -stables models, with the aim of extending them in several directions. First, we propose an extension of single-channel α - stable filtering theory to a multichannel one. In particular, a novel spatial representation for α - stable vectors is proposed. Secondly, we develop α - stable models for denoising where each component could admit a different α . This hybrid model provides a rigorous explanation of some heuristic Wiener filters outlined in the 1980s. We also describe how the α - stable theory yields a new method for audio source localization. We use the spectral measure resulting from the spatial representation of α - stable vectors. In practice, it leads to determine whether a source is active at a specific location. Our work consisted in investigating the α -stable theory for signal processing and developing several models for a wide range of applications. The models introduced in this thesis could also be extend to more signal processing tasks. We could use our mutivariate α - stable models to dereverberation or SSS. Moreover, the localization algorithm is implementable for room geometry estimation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Joachim, Christian. „Contribution au traitement moléculaire du signal : comportements intramoléculaires“. Toulouse, ENSAE, 1985. http://www.theses.fr/1985ESAE0002.

Der volle Inhalt der Quelle
Annotation:
Définition du traitement moléculaire du signal comme l'utilisation d'une molécule isolée dans une action cohérente sur une information s'y propageant. Analyse et classement des comportements intramoléculaires à partir de critères purement quantiques, obtenus par décomposition du spectre discret de la molécule en propriétés globales (densité d'états) et locales (rapport entre les moments d'ordre 2 et 1 de la distribution des écarts entre plus proche voisins du spectre). Distinction et illustration, par des simulations numériques des comportements réguliers, stochastiques et chaotiques. Modélisation locale de l'évolution intramoléculaire par généralisation de la décomposition de Madelung, en remplacant le couple densité de probabilité/vecteur vitesse de l'interprétation hydrodynamique par le couple densité de probabilité/densité d'énergie.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Renard, Nadine. „Traitement du signal tensoriel. Application à l'imagerie hyperspectrale“. Aix-Marseille 3, 2008. http://www.theses.fr/2008AIX30062.

Der volle Inhalt der Quelle
Annotation:
Cette thèse est consacrée au développement et à l’étude de méthodes algébriques pour l’analyse des données hyperspectrales. Une nouvelle représentation des données par un tenseur d’ordre 3 a permis la proposition de méthodes originales, impliquant l’utilisation d’outils d’algèbre multilinéaire. De ce fait, les méthodes développées sont dites multidimensionnelles ou multimodales. Basées sur la décomposition tensorielle de TUCKER, elles analysent conjointement le mode spatial et spectral. Cette thèse répond à deux problématiques. La première concerne la réduction du bruit. Une technique de détection robuste au bruit est proposée en incorporant un filtrage de Wiener multimodal. Les filtres de Wiener n-modaux (spatiaux et spectraux) sont estimés en minimisant l’erreur quadratique moyenne entre le tenseur utile et estimé. La deuxième problématique abordée est la réduction de la dimension spectrale. Le fléau de la grande dimension des données dégrade les estimations statistiques lors du processus de classification des données. Dans ce cadre, nous avons développé une méthode basée sur la réduction du mode spectral par transformation linéaire, qui approxime simultanément le mode spatial en rangs inférieurs. Les deux méthodes multimodales sont respectivement évaluées en observant leur impact sur la qualité de détection et de classification. Ces résultats révèlent l’intérêt de considérer une analyse spatiale/spectrale par rapport aux techniques uniquement spectrales ou hybrides analysant séquentiellement le mode spectral et spatial
This thesis focus on developing new algebraic methods for hyperspectral applications. The proposed method are original because based on new data representation using third-order tensor. This data representation involves the use of multilinear algebra tools. The proposed methods are referred to as multiway or multimodal methods. TUCKER tensor decompositionbased methods jointly analyze the spatial and spectral modes using an alternating least squares algorithm. This thesis focus on two problematics specific to hyperspectral images. The first one concerns noise reduction. The considered additive noise is due to the acquisition system and degrades the target detection efficiency. A robust to noise detection technique is proposed by incorporating a multimodal Wiener filter. The spatial and spectral n-mode filters are estimated by minimizing the mean squared error between the desired and estimated tensors. The second problematic is the spectral dimension reduction. The curse of the dimensionality degrades the statistical estimation for the classification process. For this issue, the proposed multimodal reduction method reduces the spectral mode by linear transformation jointly to the lower spatial ranks approximation. This method extends the traditional dimension reduction methods. These two multimodal methods are respectively assessed in respect to their impact on detection and classification efficiency. These results highlight the interest of the spatial/spectral analysis in comparison to the traditional spectral analysis only and the hybrid ones which process sequentially the spectral and the spatial mode
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Fety, Luc. „Méthodes de traitement d'antenne adaptées aux radiocommunications /“. Paris : Ecole nationale supérieure des télécommunications, 1989. http://catalogue.bnf.fr/ark:/12148/cb350402609.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

Minaoui, Khalid. „Séquences binaires et traitements du signal“. Télécom Bretagne, 2010. http://www.theses.fr/2010TELB0142.

Der volle Inhalt der Quelle
Annotation:
Le développement des radars ("RAdio Detection and Ranging"), dispositifs dont les principales tâches sont la détection de cibles et la détermination de leur distance au radar émetteur, est un sujet qui fait l'objet de nombreux développements académiques et industriels. Ces développements concernent en particulier les radars embarqués dont la diffusion touche maintenant les applications grand publique. Cette diffusion a été rendue possible par les progrès de l'électronique, de l'informatique et du traitement des signaux. Cette thèse vise à contribuer au traitement du signal radar, en particulier pour des applications relatives à l'aide à la conduite automobile et s'est développée selon deux axes principaux. D'une part, nous avons contribué ici à l'étude des formes d'onde radar constituées par des séquences pseudo-aléatoires. Dans ce contexte, nous avons étudié les séquences présentées dans la littérature en rappelant leurs performances en termes de facteur de mérite, défini comme le rapport entre l'énergie du pic principal de corrélation et celle des lobes secondaire de la fonction d'autocorrélation. Compte tenu de la difficulté de construire des formes d'onde constituées de séquences contigües de symboles modulées en phase performantes, nous avons proposé l'utilisation de paires, et plus généralement d'ensembles de Golay, qui possèdent un facteur de mérite infini lorsqu'ils sont séparés par des intervalles de garde. Plus généralement, on a mis en évidence les bonnes propriétés de leur fonction d'ambiguïté. En particulier, nous avons vérifié que l'émission multipulse de séquences de Golay permet une bonne réjection de ses lobes secondaires, ainsi qu'une très bonne estimation des paramètres de distance et de vitesse des autres véhicules. Le deuxième axe développé dans la thèse concerne le calcul rapide de la fonction d'inter-ambiguïté entre une onde émise et les échos renvoyés au radar; ce calcul permet en effet de localiser simultanément un ensemble de cibles dans le plan temps-fréquence. Dans ce contexte, nous nous sommes intéressés aux techniques d'intégration numérique de type Gauss-Legendre et Clenshaw-Curtis, pour lesquelles nous avons étudié analytiquement les perturbations sur la quadrature introduites par le fait qu'on ne dispose que de versions échantillonnées des signaux mis en jeux. Afin de réduire la complexité du calcul des fonctions d'ambiguïté, nous avons ensuite envisagé l'utilisation des transformées en nombres entiers et en particulier les transformées en nombres de Fermat pour lesquelles les multiplications deviennent de simples décalages de bits, permettant ainsi des gains importants du coût de calcul
The main task of radars (Radio Detection and Ranging) is to detect targets and to determine their distance from the radar transmitter. They have been studied in numerous academic and industrial developments. These developments concern in particular onboard radars that are now being developed for several applications in consumer electronic devices. Recent developments in radar systems have been made possible thanks to advances in electronics, computing and signals processing. This thesis aims to contribute to the radar signal processing and particularly for applications related to collision avoidance systems. This work was developed along two main axes. On one hand, we have contributed to the study of radar waveforms constituted by pseudo-random sequences. In this context, we first examined the sequences presented in the literature by recalling their performance in terms of the merit factor, defined as the ratio between the energy of the main peak and the correlation of secondary lobes of the autocorrelation function. Given the difficulty of building very efficient waveforms constituted by sequences of contiguous symbols, we have considered then the use of Golay pairs, and more generally Golay sets, which have an infinite merit factor when they are separated by guard intervals. More generally, we have highlighted the good properties of their ambiguity functions. In particular, we have checked that the multipulse emission of Golay sequences allows good rejection of the ambiguity function side lobes, and very good estimation of the parameters of distance and relative speed of other vehicles. The second theme developed in this thesis concerns the rapid calculation of the cross-ambiguity function between a sent wave and the received echoes. This calculation makes it possible to simultaneously locate a set of targets in the time-frequency plane. In this context, we have studied Gauss-Legendre and Clenshaw-Curtis quadrature techniques, for which we have studied analytically the disturbances on the quadrature introduced by the fact that they must be calculated from sampled signals. In addition, with a view to reduce the computational complexity of the calculation of ambiguity functions, we have considered number theoretic transforms, and in particular Fermat number transforms, for which multiplications simply amount to bit shifts, leading thus to significant computational burden reduction
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Fachrudin, Imam. „Traitement du signal ECG - approche par la transformation en ondelettes“. Rouen, 1995. http://www.theses.fr/1995ROUES040.

Der volle Inhalt der Quelle
Annotation:
Les travaux présentés dans ce mémoire ont pour objectif d'évaluer l'efficacité de la transformation en ondelettes (TO) dans les opérations de traitement du signal ECG : l'analyse, la détection, le filtrage et la compression. L'analyse temps-fréquence par la TO permet de mettre en évidence les structures fréquentielles des composantes ECG : ses ondes, ses bruits et certains événements pathologiques. Les algorithmes de détection de complexes ECG sont élaborés à partir des propriétés du module et de la phase de la transformation. La relation de la TO avec l'analyse multirésolution et la découverte de l'algorithme rapide de la TO sont les bases du développement de la méthode de filtrage et du nouveau concept de compression de données. Les performances de chacune des méthodes sont comparables à celles des méthodes existantes, sinon meilleures
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie