Дисертації з теми "Multilinéaire"

Щоб переглянути інші типи публікацій з цієї теми, перейдіть за посиланням: Multilinéaire.

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся з топ-31 дисертацій для дослідження на тему "Multilinéaire".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Переглядайте дисертації для різних дисциплін та оформлюйте правильно вашу бібліографію.

1

Pellet--Mary, Alice. "Réseaux idéaux et fonction multilinéaire GGH13." Thesis, Lyon, 2019. http://www.theses.fr/2019LYSEN048/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La cryptographie à base de réseaux euclidiens est un domaine prometteur pour la construction de primitives cryptographiques post-quantiques. Un problème fondamental, lié aux réseaux, est le problème du plus court vecteur (ou SVP, pour Shortest Vector Problem). Ce problème est supposé être difficile à résoudre même avec un ordinateur quantique. Afin d’améliorer l’efficacité des protocoles cryptographiques, on peut utiliser des réseaux structurés, comme par exemple des réseaux idéaux ou des réseaux modules (qui sont une généralisation des réseaux idéaux). La sécurité de la plupart des schémas utilisant des réseaux structurés dépend de la difficulté du problème SVP dans des réseaux modules, mais un petit nombre de schémas peuvent également être impactés par SVP dans des réseaux idéaux. La principale construction pouvant être impactée par SVP dans des réseaux idéaux est la fonction multilinéaire GGH13. Cette fonction multilinéaire est principalement utilisée aujourd’hui pour construire des obfuscateurs de programmes, c’est-à-dire des fonctions qui prennent en entrée le code d’un programme et renvoie le code d’un programme équivalent (calculant la même fonction), mais qui doit cacher la façon dont le programme fonctionne.Dans cette thèse, nous nous intéressons dans un premier temps au problème SVP dans les réseaux idéaux et modules. Nous présentons un premier algorithme qui, après un pre-calcul exponentiel, permet de trouver des vecteurs courts dans des réseaux idéaux plus rapidement que le meilleur algorithme connu pour des réseaux arbitraires. Nous présentons ensuite un algorithme pour les réseaux modules de rang 2, également plus efficace que le meilleur algorithme connu pour des réseaux arbitraires, à condition d’avoir accès à un oracle résolvant le problème du plus proche vecteur dans un réseau fixé. Le pré-calcul exponentiel et l’oracle pour le problème du plus proche vecteurs rendent ces deux algorithmes inutilisables en pratique.Dans un second temps, nous nous intéressons à la fonction GGH13 ainsi qu’aux obfuscateurs qui l’utilisent. Nous étudions d’abord l’impact des attaques statistiques sur la fonction GGH13 et ses variantes. Nous nous intéressons ensuite à la sécurité des obfuscateurs utilisant la fonction GGH13 et proposons une attaque quantique contre plusieurs de ces obfuscateurs. Cette attaque quantique utilise entre autres un algorithme calculant un vecteur court dans un réseau idéal dépendant d’un paramètre secret de la fonction GGH13
Lattice-based cryptography is a promising area for constructing cryptographic primitives that are plausibly secure even in the presence of quantum computers. A fundamental problem related to lattices is the shortest vector problem (or SVP), which asks to find a shortest non-zero vector in a lattice. This problem is believed to be intractable, even quantumly. Structured lattices, for example ideal lattices or module lattices (the latter being a generalization of the former), are often used to improve the efficiency of lattice-based primitives. The security of most of the schemes based on structured lattices is related to SVP in module lattices, and a very small number of schemes can also be impacted by SVP in ideal lattices.In this thesis, we first focus on the problem of finding short vectors in ideal and module lattices.We propose an algorithm which, after some exponential pre-computation, performs better on ideal lattices than the best known algorithm for arbitrary lattices. We also present an algorithm to find short vectors in rank 2 modules, provided that we have access to some oracle solving the closest vector problem in a fixed lattice. The exponential pre-processing time and the oracle call make these two algorithms unusable in practice.The main scheme whose security might be impacted by SVP in ideal lattices is the GGH13multilinear map. This protocol is mainly used today to construct program obfuscators, which should render the code of a program unintelligible, while preserving its functionality. In a second part of this thesis, we focus on the GGH13 map and its application to obfuscation. We first study the impact of statistical attacks on the GGH13 map and on its variants. We then study the security of obfuscators based on the GGH13 map and propose a quantum attack against multiple such obfuscators. This quantum attack uses as a subroutine an algorithm to find a short vector in an ideal lattice related to a secret element of the GGH13 map
2

Rialland, Annie. "Systèmes prosodiques africains : ou fondements empiriques pour un modèle multilinéaire." Nice, 1988. http://www.theses.fr/1988NICE2019.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Castaing, Joséphine. "Méthodes PARAFAC pour la séparation de signaux." Cergy-Pontoise, 2006. http://biblioweb.u-cergy.fr/theses/06CERG0324.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans différentes applications, les signaux observés peuvent être ordonnés dans un tenseur qui se décompose en une somme de tenseurs de rang un. Une telle décomposition est appelée PARAFAC. Ces travaux présentent une nouvelle méthode pour identifier les paramètres de la décomposition s'appuyant sur une diagonalisation conjointe, et proposent une nouvelle borne sur le nombre de ces paramètres. Nous avons appliqué cette méthode à des signaux de type CDMA, qui possèdent la structure PARAFAC. D'autre part, nous avons proposé de combiner la structure PARAFAC et la contrainte de module constant des sources. Nous avons également montré qu'il était possible d'exploiter la structure algébrique des données pour résoudre des problèmes d'Analyse en Composantes Indépendantes dans le cas sous-déterminé. Finalement, nous nous sommes interrogés sur le rang d'un tenseur choisi de manière aléatoire, dit rang générique, et nous proposons une technique pour calculer ce rang dans certains cas
In different applications, the observed signals can be stacked in a third-order tensor that can be decomposed in a sum of rank-one tensors. Such a decomposition is called PARAFAC. Our work presents a new method to estimate the parameters of the decomposition based on a simultaneous diagonalization and yields a new bound on the number of these parameters. We apply this method to CDMA signals, which have the PARAFAC structure. Moreover, we propose to combine PARAFAC structure and constant modulus constraint on the sources. We also show that it is possible to exploit the algebraic structure of the data to perform Independent Component Analysis in the underdetermined case. Finally, we study the rank of a random tensor, called generic rank, and we propose a technique to compute this rank in some particular cases
4

González-Mazón, Pablo. "Méthodes effectives pour les transformations birationnelles multilinéaires et contributions à l'analyse polynomiale de données." Electronic Thesis or Diss., Université Côte d'Azur, 2023. http://www.theses.fr/2023COAZ4138.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse explore deux sujets distincts à l'intersection de l'algèbre commutative, de la géométrie algébrique, de l'algèbre multilinéaire et de la modélisation géométrique :1. L'étude et la construction effective des transformations birationnelles multilinéaires 2. L'extraction d'informations à partir de données discrètes à l'aide de modèles polynomiaux. La partie principale de ce travail est consacrée aux transformations birationnelles multilinéaires.Une transformation birationnelle multilinéaire est une transformation rationnelle phi : (mathbb{P}^1)^n dashrightarrow{} mathbb{P}^n, définie par des polynômes multilinéaires, qui admet une transformation rationnelle inverse.Les transformations birationnelles entre espaces projectifs constituent un sujet d'étude important de la géométrie algébrique, initié par les travaux fondateurs de Cremona, qui a connu des avancées significatives au cours des dernières décennies.Plus récemment, les transformation birationnelles multiprojectives, c'est-à-dire définies par des polynômes multi-homogènes, ont récemment suscité un regain d'intérêt, motivé notamment par l'étude des structures multigraduées en algèbre commutative et leurs applications pratique en modélisation géométrique.Dans la première partie, nous étudions les aspects algébriques et géométriques des transformations birationales multilinéaires.Nous nous concentrons principalement sur les transformations birationnelles trilinéaires phi : (mathbb{P}^1)^3 dashrightarrow{} mathbb{P}^3 dont nous établissons une classification en fonction de la structure algébrique de leur espace, du lieu base, et des résolutions libres graduées minimales de l'idéal engendré par les polynômes de définition.En outre, nous développons les premières méthodes qui permettent de construire et de manipuler des transformations birationnelles non linéaires en dimension 3 avec une flexibilité suffisante pour les applications visées en modélisation géométrique.De plus, nous établissons une caractérisation de la birationalité basée sur le rang de tenseurs, qui permet de construire efficacement et ouvre la voie à l'application des outils de l'algèbre tensorielle à la birationnalité.Nous étendons également nos résultats aux transformations birationnelles multilinéaires en dimension arbitraire, dans le cas où il existe un inverse multilinéaire.Dans la deuxième partie, nous nous concentrons sur l'application des polynômes à l'analyse des données discrètes.Nous nous attaquons à deux problèmes distincts.Tout d'abord, nous dérivons des bornes pour la taille des (1-epsilon)-nets pour les ensembles de non-négativité de polynômes réels.Nos résultats nous permettent d'étendre le théorème classique du point central aux inégalités polynomiales de degré supérieur.Ensuite, nous abordons la classification des cylindres réels qui passent par cinq points qui sont tels que quatre d'entre eux sont cocycliques, c'est-à-dire qu'ils se trouvent sur un cercle.Il s'agit d'un cas particulier de problèmes plus généraux que sont la classification des racines réelles des systèmes de polynômes réels et l'extraction de primitives algébriques à partir de données brutes
This thesis explores two distinct subjects at the intersection of commutative algebra, algebraic geometry, multilinear algebra, and computer-aided geometric design:1. The study and effective construction of multilinear birational maps2. The extraction of information from measures and data using polynomialsThe primary and most extensive part of this work is devoted to multilinear birational maps.A multilinear birational map is a rational map phi: (mathbb{P}^1)^n dashrightarrow{} mathbb{P}^n, defined by multilinear polynomials, which admits an inverse rational map. Birational transformations between projective spaces have been a central theme in algebraic geometry, tracing back to the seminal works of Cremona, which has witnessed significant advancement in the last decades. Additionally, there has been a recent surge of interest in tensor-product birational maps, driven by the study of multiprojective spaces in commutative algebra and their practical application in computer-aided geometric design.In the first part, we address algebraic and geometric aspects of multilinear birational maps.We primarily focus on trilinear birational maps phi: (mathbb{P}^1)^3 dashrightarrow{} mathbb{P}^3, that we classify according to the algebraic structure of their space, base loci, and the minimal graded free resolutions of the ideal generated by the defining polynomials. Furthermore, we develop the first methods for constructing and manipulating nonlinear birational maps in 3D with sufficient flexibility for geometric modeling and design.Interestingly, we discover a characterization of birationality based on tensor rank, which yields effective constructions and opens the door to the application of tools from tensors to birationality. We also extend our results to multilinear birational maps in arbitrary dimension, in the case that there is a multilinear inverse.In the second part, our focus shifts to the application of polynomials in analyzing data and measures.We tackle two distinct problems. Firstly, we derive bounds for the size of (1-epsilon)-nets for superlevel sets of real polynomials. Our results allow us to extend the classical centerpoint theorem to polynomial inequalities of higher degree. Secondly, we address the classification of real cylinders through five-point configurations where four points are cocyclic, i.e. they lie on a circumference. This is an instance of the more general problems of real root classification of systems of real polynomials and the extraction of algebraic primitives from raw data
5

Miron, Sebastian. "Méthodes multilinéaires et hypercomplexes en traitement d'antenne multicomposante haute résolution." Phd thesis, Grenoble INPG, 2005. http://www.theses.fr/2005INPG0102.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Ce travail de recherche est consacré à l'élaboration des méthodes de traitement d'antenne multicapteur, multicomposante. Le traitement des signaux enregistrés par ce type d'antenne permet l'estimation de la direction d'arrivée et des paramètres de polarisation des ondes arrivant sur l'antenne. Nous montrons comment l'incorporation (d'une manière judicieuse) de l'information multicomposante permet d'améliorer les performances des algorithmes de traitement. L'originalité des méthodes proposées tient à l'utilisation des modèles mathématiques, sortant du cadre de l'algèbre vectorielle classique, et qui se trouvent particulièrement bien adaptés à la nature des signaux multicomposante. Une première approche est fondée sur un modèle tensoriel, permettant de conserver la structure multimodale des signaux. Le tenseur interspectral est introduit pour représenter la covariance des données. Nous proposons deux algorithmes (Vector-MUSIC et Higher-Order MUSIC) basés sur des décompositions orthogonales du tenseur interspectral. Nous montrons, sur des simulations, que l'utilisations du modèle tensoriel et des décompositions multilinéaires associées arnéliorent les performances des méthodes proposées par rapport à celles atteignables avec les techniques classiques. Nous proposons également une approche en traitement d'antenne multicomposante fondée sur l'utilisation des algèbres hypercomplexes. Les vecteurs de quaternions et biquaternions sont utilisés pour modéliser les signaux polarisés enregistrés par une antenne à deux, trois ou quatre composantes. Deux algorithmes (Quaternion-MUSIC et Biquaternion-MUSIC), basés sur la diagonalisation des matrices de quaternions et de biquaternions, sont introduits. Nous montrons que l'utilisation des nombres hypercomplexes réduit le temps de calcul et améliore la résolution des méthodes
This research is devoted 1,0 vector-sensor array processing methods. The signaIs recorded on a vector-sensor array allow the estimation of the direction of arrivaI and polarization for multiple waves impinging on the antenna. We show how the correct use of polarization information improves the performance of algorithms. The novelty of the presented work consists in the use of mathematical models well-adapted 1,0 the intrinsic nature of vectorial signaIs. The first approach is based on a multilinear model of polarization that preserves the intrinsic structure of multicomponent acquisition. Ln this case, the data covariance model is represented by a cross-spectral tensor. We propose two algorithms (Vector-MUSIC and Higher-Order MUSIC) based on orthogonal decompositions of the cross-spectral tensor. We show in simulations that the use of this model and of the multilinear orthogonal decompositions improve the performance of the proposed methods compared to classical techniques based on linear algebra. A second approach uses hypercomplex algebras. Quaternion and biquaternion vectors are used to model the polarized signaIs recorded on two, three or four component sensor arrays. Quaternion-MUSIC and Biquaternion-MUSIC algorithrns, based on the diagonalization of quaternion and biquaternion matrices are introduced. We show that the use of hypercornplex numbers reduces the computational burden and increases the solution power of the methods
6

Heraud, Nicolas. "Validation de données et observabilité des systèmes multilinéairesé." Vandoeuvre-les-Nancy, INPL, 1991. http://www.theses.fr/1991INPL082N.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le travail présenté concerne la validation de données et l'observabilité des systèmes multilinéaires dans le but d'effectuer le diagnostic de l'instrumentation d'une installation. Après un rappel sur la validation de données et l'observabilité des systèmes linéaires, ces notions sont étendues aux systèmes multilinéaires. Différentes méthodes, telles que le calcul hiérarchisé, la linéarisation des contraintes et les fonctions de pénalisation sont présentées pour l'estimation des valeurs vraies en présence de mesures manquantes. Ces différentes méthodes sont comparées et un algorithme récursif d'estimations utilisant les techniques de linéarisation des contraintes et des fonctions de pénalisation est presenté. La validation de données ne peut être effectuée que sur des systèmes observables. Nous avons donc développé une méthodologie originale, basée sur l'emploi de diagrammes arborescents, qui permet d'extraire les équations du procédé correspondant à sa partie observable. La technique de validation de données a été appliquée avec succès sur un procédé complexe de traitement de minerai d'uranium de la société total compagnie minière France. L'installation partiellement instrumentée permet de disposer de mesures de flux volumique, de masse volumique, de teneur d'uranium dans la phase solide et liquide des flux. Outre l'obtention de données cohérentes, l'analyse des résultats de la validation permet de détecter d'éventuels défauts sur l'instrumentation
The aim of this study is to investigate data validation and observability of miltilinear systems to diagnose instrumentation in a process. Data validation and observability in linear systems are first reviewed and these notions are extended to multilinear systems. Differents methods such as hierarchical computation, constraint linearization and penalization functions, are presented to estimate true values when some values are lacking. After comparing the different methods, a recurrent calculus of estimates using constraint linearization and penalization functions is developed. An observable system is required in order to perform data validation. Thus, we developed an original method, based on arborescent diagrams. The technique of data validation has been successfully applied to a complex uranium processing plant owned by the French company Total Compagnie Minière France. On this partially instrumented process, measurements for volumic flow, density and uranium in both solid and liquid phase are available. The analysis allows first to obtain coherent date. Furthemore, it can be used to detect sensors faults
7

Letexier, Damien. "Filtrages tensoriels adaptatifs pour la restauration d'images multidimensionnelles." Aix-Marseille 3, 2009. http://www.theses.fr/2009AIX30019.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse est consacrée à l'élaboration de filtres pour la restauration d'images multidimensionnelles. Nous adoptons un formalisme tensoriel. Ainsi, les différentes interactions entre les paramètres des données sont conservées. Divers filtres multidimensionnels sont présentés et comparés comme l'approximation par tenseur de rangs inférieurs ou filtre de Wiener multidimensionnel. Cependant, ces filtres utilisent des déploiements orthogonaux de tenseurs qui ne prennent pas en compte les spécificités des données. Dans le cas de l'imagerie multidimensionnelle, nous proposons alors un déploiement spécifique permettant d'améliorer le rapport signal sur bruit final. Les directions de déploiement sont estimées en estimant les contours rectilignes des images. Enfin, nous proposons d'utiliser des cumulants d'ordre quatre afin de supprimer un bruit Gaussien blanc ou corrélé présent dans les données. Des exemples sont proposés pour l'imagerie couleur et l'imagerie hyperspectrale
This thesis is devoted to multidimensional signal processing. The main interest of the proposed methods relies on the tensor modeling of data sets. Therefore, the whole parameters are considered while processing tensors. Multilinear algebra tools are required to design the presented multidimensional filters : higher order singular value troncature, lower rank tensor approximation or multidimensional Wiener filtering. However, these filters use an orthogonal flattening step that may not be adapted to data. A new method is proposed to avoid this shortcoming. This is useful for image applications such as color or hyperspectral images. It is shown that the signal to noise ratio can be improved if flattening directions are chose properly. This manuscript also propose a new method including higher order statistics to remove Gaussian components from multidimensional data. Some examples are given for color and hyperspectral images
8

Karfoul, Ahmad. "Canonical decomposition of hermitian arrays : application to ICA and blind underdetermined mixture identification." Rennes 1, 2009. http://www.theses.fr/2009REN1S215.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'objet de cette thèse est de proposer de nouvelles méthodes de décomposition canonique (CAND pour CANonical Decomposition) à partir de tableaux Hermitiens d'ordre supérieur. Ceci permet de répondre à des problématiques où la CAND est considérée comme un outil permettant de réaliser l'Analyse en Composante Indépendantes (ACI) et l'identification aveugle de mélange sous-déterminé. Dans un premier temps on propose une famille de méthodes de décomposition canonique conjointe de tableaux Hermitien. Cette famille de méthode contient deux approches, semi-algébrique et itérative. Concernant la partie itérative on propose également une nouvelle méthode de type ALS (Alternat Least Square) qui exploite la symétrie Hermitienne. Notre deuxième contribution consiste à évaluer le gain qu’on peut obtenir en termes de la vitesse de convergence et la complexité lorsqu’on exploite la symétrie dans le tableau qu’on traite. De plus, on propose une manière efficace de relier les approches semi-algébriques aux approches itératives de façon à approcher de la solution optimale. Finalement une étude de complexité de différentes méthodes de l’ACI a été
The goal of this thesis is to propose new methods for CANonical Decomposition (CAND) of Higher Order (HO) Hermitian arrays. The main motivation is to solve the Independent Component Analysis (ICA) and the blind under-determined mixture identification problems. First, we propose a new family of methods to jointly decompose several HO Hermitian arrays. This family involves two different approaches; semi-algebraic and iterative. Regarding the iterative one we propose a new ALS (Alternate Least Square)-like method that contrary to the classical ALS one fully exploits the symmetry in the HO array it processes. Second, we evaluate the impact of exploiting the symmetry that resides in the HO array we process. That is in terms of convergence speed and numerical complexity giving rise to a new iterative algorithm. Third, we propose an efficient way to rely iterative approaches to semi-algebraic ones in such a way a better solution is guaranteed. Finally the numerical complexity of different ICA methods is studied
9

Renard, Nadine. "Traitement du signal tensoriel. Application à l'imagerie hyperspectrale." Aix-Marseille 3, 2008. http://www.theses.fr/2008AIX30062.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse est consacrée au développement et à l’étude de méthodes algébriques pour l’analyse des données hyperspectrales. Une nouvelle représentation des données par un tenseur d’ordre 3 a permis la proposition de méthodes originales, impliquant l’utilisation d’outils d’algèbre multilinéaire. De ce fait, les méthodes développées sont dites multidimensionnelles ou multimodales. Basées sur la décomposition tensorielle de TUCKER, elles analysent conjointement le mode spatial et spectral. Cette thèse répond à deux problématiques. La première concerne la réduction du bruit. Une technique de détection robuste au bruit est proposée en incorporant un filtrage de Wiener multimodal. Les filtres de Wiener n-modaux (spatiaux et spectraux) sont estimés en minimisant l’erreur quadratique moyenne entre le tenseur utile et estimé. La deuxième problématique abordée est la réduction de la dimension spectrale. Le fléau de la grande dimension des données dégrade les estimations statistiques lors du processus de classification des données. Dans ce cadre, nous avons développé une méthode basée sur la réduction du mode spectral par transformation linéaire, qui approxime simultanément le mode spatial en rangs inférieurs. Les deux méthodes multimodales sont respectivement évaluées en observant leur impact sur la qualité de détection et de classification. Ces résultats révèlent l’intérêt de considérer une analyse spatiale/spectrale par rapport aux techniques uniquement spectrales ou hybrides analysant séquentiellement le mode spectral et spatial
This thesis focus on developing new algebraic methods for hyperspectral applications. The proposed method are original because based on new data representation using third-order tensor. This data representation involves the use of multilinear algebra tools. The proposed methods are referred to as multiway or multimodal methods. TUCKER tensor decompositionbased methods jointly analyze the spatial and spectral modes using an alternating least squares algorithm. This thesis focus on two problematics specific to hyperspectral images. The first one concerns noise reduction. The considered additive noise is due to the acquisition system and degrades the target detection efficiency. A robust to noise detection technique is proposed by incorporating a multimodal Wiener filter. The spatial and spectral n-mode filters are estimated by minimizing the mean squared error between the desired and estimated tensors. The second problematic is the spectral dimension reduction. The curse of the dimensionality degrades the statistical estimation for the classification process. For this issue, the proposed multimodal reduction method reduces the spectral mode by linear transformation jointly to the lower spatial ranks approximation. This method extends the traditional dimension reduction methods. These two multimodal methods are respectively assessed in respect to their impact on detection and classification efficiency. These results highlight the interest of the spatial/spectral analysis in comparison to the traditional spectral analysis only and the hybrid ones which process sequentially the spectral and the spatial mode
10

Boizard, Mélanie. "Développement et études de performances de nouveaux détecteurs/filtres rang faible dans des configurations RADAR multidimensionnelles." Electronic Thesis or Diss., Cachan, Ecole normale supérieure, 2013. http://www.theses.fr/2013DENS0063.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans le cadre du traitement statistique du signal, la plupart des algorithmes couramment utilisés reposent sur l'utilisation de la matrice de covariance des signaux étudiés. En pratique, ce sont les versions adaptatives de ces traitements, obtenues en estimant la matrice de covariance à l'aide d'échantillons du signal, qui sont utilisés. Ces algorithmes présentent un inconvénient : ils peuvent nécessiter un nombre d'échantillons important pour obtenir de bons résultats. Lorsque la matrice de covariance possède une structure rang faible, le signal peut alors être décomposé en deux sous-espaces orthogonaux. Les projecteurs orthogonaux sur chacun de ces sous espaces peuvent alors être construits, permettant de développer des méthodes dites rang faible. Les versions adaptatives de ces méthodes atteignent des performances équivalentes à celles des traitements classiques tout en réduisant significativement le nombre d'échantillons nécessaire. Par ailleurs, l'accroissement de la taille des données ne fait que renforcer l'intérêt de ce type de méthode. Cependant, cet accroissement s'accompagne souvent d'un accroissement du nombre de dimensions du système. Deux types d'approches peuvent être envisagées pour traiter ces données : les méthodes vectorielles et les méthodes tensorielles. Les méthodes vectorielles consistent à mettre les données sous forme de vecteurs pour ensuite appliquer les traitements classiques. Cependant, lors de la mise sous forme de vecteur, la structure des données est perdue ce qui peut entraîner une dégradation des performances et/ou un manque de robustesse. Les méthodes tensorielles permettent d'éviter cet écueil. Dans ce cas, la structure est préservée en mettant les données sous forme de tenseurs, qui peuvent ensuite être traités à l'aide de l'algèbre multilinéaire. Ces méthodes sont plus complexes à utiliser puisqu'elles nécessitent d'adapter les algorithmes classiques à ce nouveau contexte. En particulier, l'extension des méthodes rang faible au cas tensoriel nécessite l'utilisation d'une décomposition tensorielle orthogonale. Le but de cette thèse est de proposer et d'étudier des algorithmes rang faible pour des modèles tensoriels. Les contributions de cette thèse se concentrent autour de trois axes. Un premier aspect concerne le calcul des performances théoriques d'un algorithme MUSIC tensoriel basé sur la Higher Order Singular Value Decomposition (HOSVD) et appliqué à un modèle de sources polarisées. La deuxième partie concerne le développement de filtres rang faible et de détecteurs rang faible dans un contexte tensoriel. Ce travail s'appuie sur une nouvelle définition de tenseur rang faible et sur une nouvelle décomposition tensorielle associée : l'Alternative Unfolding HOSVD (AU-HOSVD). La dernière partie de ce travail illustre l'intérêt de l'approche tensorielle basée sur l'AU-HOSVD, en appliquant ces algorithmes à configuration radar particulière: le Traitement Spatio-Temporel Adaptatif ou Space-Time Adaptive Process (STAP)
Most of statistical signal processing algorithms, are based on the use of signal covariance matrix. In practical cases this matrix is unknown and is estimated from samples. The adaptive versions of the algorithms can then be applied, replacing the actual covariance matrix by its estimate. These algorithms present a major drawback: they require a large number of samples in order to obtain good results. If the covariance matrix is low-rank structured, its eigenbasis may be separated in two orthogonal subspaces. Thanks to the LR approximation, orthogonal projectors onto theses subspaces may be used instead of the noise CM in processes, leading to low-rank algorithms. The adaptive versions of these algorithms achieve similar performance to classic classic ones with less samples. Furthermore, the current increase in the size of the data strengthens the relevance of this type of method. However, this increase may often be associated with an increase of the dimension of the system, leading to multidimensional samples. Such multidimensional data may be processed by two approaches: the vectorial one and the tensorial one. The vectorial approach consists in unfolding the data into vectors and applying the traditional algorithms. These operations are not lossless since they involve a loss of structure. Several issues may arise from this loss: decrease of performance and/or lack of robustness. The tensorial approach relies on multilinear algebra, which provides a good framework to exploit these data and preserve their structure information. In this context, data are represented as multidimensional arrays called tensor. Nevertheless, generalizing vectorial-based algorithms to the multilinear algebra framework is not a trivial task. In particular, the extension of low-rank algorithm to tensor context implies to choose a tensor decomposition in order to estimate the signal and noise subspaces. The purpose of this thesis is to derive and study tensor low-rank algorithms. This work is divided into three parts. The first part deals with the derivation of theoretical performance of a tensor MUSIC algorithm based on Higher Order Singular Value Decomposition (HOSVD) and its application to a polarized source model. The second part concerns the derivation of tensor low-rank filters and detectors in a general low-rank tensor context. This work is based on a new definition of tensor rank and a new orthogonal tensor decomposition : the Alternative Unfolding HOSVD (AU-HOSVD). In the last part, these algorithms are applied to a particular radar configuration : the Space-Time Adaptive Process (STAP). This application illustrates the interest of tensor approach and algorithms based on AU-HOSVD
11

Cailly, Alexis. "Traitement du signal multidimensionnel pour les images hyperspectrales en présence d'objets de faibles dimensions spatiales." Ecole centrale de Marseille, 2012. http://www.theses.fr/2012ECDM0008.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
12

Boizard, Maxime. "Développement et études de performances de nouveaux détecteurs/filtres rang faible dans des configurations RADAR multidimensionnelles." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2013. http://tel.archives-ouvertes.fr/tel-00996967.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans le cadre du traitement statistique du signal, la plupart des algorithmes couramment utilisés reposent sur l'utilisation de la matrice de covariance des signaux étudiés. En pratique, ce sont les versions adaptatives de ces traitements, obtenues en estimant la matrice de covariance à l'aide d'échantillons du signal, qui sont utilisés. Ces algorithmes présentent un inconvénient : ils peuvent nécessiter un nombre d'échantillons important pour obtenir de bons résultats. Lorsque la matrice de covariance possède une structure rang faible, le signal peut alors être décomposé en deux sous-espaces orthogonaux. Les projecteurs orthogonaux sur chacun de ces sous espaces peuvent alors être construits, permettant de développer des méthodes dites rang faible. Les versions adaptatives de ces méthodes atteignent des performances équivalentes à celles des traitements classiques tout en réduisant significativement le nombre d'échantillons nécessaire. Par ailleurs, l'accroissement de la taille des données ne fait que renforcer l'intérêt de ce type de méthode. Cependant, cet accroissement s'accompagne souvent d'un accroissement du nombre de dimensions du système. Deux types d'approches peuvent être envisagées pour traiter ces données : les méthodes vectorielles et les méthodes tensorielles. Les méthodes vectorielles consistent à mettre les données sous forme de vecteurs pour ensuite appliquer les traitements classiques. Cependant, lors de la mise sous forme de vecteur, la structure des données est perdue ce qui peut entraîner une dégradation des performances et/ou un manque de robustesse. Les méthodes tensorielles permettent d'éviter cet écueil. Dans ce cas, la structure est préservée en mettant les données sous forme de tenseurs, qui peuvent ensuite être traités à l'aide de l'algèbre multilinéaire. Ces méthodes sont plus complexes à utiliser puisqu'elles nécessitent d'adapter les algorithmes classiques à ce nouveau contexte. En particulier, l'extension des méthodes rang faible au cas tensoriel nécessite l'utilisation d'une décomposition tensorielle orthogonale. Le but de cette thèse est de proposer et d'étudier des algorithmes rang faible pour des modèles tensoriels. Les contributions de cette thèse se concentrent autour de trois axes. Un premier aspect concerne le calcul des performances théoriques d'un algorithme MUSIC tensoriel basé sur la Higher Order Singular Value Decomposition (HOSVD) et appliqué à un modèle de sources polarisées. La deuxième partie concerne le développement de filtres rang faible et de détecteurs rang faible dans un contexte tensoriel. Ce travail s'appuie sur une nouvelle définition de tenseur rang faible et sur une nouvelle décomposition tensorielle associée : l'Alternative Unfolding HOSVD (AU-HOSVD). La dernière partie de ce travail illustre l'intérêt de l'approche tensorielle basée sur l'AU-HOSVD, en appliquant ces algorithmes à configuration radar particulière: le Traitement Spatio-Temporel Adaptatif ou Space-Time Adaptive Process (STAP).
13

Marot, Julien. "Méthodes par sous-espaces et d'optimisation : application au traitement d'antenne, à l'analyse d'images, et au traitement de données tensorielles." Aix-Marseille 3, 2007. http://www.theses.fr/2007AIX30051.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse est consacrée aux méthodes par sous-espaces et d'optimisation, développées en traitement d'antenne, analyse d'images, et traitement du signal tensoriel. Des définitions concernant un problème de traitement d'antenne et les méthodes haute résolution sont présentées. Nous proposons une méthode d'optimisation appliquée à la localisation de sources en présence de distortions de phase pour un grand nombre de capteurs. Nous proposons des méthodes rapides pour l'estimation de l'orientation et de l'offset de contours rectilignes, plusieurs méthodes d'optimisation pour l'estimation de contours distordus, approximativement rectilignes ou circulaires. Nous donnons un état de l'art sur les méthodes de traitement du signal multidimensionnel: la troncature de la HOSVD, l'approximation de rang inférieur d'un tenseur, le filtre de Wiener multidimensionnel. Nous proposons une procédure de déploiement nonorthogonal de tenseur, utilisant la méthode présentée dans la première partie
This thesis is devoted to subspace-based and optimization methods, developed in array processing, image processing, tensor signal processing. Definitions concerning an array processing problem and high resolution methods are presented. We propose an optimization method applied to source detection in presence of phase distortions for a high number of sensors. We propose fast subspace-based methods for the estimation of straight line offset and orientation, several optimization methods to estimate distorted contours, nearly straight or circular. We provide a state-of-the art about multiway signal processing: truncation of the HOSVD, lower rank tensor approximation, multiway Wiener filtering. We propose a procedure for nonorthogonal tensor flattening, using the method presented in the first part
14

Bernicot, Frederic. "Contribution à l'étude des opérateurs multilinéaires et des espaces de Hardy." Phd thesis, Université Paris Sud - Paris XI, 2007. http://tel.archives-ouvertes.fr/tel-00199735.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse est composée de deux parties indépendantes. La première partie concerne l'étude des opérateurs bilinéaires. On consacre les deux premiers chapitres à détailler les arguments d'une décomposition "temps-fréquence" afin d'obtenir des estimations localisées sur ces opérateurs. En utilisant ces estimations hors-diagonales, nous obtenons principalement les continuités de ces opérateurs bilinéaires sur les espaces de Lebesgue et les espaces de Sobolev. Nous finissons ce deuxième chapitre par l'étude d'un calcul pseudo-différentiel bilinéaire. Le troisième chapitre porte sur une étude géométrique de ces opérateurs bilinéaires. Afin de compléter ce travail, nous étudions dans le quatrième chapitre différents résultats divers tels qu'une généralisation des résultats pour des variables multi-dimensionnelles. La deuxième partie porte sur la notion d'espace de Hardy. On y définit une construction abstraite de nouveaux espaces de Hardy. Puis en comparant avec les espaces de Hardy déjà connus et utilisés, nous essayons de dégager les conditions minimales pour conserver les propriétés essentielles de ces espaces. Nous obtenons donc un critère pour obtenir la continuité $H^1-L^1$ de certains opérateurs. Nous nous intéressons ensuite à l'étude des espaces intermédiaires par interpolation entre ces espaces $H^1$ obtenus et les espaces de Lebesgue. Nous finissons ensuite par appliquer ces résultats abstraits pour répondre au problème de régularité maximale $L^p$ sur les équations d'évolution.
15

Bernicot, Frédéric. "Contribution à l'étude des opérateurs multilinéaires et des espaces de Hardy." Paris 11, 2007. http://www.theses.fr/2007PA112197.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse est composée de deux parties indépendantes. La première partie concerne l'étude des opérateurs bilinéaires. On consacre les deux premiers chapitres à détailler les arguments d'une décomposition "temps-fréquence" afin d'obtenir des estimations localisées sur ces opérateurs. En utilisant ces estimations hors-diagonales, nous obtenonsprincipalement des continuités de ces opérateurs bilinéaires sur les espaces de Lebesgue et les espaces de Sobolev. Nous finissons ce deuxième chapitre par l'étude d'un calcul pseudo-différentiel bilinéaire. Le troisième chapitre porte sur une étude géométrique de ces opérateurs bilinéaires. Afin de compléter ce travail, nous étudions dans le quatrième chapitre des résultats divers tels qu'une généralisation des résultats pour des variables multi-dimensionnelles. La deuxième partie porte sur la notion d'espace de Hardy. On y définit une construction abstraite de nouveaux espaces de Hardy. Puis en comparant avec les espaces de Hardy déjà connus et utilisés, nous essayons de dégager les conditions minimales pour conserver les propriétés essentielles de ces espaces. Nous obtenons donc un critère pour obtenir la continuité H^1-L^1 de certains opérateurs. Nous nous intéressons ensuite à l'étude des espaces intermédiaires par interpolation entre ces espaces H^1 obtenus et les espaces de Lebesgue. Nous finissons cette partie par appliquer ces résultats abstraits pour répondre au problème de régularité maximale L^p sur les équations d'évolution
This thesis contains two independent parts. In the first one, we are interested in the study of bilinear operators. We dedicate the two first chapters, to describe "time-frequency" arguments aiming to get local estimates about these operators. Using these "off-diagonal" estimates, we mainly get the continuities of these bilinear operators on Lebesgue spaces and Sobolev spaces. At the end of the second chapter, we study a bilinear pseudo-differential calculus. The third chapter is about a geometrical study of these bilinear operators. To complete this work, in the fourth chapter, we study some various results, for example, we try to generalize our results to multi-dimensional variables. The second part is about the concept of "Hardy spaces". We define an abstract construction of new Hardy spaces. Then, comparing with the already known and studied Hardy spaces, we try to clear up the minimal conditions to keep the main properties of these spaces. So we also get a criterion in order to prove the H^1-L^1continuity of some operators. Then we take an interest in the study of intermediate spaces, got by interpolation between these new H^1 spaces and Lebesgue spaces. Finally, we use our abstract theory to solve the problem of L^p maximal regularity on evolution differential equations
16

Boudehane, Abdelhak. "Structured-joint factor estimation for high-order and large-scale tensors." Electronic Thesis or Diss., université Paris-Saclay, 2022. http://www.theses.fr/2022UPASG085.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les données et les signaux multidimensionnels occupent une place importante dans les applications modernes. La décomposition tensorielle est un outil mathématique puissant permettant de modéliser les données et les signaux multidimensionnels, tout en préservant les relations interdimensionnelles. Le modèle Canonique Polyadique (CP), un modèle de décomposition tensorielle largement utilisé, est unique à des indéterminations d'échelle et de permutation près. Cette propriété facilite l'interprétation physique, ce qui a encouragé l'intégration du modèle CP dans divers contextes. Le défi auquel est confrontée la modélisation tensorielle est la complexité de calcul et l'espace mémoire requis. Les tenseurs d'ordre élevé représentent un problème délicat, car la complexité de calcul et l'espace mémoire requis augmentent de façon exponentielle en fonction de l'ordre. Les tenseurs de grandes tailles (lorsque le nombre de variables selon une ou plusieurs dimensions du tenseur est important) ajoute un fardeau supplémentaire. La théorie des réseaux de tenseurs (Tensor Networks - TN) est une piste prometteuse, permettant de réduire les problèmes d'ordre élevé en un ensemble de problèmes d'ordre réduit. En particulier, le modèle Tensor-Train (TT), l'un des modèles TN, est un terrain intéressant pour la réduction de la dimensionnalité. Cependant, représenter un modèle CP par une représentation TT est extrêmement coûteux dans le cas des tenseurs de grande taille, car il nécessite la matricisation complète du tenseur, ce qui peut dépasser la capacité mémoire.Dans cette thèse, nous étudions la réduction de la dimensionnalité dans le contexte de la décomposition tensorielle sous-contrainte de sparsité et la décomposition couplée d'ordre élevé. Sur la base des résultats du schéma JIRAFE (Joint dImensionality Reduction And Factor rEtrieval), nous utilisons la flexibilité du modèle TT pour intégrer les contraintes physiques et les connaissances préalables sur les facteurs, dans le but de réduire le temps de calcul. Pour les problèmes de grandes tailles, nous proposons un schéma permettant de paralléliser et de randomiser les différentes étapes, i.e., la réduction de dimensionnalité et l'estimation des facteurs du modèle CP. Nous proposons également une stratégie basée sur la grille de tenseur, permettant un traitement entièrement parallèle pour le cas des très grandes tailles et de la décomposition tensorielle dynamique
Multidimensional data sets and signals occupy an important place in recent application fields. Tensor decomposition represents a powerful mathematical tool for modeling multidimensional data and signals, without losing the interdimensional relations. The Canonical Polyadic (CP) model, a widely used tensor decomposition model, is unique up to scale and permutation indeterminacies. This property facilitates the physical interpretation, which has led the integration of the CP model in various contexts. The main challenge facing the tensor modeling is the computational complexity and memory requirements. High-order tensors represent a important issue, since the computational complexity and the required memory space increase exponentially with respect to the order. Another issue is the size of the tensor in the case of large-scale problems, which adds another burden to the complexity and memory. Tensor Networks (TN) theory is a promising framework, allowing to reduce high-order problems into a set of lower order problems. In particular, the Tensor-Train (TT) model, one of the TN models, is an interesting ground for dimensionality reduction. However, respresenting a CP tensor using a TT model, is extremely expensive in the case of large-scale tensors, since it requires full matricization of the tensor, which may exceed the memory capacity.In this thesis, we study the dimensionality reduction in the context of sparse-coding and high-order coupled tensor decomposition. Based on the results of Joint dImensionality Reduction And Factor rEtrieval (JIRAFE) scheme, we use the flexibility of the TT model to integrate the physical driven constraints and the prior knowledge on the factors, with the aim to reduce the computation time. For large-scale problems, we propose a scheme allowing to parallelize and randomize the different steps, i.e., the dimensionality reduction and the factor estimation. We also propose a grid-based strategy, allowing a full parallel processing for the case of very large scales and dynamic tensor decomposition
17

Gloaguen, Arnaud. "A statistical and computational framework for multiblock and multiway data analysis." Electronic Thesis or Diss., université Paris-Saclay, 2020. http://www.theses.fr/2020UPASG016.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'étude des relations entre plusieurs ensembles de variables mesurées sur un même groupe d'individus est un défi majeur en statistique. La littérature fait référence à ce paradigme sous plusieurs termes : "analyse de données multimodales", "intégration de données", "fusion de données" ou encore "analyse de données multibloc". Ce type de problématique se retrouve dans des domaines aussi variés que la biologie, la chimie, l'analyse multi-capteurs, le marketing, la recherche agro-alimentaire, où l'objectif commun est d'identifier les variables de chaque bloc intervenant dans les intéractions entre blocs. Par ailleurs, il est possible que chaque bloc soit composé d'un très grand nombre de variables (~1M), nécessitant le calcul de milliards d'associations. L'élaboration d'un cadre statistique épousant la complexité et l'hétérogénéité des données est donc primordial pour mener une analyse pertinente.Le développement de méthodes d'analyse de données hétérogènes, potentiellement de grande dimension, est au coeur de ce travail. Ces développements se basent sur l'Analyse Canonique Généralisée Régularisée (RGCCA), un cadre général pour l'analyse de données multiblocs. Le coeur algorithmique de RGCCA se résume à un unique "update", répété jusqu'à convergence. Si cet update possède certaines "bonnes" propriétés, la convergence globale de l'algorithme est garantie. Au cours de ces travaux, le cadre algorithmique de RGCCA a été étendu dans plusieurs directions :(i) Du séquentiel au global. Plutôt que d'extraire de chaque bloc les composantes de manière séquentielle, un problème d'optimisation globale permettant de construire ces composantes simultanément a été proposé.(ii) De la matrice au tenseur. L'Analyse Canonique Généralisée Multivoie (MGCCA) étend RGCCA à l'analyse conjointe d'un ensemble de tenseurs. Des versions séquentielle et globale de MGCCA ont été proposées. La convergence globale de ces algorithmes est montrée.(iii) De la parcimonie à la parcimonie structurée. Le coeur de l'algorithme d'Analyse Canonique Généralisée Parcimonieuse (SGCCA) a été amélioré en fournissant un algorithme à convergence globale beaucoup plus rapide. Des contraintes de parcimonie structurée ont également été ajoutées à SGCCA.Dans une seconde partie, l'analyse de plusieurs jeux de données est menée à l'aide de ces nouvelles méthodes. La polyvalence des ces outils est démontrée sur (i) deux études en imagerie-génétique, (ii) deux études en électroencéphalographie ainsi (iii) qu'une étude en microscopie Raman. L'accent est mis sur l'interprétation des résultats facilitée par la prise en compte des structures multiblocs, tensorielles et/ou parcimonieuses
A challenging problem in multivariate statistics is to study relationships between several sets of variables measured on the same set of individuals. In the literature, this paradigm can be stated under several names as “learning from multimodal data”, “data integration”, “data fusion” or “multiblock data analysis”. Typical examples are found in a large variety of fields such as biology, chemistry, sensory analysis, marketing, food research, where the common general objective is to identify variables of each block that are active in the relationships with other blocks. Moreover, each block can be composed of a high number of measurements (~1M), which involves the computation of billion(s) of associations. A successful investigation of such a dataset requires developing a computational and statistical framework that fits both the peculiar structure of the data as well as its heterogeneous nature.The development of multivariate statistical methods constitutes the core of this work. All these developments find their foundations on Regularized Generalized Canonical Correlation Analysis (RGCCA), a flexible framework for multiblock data analysis that grasps in a single optimization problem many well known multiblock methods. The RGCCA algorithm consists in a single yet very simple update repeated until convergence. If this update is gifted with certain conditions, the global convergence of the procedure is guaranteed. Throughout this work, the optimization framework of RGCCA has been extended in several directions:(i) From sequential to global. We extend RGCCA from a sequential procedure to a global one by extracting all the block components simultaneously with a single optimization problem.(ii) From matrix to higher order tensors. Multiway Generalized Canonical Correlation Analysis (MGCCA) has been proposed as an extension of RGCCA to higher order tensors. Sequential and global strategies have been designed for extracting several components per block. The different variants of the MGCCA algorithm are globally convergent under mild conditions.(iii) From sparsity to structured sparsity. The core of the Sparse Generalized Canonical Correlation Analysis (SGCCA) algorithm has been improved. It provides a much faster globally convergent algorithm. SGCCA has been extended to handle structured sparse penalties.In the second part, the versatility and usefulness of the proposed methods have been investigated on various studies: (i) two imaging-genetic studies, (ii) two Electroencephalography studies and (iii) one Raman Microscopy study. For these analyses, the focus is made on the interpretation of the results eased by considering explicitly the multiblock, tensor and sparse structures
18

Girka, Fabien. "Development of new statistical/ML methods for identifying multimodal factors related to the evolution of Multiple Sclerosis." Electronic Thesis or Diss., université Paris-Saclay, 2023. http://www.theses.fr/2023UPASG075.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'étude d'un phénomène à travers plusieurs modalités peut permettre de mieux en comprendre les mécanismes sous-jacents par rapport à l'étude indépendante des différentes modalités. Dans l'optique d'une telle étude, les données sont souvent acquises par différentes sources, donnant lieu à des jeux de données multimodaux/multi-sources/multiblocs. Un cadre statistique explicitement adapté pour l'analyse jointe de données multi-sources est l'Analyse Canonique des Corrélations Généralisée Régularisée (RGCCA). RGCCA extrait des vecteurs et composantes canoniques qui résument les différentes modalités et leurs interactions.Les contributions de cette thèse sont de quatre ordres. (i) Améliorer et enrichir le package R pour RGCCA afin de démocratiser son usage. (ii) Etendre le cadre de RGCCA pour mieux prendre en compte les données tensorielles en imposant une décomposition tensorielle de rang faible aux vecteurs canoniques extraits par la méthode. (iii) Proposer et étudier des approches simultanées de RGCCA pour obtenir toutes les composantes canoniques d'un seul coup. Les méthodes proposées ouvrent la voie à de nouveaux développements de RGCCA. (iv) Utiliser les outils et l'expertise développés pour analyser des données sur la sclérose en plaques et la leucodystrophie. L'accent est mis sur l'identification de biomarqueurs permettant de différencier les patients des témoins sains ou de trouver des différences entre groupes de patients
Studying a given phenomenon under multiple views can reveal a more significant part of the mechanisms at stake rather than considering each view separately. In order to design a study under such a paradigm, measurements are usually acquired through different modalities resulting in multimodal/multiblock/multi-source data. One statistical framework suited explicitly for the joint analysis of such multi-source data is Regularized Generalized Canonical Correlation Analysis (RGCCA). RGCCA extracts canonical vectors and components that summarize the different views and their interactions. The contributions of this thesis are fourfold. (i) Improve and enrich the RGCCA R package to democratize its use. (ii) Extend the RGCCA framework to better handle tensor data by imposing a low-rank tensor factorization to the extracted canonical vectors. (iii) Propose and investigate simultaneous versions of RGCCA to get all canonical components at once. The proposed methods pave the way for new extensions of RGCCA. (iv) Use the developed tools and expertise to analyze multiple sclerosis and leukodystrophy data. A focus is made on identifying biomarkers differentiating between patients and healthy controls or between groups of patients
19

Cohen, Jérémy E. "Fouille de données tensorielles environnementales." Thesis, Université Grenoble Alpes (ComUE), 2016. http://www.theses.fr/2016GREAT054/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Parmi les techniques usuelles de fouille de données, peu sont celles capables de tirer avantage de la complémentarité des dimensions pour des données sous forme de tableaux à plusieurs dimensions. A l'inverse les techniques de décomposition tensorielle recherchent spécifiquement les processus sous-jacents aux données, qui permettent d'expliquer les données dans toutes les dimensions. Les travaux rapportés dans ce manuscrit traitent de l'amélioration de l'interprétation des résultats de la décomposition tensorielle canonique polyadique par l'ajout de connaissances externes au modèle de décomposition, qui est par définition un modèle aveugle n'utilisant pas la connaissance du problème physique sous-jacent aux données. Les deux premiers chapitres de ce manuscrit présentent respectivement les aspects mathématiques et appliqués des méthodes de décomposition tensorielle. Dans le troisième chapitre, les multiples facettes des décompositions sous contraintes sont explorées à travers un formalisme unifié. Les thématiques abordées comprennent les algorithmes de décomposition, la compression de tenseurs et la décomposition tensorielle basée sur les dictionnaires. Le quatrième et dernier chapitre présente le problème de la modélisation d'une variabilité intra-sujet et inter-sujet au sein d'un modèle de décomposition contraint. L'état de l'art en la matière est tout d'abord présenté comme un cas particulier d'un modèle flexible de couplage de décomposition développé par la suite. Le chapitre se termine par une discussion sur la réduction de dimension et quelques problèmes ouverts dans le contexte de modélisation de variabilité sujet
Among commonly used data mining techniques, few are those which are able to take advantage of the multiway structure of data in the form of a multiway array. In contrast, tensor decomposition techniques specifically look intricate processes underlying the data, where each of these processes can be used to describe all ways of the data array. The work reported in the following pages aims at incorporating various external knowledge into the tensor canonical polyadic decomposition, which is usually understood as a blind model. The first two chapters of this manuscript introduce tensor decomposition techniques making use respectively of a mathematical and application framework. In the third chapter, the many faces of constrained decompositions are explored, including a unifying framework for constrained decomposition, some decomposition algorithms, compression and dictionary-based tensor decomposition. The fourth chapter discusses the inclusion of subject variability modeling when multiple arrays of data are available stemming from one or multiple subjects sharing similarities. State of the art techniques are studied and expressed as particular cases of a more general flexible coupling model later introduced. The chapter ends on a discussion on dimensionality reduction when subject variability is involved, as well a some open problems
20

Degbey, Octavien. "Optimisation statique hiérarchisée des systèmes de grandes dimensions : Application à l'équilibrage de bilans de mesures." Nancy 1, 1987. http://www.theses.fr/1987NAN10158.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Optimisation statique hiérarchisée des systèmes industriels ; traitement hiérarchisé de l'équilibrage des bilans de mesure pour des systèmes statiques décrits par des équations de modèles multilinéaires homogènes à paramètres inconnus
21

Selmi, Mouna. "Reconnaissance d’activités humaines à partir de séquences vidéo." Thesis, Evry, Institut national des télécommunications, 2014. http://www.theses.fr/2014TELE0029/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse s’inscrit dans le contexte de la reconnaissance des activités à partir de séquences vidéo qui est une des préoccupations majeures dans le domaine de la vision par ordinateur. Les domaines d'application pour ces systèmes de vision sont nombreux notamment la vidéo surveillance, la recherche et l'indexation automatique de vidéos ou encore l'assistance aux personnes âgées. Cette tâche reste problématique étant donnée les grandes variations dans la manière de réaliser les activités, l'apparence de la personne et les variations des conditions d'acquisition des activités. L'objectif principal de ce travail de thèse est de proposer une méthode de reconnaissance efficace par rapport aux différents facteurs de variabilité. Les représentations basées sur les points d'intérêt ont montré leur efficacité dans les travaux d'art; elles ont été généralement couplées avec des méthodes de classification globales vue que ses primitives sont temporellement et spatialement désordonnées. Les travaux les plus récents atteignent des performances élevées en modélisant le contexte spatio-temporel des points d'intérêts par exemple certains travaux encodent le voisinage des points d'intérêt à plusieurs échelles. Nous proposons une méthode de reconnaissance des activités qui modélise explicitement l'aspect séquentiel des activités tout en exploitant la robustesse des points d'intérêts dans les conditions réelles. Nous commençons par l'extractivité des points d'intérêt dont a montré leur robustesse par rapport à l'identité de la personne par une étude tensorielle. Ces primitives sont ensuite représentées en tant qu'une séquence de sac de mots (BOW) locaux: la séquence vidéo est segmentée temporellement en utilisant la technique de fenêtre glissante et chacun des segments ainsi obtenu est représenté par BOW des points d'intérêt lui appartenant. Le premier niveau de notre système de classification séquentiel hybride consiste à appliquer les séparateurs à vaste marge (SVM) en tant que classifieur de bas niveau afin de convertir les BOWs locaux en des vecteurs de probabilités des classes d'activité. Les séquences de vecteurs de probabilité ainsi obtenues sot utilisées comme l'entrées de classifieur séquentiel conditionnel champ aléatoire caché (HCRF). Ce dernier permet de classifier d'une manière discriminante les séries temporelles tout en modélisant leurs structures internes via les états cachés. Nous avons évalué notre approche sur des bases publiques ayant des caractéristiques diverses. Les résultats atteints semblent être intéressant par rapport à celles des travaux de l'état de l'art. De plus, nous avons montré que l'utilisation de classifieur de bas niveau permet d'améliorer la performance de système de reconnaissance vue que le classifieur séquentiel HCRF traite directement des informations sémantiques des BOWs locaux, à savoir la probabilité de chacune des activités relativement au segment en question. De plus, les vecteurs de probabilités ont une dimension faible ce qui contribue à éviter le problème de sur apprentissage qui peut intervenir si la dimension de vecteur de caractéristique est plus importante que le nombre des données; ce qui le cas lorsqu'on utilise les BOWs qui sont généralement de dimension élevée. L'estimation les paramètres du HCRF dans un espace de dimension réduite permet aussi de réduire le temps d'entrainement
Human activity recognition (HAR) from video sequences is one of the major active research areas of computer vision. There are numerous application HAR systems, including video-surveillance, search and automatic indexing of videos, and the assistance of frail elderly. This task remains a challenge because of the huge variations in the way of performing activities, in the appearance of the person and in the variation of the acquisition conditions. The main objective of this thesis is to develop an efficient HAR method that is robust to different sources of variability. Approaches based on interest points have shown excellent state-of-the-art performance over the past years. They are generally related to global classification methods as these primitives are temporally and spatially disordered. More recent studies have achieved a high performance by modeling the spatial and temporal context of interest points by encoding, for instance, the neighborhood of the interest points over several scales. In this thesis, we propose a method of activity recognition based on a hybrid model Support Vector Machine - Hidden Conditional Random Field (SVM-HCRF) that models the sequential aspect of activities while exploiting the robustness of interest points in real conditions. We first extract the interest points and show their robustness with respect to the person's identity by a multilinear tensor analysis. These primitives are then represented as a sequence of local "Bags of Words" (BOW): The video is temporally fragmented using the sliding window technique and each of the segments thus obtained is represented by the BOW of interest points belonging to it. The first layer of our hybrid sequential classification system is a Support Vector Machine that converts each local BOW extracted from the video sequence into a vector of activity classes’ probabilities. The sequence of probability vectors thus obtained is used as input of the HCRF. The latter permits a discriminative classification of time series while modeling their internal structures via the hidden states. We have evaluated our approach on various human activity datasets. The results achieved are competitive with those of the current state of art. We have demonstrated, in fact, that the use of a low-level classifier (SVM) improves the performance of the recognition system since the sequential classifier HCRF directly exploits the semantic information from local BOWs, namely the probability of each activity relatively to the current local segment, rather than mere raw information from interest points. Furthermore, the probability vectors have a low-dimension which prevents significantly the risk of overfitting that can occur if the feature vector dimension is relatively high with respect to the training data size; this is precisely the case when using BOWs that generally have a very high dimension. The estimation of the HCRF parameters in a low dimension allows also to significantly reduce the duration of the HCRF training phase
22

Badreddine, Siwar. "Symétries et structures de rang faible des matrices et tenseurs pour des problèmes en chimie quantique." Electronic Thesis or Diss., Sorbonne université, 2024. http://www.theses.fr/2024SORUS029.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette thèse présente de nouveaux algorithmes numériques et effectue une étude approfondie de certaines méthodes numériques existantes pour relever les défis de haute dimension résultant de la résolution de l'équation de Schrödinger électronique en chimie quantique. En se concentrant sur deux problèmes spécifiques, notre approche implique l'identification et l'exploitation des symétries et des structures de rang faible au sein de matrices et de tenseurs. Le premier problème abordé dans cette thèse concerne l'évaluation numérique efficace de la composante à longue portée du potentiel de Coulomb à séparation de portée et des intégrales à deux électrons à longue portée, un tenseur du quatrième ordre qui intervient dans de nombreuses méthodes de chimie quantique. Nous présentons deux nouvelles méthodes d'approximation. Cela est réalisé en s'appuyant sur l'interpolation Chebyshev, des règles de quadrature Gaussienne combinées à des approximations de rang faible ainsi que des méthodes rapides multipolaires (FMM). Ce travail offre une explication détaillée de ces approches et algorithmes introduits, accompagnée d'une comparaison approfondie entre les méthodes nouvellement proposées. Le deuxième problème abordé concerne l'exploitation des symétries et des structures de rang faible pour dériver des représentations efficaces en train de tenseurs des opérateurs impliqués dans l'algorithme DMRG. Cet algorithme est une méthode d'optimisation itérative précise utilisée pour résoudre numériquement l'équation de Schrödinger indépendante du temps. Ce travail vise à comprendre et interpréter les résultats obtenus par les communautés de physique et de chimie, et cherche à offrir des perspectives théoriques nouvelles qui, selon nos connaissances, n'ont pas reçu une attention significative auparavant. Nous menons une étude approfondie et fournissons des démonstrations, si nécessaire, pour explorer l'existence d'une représentation particulière en train de tenseurs, creuse par blocs, de l'opérateur Hamiltonien et de sa fonction d'onde associée. Cela est réalisé tout en maintenant les lois de conservation physiques, manifestées sous forme de symétries de groupe dans les tenseurs, telles que la conservation du nombre de particules. La troisième partie de ce travail est dédiée à la réalisation d'une bibliothèque prototype en Julia, pour l'implémentation de DMRG qui est conçue pour le modèle d'opérateur Hamiltonien de la chimie quantique. Nous exploitons ici la représentation en train de tenseurs, creuse par blocs, de l'opérateur et de la fonction d'onde (fonction propre). Avec ces structures, notre objectif est d'accélérer les étapes les plus coûteuses de la DMRG, y compris les contractions de tenseurs, les opérations matrice-vecteur, et la compression de matrices par décomposition en valeurs singulières tronquée. De plus, nous fournissons des résultats issus de diverses simulations moléculaires, tout en comparant les performances de notre bibliothèque avec la bibliothèque ITensors de pointe, où nous démontrons avoir atteint une performance similaire
This thesis presents novel numerical algorithms and conducts a comprehensive study of some existing numerical methods to address high-dimensional challenges arising from the resolution of the electronic Schrödinger equation in quantum chemistry. Focusing on two specific problems, our approach involves the identification and exploitation of symmetries and low-rank structures within matrices and tensors, aiming to mitigate the curse of dimensionality. The first problem considered in this thesis is the efficient numerical evaluation of the long-range component of the range-separated Coulomb potential and the long-range two-electron integrals 4th-order tensor which occurs in many quantum chemistry methods. We present two novel approximation methods. This is achieved by relying on tensorized Chebyshev interpolation, Gaussian quadrature rules combined with low-rank approximations as well as Fast Multipole Methods (FMM). This work offers a detailed explanation of these introduced approaches and algorithms, accompanied by a thorough comparison between the newly proposed methods. The second problem of interest is the exploitation of symmetries and low-rank structures to derive efficient tensor train representations of operators involved in the Density Matrix Renormalization Group (DMRG) algorithm. This algorithm, referred to as the Quantum Chemical DMRG (QC-DMRG) when applied in the field of quantum chemistry, is an accurate iterative optimization method employed to numerically solve the time-independent Schrödinger equation. This work aims to understand and interpret the results obtained from the physics and chemistry communities and seeks to offer novel theoretical insights that, to the best of our knowledge, have not received significant attention before. We conduct a comprehensive study and provide demonstrations, when necessary, to explore the existence of a particular block-sparse tensor train representation of the Hamiltonian operator and its associated eigenfunction. This is achieved while maintaining physical conservation laws, manifested as group symmetries in tensors, such as the conservation of the particle number. The third part of this work is dedicated to the realization of a proof-of-concept Quantum Chemical DMRG (QC-DMRG) Julia library, designed for the quantum chemical Hamiltonian operator model. We exploit here the block-sparse tensor train representation of both the operator and the eigenfunction. With these structures, our goal is to speed up the most time-consuming steps in QC-DMRG, including tensor contractions, matrix-vector operations, and matrix compression through truncated Singular Value Decompositions (SVD). Furthermore, we provide empirical results from various molecular simulations, while comparing the performance of our library with the state-of-the-art ITensors library where we show that we attain a similar performance
23

Salameh, Farah. "Méthodes de modélisation statistique de la durée de vie des composants en génie électrique." Phd thesis, Toulouse, INPT, 2016. http://oatao.univ-toulouse.fr/16622/1/Salameh_Farah.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La fiabilité constitue aujourd’hui un enjeu important dans le contexte du passage aux systèmes plus électriques dans des secteurs critiques tels que l’aéronautique, l’espace ou le nucléaire. Il s’agit de comprendre, de modéliser et de prédire les mécanismes de vieillissement susceptibles de conduire les composants à la défaillance et le système à la panne. L’étude des effets des contraintes opérationnelles sur la dégradation des composants est indispensable pour la prédiction de leur durée de vie. De nombreux modèles de durée de vie ont été développés dans la littérature dans le contexte du génie électrique. Cependant, ces modèles présentent des limitations car ils dépendent du matériau étudié et de ses propriétés physiques et se restreignent souvent à un ou deux facteurs de stress, sans intégrer les interactions pouvant exister entre ces facteurs. Cette thèse présente une nouvelle méthodologie pour la modélisation de la durée de vie des composants du génie électrique. Cette méthodologie est générale ; elle s’applique à différents composants sans a priori sur leurs propriétés physiques. Les modèles développés sont des modèles statistiques estimés sur la base de données expérimentales issues de tests de vieillissement accéléré où plusieurs types de stress sont considérés. Les modèles visent alors à étudier les effets des différents facteurs de stress ainsi que de leurs différentes interactions. Le nombre et la configuration des tests de vieillissement nécessaires à construire les modèles (bases d’apprentissage) sont optimisés de façon à minimiser le coût expérimental tout en maximisant la précision des modèles. Des points expérimentaux supplémentaires aléatoirement configurés sont réalisés pour valider les modèles (bases de test). Deux catégories de composants sont testées : deux types d’isolants couramment utilisés dans les machines électriques et des sources de lumière OLED. Différentes formes des modèles de durée de vie sont présentées : les modèles paramétriques, non paramétriques et les modèles hybrides. Tous les modèles développés sont évalués à l’aide de différents outils statistiques permettant, d’une part, d’étudier la pertinence des modèles et d’autre part, d’évaluer leur prédictibilité sur les points des bases de test. Les modèles paramétriques permettent de quantifier les effets des facteurs et de leurs interactions sur la durée de vie à partir d’une expression analytique prédéfinie. Un test statistique permet ensuite d’évaluer la significativité de chacun des paramètres inclus dans le modèle. Ces modèles sont caractérisés par une bonne qualité de prédiction sur leurs bases de test. La relation entre la durée de vie et les contraintes est également modélisée par les arbres de régression comme méthode alternative aux modèles paramétriques. Les arbres de régression sont des modèles non paramétriques qui permettent de classifier graphiquement les points expérimentaux en différentes zones dans lesquelles les contraintes sont hiérarchisées selon leurs effets sur la durée de vie. Ainsi, une relation simple, graphique, et directe entre la durée de vie et les contraintes est obtenue. Cependant, à la différence des modèles paramétriques continus sur le domaine expérimental étudié, les arbres de régression sont constants par morceaux, ce qui dégrade leur qualité de prédiction sur la base de test. Pour remédier à cet inconvénient, une troisième approche consiste à attribuer un modèle linéaire à chacune des zones identifiées avec les arbres de régression. Le modèle résultant, dit modèle hybride, est donc linéaire par morceaux et permet alors de raffiner les modèles paramétriques en évaluant les effets des facteurs dans chacune des zones tout en améliorant la qualité de prédiction des arbres de régression.
24

Roux-Langlois, Adeline. "Lattice - Based Cryptography - Security Foundations and Constructions." Thesis, Lyon, École normale supérieure, 2014. http://www.theses.fr/2014ENSL0940/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La cryptographie reposant sur les réseaux Euclidiens est une branche récente de la cryptographie dans laquelle la sécurité des primitives repose sur la difficulté présumée de certains problèmes bien connus dans les réseaux Euclidiens. Le principe de ces preuves est de montrer que réussir une attaque contre une primitive est au moins aussi difficile que de résoudre un problème particulier, comme le problème Learning With Errors (LWE) ou le problème Small Integer Solution (SIS). En montrant que ces problèmes sont au moins aussi difficiles à résoudre qu'un problème difficile portant sur les réseaux, présumé insoluble en temps polynomial, on en conclu que les primitives construites sont sûres. Nous avons travaillé sur l'amélioration de la sécurité et des constructions de primitives cryptographiques. Nous avons étudié la difficulté des problèmes SIS et LWE et de leurs variantes structurées sur les anneaux d'entiers de corps cyclotomiques, et les modules libres sur ceux-ci. Nous avons montré d'une part qu'il existe une preuve de difficulté classique pour le problème LWE (la réduction existante de Regev en 2005 était quantique), d'autre part que les variantes sur les modules sont elles-aussi difficiles. Nous avons aussi proposé deux nouvelles variantes de signatures de groupe dont la sécurité repose sur SIS et LWE. L'une est la première reposant sur les réseaux et ayant une taille et une complexité poly-logarithmique en le nombre d'utilisateurs. La seconde construction permet de plus la révocation d'un membre du groupe. Enfin, nous avons amélioré la taille de certains paramètres dans le travail sur les applications multilinéaires cryptographiques de Garg, Gentry et Halevi
Lattice-based cryptography is a branch of cryptography exploiting the presumed hardness of some well-known problems on lattices. Its main advantages are its simplicity, efficiency, and apparent security against quantum computers. The principle of the security proofs in lattice-based cryptography is to show that attacking a given scheme is at least as hard as solving a particular problem, as the Learning with Errors problem (LWE) or the Small Integer Solution problem (SIS). Then, by showing that those two problems are at least as hard to solve than a hard problem on lattices, presumed polynomial time intractable, we conclude that the constructed scheme is secure.In this thesis, we improve the foundation of the security proofs and build new cryptographic schemes. We study the hardness of the SIS and LWE problems, and of some of their variants on integer rings of cyclotomic fields and on modules on those rings. We show that there is a classical hardness proof for the LWE problem (Regev's prior reduction was quantum), and that the module variants of SIS and LWE are also hard to solve. We also give two new lattice-based group signature schemes, with security based on SIS and LWE. One is the first lattice-based group signature with logarithmic signature size in the number of users. And the other construction allows another functionality, verifier-local revocation. Finally, we improve the size of some parameters in the work on cryptographic multilinear maps of Garg, Gentry and Halevi in 2013
25

Lepoint, Tancrède. "Conception and implémentation de cryptographie à base de réseaux." Phd thesis, Ecole Normale Supérieure de Paris - ENS Paris, 2014. http://tel.archives-ouvertes.fr/tel-01069864.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La cryptographie à base de réseaux euclidiens est aujourd'hui un domaine scientifique en pleine expansion et connait une évolution rapide et accélérée par l'attractivité du chiffrement complètement homomorphe ou des applications multilinéaires cryptographiques. Ses propriétés sont très attractives : une sécurité pouvant être réduite à la difficulté des pires cas de problèmes sur les réseaux euclidiens, une efficacité asymptotique quasi-optimale et une résistance présupposée aux ordinateurs quantiques. Cependant, on dénombre encore peu de résultats de recherche sur les constructions à visée pratique pour un niveau de sécurité fixé. Cette thèse s'inscrit dans cette direction et travaille à réduire l'écart entre la théorie et la pratique de la cryptographie à clé publique récente. Dans cette thèse, nous concevons et implémentons une signature numérique basée sur les réseaux euclidiens, deux schémas de chiffrement complètement homomorphe et des applications multilinéaires cryptographiques. Notre signature digitale ultra-performante, BLISS, ouvre la voie à la mise en pratique de la cryptographie à base de réseaux sur petites architectures et est un candidat sérieux à la cryptographie post-quantique. Nos schémas de chiffrement complètement homomorphes permettent d'évaluer des circuits non triviaux de manière compétitive. Finalement, nous proposons la première implémentation d'applications multilinéaires et réalisons, pour la première fois, un échange de clé non interactif entre plus de trois participants en quelques secondes.
26

Caland, Fabrice. "Décomposition tensorielle de signaux luminescents émis par des biosenseurs bactériens pour l'identification de Systèmes Métaux-Bactéries." Phd thesis, Université de Lorraine, 2013. http://tel.archives-ouvertes.fr/tel-00934507.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
La disponibilité et la persistance à l'échelle locale des métaux lourds pourraient être critiques notamment pour l'usage futur des zones agricoles ou urbaines, au droit desquelles de nombreux sites industriels se sont installés dans le passé. La gestion de ces situations environnementales complexes nécessitent le développement de nouvelles méthodes d'analyse peu invasives (capteurs environnementaux), comme celles utilisant des biosenseurs bactériens, afin d'identifier et d'évaluer directement l'effet biologique et la disponibilité chimique des métaux. Ainsi dans ce travail de thèse, nous avons cherché à identifier, à l'aide d'outils mathématiques de l'algèbre multi-linéaire, les réponses de senseurs bactériens fluorescents dans des conditions environnementales variées, qu'il s'agisse d'un stress engendré par la présence à forte dose d'un métal ou d'une carence nutritive engendrée par son absence. Cette identification est fondée sur l'analyse quantitative à l'échelle d'une population bactérienne de signaux multidimensionnels. Elle repose en particulier sur (i) l'acquisition de données spectrales (fluorescence) multivariées sur des suspensions de biosenseurs multicolores interagissant avec des métaux et sur (ii) le développement d'algorithme de décomposition tensoriels. Les méthodes proposées, développées et utilisées dans ce travail s'efforcent d'identifier " sans \textsl{a priori} " (\textsl{a minima}), la réponse fonctionnelle de biosenseurs sous différentes conditions environnementales, par des méthodes de décomposition de tenseurs sous \hyphenation{con-train-tes} des signaux spectraux observables. Elles tirent parti de la variabilité des réponses systémiques et permettent de déterminer les " sources " élémentaires identifiant le système et leur comportement en fonction des paramètres extérieurs. Elles sont inspirées des méthodes CP et PARALIND . L'avantage de ce type d'approche, par rapport aux approches classiques, est l'identification unique des réponses des biosenseurs sous de faibles contraintes. Le travail a consisté à développer des algorithmes efficaces de séparations de sources pour les signaux fluorescents émis par des senseurs bactériens, garantissant la séparabilité des sources fluorescentes et l'unicité de la décomposition. Le point original de la thèse est la prise en compte des contraintes liées à la physique des phénomènes analysés telles que (i) la parcimonie des coefficients de mélange ou la positivité des signaux "source", afin de réduire au maximum l'usage d'a priori ou (ii) la détermination non empirique de l'ordre de la décomposition (nombre de sources). Cette posture a permis aussi d'améliorer l'identification en optimisant les mesures physiques par l'utilisation de spectres synchrones ou en apportant une diversité suffisante aux plans d'expériences. L'usage des spectres synchrones s'est avéré déterminant à la fois pour améliorer la séparation des sources de fluorescence, mais aussi pour augmenter le rapport signal sur bruit des biosenseurs les plus faibles. Cette méthode d'analyse spectrale originale permet d'élargir fortement la gamme chromatique des biosenseurs fluorescents multicolores utilisables simultanément. Enfin, une nouvelle méthode d'estimation de la concentration de polluants métalliques présents dans un échantillon à partir de la réponse spectrale d'un mélange de biosenseurs non-spécifiques a été développée.
27

Nérot, Agathe. "Modélisation géométrique du corps humain (externe et interne) à partir des données externes." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE1133.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les modèles humains numériques sont devenus des outils indispensables à l’étude de la posture est du mouvement dans de nombreux domaines de la biomécanique visant des applications en ergonomie ou pour la clinique. Ces modèles intègrent une représentation géométrique de la surface du corps et un squelette filaire interne composé de segments rigides et d’articulations assurant leur mise en mouvement. La personnalisation des mannequins s'effectue d’abord sur les dimensions anthropométriques externes, servant ensuite de données d’entrée à l’ajustement des longueurs des segments du squelette en interne. Si les données externes sont de plus en plus facilement mesurables à l’aide des outils de scanning 3D actuels, l’enjeu scientifique est de pouvoir prédire des points caractéristiques du squelette en interne à partir de données uniquement externes. L’Institut de Biomécanique Humaine Georges Charpak (Arts et Métiers ParisTech) a développé des méthodes de reconstruction des os et de l’enveloppe externe à partir de radiographies biplanes obtenues avec le système basse dose EOS. En s’appuyant sur cette technologie, ces travaux ont permis de proposer de nouvelles relations statistiques externes-internes pour prédire des points du squelette longitudinal, en particulier l’ensemble des centres articulaires du rachis, à partir d’une base de données de 80 sujets. L'application de ce travail pourrait permettre d’améliorer le réalisme des modèles numériques actuels en vue de mener des analyses biomécaniques, principalement en ergonomie, nécessitant des informations dépendant de la position des articulations comme les mesures d’amplitude de mouvement et de charges articulaires
Digital human models have become instrumental tools in the analysis of posture and motion in many areas of biomechanics, including ergonomics and clinical settings. These models include a geometric representation of the body surface and an internal linkage composed of rigid segments and joints allowing simulation of human movement. The customization of human models first starts with the adjustment of external anthropometric dimensions, which are then used as input data to the adjustment of internal skeletal segments lengths. While the external data points are more readily measurable using current 3D scanning tools, the scientific challenge is to predict the characteristic points of the internal skeleton from external data only. The Institut de Biomécanique Humaine Georges Charpak (Arts et Métiers ParisTech) has developed 3D reconstruction methods of bone and external envelope from biplanar radiographs obtained from the EOS system (EOS Imaging, Paris), a low radiation dose technology. Using this technology, this work allowed proposing new external-internal statistical relationships to predict points of the longitudinal skeleton, particularly the complete set of spine joint centers, from a database of 80 subjects. The implementation of this work could improve the realism of current digital human models used for biomechanical analysis requiring information of joint center location, such as the estimation of range of motion and joint loading
28

Luciani, Xavier. "Analyse numérique des spectres de fluorescence 3D issus de mélanges non linéaires." Phd thesis, Université du Sud Toulon Var, 2007. http://tel.archives-ouvertes.fr/tel-00287255.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Un mélange de composants fluorescents est caractérisé par sa Matrice d' Excitation- Emission de Fluorescence (MEEF). Il est souvent utile de déterminer les caractéristiques spectrales et les concentrations relatives de chaque constituant du mélange à partir de ce type de données Dans un premier temps, nous décrirons le phénomène de fluorescence et les techniques de mesure relatives. Nous insisterons alors sur le modèle trilinéaire de fluorescence.Nous ferons ensuite le point sur les méthodes d'analyses multilinéaires utilisées dans le cas de mélanges ou de composés organiques, en particulier l'algorithme de décomposition trilinéaire. PARAFAC. L'application de ces méthodes est restreinte aux solutions peu concentrées. Dans le cas contraire le chevauchement des différents spectres crée des effets d'écran qui ne sont alors pas pris en compte. Nous illustrerons sur des données réelles, les limites intrinsèques de PARAFAC pour l'analyse de telles solutions.La technique usuelle de correction de l'effet d'écran est basée sur un vieux modèle, que nous redémontrerons, et nécessite la mesure de l'absorbance des solutions. Ceci est source d'erreurs, et parfois impossible. Une des principales avancées de cette thèse concernera donc la mise en oeuvre d'un protocole de correction simple des effets d'écrans, ne nécessitant pas la mesure de l'absorbance. Nous proposerons également d'autres approches purement numériques. Notre propos sera illustré sur des mélanges réalisés en laboratoire, et des échantillons de matière organique très concentrés. Enfin, nous donnerons deux exemples d'application des différentes techniques exposées au suivi de la matière organique .
29

Sellami, Akrem. "Interprétation sémantique d'images hyperspectrales basée sur la réduction adaptative de dimensionnalité." Thesis, Ecole nationale supérieure Mines-Télécom Atlantique Bretagne Pays de la Loire, 2017. http://www.theses.fr/2017IMTA0037/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
L'imagerie hyperspectrale permet d'acquérir des informations spectrales riches d'une scène dans plusieurs centaines, voire milliers de bandes spectrales étroites et contiguës. Cependant, avec le nombre élevé de bandes spectrales, la forte corrélation inter-bandes spectrales et la redondance de l'information spectro-spatiale, l'interprétation de ces données hyperspectrales massives est l'un des défis majeurs pour la communauté scientifique de la télédétection. Dans ce contexte, le grand défi posé est la réduction du nombre de bandes spectrales inutiles, c'est-à-dire de réduire la redondance et la forte corrélation de bandes spectrales tout en préservant l'information pertinente. Par conséquent, des approches de projection visent à transformer les données hyperspectrales dans un sous-espace réduit en combinant toutes les bandes spectrales originales. En outre, des approches de sélection de bandes tentent à chercher un sous-ensemble de bandes spectrales pertinentes. Dans cette thèse, nous nous intéressons d'abord à la classification d'imagerie hyperspectrale en essayant d'intégrer l'information spectro-spatiale dans la réduction de dimensions pour améliorer la performance de la classification et s'affranchir de la perte de l'information spatiale dans les approches de projection. De ce fait, nous proposons un modèle hybride permettant de préserver l'information spectro-spatiale en exploitant les tenseurs dans l'approche de projection préservant la localité (TLPP) et d'utiliser l'approche de sélection non supervisée de bandes spectrales discriminantes à base de contraintes (CBS). Pour modéliser l'incertitude et l'imperfection entachant ces approches de réduction et les classifieurs, nous proposons une approche évidentielle basée sur la théorie de Dempster-Shafer (DST). Dans un second temps, nous essayons d'étendre le modèle hybride en exploitant des connaissances sémantiques extraites à travers les caractéristiques obtenues par l'approche proposée auparavant TLPP pour enrichir la sélection non supervisée CBS. En effet, l'approche proposée permet de sélectionner des bandes spectrales pertinentes qui sont à la fois informatives, discriminantes, distinctives et peu redondantes. En outre, cette approche sélectionne les bandes discriminantes et distinctives en utilisant la technique de CBS en injectant la sémantique extraite par les techniques d'extraction de connaissances afin de sélectionner d'une manière automatique et adaptative le sous-ensemble optimal de bandes spectrales pertinentes. La performance de notre approche est évaluée en utilisant plusieurs jeux des données hyperspectrales réelles
Hyperspectral imagery allows to acquire a rich spectral information of a scene in several hundred or even thousands of narrow and contiguous spectral bands. However, with the high number of spectral bands, the strong inter-bands spectral correlation and the redundancy of spectro-spatial information, the interpretation of these massive hyperspectral data is one of the major challenges for the remote sensing scientific community. In this context, the major challenge is to reduce the number of unnecessary spectral bands, that is, to reduce the redundancy and high correlation of spectral bands while preserving the relevant information. Therefore, projection approaches aim to transform the hyperspectral data into a reduced subspace by combining all original spectral bands. In addition, band selection approaches attempt to find a subset of relevant spectral bands. In this thesis, firstly we focus on hyperspectral images classification attempting to integrate the spectro-spatial information into dimension reduction in order to improve the classification performance and to overcome the loss of spatial information in projection approaches.Therefore, we propose a hybrid model to preserve the spectro-spatial information exploiting the tensor model in the locality preserving projection approach (TLPP) and to use the constraint band selection (CBS) as unsupervised approach to select the discriminant spectral bands. To model the uncertainty and imperfection of these reduction approaches and classifiers, we propose an evidential approach based on the Dempster-Shafer Theory (DST). In the second step, we try to extend the hybrid model by exploiting the semantic knowledge extracted through the features obtained by the previously proposed approach TLPP to enrich the CBS technique. Indeed, the proposed approach makes it possible to select a relevant spectral bands which are at the same time informative, discriminant, distinctive and not very redundant. In fact, this approach selects the discriminant and distinctive spectral bands using the CBS technique injecting the extracted rules obtained with knowledge extraction techniques to automatically and adaptively select the optimal subset of relevant spectral bands. The performance of our approach is evaluated using several real hyperspectral data
30

Zniyed, Yassine. "Breaking the curse of dimensionality based on tensor train : models and algorithms." Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLS330.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le traitement des données massives, communément connu sous l’appellation “Big Data”, constitue l’un des principaux défis scientifiques de la communauté STIC.Plusieurs domaines, à savoir économique, industriel ou scientifique, produisent des données hétérogènes acquises selon des protocoles technologiques multi-modales. Traiter indépendamment chaque ensemble de données mesurées est clairement une approche réductrice et insatisfaisante. En faisant cela, des “relations cachées” ou des inter-corrélations entre les données peuvent être totalement ignorées.Les représentations tensorielles ont reçu une attention particulière dans ce sens en raison de leur capacité à extraire de données hétérogènes et volumineuses une information physiquement interprétable confinée à un sous-espace de dimension réduite. Dans ce cas, les données peuvent être organisées selon un tableau à D dimensions, aussi appelé tenseur d’ordre D.Dans ce contexte, le but de ce travail et que certaines propriétés soient présentes : (i) avoir des algorithmes de factorisation stables (ne souffrant pas de probème de convergence), (ii) avoir un faible coût de stockage (c’est-à-dire que le nombre de paramètres libres doit être linéaire en D), et (iii) avoir un formalisme sous forme de graphe permettant une visualisation mentale simple mais rigoureuse des décompositions tensorielles de tenseurs d’ordre élevé, soit pour D > 3.Par conséquent, nous nous appuyons sur la décomposition en train de tenseurs (TT) pour élaborer de nouveaux algorithmes de factorisation TT, et des nouvelles équivalences en termes de modélisation tensorielle, permettant une nouvelle stratégie de réduction de dimensionnalité et d'optimisation de critère des moindres carrés couplés pour l'estimation des paramètres d'intérêts nommé JIRAFE.Ces travaux d'ordre méthodologique ont eu des applications dans le contexte de l'analyse spectrale multidimensionelle et des systèmes de télécommunications à relais
Massive and heterogeneous data processing and analysis have been clearly identified by the scientific community as key problems in several application areas. It was popularized under the generic terms of "data science" or "big data". Processing large volumes of data, extracting their hidden patterns, while preforming prediction and inference tasks has become crucial in economy, industry and science.Treating independently each set of measured data is clearly a reductiveapproach. By doing that, "hidden relationships" or inter-correlations between thedatasets may be totally missed. Tensor decompositions have received a particular attention recently due to their capability to handle a variety of mining tasks applied to massive datasets, being a pertinent framework taking into account the heterogeneity and multi-modality of the data. In this case, data can be arranged as a D-dimensional array, also referred to as a D-order tensor.In this context, the purpose of this work is that the following properties are present: (i) having a stable factorization algorithms (not suffering from convergence problems), (ii) having a low storage cost (i.e., the number of free parameters must be linear in D), and (iii) having a formalism in the form of a graph allowing a simple but rigorous mental visualization of tensor decompositions of tensors of high order, i.e., for D> 3.Therefore, we rely on the tensor train decomposition (TT) to develop new TT factorization algorithms, and new equivalences in terms of tensor modeling, allowing a new strategy of dimensionality reduction and criterion optimization of coupled least squares for the estimation of parameters named JIRAFE.This methodological work has had applications in the context of multidimensional spectral analysis and relay telecommunications systems
31

Mbuntcha, Wuntcha Calvin. "Optimisation quadratique en variables binaires : quelques résultats et techniques." Thèse, 2009. http://hdl.handle.net/1866/6625.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

До бібліографії