Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Analyse en composantes.

Dissertationen zum Thema „Analyse en composantes“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "Analyse en composantes" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Barbedor, Pascal. „Analyse en composantes indépendantes par ondelettes“. Phd thesis, Université Paris-Diderot - Paris VII, 2006. http://tel.archives-ouvertes.fr/tel-00119428.

Der volle Inhalt der Quelle
Annotation:
L'analyse en composantes indépendantes (ACI) est une forme d'analyse multivariée qui a émergée en tant que concept dans les années 1980-90. C'est un type de problème inverse où on observe une variable X dont les composantes sont les mélanges linéaires d'une variable S inobservable. Les composantes de S sont mutuellement indépendantes. La relation entre les deux variables s'exprime par X=AS, où A est une matrice de mixage inconnue .

Le problème principal de l'ACI est d'estimer la matrice A, à partir de l'observation d'un échantillon i.i.d. de X, pour atteindre S qui constitue un système explicatif meilleur que X dans l'étude d'un phénomène particulier. Le problème se résout généralement par la minimisation d'un certain critère, issu d'une mesure de dépendance.

L'ACI ressemble à l'analyse en composantes principales (ACP) dans la formulation du problème. Dans le cas de l'ACP on cherche des composantes non corrélées, c'est-à-dire indépendantes par paire à l'ordre 2 ; dans le cas de l'ACI on cherche des composantes mutuellement indépendantes, ce qui est beaucoup plus contraignant; dans le cas général, il n'existe plus de solution algébrique simple. Les principaux problèmes d'identification de A sont évités par un certain nombre de conventions adoptées dans le modèle ACI classique.

L'approche qui est proposée dans cette thèse est du type non paramétrique. Sous des hypothèses de type Besov, on étudie plusieurs estimateurs d'un critère de dépendance exact donné par la norme L2 de la différence entre une densité et le produit de ses marges. Ce critère constitue une alternative à l'information mutuelle qui représentait jusqu'ici le critère exact de référence de la plupart des méthodes ACI.

On donne une majoration de l'erreur en moyenne quadratique de différents estimateurs du contraste L2. Cette majoration prend en compte le biais d'approximation entre le Besov et l'espace de projection qui, ici, est issu d'une analyse multirésolution (AMR) générée par le produit tensoriel d'ondelettes de Daubechies. Ce type de majoration avec prise en compte du biais d'approximation est en général absent des méthodes non paramétriques récentes en ACI (méthodes kernel, information mutuelle).

Le critère en norme L2 permet de se rapprocher de problèmes déjà connus dans la littérature statistique, estimation de l'intégrale de f au carré, tests d'homogénéité en norme L2, résultats de convergence d'estimateurs adoptant un seuillage par bloc.

On propose des estimateurs du contraste L2 qui atteignent la vitesse minimax optimale du problème de intégrale de f au carré. Ces estimateurs de type U-statistique ont des complexités numériques quadratique en n, ce qui peut poser un problème pour la minimisation du contraste à suivre, en vue d'obtenir l'estimation concrète de la matrice A. En revanche, ces estimateurs admettent une forme de seuillage par bloc où la connaissance de la régularité s de la densité multivariée sous-jacente est inutile pour obtenir une vitesse optimale.

On propose un estimateur de type plug-in dont la vitesse de convergence est sous-optimale mais qui est de complexité numérique linéaire en n. L'estimateur plug-in admet aussi une forme seuillée terme à terme, qui dégrade la vitesse de convergence mais permet d'obtenir un critère auto-adaptatif. Dans sa version linéaire, l'estimateur plug-in semble déjà quasiment auto-adaptatif dans les faits, c'est-à-dire que sous la contrainte 2^{jd} < n, où d est la dimension du problème et n le nombre d'observations, la majorité des résolutions j permettent d'estimer A après minimisation.

Pour obtenir ces résultats on a été amené à développer une technique combinatoire spécifique permettant de majorer le moment d'ordre r d'une U-statistique ou d'une V-statistique. Les résultats classiques sur les U-statistiques ne sont en effet pas directement utilisables et pas facilement adaptables dans le contexte d'étude de la thèse. La méthode développée est utilisable dans d'autres contextes.

La méthode par ondelettes s'appuie sur le paradigme usuel estimation d'un critère de dépendance, puis minimisation. On étudie donc dans la thèse les éléments permettant de faciliter la minimisation. On donne notamment des formulations du gradient et du hessien de l'estimateur du contraste qui se prêtent à un changement de résolution par simple filtrage et qui se calculent selon une complexité équivalente à celle de l'évaluation de l'estimateur lui même.

Des simulations proposées dans la thèse confirment l'applicabilité de la méthode et donnent des résultats excellents. Tous les éléments nécessaires à l'implémentation de la méthode, et le code commenté des parties clefs de la programmation (notamment des algorithmes d-dimensionnels) figurent également dans le document.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Le, Borgne Hervé. „Analyse de scènes naturelles par Composantes Indépendantes“. Phd thesis, Grenoble INPG, 2004. http://tel.archives-ouvertes.fr/tel-00005925.

Der volle Inhalt der Quelle
Annotation:
De nombreuses études montrent que les détecteurs corticaux pourraient résulter de l'application d'un principe de réduction de redondance par indépendance statistique de leurs activités. L'analyse en Composantes Indépendantes est utilisée ici pour générer ces détecteurs, puis leurs performances sont analysées en terme de codage et de description pour catégoriser des images sémantiquement. La propriété d'indépendance statistique permet notamment de vaincre la « malédiction de la dimension » dans un contexte de classification d'images. Un second volet concerne la sémantique des images et la perception visuelle. Des sujets humains sont confrontés à des séries d'expérimentation, captant leur jugement de similarités visuelles, afin de pouvoir identifier les catégories sémantiques, d'apprécier l'apport de modalités perceptives comme la chrominance versus la luminance, et de mettre en évidence des asymétries perceptives.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Jaupi, Luan. „Methodes robustes en analyse en composantes principales“. Paris, CNAM, 1992. http://www.theses.fr/1992CNAM0151.

Der volle Inhalt der Quelle
Annotation:
La these presente de maniere complete les problemes theoriques rencontres pour effectuer une analyse en composantes principales robuste basee sur les m-estimateurs d'une matrice de dispersions et les fonctions d'influence. Les fonctions d'influence des elements propres de la classe des estimateurs de pseudo-covariances sont calculees, ainsi que leurs homologues pour la matrice de correlations associee. Les resultats theoriques proposes permettent l'elaboration d'une nouvelle methode d'acp robuste. Nous proposons l'utilisation des m-estimateurs pour reduire l'effet des valeurs aberrantes et parallelement l'utilisation des outils de detection bases sur les fonctions d'influence afin de detecter les observations influentes qui ne sont pas extremes. Des comparaisons entre l'approche proposee et les techniques d'acp robustes existantes sont effectuees et leurs performances sont testees sur des donnees reelles. Les algorithmes et les programmes fortran qui permettent les calculs et les editions de l'approche proposee sont presentes en detail
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Patanchon, Guillaume. „Analyse multi-composantes d'observations du fond diffus cosmologique“. Phd thesis, Université Pierre et Marie Curie - Paris VI, 2003. http://tel.archives-ouvertes.fr/tel-00004512.

Der volle Inhalt der Quelle
Annotation:
Les anisotropies du fond diffus cosmologique (CMB) sont une mine d'informations sur la physique de l'Univers primordial. Leur spectre spatial de puissance depend des parametres cosmologiques qui caracterisent le contenu et l'evolution de l'Univers. La mesure precise de ce spectre de puissance permet de contraindre fortement les modeles, mais est rendue difficile par la presence de emissions astrophysiques d'avant-plan qui se superposent au signal primordial. Apres une presentation succinte du modele standard de la cosmologie et des differentes sources d'emission dans le domaine millimetrique, nous passons en revue les methodes de separation de composantes couramment employees au sein de la communaute. Nous developpons dans cette these des methodes ameliorees pour la separation et la caracterisation des composantes de signal et de bruit presentes dans les donnees. Tout d'abord, les methodes classiques, basees sur un modele extremement simplifie, ne permettent pas de separer efficacement certaines composantes systematiques instrumentales correlees entre les detecteurs. Nous presentons une methode de separation de composante adaptee au traitement de tels effets systematiques. Cette technique est testee sur des simulations d'observation du satellite Planck.Par ailleurs, les methodes "standard" de separation de composantes ne sont pas entierement satisfaisantes, car elles ne sont pas optimisees pour l'estimation des spectres de puissance, et elles necessitent la connaissance, a priori, des spectres electromagnetiques des composantes. Nous decrivons une nouvelle methode destimation du spectre de puissance du CMB (et des autres composantes) realisant en aveugle la separation des composantes. Cette approche est validee a l'aide de nombreuses simulations. Dans une derniere partie, nous appliquons cette methode aux donnees obtenues avec l'experience Archeops.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Biton, Anne. „Analyse en composantes indépendantes du transcriptome de cancers“. Thesis, Paris 11, 2011. http://www.theses.fr/2011PA11T028.

Der volle Inhalt der Quelle
Annotation:
L'analyse de données d'expression montre qu'il est avantageux d'analyser les processus biologiques en termes de modules plutôt que simplement considérer les gènes un par un. Dans ce projet nous avons conduit une analyse non supervisée des données d'expression de gènes de plusieurs cohortes de tumeurs urothéliales en appliquant la méthode d'Analyse en Composantes Indépendantes. Plusieurs études ont démontré les meilleures performances de l'ACI par rapport à l'ACP et les méthodes de clustering, pour obtenir une décomposition plus réaliste des données d'expression en patterns d'expression pertinents et associés avec le phénotype d'intérêt.Les tumeurs urothéliales apparaissent et évoluent selon deux voies distinctes dont la probabilité de progression en cancer musculo-invasif diffère radicalement. Excepté la mutation de FGFR3 dans le groupe le moins agressif, les processus moléculaires sous-jacents n'ont pas été complètement identifiés. Le principal objectif de cette thèse était dédié aux interprétations biologiques des différentes composantes indépendantes pour aider à confirmer et étendre la liste des processus biologiques connus pour être impliqués dans le cancer de vessie.Chaque composante indépendante est caractérisée par une liste de projections de gènes et de contributions pondérées d'échantillons tumoraux . En combinant expertise biologique et comparaison des listes de gènes à des voies existantes et en étudiant conjointement l'association des composantes aux annotations cliniques et moléculaires, nous avons pu différencier les CIscausées par des facteurs techniques, tels que le prélèvement chirurgical de celles ayant des interprétations biologiques pertinentes. De plus, parmi les signaux pertinents biologiquement, cette analyse nous a permis de différencier les signaux provenant du stroma, comme la réponse immunitaire médiée par les lymphocytesB&T, de ceux produits par les tumeurs elles-mêmes, comme les signaux reliés à la prolifération ou à la différenciation. La classification des tumeurs selon leurs contributions à certaines CIs a pu être étroitement associée à des annotations anatomo-cliniques, et a mis en évidence de nouveaux sous-types de tumeur spotentiels, qui suggèrent l'existence de voies de progression supplémentaires dans le cancer de vessie. De façon similaire, l'étude des contributions de groupes de tumeurs basés sur des annotations cliniques ou moléculaires a montré différents niveaux de contamination par le stroma entre les tumeurs mutées et nonmutées pour FGFR3. La reproductibilité des composantes a été étudiée en utilisant des graphes de corrélation. La majeure partie des CIs interprétées a été validée sur trois jeux de données indépendants, et plusieurs d'entre elles ont aussi détectées dans un jeu de données de lignées cellulaires.Une deuxième étude sur le rétinoblastome a montré que nous pouvions tirer partie de l'ACI dans des contextes variés. Le rétinoblastome est initié par la perte des deux alléles du gène suppresseur de tumeur RB1. D'autres évènements génomiques non identifiés sont nécessaires à la progression de la maladie. Nous avons observé une association entre âge des patients et altérations génomiques. Les patients jeunes présentant moins d'altérations que les patients âgés, ces derniers présentant des gains du 1q et des pertes du 16q. Cette séparation des tumeurs selon l'âge est également observée sur les données d'expression, notamment en appliquant l'ACI dont l'une des composantes discrimine les patients selon leur âge. Ces résultats suggèrent l'existence de deux voies de progression dans le rétinoblastome. L'analyse des données à haut débit fournit de nombreuses listes de gènes. Afin de les interpréter, une possibilité est d'extraire les dernières publications groupées par sujets prédéfinis (fonction, localisation,...)
Practice of gene expression data analysis shows that it is advantageous to analyze biologicalprocesses in terms of modules rather than simply consider gene one by one. In this project, we conducted anunsupervised analysis of the gene expression data of several cohorts of urothelial tumors, applying theIndependent Component Analysis method. Several studies demonstrated the outperformance of ICA overPCA and clustering-based methods in obtaining a more realistic decomposition of the expression data intoconsistent patterns of coexpressed genes associated with the studied phenotypes[1, 2, 3, 4].Urothelial tumors arise and evolve through two distinct pathways which radically differ on their probabilityof progression to muscle invasion. Except the mutation of FGFR3 in the less aggressive group, theunderlying molecular processes have not been completely identified. The first and main objective of the PhDthesis was dedicated to the biological interpretation of the different independent components to help toconfirm and extend the list of biological processes known to be involved in bladder cancer.Each independent component (IC) is characterized by a list of gene projections on the one hand and weightedcontributions of tumor samples on the other hand. By combining biological expertise and comparison of theassociated list of genes to known pathways, and jointly studying the association of the components tomolecular and clinical annotations, we have been able to differentiate components that were caused bytechnical factors, such as surgical sampling, from those having consistent biological interpretationin terms of tumor biology. Moreover, among the biologically meaningful signals, this analysis allowed us todifferentiate the signals from stroma of the tumor, like immune response mediated by B- and T-lymphocytes,from the signals produced by the tumors themselves, like signals related to proliferation, or differentiation.The clustering of the tumor samples according to their contributions on some ICs can be closely associated toanatomo-clinical annotations, and highlighted new potential subtypes of tumors which suggest existence ofadditional pathways of bladder cancer progression. Similarly, the study of the contributions of preestablishedgroups of tumors based on clinical or molecular criteria showed different levels of stromacontamination between FGFR3 non-mutated and mutated tumors. The reproducibility of the components wasinvestigated using correlation graphs. The major part of the interpreted ICs was validated on threeindependent bladder cancer datasets, and several of them were also identified in an urothelial cancer celllines data set.A second study about retinoblastoma gave us the occasion to show that we can take advantage ofICA in various contexts. Retinoblastoma is initiated by the loss of both alleles of the RB1 tumor suppressorgene. Although necessary for initiation, other genomic events, that remain to be identified, are needed for theprogression of the disease [5]. We observed, as it was previously described [6], an association between age ofthe patients and levels of genomic aberrations, the younger patients having fewer alterations than the olderpatients, which generally present gain of 1q and loss of 16q. We showed that this tendency of the tumors tobe clustered into two groups of age can also be observed on the expression data by applying ICA whose oneof the component was highly correlated to the age of the patients. These results suggest the existence of twopathways of progression in retinoblastoma.The analysis of high throughput data provides many lists of genes. To interpret them, a possibility isto study the latest related publications grouped by pre-defined group of topics (function, cellular location...).To that aim, in a third study, we introduced a web-based Java application tool named GeneValorization whichgives a clear and handful overview of the bibliography corresponding to one particular gene list [7]
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Narozny, Michel. „Analyse en composantes indépendantes et compression de données“. Paris 11, 2005. http://www.theses.fr/2005PA112268.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse nous nous intéressons à l'analyse en composantes indépendantes (ACI) lorsqu'elle est utilisée en compression de données. Nous montrons d'abord que tes transformations d'ACI sont moins performantes que la transformée de Karhunen-Loève (TKL) en codage d'images en niveaux de gris et d'un signal musical, mais plus performantes que la TKL sur certains signaux synthétiques. Dans le cas d'un codage à haut et moyen débits (respectivement bas débit), le débit de compression est obtenu en calculant l'entropie d'ordre 1 (respectivement d'ordre 2,4 et 9) des coefficients transformés. La mesure de distorsion utilisée est l'erreur quadratique moyenne entre le signal d'entrée et le signal décodé. Ensuite nous montrons que pour des signaux non gaussiens la recherche de la transformation linéaire optimale peut se ramener à un problème d'ACI modifié. Deux nouveaux algorithmes, GCGsup et ICAorth, sont proposés pour calculer la transformation linéaire optimale et la transformation orthogonale optimale respectivement. Dans nos simulations, nous montrons qu'il existe des images en niveaux de gris et des signaux synthétiques qui sont codés plus efficacement avec GCGsup et ICAorth qu'avec la TKL. Enfin, nous nous intéressons également à un schéma de codage d'images multicomposantes associant des décompositions en ondelettes pour la décorrélation spatiale avec les transformations retournées par GCGsup et ICAorth pour réduire la redondance spectrale. Dans ce cas, nous n'avons pas eu le temps de trouver des images multicomposantes pour lesquelles les nouvelles transformation permettent d'obtenir des gains de codage significatifs par rapport à la TKL
In this thesis we are interested in the performances of independent component analysis (ICA) when it is used for data compression. First we show that the ICA transformations yield poor performances compared to the Karhunen-Loeve transform (KIT) for the coding of some continuous-tone images and a musical signal, but can outperform the KTL on some synthetic signals. In medium-to-high (resp. Low) bit rate coding, the bit-rate measured is the empirical first (resp. Second, fourth and ninth) order entropy. The mean square error between the original signal and that reconstructed is used for the evaluation of the distortion. Then we show that for non Gaussian signals the problem of finding the optimal linear transform in transform coding is equivalent to finding the solution of a modified ICA problem. Two new algorithms, GCGsup and ICAorth, are then proposed to compute the optimal linear transform and the optimal orthogonal transform, respectively. In our simulations, we show that GCGsup and ICAorth can outperform the KLT or some continuous-tone images and some synthetic signals. Finally, we are also interested in a multicomponent images coding scheme which employs a wavelet transform for reducing the spatial redundancy and the transformations returned by GCGsup et ICAorth for reducing the spectral redundancy. In this case, further work has to be done in order to find some images whose compression using the new transforms is significantly better than that obtained with the TKL
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Ibazizen, Mohamed. „Contribution à l'étude d'une analyse en composantes principales“. Grenoble 2 : ANRT, 1986. http://catalogue.bnf.fr/ark:/12148/cb375984301.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Chenguiti, Khalid. „Analyse en composantes principales fonctionnelle cas des prises alimentaires“. Mémoire, Université de Sherbrooke, 2006. http://savoirs.usherbrooke.ca/handle/11143/4722.

Der volle Inhalt der Quelle
Annotation:
Les méthodes d'analyse statistique des données fonctionnelles sont une extension des méthodes de l'analyse statistique des données à des données qui se présentent sous forme de courbes. L'analyse en composantes principales fonctionnelle"ACPF" est une méthode d'analyse statistique qui permet de résumer l'information contenue dans un ensemble de données fonctionnelles, permettant de produire des fonctions dites composantes principales de dimension minimale qui reproduisent un maximum d'information sur les données étudiées. L'application de l'ACPF à des données de prises alimentaires porcines permet de mettre en évidence les avantages de considérer une ACPF au lieu d'une analyse en composantes principales"ACP" usuelle. Les composantes principales obtenues par l'ACPF des courbes de prises alimentaires nous ont permis de résumer les tendances principales régissant le comportement alimentaire des porcs observés. Malgré la complexité des facteurs influençant le processus de prise alimentaire porcine, tels le poids, le contexte social et le changement de composition alimentaire, la synthèse produite par l'ACPF démontre sa pertinence. L'analyse des vitesses et des accélérations à partir des données brutes de la prise alimentaire porcine ont permis de compléter l'analyse permettant de comparer, à travers l'ACPF, les caractéristiques géométriques des courbes. L'analyse en composantes principales a permis de trouver des pistes prometteuses pour la caractérisation des courbes complexes de consommation et la détermination de critères prévisionnels associés aux comportements particuliers causés par le développement de maladies. Les différentes analyses discriminantes exposent clairement ces tendances particulières liées aux phénomènes étudiés et la détection préalable de facteurs de maladies. La synthèse produite par les différentes ACPF permet de mettre en évidence les tendances générales prépondérantes régissant le comportement alimentaire procurant ainsi des informations utilisées pour la modélisation de ce comportement.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Besse, Philippe. „Approximation spline et optimalité en analyse en composantes principales“. Toulouse 3, 1989. http://www.theses.fr/1989TOU30190.

Der volle Inhalt der Quelle
Annotation:
Le theme principal concerne le choix de la metrique applicable au cas de l'etude descriptive d'un processus par l'analyse en composantes principales (a. C. P. ). Les observations des trajectoires du processus sont interpolees ou, selon le cas, lissees afin d'etre plongees dans un espace fonctionnel induisant une metrique adaptee a la situation etudiee. Une approche synthetique definit l'a. C. P. Et son approximation spline dans un cadre hilbertien abstrait conduisant a une presentation generale des situations envisagees dans la litterature et permettant de resoudre les problemes de convergence par discretisation et echantillonnage. Des exemples de situations concretes correspondant a des cas de processus "reguliers" ou de mesures aleatoires sont presentes. Un critere heuristique est propose pour guider le choix de la domension de representation. Les problemes precedents sont abordes sous un angle different dans le cadre du modele a effet fixe ou modele fonctionnel qui consiste a supposer que les observations "vraies" sont contenues dans un sous-espace affine de dimension reduite dont l'a. C. P. Fournit une estimation au sens des moindres carres. L'hypothese que l'erreur est affectee d'une petite variance permet alors de definir un risque moyen quadratique dont l'optimisation conduit a un critere de type gauss-markov pour le choix de la metrique et a un choix de dimension optimale si la variance de l'erreur est connue. Lorsque la variance est inconnue, une approximation par la theorie des perturbations des techniques de re-echantillonnage permet d'estimer la stabilite des sous-espaces de representation et aide ainsi au choix de la dimension. D'autres pistes ont ete explorees: l'utilisation du codage par une probabilite de transition generalisant le codage disjonctif complet en analyse des correspondances ainsi qu'une etude bibliographique consacree a l'usage des fonctions splines en statistique
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Ibazizen, Mohamed. „Contribution a l'etude d'une analyse en composantes principales robuste“. Toulouse 3, 1986. http://www.theses.fr/1986TOU30101.

Der volle Inhalt der Quelle
Annotation:
Comment obtenir une analyse en composantes principales (a. C. P. ) robuste. Diverses approches partielles ont ete faites (ruymgaart, benasseni,. . . ). On propose ici une methode fondee sur la minimisation de criteres lies a une fonction rho convexe suffisamment differentiable permettant de definir une moyenne robuste, une notion de rho-orthogonalite et donc les diverses etapes d'une a. C. P. Le calcul des fonctions d'influence de la moyenne et des vecteurs principaux permet de s'assurer qu'un c hoix convenable de rho conduit a une analyse robuste. Ces fonctions d'influence permettent d'ailleurs de retrouver certains resultats de la theorie asymptotique en a. C. P. Classique (fine, romain. . . ). La methode est rendue operationnelle au moyen d'algorithmes a pas alternes et est testee sur deux exemples.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Faouzi, Nour-Eddin el-Faouzi. „Extensions non-linéaires de l'analyse en composantes principales“. Montpellier 2, 1992. http://www.theses.fr/1992MON20118.

Der volle Inhalt der Quelle
Annotation:
Les methodes factorielles classiques d'analyse de donnees multidimensionnelles permettent de detecter des redondances lineaires dans l'optique de reduire la dimension du tableau analyse. L'extension de ces techniques est notamment celle de l'analyse en composantes principales aux structures non-lineaires des donnees a necessite le developpement d'approches alternatives. Dans ce travail nous avons propose une nouvelle technique generalisant l'analyse en composantes principales appelee fonctions principales additives. Une etude theorique de cette methode a ete faite et nous avons propose des estimateurs bases sur les fonctions splines. Nous avons obtenu des resultats de convergence, sous certaines conditions, et nous avons montre que leur vitesse de convergence est optimale. Pour la mise en uvre pratique de cette nouvelle technique, un programme informatique a ete realise permettant son application aux donnees
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Harkat, Mohamed-Faouzi. „Détection et localisation de défauts par analyse en composantes principales“. Vandoeuvre-les-Nancy, INPL, 2003. http://docnum.univ-lorraine.fr/public/INPL_T_2003_HARKAT_M_F.pdf.

Der volle Inhalt der Quelle
Annotation:
Les travaux présentés dans ce mémoire sont axés sur la détection et la localisation de défauts en utilisant l'analyse en composantes principales (ACP). Dans le premier chapitre les principes fondamentaux de l'analyse en composantes principales linéaire sont présentés. L'ACP est utilisée pour la modélisation des processus en fonctionnement normal. Dans le deuxième chapitre le problème de détection et localisation de défauts par ACP linéaire est abordé. A partir de l'analyse des indices de détection classiques, un nouvel indice de détection de défaut basé sur les dernières composantes principales a été développé. Pour la localisation de défauts, les méthodes classiques, utilisant par exemple le principe de reconstruction ou encore le calcul des contributions à l'indice de détection, ont été adaptées à l'indice de détection proposé. Le troisième chapitre est consacré à l'ACP non-linéaire (ACPNL). Une extension de l'ACP pour des systèmes non-linéaires, combinant l'algorithme des courbes principales et les réseaux RBF, est proposée. Pour la détermination du nombre de composantes à retenir dans le modèle ACPNL, une extension du critère basé sur la variance de l'erreur de reconstruction a été proposée. Une application réalisée dans le cadre d'une collaboration avec le réseau de surveillance de la qualité de l'air en Lorraine AIRLOR fait l'objet du quatrième chapitre. Cette application concerne, la détection et la localisation de défauts de capteurs de ce réseau en utilisant la procédure de détection et de localisation développée dans le cas linéaire
The aim of this thesis is to study the fault detection and isolation using principal components analysis (PCA). In the first chapter the fundamental principles of linear principal componerit analysis are presented. PCA is used to model normal process behaviour. In the second chapter the problem of fault detection and isolation based on linear PCA is tackled. On the basis of the analysis of the classical detection indices, a new fault detection index based on the last principal components is developed. For fault isolation, the classical methods, using for instance the reconstruction principle or the contribution calculation, are adapted for the proposed fault detection index. The third chapter is focused on the nonlinear PCA. An extension of the PCA for nonlinear systems, combining principal curves algorithm and RBF networks, is proposed. For the determination of the number of principal components to be kept in the NLPCA model, we propose an extension of the unreconstructed variance criteria in the non-linear case. . Finally, an application, carried out in collaboration with air quality monitoring network in Lorraine AIRLOR, is presented in the fourth chapter. This application concerns the sensqr fault detection and isolation of this network by using the fault detection and isolation procedure developed in the linear case
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Mnassri, Baligh. „Analyse de données multivariées et surveillance des processus industriels par analyse en composantes principales“. Phd thesis, Aix-Marseille Université, 2012. http://tel.archives-ouvertes.fr/tel-00749282.

Der volle Inhalt der Quelle
Annotation:
Ce mémoire de thèse présente une étude fondamentale enrichie par des contributions qui sont articulées autour de la modélisation de processus ainsi qu'un diagnostic de défauts en utilisant l'analyse en composantes principales (ACP).
Dans l'objectif d'un choix optimal du modèle ACP, une étude comparative de quelques critères connus dans la littérature nous a permis de conclure que le problème rencontré est souvent lié à une ignorance des variables indépendantes et quasi-indépendantes. Dans ce cadre, nous avons réalisé deux démonstrations mettant en évidence les limitations de deux critères en particulier la variance non reconstruite (VNR). En s'appuyant sur le principe d'une telle variance, nous avons proposé trois nouveaux critères. Parmi eux, deux ont été considérés comme étant empiriques car seule l'expérience permettra de prouver leur efficacité. Le troisième critère noté VNRVI représente un remède à la limitation du critère VNR. Une étude de sa consistance théorique a permis d'établir les conditions garantissant l'optimalité de son choix. Les résultats de simulation ont validé une telle théorie en prouvant ainsi que le critère VNRVI étant plus efficace que ceux étudiés dans cette thèse.
Dans le cadre d'un diagnostic de défauts par ACP, l'approche de reconstruction des indices de détection ainsi que celle des contributions ont été utilisées. A travers une étude de généralisation, nous avons étendu le concept d'isolabilité de défauts par reconstruction à tout indice quadratique. Une telle généralisation nous a permis d'élaborer une analyse théorique d'isolabilité de défauts par reconstruction de la distance combinée versus celles des indices SPE et T2 de Hotelling en mettant en avant l'avantage de l'utilisation d'une telle distance. D'autre part, nous avons proposé une nouvelle méthode de contribution par décomposition partielle de l'indice SPE. Cette approche garantit un diagnostic correct de défauts simples ayant de grandes amplitudes. Nous avons également étendu une méthode de contribution classiquement connue par la RBC au cas multidimensionnel. Ainsi, la nouvelle forme garantit un diagnostic correct de défauts multiples de grandes amplitudes. En considérant la complexité de défauts, nous avons exploité la nouvelle approche de contribution RBC afin de proposer une nouvelle qui s'appelle RBCr. Cette dernière s'appuie sur un seuil de tolérance pour l'isolation de défauts. Une analyse de diagnosticabilité basée sur la RBCr montre que celle-ci garantit l'identification des défauts détectables. Ces derniers sont garantis isolables si leurs amplitudes satisfont les mêmes conditions d'isolabilité établies pour l'approche de reconstruction des indices.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

HARKAT, Mohamed-Faouzi. „Détection et localisation de défauts par analyse en composantes principales“. Phd thesis, Institut National Polytechnique de Lorraine - INPL, 2003. http://tel.archives-ouvertes.fr/tel-00005283.

Der volle Inhalt der Quelle
Annotation:
Les travaux présentés dans ce mémoire sont axés sur la détection et la localisation de défauts en utilisant l'analyse en composantes principales (ACP). Dans le premier chapitre les principes fondamentaux de l'analyse en composantes principales linéaire sont présentés. L'ACP est utilisée pour la modélisation des processus en fonctionnement normal. Dans le deuxième chapitre le problème de détection et localisation de défauts par ACP linéaire est abordé. A partir de l'analyse des indices de détection classiques, un nouvel indice de détection de défaut basé sur les dernières composantes principales a été développé. Pour la localisation de défauts, les méthodes classiques, utilisant par exemple le principe de reconstruction ou encore le calcul des contributions à l'indice de détection, ont été adaptées à l'indice de détection proposé. Le troisième chapitre est consacré à l'ACP non-linéaire (ACPNL). Une extension de l'ACP pour des systèmes non-linéaires, combinant l'algorithme des courbes principales et les réseaux RBF, est proposée. Pour la détermination du nombre de composantes à retenir dans le modèle ACPNL, une extension du critère basé sur la variance de l'erreur de reconstruction a été proposée. Une application réalisée dans le cadre d'une collaboration avec le réseau de surveillance de la qualité de l'air en Lorraine AIRLOR fait l'objet du quatrième chapitre. Cette application concerne la détection et la localisation de défauts de capteurs de ce réseau en utilisant la procédure de détection et de localisation développée dans le cas linéaire.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Makosso, Kallyth Sun. „Analyse en composantes principales de variables symboliques de type histogramme“. Paris 9, 2010. https://bu.dauphine.psl.eu/fileviewer/index.php?doc=2010PA090045.

Der volle Inhalt der Quelle
Annotation:
L'objet de cette thèse est celui d'étendre l'Analyse en Composantes Principales (ACP) à des variables symboliques de type histogramme. Sept méthodes méthodes ont été développées à cet effet. Les trois premières sont basées sur la définition d'opérateurs produits. Ce sont les méthodes I, II et III. La méthode I étend la méthode de Nagabhushan et Kumar (2007) qui présente quelques similarités avec l'Analyse Factorielle Multiple. La méthode II se base sur le produit scalaire matriciel et tente de venir à bout d'un inconvénient de la méthode I concernant le problème de la définition d'un système d'axes compromis. Dans la méthode III, l'opérateur produit 2 entre deux vecteurs x=( x1,…,xm ) et y=( y1,…,ym ) est x 2 y=∑k1=1m ∑k2=1m xk1 yk2. L'usage de cet opérateur sur des histogrammes nécessite cependant le recours à une transformation normalisatrice des variables. Cela permet de prendre en compte la nature compositionnelle des fréquences relatives. Toutefois, il faut préciser que dans ces trois premières méthodes, on formule une hypothèse assez forte qui nécessite que le nombre de modalités des variables de type histogramme soit le même quelque soit la variable. Les méthodes basées sur la transformation des histogrammes en intervalles (méthode IV) viennent à bout de cette contrainte. Ensuite, nous proposons la méthode V qui est une synthèse des outils proposés dans les méthodes III et IV. Les différentes variantes de la méthode V sont moins fastidieuses en termes de coût que la méthode IV mais appréhende moins bien la dispersion des individus que la méthode IV. La méthode VI est une version améliorée de la méthode IV qui vient à bout des inconvénients de la méthode V. Elle utilise les quantiles, crée un tableau mn x p où m désigne le nombre de quantiles, n celui des individus, p celui des variables et projette ce tableau en supplémentaire sur les axes factoriels des moyennes. Les possibles limites de la méthode VI peuvent découler du fait que l'usage des quantiles peut conduire à une surestimation de la variabilité des individus. La méthode VII propose une autre démarche pour représenter la variabilité des individus. Dans la méthode VII, on transforme les histogrammes en intervalles via la règle de Tchebychev. Ensuite, on détermine la longueur de chaque intervalle et on projette en supplémentaire la matrice des longueurs des intervalles sur les axes principaux des moyennes des tableaux
The objective of this thesis is to extend Principal Component Analysis PCA to symbolic histogram variable. Three firsts are methods I, II and III. Method I extends Nagabhushan and Kumar (2007) method which presents some similarity with the Multiple Factorial Analysis. Method II bases himself on the matrix scalar product and tries to come at the end of an inconvenience of Method I concerning the problem of the definition of a compromise system of axes. Method III uses an operator we call 2. However, the usage of this operator requires the appeal to a normalizing transformation of variables. It allows taking into account the compositional nature of the relative frequencies. However, it is necessary to specify that in the methods based on operators use strong hypothesis about bins of histogram. The methods based on the transformation of histograms in intervals (Method IV) get overcome this constraint about bins of histogram. Then we propose methods V which are a synthesis of tools proposed in method III and those proposed in method IV. Different variants of method V are less boring in terms of cost than method method IV, but method V estimates the dispersion of the individuals less well than method IV. We overcome this disadvantage by offering a version improved by method IV that we call method VI. The possible limits of method VI stem from the fact the usage of quantiles can lead to an overestimation of the variability of the individuals. By the end, we propose method VII which gives another approach to represent the variability of the individuals. In Method VII, we transform histograms into intervals via the rule of Tchebychev. Then, we determine the length of every interval and we project in additional lengths of the intervals on the principal axes of the averages of variables
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Jutten, Christian. „Calcul neuromimétique et traitement du signal : analyse en composantes indépendantes“. Grenoble INPG, 1987. http://www.theses.fr/1987INPG0068.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Liu, Xiaoqing. „Analyse d'images couleur en composantes indépendantes par réseau de neurones“. Grenoble INPG, 1991. http://www.theses.fr/1991INPG0120.

Der volle Inhalt der Quelle
Annotation:
Cette these presente une nouvelle methode de transformation des valeurs de tristimuli d'une image couleur par un algorithme neuromimetique. Le reseau de neurones est completement interconnecte et il est utilise pour l'analyse en composantes independantes (aci) des signaux multidimensionnels: en exploitant une regle d'apprentissage adequate, dite des moments d'ordre eleve, il est capable de discriminer des sources independantes a partir des melanges de celles-ci. Les images couleur sont soumises a la transformation par le reseau aci et les algorithmes classiques de traitement d'images monochromatiques peuvent s'appliquer directement et independamment sur chaque composante aci, car ces nouvelles composantes sont statistiquement independantes. La discrimination d'objets au niveau de chaque composante chromatique devient plus facile sur l'image transformee que sur l'image originale. Cette methode est comparee avec des methodes classiques: l'analyse en composantes principales et le systeme tls (teinte, luminance et saturation)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Jutten, Christian. „Calcul neuromimétique et traitement du signal analyse en composantes indépendantes /“. Grenoble 2 : ANRT, 1987. http://catalogue.bnf.fr/ark:/12148/cb376063328.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Viron, Cyril. „Analyse en composantes indépendantes pour la caractérisation d'images hyperspectrales en télédétection“. Mémoire, École de technologie supérieure, 2006. http://espace.etsmtl.ca/486/1/VIRON_Cyril.pdf.

Der volle Inhalt der Quelle
Annotation:
En réponse partielle aux problèmes écologiques actuels, l'imagerie hyperspectrale ambitionne de connaître la composition locale d'une parcelle agraire en recherchant sa signature spectrale car celle-ci caractérise de façon unique un élément. Cependant, cette signature s'avère être un mélange pondéré de celles des éléments s'y trouvant. Afin de récupérer leurs signatures à partir du mélange, l'analyse en composantes indépendantes (ACI) est légitimement utilisée! Malgré le nombre restreint de travaux sur l'ACI en hyperspectral, devant sa popularité en traitement de signal, nous l'avons appliquée en utilisant l'algorithme FastICA, méthode la plus récente et efficace, d'abord sur des images et des signaux classiques (pour constater son efficacité), puis sur une base de signatures étalons. Le but est de comparer les composantes indépendantes à une base référencée pour former les paires les plus ressemblantes. Cependant, du fait des ambiguïtés et d'absence de critère de validation de l'ACI, il est impossible de prédire ni vérifier les paires. Pour y remédier, notre protocole expérimental est divisé entre comparaisons «théorique» et «pratique», basées sur des niveaux de confiance, permettant de former les paires considérées justes d'une part (base partielle) et expérimentales d'autre part (base totale) qui, comparées, déterminent le succès d'association. Les résultats, assujettis à deux seuils de confiance relatifs, sont excellents pour les signaux, bons pour les images mais globalement médiocres pour les signatures. La raison principale est un effet beaucoup plus visible en ce cas de la subjectivité de la prise de décision et de la décorrélation inévitable entraînant déformations et trop grande dépendance à la base. Cependant, les résultats deviennent très satisfaisants pour une sélection adéquate (cultures, arbres et minéraux). Pour tenter encore de les améliorer, des recommandations constructives ont été proposées, afin de poser le deuxième échelon de ce travail, qui se voulait novateur.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Merigot, Bastien. „Analyse multi-composantes de la diversité spécifique : applications aux peuplements marins“. Aix-Marseille 2, 2008. http://theses.univ-amu.fr.lama.univ-amu.fr/2008AIX22039.pdf.

Der volle Inhalt der Quelle
Annotation:
Depuis de nombreuses années, la biodiversité suscite l’intérêt croissant de la communauté civile et scientifique afin de l’évaluer et de la préserver. Inscrit dans ce contexte, ce travail de thèse propose une approche méthodologique qui prend directement en compte le caractère multi-composantes de la diversité, dans la perspective d’améliorer sa description et de favoriser sa gestion. Cette approche permet de retenir uniquement les indices de diversité qui s'avèrent complémentaires pour décrire différentes facettes de la diversité étudiée. Nos résultats constituent une information importante pour le suivi de la diversité spécifique de peuplements car elle peut contribuer à fournir une première liste réduite d’indices et ainsi faciliter la description de ces systèmes. De façon générale, cette approche pourrait permettre une meilleure évaluation de la capacité des différents descripteurs utilisés dans une étude à servir d’indicateurs du suivi des peuplements et des écosystèmes
For many years, biodiversity has been of growing interest, in both the lay and the scientific community, with regard to its assessment and preservation. In this context, the present study proposes a methodological framework which explicitly takes into account the multi-component character of diversity with the aim of improving diversity assessment and management. This approach allows to choose only complementary diversity indices that can serve to describe the various facets of the species diversity studied. Our results are important for monitoring the diversity of assemblages as it can serve as a basis for drawing up a preliminary shortlist of indices and thus facilitate the description of these systems. Finally, this approach could allow better assessment of the relative suitability of the various descriptors studied as indicators for monitoring settlements and ecosystems
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Viron, Cyril. „Analyse en composantes indépendantes pour la caractérisation d'images hyperspectrales en télédétection /“. Thèse, Montréal : École de technologie supérieure, 2006. http://proquest.umi.com/pqdweb?did=1253509051&sid=1&Fmt=2&clientId=46962&RQT=309&VName=PQD.

Der volle Inhalt der Quelle
Annotation:
Thèse (M. Ing.)-- École de technologie supérieure, Montréal, 2006.
"Mémoire présenté à l'École de technologie supérieure comme exigence partielle à l'obtention de la maîtrise en génie de la production automatisée". CaQMUQET Bibliogr.: f. [222]-228. Également disponible en version électronique. CaQMUQET
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Décarie, Yann. „Analyse en composantes principales et analyse discriminante fonctionnelles appliquées à des données de prises alimentaires animales“. Mémoire, Université de Sherbrooke, 2011. http://savoirs.usherbrooke.ca/handle/11143/4899.

Der volle Inhalt der Quelle
Annotation:
L'analyse de données fonctionnelles est une branche des statistiques modernes en pleine expansion. Cela est imputable aux avancées technologiques qui permettent et facilitent la collecte de large base de données ainsi que leurs représentations sous la forme de courbes ou de surfaces. Ce mémoire se divise en trois parties. La première partie, consiste en la présentation des méthodes utilisées, soit l'analyse en composantes principales et l'analyse discriminante, dans le cadre de l'analyse des données classique. La seconde partie, a comme objectif de définir le cadre théorique permettant l'application de ces deux méthodes à des données fonctionnelles et également de présenter les résultats les plus pertinents à la compréhension des modèles. Enfin, la dernière partie porte sur les résultats de l'application de l'analyse en composantes principales et de l'analyse discriminante fonctionnelles aux données de prises l'alimentaires porcines. Le but de l'application de ces méthodes consiste à déterminer s'il est possible de différencier, seulement à l'aide des données disponibles, les porcs qui ont été malades des autres. Pour ce faire, une série de modèles, qui se distinguent par le choix du critère d'affectation à une classe donnée, ont été utilisés. On présentera les résultats des modèles jugés les plus pertinents permettant d'avoir une proportion de bien classés, supérieure à 85%.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Albera, Laurent. „Identification autodidacte de mélanges potentiellement sous-déterminés“. Nice, 2003. http://www.theses.fr/2003NICE4066.

Der volle Inhalt der Quelle
Annotation:
La séparation aveugle de sources et plus particulièrement l’Analyse en Composantes Indépendantes (ICA) ont récemment suscité beaucoup d’intérêt. Elles trouvent en effet leur place dans un grand nombre d’applications telles que les télécommunications, le traitement de la parole, l’analyse de données, ou bien le domaine biomédical. Le principe de la séparation autodidacte (ou aveugle) de sources est de restituer les sources émises, et ce, uniquement à partir des observations issues des capteurs. Alors que certaines techniques cherchent à décorréler (à l’ordre 2) les signaux, comme on peut l’observer en Analyse Factorielle avec l’Analyse en Composantes Principales (PCA), l’ICA pour sa part vise à réduire les dépendances statistiques des signaux aux ordres supérieurs, et permet de cette manière de restituer les sources. Les méthodes proposées sont donc dédiées de préférence aux sources indépendantes statistiquement. Selon l’application, on peut toutefois choisir de ne retrouver que les paramètres du mélange instantané, ce qui est utile en goniométrie car le dit mélange porte à lui seul toute l’information nécessaire à la localisation des sources : on parle alors d’identification aveugle de mélange. Pour d’autres applications telles que la transmission, il est nécessaire de retrouver les sources émises : on emploie alors l’expression de séparation ou bien encore d’extraction aveugle de sources. De plus, alors que divers algorithmes, très performants notamment sous l’hypothèse de bruit gaussien spatialement et temporellement blanc, permettent dé »jà depuis une dizaine d’années de traiter le cas de mélanges dits surdéterminés (c’est-à-dire lorsque le nombre de sources est strictement supérieur au nombre de capteurs) a été jusqu’à présent peu étudié en dépit de nombreuses applications. Les travaux de thèse ont alors permis d’élaborer une famille, BIOME, de nouvelles méthodes statistiques de séparation aveugle de sources, d’une part traitant le problème du bruit gaussien de cohérence spatial inconnue, d’autre part permettant l’identification autodidacte du mélange y compris en contexte sous-déterminé. Par ailleurs, une étude asymptotique de performances des méthodes basées sur la maximisation des contrastes d’ordre 4 a pu être menée dans le cas de mélanges orthonormés. Enfin, le comportement, en présence de signaux cyclostationnaires potentiellement non centrés, des méthodes de séparation aveugle de sources exploitant les statistiques d’ordre 2 et/ou 4 a également pu être étudié et des améliorations ont alors été proposées.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Betoule, Marc. „Analyse des données du fond diffus cosmologique : simulation et séparation de composantes“. Phd thesis, Observatoire de Paris, 2009. http://tel.archives-ouvertes.fr/tel-00462157.

Der volle Inhalt der Quelle
Annotation:
La prochaine génération d'expériences dédiées à la mesure des anisotropies de température et de polarisation du fond diffus cosmologique (CMB), inaugurée avec le lancement de Planck, va permettre la détection et l'étude d'effets de plus en plus fins. Toutefois, la superposition d'émissions astrophysiques d'avant-plan contamine le signal cosmologique et constituera, dans ces futures données, la principale source d'incertitude devant le bruit instrumental. L'amélioration de la modélisation des émissions d'avant-plan et le développement de méthodes statistiques pour permettre leur séparation sont donc des étapes cruciales de l'analyse scientifique des mesures à venir. Ce travail s'inscrit dans cette problématique et comprend le développement du Planck Sky Model, un outil de modélisation et de simulation de l'émission du ciel. Ces simulations sont par ailleurs mises à profit pour le développement et l'évaluation de méthode statistiques adaptées au problème des avant-plans. Nous explorons ainsi les possibilités offertes par l'analyse en ondelettes sur la sphère (needlets) pour le problème de l'estimation spectrale sur des mesures incomplètes avec une contamination inhomogène, et proposons une méthode pour traiter la contamination induites aux petites échelles par les sources ponctuelles dans les données Planck et WMAP. Nous étudions également l'impact des avant-plans sur la possibilité de détection des ondes gravitationnelles primordiales (prédites par l'inflation) et proposons une prospective des performances des futures missions dédiées à leur mesure.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Anani, Kwami Dodzivi. „Diagnostic de systèmes non linéaires par analyse en composantes principales à noyau“. Thesis, Université de Lorraine, 2019. http://www.theses.fr/2019LORR0026/document.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, le diagnostic d'un système non linéaire a été réalisé par une analyse de données. Initialement conçue pour analyser les données liées par des relations linéaires, l'Analyse en Composantes Principales (ACP) est couplée aux méthodes à noyau pour détecter, localiser et estimer l'amplitude des défauts sur des systèmes non linéaires. L'ACP à noyau consiste à projeter les données par l'intermédiaire d'une application non linéaire dans un espace de dimension élevée dénommé espace des caractéristiques où l'ACP linéaire est appliquée. Ayant fait la projection à l'aide de noyaux, la détection peut facilement être réalisée dans l'espace des caractéristiques. Cependant, l'estimation de l'amplitude du défaut nécessite la résolution d'un problème d'optimisation non linéaire. Une étude de contributions permet de localiser et d'estimer ces amplitudes. La variable ayant la plus grande contribution est susceptible d'être affectée par un défaut. Dans notre travail, nous avons proposé de nouvelles méthodes pour les phases de localisation et d'estimation des défauts pour lesquelles les travaux existants ont des limites. La nouvelle méthode proposée est basée sur les contributions sous contraintes permettant d'obtenir une reconstruction parcimonieuse des variables. L'efficacité des méthodes proposées est montrée sur un réacteur à agitation continue (CSTR)
In this thesis, the diagnosis of a nonlinear system was performed using data analysis. Initially developed to analyze linear system, Principal Component Analysis (PCA) is coupled with kernel methods for detection, isolation and estimation of faults' magnitude for nonlinear systems. Kernel PCA consists in projecting data using a nonlinear mapping function into a higher dimensional space called feature space where the linear PCA is applied. Due to the fact that the projections are done using kernels, the detection can be performed in the feature space. However, estimating the magnitude of the fault requires the resolution of a nonlinear optimization problem. The variables' contributions make it possible to isolate and estimate these magnitudes. The variable with the largest contribution may be considered as faulty. In our work, we proposed new methods for the isolation and estimation phases for which previous work has some limitations. The new proposed method in this thesis is based on contributions under constraints. The effectiveness of the developed methods is illustrated on the simulated continuous stirred tank reactor (CSTR)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Abbas, Arezki. „Intégration de composantes passives dans un algorithme de synthèse de controleurs“. Sherbrooke : Université de Sherbrooke, 2002.

Den vollen Inhalt der Quelle finden
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Garbez, Morgan. „Construction de l'architecture et des composantes visuelles d'un buisson ligneux d'ornement : le rosier“. Thesis, Rennes, Agrocampus Ouest, 2016. http://www.theses.fr/2016NSARB287/document.

Der volle Inhalt der Quelle
Annotation:
Les buissons ligneux forment un modèle végétal clé pour répondreaux préoccupations sociales et environnementales.Usuellement transposé sur le modèle arborescent, leur développementarchitectural reste encore peu compris et peu étudiéau regard de leur qualité visuelle. Pour cerner et anticiper cesattentes, une méthodologie pluridisciplinaire visant le managementde la qualité visuelle des plantes d’ornement est proposée.Elle intègre l’architecture des plantes avec sa plasticité phénotypiqueet la perception de leur apparence visuelle. Sur un rosierbuisson : Rosa hybrida L. ‘Radrazz’, l’étude montre commentl’analyse architecturale avec ses outils de modélisation, l’analysesensorielle et d’image peuvent former un cadre scientifi quecohérent visant cet objectif, et transposable à d’autres taxons.Sur rosiers virtuels, et réels exposés à un gradient lumineux, l’apparencevisuelle peut être caractérisée objectivement au moyend’épreuves sensorielles sur vidéode plante en rotation à différentsstades. La vidéo permet aux sujets une meilleure représentationmentale de la plante en 3D, et ainsi une descriptionplus complète et fi able de l’apparence visuelle ; puis de prédirecette description en intégrant statistiquement l’analyse d’imagede plusieurs facettes de la plante. Certaines variables architecturalespertinentes, et de nombreuses équivalentes, potentiellementintéressantes pour étudier le développement des buissonsau cours de leur cycle de vie, permettent de prédire voire d’expliquerl’élaboration des composantes visuelles d’un cultivar
Shrubs form a key plant model to meet social and environmentalconcerns. Usually transposed on the tree model, their architecturaldevelopment is still ill-known and understudied to address visualquality. To identify and anticipate such expectations, the visual qualitymanagement of ornamental plants through a multidisciplinarymethodology is proposed. It includes architecture of the plants withits phenotypic plasticity and their visual appearance perception.On a rose bush: Rosa hybrida L. ‘Radrazz’, this work shows howarchitectural analysis with its modeling tools, sensory evaluationand image analysis can form a coherent scientifi c framework toface up to such a purpose, and be transposed for other taxa. Onvirtual rose bushes, and real ones exposed to a light gradient, thevisual appearance can be characterized objectively by means ofsensory tests using rotating plant video at different stages.Thevideo stand enables a better mental representation of the plant 3Dby the subjects, leading to a more complete and reliable descriptionof the plant visual appearance; then to predict this descriptionthrough statistically integrated image analysis of multiple plantfacets. Some relevant architectural variables, with numerousequivalents, potentially interesting to study the architecturaldevelopment of bushes during their life cycle, enabled to predicteven explain how visual components were built for a cultivar. Fora better market responsiveness, this work lays the foundationfor drafting interactive decision and innovation support tools forb
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Delville, Joël. „La décomposition orthogonale aux valeurs propres et l'analyse de l'organisation tridimensionnelle des écoulements turbulents cisaillés libres“. Poitiers CEAT, 1995. http://www.theses.fr/1995POIT2270.

Der volle Inhalt der Quelle
Annotation:
On presente une etude des possibilites de la decomposition orthogonale aux valeurs propres, basee sur l'analyse du tenseur des correlations de la vitesse en deux points, pour qualifier l'organisation a grande echelle des ecoulements cisailles libres turbulents. Cette etude est menee principalement a partir de l'etude experimentale de l'ecoulement d'une couche de melange plane turbulente incompressible. On utilise egalement des donnees experimentales issues de couches de melange planes compressibles et de sillages de plaque ou de barreau. Les mesures sont realisees par l'intermediaire de peignes de sondes a fil chaud simple ou a fils croises, fournissant une description spatio-temporelle fine d'une ou deux composantes de la vitesse dans des tranches de l'ecoulement. Plusieurs decompositions sont realisees, prenant progressivement en compte la complexite de l'organisation de l'ecoulement: des decompositions scalaires ou vectorielles basees uniquement sur une tranche de l'ecoulement puis des decompositions vectorielles prenant en compte la direction transversale de l'ecoulement. Les performances de ces decompositions sont quantifiees en termes de l'energie turbulente qu'elles peuvent representer. On montre que grace a l'utilisation de peignes de sondes, il est possible d'acceder a la contribution instantanee des modes de cette decomposition et ainsi a l'organisation de l'ecoulement. L'analyse des differentes decompositions utilisees met en evidence le fait que la prise en compte de plus en plus complete des degres de liberte de l'ecoulement permet une representation de plus en plus fine de l'organisation de l'ecoulement. Finalement, on utilise une theorie complementaire: la theorie du shot-noise pour acceder a une representation physique du mode dominant l'ecoulement
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Bry, Xavier. „Une méthodologie exploratoire pour l'analyse et la synthèse d'un modèle explicatif : l'Analyse en Composantes Thématiques“. Paris 9, 2004. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=2004PA090055.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Descales, Bernard. „Modélisation des propriétés de coupes d'hydrocarbures par spectroscopie proche-infrarouge“. Aix-Marseille 3, 1989. http://www.theses.fr/1989AIX30060.

Der volle Inhalt der Quelle
Annotation:
La spectroscopie proche-infrarouge est un outil tres puissant de chimie analytique. Neanmoins, les applications de cette technique sont encore peu developpees. Ce travail decrit la mise en uvre de la spectroscopie pir pour la modelisation des prorpeites de coupes d'hydrocarbures (indices d'octane, tension de vapeur reid, courbe de distillation, composition centesimale). Nous avons tout d'abord presente differentes methodes statistiques multivariees permettant d'exploiter la richesse de l'information apportee par un spectre pir. L'utilisation de l'analyse en composantes principales nous a ainsi permis de selectionner, parmi 160, un jeu reduit de 17 nombres d'onde caracteristiques des hydrocarbures. La regression multilineaire a ensuite permis de relier les absorbances de ces 17 nombres d'onde selectionnees avec differentes proprietes. Nous avons ainsi montre qu'il est possible d'obtenir a partir des spectres pir, les compositions en aromatiques, satures, mono et polyinsatures d'essences entree-sortie d'un pilote d'hydrogenation. De meme, il a ete possible d'obtenir des modeles donnant avec une excellente precision les indices d'octane ron et mon de tout un ensemble de produits de raffinerie. D'autres proprietes telles que la tension de vapeur reid, les points de distillation et la densite ont aussi ete modelisees
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Zwald, Laurent. „PERFORMANCES STATISTIQUES D'ALGORITHMES D'APPRENTISSAGE : ``KERNEL PROJECTION MACHINE'' ET ANALYSE EN COMPOSANTES PRINCIPALES A NOYAU“. Phd thesis, Université Paris Sud - Paris XI, 2005. http://tel.archives-ouvertes.fr/tel-00012011.

Der volle Inhalt der Quelle
Annotation:
La thèse se place dans le cadre de l'apprentissage statistique. Elle apporte
des contributions à la communauté du machine learning en utilisant des
techniques de statistiques modernes basées sur des avancées dans l'étude
des processus empiriques. Dans une première partie, les propriétés statistiques de
l'analyse en composantes principales à noyau (KPCA) sont explorées. Le
comportement de l'erreur de reconstruction est étudié avec un point de vue
non-asymptotique et des inégalités de concentration des valeurs propres de la matrice de
Gram sont données. Tous ces résultats impliquent des vitesses de
convergence rapides. Des propriétés
non-asymptotiques concernant les espaces propres de la KPCA eux-mêmes sont également
proposées. Dans une deuxième partie, un nouvel
algorithme de classification a été
conçu : la Kernel Projection Machine (KPM).
Tout en s'inspirant des Support Vector Machines (SVM), il met en lumière que la sélection d'un espace vectoriel par une méthode de
réduction de la dimension telle que la KPCA régularise
convenablement. Le choix de l'espace vectoriel utilisé par la KPM est guidé par des études statistiques de sélection de modéle par minimisation pénalisée de la perte empirique. Ce
principe de régularisation est étroitement relié à la projection fini-dimensionnelle étudiée dans les travaux statistiques de
Birgé et Massart. Les performances de la KPM et de la SVM sont ensuite comparées sur différents jeux de données. Chaque thème abordé dans cette thèse soulève de nouvelles questions d'ordre théorique et pratique.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Zwald, Laurent. „Performances statistiques d'algorithmes d'apprentissage : "Kernel projection machine" et analyse en composantes principales à noyau“. Paris 11, 2005. https://tel.archives-ouvertes.fr/tel-00012011.

Der volle Inhalt der Quelle
Annotation:
La thèse se place dans le cadre de l'apprentissage statistique. Elle apporte des contributions à la communauté du machine learning en utilisant des techniques de statistiques modernes basées sur des avancées dans l'étude des processus empiriques. Dans une première partie, les propriétés statistiques de l'analyse en composantes principales a noyau (KPCA) sont explorées. Le comportement de l'erreur de reconstruction est étudie avec un point de vue non-asymptotique et des inégalités de concentration des valeurs propres de la matrice de Gram sont données. Tous ces résultats impliquent des vitesses de convergence rapides. Des propriétés non-asymptotiques concernant les espaces propres de la KPCA eux-mêmes sont également proposées. Dans une deuxième partie, un nouvel algorithme de classification a été conçu : la Kernel Projection Machine (KPM). Tout en s'inspirant des Support Vector Machines (SVM), il met en lumière que la sélection d'un espace vectoriel par une méthode de réduction de la dimension telle que la KPCA régularise convenablement. Le choix de l'espace vectoriel utilise par la KPM est guide par des études statistiques de sélection de modèle par minimisation pénalisée de la perte empirique. Ce principe de régularisation est étroitement relie a la projection fini-dimensionnelle étudiée dans les travaux statistiques de Birge et Massart. Les performances de la KPM et de la SVM sont ensuite comparées sur différents jeux de données. Chaque thème aborde dans cette thèse soulevé de nouvelles questions d'ordre théorique et pratique
This thesis takes place within the framework of statistical learning. It brings contributions to the machine learning community using modern statistical techniques based on progress in the study of empirical processes. The first part investigates the statistical properties of Kernel Principal Component Analysis (KPCA). The behavior of the reconstruction error is studied with a non-asymptotique point of view and concentration inequalities of the eigenvalues of the kernel matrix are provided. All these results correspond to fast convergence rates. Non-asymptotic results concerning the eigenspaces of KPCA themselves are also provided. A new algorithm of classification has been designed in the second part: the Kernel Projection Machine (KPM). It is inspired by the Support Vector Machines (SVM). Besides, it highlights that the selection of a vector space by a dimensionality reduction method such as KPCA regularizes suitably. The choice of the vector space involved in the KPM is guided by statistical studies of model selection using the penalized minimization of the empirical loss. This regularization procedure is intimately connected with the finite dimensional projections studied in the statistical work of Birge and Massart. The performances of KPM and SVM are then compared on some data sets. Each topic tackled in this thesis raises new questions
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Tchana, Esther Petnga. „Application de l'analyse multidimensionnelle à la classification qualitative du café robusta en fonction de la maturité“. Montpellier 2, 1986. http://www.theses.fr/1986MON20196.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Sockeel, Stéphane. „Détection de réseaux et étude de la dynamique des connectivités fonctionnelles cérébrales en EEG couplée avec l'IRMf“. Paris 6, 2012. http://www.theses.fr/2012PA066598.

Der volle Inhalt der Quelle
Annotation:
L'objectif de cette thèse était de répondre aux deux problématiques suivantes : est-il possible de détecter des réseaux fonctionnels en électroencéphalographie (EEG) ? Que peut apporter l'EEG dans l'étude des dynamiques de connectivité ? Nous avons proposé une méthode originale, propre à l'EEG pour détecter des réseaux fonctionnels sous l'hypothèse communément admise que la puissance du signal EEG et le signal BOLD de l'imagerie par résonance magnétique fonctionnelle (IRMf) sont corrélés. L'originalité principale de cette méthode est l'utilisation d'une analyse en composantes indépendantes spatialement (ACIs). Cette méthode se décompose en six principales étapes : prétraitement de l'EEG, localisation des sources, calcul des puissances dans 5 bandes de fréquences, ACIs sur chaque sujet, étude de groupe, régression sur l'IRMf. Les points forts de la méthode sont une approche non supervisée, une analyse individuelle couplée à une étude de groupe, une analyse multifréquentielle dans la détection des réseaux. Cette méthode a été validée par comparaison avec l'IRMf lors d'une étude sur une population de sujet sain, au repos et durant des tâches motrices et visuelles. Les réseaux liés à ces tâches détectés en EEG et en IRMf se recouvrent : l'EEG et l'IRMf colportent une information similaire de réseaux fonctionnels. La dynamique des connectivités au sein des réseaux extraits a été étudiée via plusieurs mesures de connectivités. La précision temporelle de l'EEG permet d’évaluer finement les liens et le flux d'information entre les régions, notamment de manière fréquentielle. Cette étude fait apparaître quelques résultats intéressants, notamment la détection d'une trace mnésique
The main goal of this work is answering this two questions: could electroencephalography (EEG) detect large-scale functional networks? What contribution could bring EEG in the study of dynamics of connectivity? We have developed an original method specifically for EEG to detect large-scale functional networks in the brain. We first assume that BOLD signal in fMRI is correlated with the power of EEG signal and then, we applied a spatial Independent Components Analysis (sICA). Our method can be divided in six steps : preprocessing of EEG data, sources localization, power computation in five frequency bands, sICA for each subject, hierarchical clustering (group analysis), stepwise regression with fMRI templates. The main advantages in regards of the other classic methods (seed-based methods, atlas, …) are: a fully data-driven method, use of individual sICA and a group analysis, multifrequency analysis. We validated our method with a comparison with a fMRI study on healthy subjects during resting states and visual tasks. The networks detected with EEG and fMRI overlap. Then, we have studied the dynamics of connectivity inside the extracted EEG networks using three connectivity measures. The temporal precision of EEG can evaluate connection and information flow between this regions and give us acces to a frequency scale similar to that of brain's rythmes. This study has provided some interesting and promising results, for example a memory trace after a visual task in the visual network
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Homayouni, Saéid. „Caractérisation de scènes urbaines par analyse des images hyperspectrales“. Paris, ENST, 2005. http://www.theses.fr/2005ENST0055.

Der volle Inhalt der Quelle
Annotation:
La caractérisation d'un environnement tel que le milieu urbain est une tâche délicate car ce milieu est un phénomène complexe par différents aspects. Parmi ceux-ci, l'aspect géographique est considéré comme le plus important qui puisse être étudié par les technologies d'acquisition et les techniques d'analyse de la télédétection. En particulier, la télédétection hyperspectrale a montré son potentiel pour l'acquisition de données et l'extraction d'informations nécessaires pour la modélisation du milieu urbain. Dans cette thèse, pour l'analyse d'image hyperspectrale, deux stratégies supervisée et non supervisée ont été choisi. Nous avons appliqué les techniques de Mise en Correspondance Spectrale, en tant que les méthodes supervisées, en vue de la cartographie des matériaux urbains. Afin d'améliorer les résultats de ces techniques, nous avons proposé une technique de fusion au niveau de la décision. Par ailleurs, une technique non supervisée basée sur l'Analyse en Composantes Indépendantes pour la séparation spectrale et la classification, comme une solution de problème de mélange, est proposée. Elle emploie la technique de groupage C-Moyens Flou, afin d'obtenir une carte de classification floue et sub-pixelique. Ces techniques sont employées sur les données images hyperspectrales acquises par le capteur CASI sur la ville de Toulouse, en France. Elles sont enregistrées en 32 canaux spectraux avec la résolution spatiale de 2 mètres et 48 canaux en 4 mètres de résolution spatiale. Enfin, nous avons comparé les résultats de ces méthodes avec des données de vérité terrain et une évaluation du taux d'erreur de classification a été réalisée pour toutes les techniques
Urban area characterization is a delicate task, since these kinds of environments are complex features from various aspects. The geographic aspect of an urban environment may be the most important aspect which could be studied by Remote Sensing techniques. In particular, Hyperspectral Remote Sensing provides valuable information which a priori could effectively help us in information extraction tasks for urban area modelling. In fact, the need for precise, updated and detailed information is necessary within a lot of applications. HIS has been employed for various applications of detection and mapping of materials in natural and urban environment. For HSI analysis, two strategies may be considered; firstly, a supervised strategy and secondly, an unsupervised strategy. For urban materials mapping, we have applied the Spectral Matching techniques, as the supervised methods. In order to improve the results of these techniques, we proposed a fusion technique in decision level. Then, an unsupervised technique based on Independent Components Analysis (ICA), as a solution of mixing problem, is proposed. ICA has been used for spectral separation and classification. The Fuzzy C-Means clustering technique then has been applied in order to obtain a fuzzy classification map. These techniques are applied on hyperspectral images data acquired by CASI sensor over the city of Toulouse in France. These image sets contain the 32 and 48 band images with 2 and 4 meter of spatial resolution, respectively. We have compared the results with the ground truths data by evaluation of the classification accuracy using the matrix of confusion
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Jausions-Picaud, Claire. „Analyse en composantes curvilignes et representation de donnees multidimensionnelles : application au routage adaptatif de messages“. Grenoble INPG, 1999. http://www.theses.fr/1999INPG0080.

Der volle Inhalt der Quelle
Annotation:
Dans de nombreux cas, les donnees dont nous pouvons disposer sont de tres grande dimensionalite. Elles sont donc difficiles a apprehender. Les techniques d'analyse de donnees visent a reduire le nombre de dimensions d'un jeu de donnees, de maniere a ce qu'il puisse etre represente dans un espace de faible dimension (si possible deux ou trois), ou l'analyse visuelle est alors aisee. Dans ce travail, nous presentons des techniques classiques d'analyse de donnees et leurs equivalents neuronaux, limitees pour la plupart a la recherche de structures lineaires. Nous exposons d'autres methodes pouvant extraire des structures non lineaires. Parmi celles-ci, nous decrivons les cartes de kohonen en insistant sur leur point faible : la forme de la carte neuronale doit etre fixee a priori. Cette caracteristique, primordiale pour un bon traitement des donnees, est difficile a determiner. Ces methodes ont servi de base et d'inspiration pour la realisation de l'algorithme d'analyse en composantes curvilignes, qui depasse la majorite de leurs defauts. Il est concu pour extraire des donnees non-lineaires. Il determine de lui-meme la forme de la carte la plus appropriee pour traiter des donnees. Il permet de deplier une structure dans un espace de representation de dimension reduite. Nous detaillons les principes de cette methode et voyons quelques cas d'ecole ou elle est appliquee avec succes. Sont ensuite detaillees plusieurs applications de l'acc a des problemes reels. Cette methode novatrice s'attaque avec succes au traitement de problemes lies aussi bien a la classification de photographies de scenes qu'a des cartes routieres. Nous nous attardons sur l'application de cette methode au routage adaptatif de messages dans des reseaux de telecommunications. Ce cas grandeur reelle necessite une analyse et une modelisation des systemes physiques qui peuvent alors etre traites par l'acc.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

CHAGUE, VINCENT. „Analyse des composantes du management technologique et de ses incidences sur les performances des pme“. Limoges, 1995. http://www.theses.fr/1995LIMO0446.

Der volle Inhalt der Quelle
Annotation:
La motivation generale a la base de cette recherche part d'un constat: l'importance croissance de la technologie dans le management strategique de l'entreprise: nous souhaitons alors repondre a 2 questions complementaires : pourquoi maitriser la technologie dans l'entreprise ? et commebt ? son objectif est de contribuer a mieux comprendre le concept de technologie et a preciser la maniere de l'apprehender dans l'entreprise. Nous faisons ressortir, a partir d'un echnatillon de pme, qui constitue la base empirique, les 3 etapes du management strategique de la technologie. Celles-ci sont mises en relation de maniere statistiques et causale, avec differentes dimensions des performances economiques. Il en decoule des recommandations et des outils d'aide a la decision qui facilitent le management de la technologie dans l'entreprise.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Sahmer, Karin. „Propriétés et extensions de la classification de variables autour de composantes latentes : application en évaluation sensorielle“. Phd thesis, Université Rennes 2, 2006. http://tel.archives-ouvertes.fr/tel-00129227.

Der volle Inhalt der Quelle
Annotation:
Dans ce travail, les propriétés de la méthode de classification de variables autour de composantes latentes (CLV) sont étudiées. Un modèle statistique pour cette méthode est formulé. Ce modèle est particulièrement adapté aux données issues d'un profil sensoriel. Il permet de jeter un nouvel éclairage sur la méthode CLV. Le critère de classification s'écrit en fonction des paramètres du modèle. Il est démontré que, sous des conditions peu contraignantes, l'algorithme hiérarchique retrouve correctement les groupes de variables tandis que l'algorithme de partitionnement dépend de l'initialisation. Le comportement de la méthode CLV lors de la classification sur la base d'un échantillon est analysé à l'aide d'une étude de simulations. Il s'avère que la performance de CLV est comparable à celle de méthodes connues telles que la méthode Varclus du logiciel SAS. Finalement, deux procédures automatiques pour la détermination du nombre de groupes sont proposées et comparées.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Toque, Carole. „Pour l'identification de modèles factoriels de séries temporelles : application aux ARMA stationnaires /“. Paris : École nationale supérieure des télécommunications, 2006. http://catalogue.bnf.fr/ark:/12148/cb40949643z.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Sahmer, Karin Carbon Michel Kunert Joachim. „Propriétés et extensions de la classification de variables autour de composantes latentes application en évaluation sensorielle /“. Rennes : Université Rennes 2, 2007. http://tel.archives-ouvertes.fr/tel-00129227/fr.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Makany, Roger Armand. „Techniques de validation en statistiques : application à l'analyse en composantes principales et à la régression“. Paris 11, 1985. http://www.theses.fr/1985PA112222.

Der volle Inhalt der Quelle
Annotation:
Dans cette thèse, la validation des résultats est envisagée sous l’angle de leur stabilité. En analyse en composantes principales, l’étude porte sur la stabilité des valeurs propres et des sous-espaces propres. S’agissant de la régression, l’attention est centrée autour de la stabilité des coefficients de régression. Au-delà des critères de stabilité proposés, on présente le logiciel mis au point pour le traitement des données
In this work, the results validation is being studied according to the stability proceeding from these results. The present study is based upon the stability of latent roots and subspaces in principal component analysis. As regards regression, the author has focused on the stability of the regression coefficients. Beyond the stability criteria put forward, there has been included a display of the software designed for data processing
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

De, Blois Sylvie. „Le paysage comme espace conceptuel et fonctionnel en écologie, analyse des composantes végétales de paysages agroforestiers“. Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2001. http://www.collectionscanada.ca/obj/s4/f2/dsk3/ftp05/NQ61382.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Cabral, Emmanuel Nicolas. „Etude spectrale des processus stationnaires multidimensionnels et analyse en composantes principales dans le domaine des fréquence“. Toulouse 3, 2010. http://thesesups.ups-tlse.fr/802/.

Der volle Inhalt der Quelle
Annotation:
Les méthodes statistiques multidimensionnelles ont connu ces dernières décennies des développements très importants tant au niveau théorique (notamment en statistique opératorielle) qu'au niveau des applications (comme, par exemple, le traitement des données fonctionnelles). L'approche dans le domaine des fréquences (et de son outil majeur la transformée de Fourier) permet notamment d'envisager le traitement de fonctions aléatoires et de processus stochastiques particuliers (stationnaires par exemple). Dans l'étude d'un phénomène aléatoire pouvant être modélisé par un processus p-dimensionnel (Xt)t epsilon T, où chaque Xt est à valeurs dans Cp, il peut être intéressant, d'une part, de bien maîtriser les outils spectraux associés à (Xt)t epsilon T et, d'autre part, dans un but de clarification, d'obtenir un processus q-dimensionnel (q
Multidimensional statistical methods knew in these last decades very important developments both for theoretical (particularly in operatorial statistics) and application fields, allowing functional data treatments. The frequency domain's field (and its important tool the Fourier transform) allows particularly to permit the treatment of random functions and particular stochastic processes (stationary for example). In the study of random phenomenons which can be modeled by a p-dimensional process (Xt)t epsilon T, where each X belongs to Cp, it should be interesting, in one hand, to control the spectral tools associated with (Xt)t epsilon T and, in other hand, to obtain, in view of clarification, a q-dimensional process (with q < p) which best summarizes as possible (Xt)t epsilon T in a certain sense. There exists methods which allow to summarize a p-dimensional stationary continuous random function, defined on T = Z, R, [-pi,pi[ or, more generally, on a locally compact Abélian group. They lean on a criterion strictly closed to stationarity and their implementation is the Principal Component Analysis (PCA) of random measure associated with (Xt)t epsilon T. This PCA, also called, PCA in the frequency domain of (Xt)t epsilon T, consists on the PCA of each spectral component of (Xt)t epsilon T. We can present our contributions in the following four points: At first, it is well known that any stationary process can be associated with various spectral tools such as the random measure, the spectral measure with projector values and a unitary operator. We carry out a synthetic work about tensor and convolution products of random and spectral measures. This investment allows to answer, in practice, to interpolation problems, to identification of a spatial process, or to inverse Fourier transform problem. Secondly, given a periodic stationary process, we are interested in the specificity of its spectral tools. We define a notion of quasi-periodicity and quantify the closeness between the associated random measures of a quasi-periodic process and its periodic version. We study then the proximity between the corresponding PCA's in the frequency domain. .
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

CHAAR, MATEM. „Analyse et modelisation des composantes de la croissance en hauteur de jeunes plants de chene sessile“. Paris, ENGREF, 1998. http://www.theses.fr/1998ENGR0001.

Der volle Inhalt der Quelle
Annotation:
Pour repondre a la problematique sylvicole comment faire pousser plus rapidement en hauteur les jeunes regenerations de chene nous avons mis en place une etude d'analyse et de modelisation de la croissance en hauteur des plants de chene sessile (quercus petraea (matt) liebl. ) dans des jeunes regenerations pures, afin de caracteriser les effets des contraintes du milieu. A l'occasion d'une analyse retrospective de croissance, des cinq premieres annees d'une regeneration naturelle, nous avons identifie des composantes morphologiques de la croissance en hauteur. Ces composantes (i. E. , le nombre d'unites de croissance (uc) contribuant a l'allongement de la pousse annuelle, la longueur de chaque uc, les nombres de noeuds contribuant a l'allongement, de feuilles et de ramifications portes par les uc, l'etat de leur bourgeon terminal, et l'allongement annuel), ainsi que les eventuelles interactions entre - elles, ont ete analyses et quantifies a l'aide de methodes statistiques appropriees, notamment par l'ajustement des modeles lineaires generalises. Toutes ces composantes sont apparues sensibles a l'effet annee. L'allongement annuel est dependant du nombre d'uc. Le nombre de noeuds, le nombre de ramifications et l'allongement de l'uc, sont apparues aussi lies positivement. Ces composantes et les methodes statistiques associees, ont ete ensuite mises en oeuvre pour analyser (1) les effets de la limitation de certains facteurs environnementaux (lumiere et alimentation en eau), (2) les consequences de gelees tardives effectives, survenues au cours de deux annees successives lors d'un suivi de croissance de plants en regeneration naturelle, et egalement (3) les consequences d'endommagements controles (i. E. , ablation des feuilles, pincement du bourgeon terminal seul ou conjugue a une ablation des feuilles, ablation de l'extremite apicale). Le nombre d'uc etablies par saison et formant l'axe du plant est reduit par la limitation de l'intensite lumineuse ou de l'alimentation hydrique, par les gelees tardives, et par la defoliation de la premiere uc. L'allongement des uc, le nombre de noeuds ou de feuilles et les ramifications portes par ces uc, ainsi que l'allongement annuel sont aussi sensibles aux conditions du milieu. La limitation de l'alimentation en eau reduit l'allongement des uc, le nombre de noeuds et de ramifications portees par les uc, ainsi que l'allongement annuel, tandis qu'une limitation partielle de l'intensite lumineuse (18-38% de la lumiere incidente), se traduit par un fort allongement des deuxieme et troisieme uc. L'ablation des feuilles, seule ou conjuguee avec le pincement du bourgeon terminal, ainsi que l'ablation de l'extremite apicale de l'uc reduisent l'allongement et le nombre de feuilles etablies sur l'uc suivante et reduisent par consequence l'allongement de la pousse annuelle. Le nombre de ramifications portees par les uc endommagees a ete stimule par tous les dommages physiques simules. Les resultats obtenus permettent de repondre partiellement a la problematique sylvicole abordee. Ils constituent neanmoins une base solide pour envisager des collaborations avec les ecophysiologistes, notamment pour creer un simulateur de developpement des regenerations naturelles et artificielles. Ils permettent egalement d'orienter des collaborations avec les forestiers, pour tester les interactions entre les facteurs etudies separement dans le cadre de cette etude.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Tudesque, Loïc. „Analyse temporelle et spatiale des composantes chimiques, hydromorphologiques et diatomiques en relation avec les changements globaux“. Toulouse 3, 2011. http://thesesups.ups-tlse.fr/1474/.

Der volle Inhalt der Quelle
Annotation:
L'objectif de cette thèse était d'évaluer l'effet des changements globaux sur les milieux aquatiques. L'analyse exploratoire des bases de données d'occupation des sols, de physico-chimie, d'hydromorphologie, de diatomées dans les cours d'eau du bassin Adour-Garonne et de diatomées en Guyane a mis en évidence : 1) l'effet du changement global sur la qualité des eaux marquée par la hausse des températures et une atténuation sensible de l'eutrophisation ; 2) l'importance prépondérante des patrons d'occupation des sols à l'échelle du bassin versant ; 3) la persistance des diatomées et le changement des caractéristiques des communautés périphytiques face aux conditions de stress extrême dues à l'orpaillage en Guyane. Ces résultats ont démontré leurs valeurs quant à leurs potentiels de transfert vers les domaines de "la recherche appliquée" en proposant : 1) un référentiel temporel de la qualité chimique des eaux du bassin Adour-Garonne ; 2) l'intégration des patrons de l'occupation des sols à l'échelle du bassin versant dans le développement de nouveaux outils de bio-indication ; 3) la mise au point d'un indice diatomique générique basé sur les capacités motrices des diatomées et destiné au contexte guyanais
This thesis aimed at assessing the effect of global changes on aquatic ecosystems. The exploratory analysis of the land cover patterns, physicochemical, hydromorphological, and diatom databases in the Adour-Garonne basin and the diatom flora of streams in French Guyana highlighted: 1) the effect of the global changes on the water quality characterized by the temperature increase and the significant mitigation of eutrophication ; 2) the strongest influence of the land cover patterns at the catchment scale ; 3) the persistence of the diatom flora and the change of community structures facing extreme stress due to gold mining ; These results testified their importance as for their potential transfers towards the fields of "applied research", particularly proposing: 1) a temporal reference frame of the chemical water quality of the Adour-Garonne basin ; 2) to integrate the land cover patterns extracted at the catchment scale in order to improve or develop new biomonitoring tools ; 3) the development of a new generic diatom index appropriate to the French Guyana context based on the diatom motility abilities
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Touati, Sami. „Estimation de statistiques d'ordre supérieur et de composantes cycliques de signaux cyclostationnaires à l'aide d'ondelettes“. Paris 11, 2007. http://www.theses.fr/2007PA112341.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Sicard, Emeline. „Choix de composantes optimales pour l'analyse spatiale et la modélisation : application aux pluies mensuelles du Nordeste brésilien“. Montpellier 1, 2004. http://www.theses.fr/2004MON13509.

Der volle Inhalt der Quelle
Annotation:
Ce travail rentre dans la problématique d'analyse de données spatiales multivariées, par le biais de composantes optimales. Une synthèse bibliographique des différentes méthodes existantes est réalisée. Elles sont basées sur le calcul de composantes qui optimisent un certain critère spatial. Nous introduisons de nouveaux critères, qui permettent de définir de nouvelles méthodes. Il s'agit de l'analyse sur composantes spatialisées à paramètres constants ou variables, et de ses variantes. Elles permettent d'obtenir des composantes dont le variogramme expérimental s'ajuste au mieux à un certain variogramme théorique. Nous avons testé les méthodes sur des données de pluie du Nordeste brésilien, mesurées sur 65 stations de janvier 1937 à décembre 1984. La deuxième partie de ce travail est de nature un peu différente. Il s'agit en effet de tester des méthodes de régression non paramétrique utilisant comme variables explicatives des composantes calculées par régression pls. Ces méthodes de régression utilisent des outils d'analyse spatiale, par le biais du krigeage et de la distance euclidienne. Nous les avons appliquées sur les données de pluie en utilisant comme variables explicatives des variables de température superficielle de la mer et l'indice d'oscillation australe (SOI).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Imam, Wae͏̈l. „Une extension spline additive de l'analyse en composantes principales sur variables instrumentables“. Montpellier 2, 1998. http://www.theses.fr/1998MON20009.

Der volle Inhalt der Quelle
Annotation:
L'analyse en composantes principales sur variables instrumentales spline additive est une methode ayant pour objectif l'analyse des relations additives non lineaires entre deux groupes de variables. Cette methode est basee sur la transformation des variables explicatives par des fonctions splines. Dans ce travail, nous proposons, en premier lieu d'ameliorer l'algorithme de cette methode afin d'accelerer sa vitesse de convergence. Puis nous presentons une variante de cette methode qui repose sur la stabilisation des variances des variables explicatives. Une nouvelle methode transformant les variables explicatives ainsi que les variables reponses est proposee. Nous mettrons en evidence un lien entre l'analyse en composantes principales sur variables instrumentales codage spline et un reseau de neurones avec une structure particuliere. Pour la mise en oeuvre pratique de ces extensions un programme informatique a ete realise permettant son application aux donnees reelles. Deux cas reels sont traites : le premier est la quantification des effets spatiaux lineaires et non lineaires dans l'explication d'un tableau de donnees concernant la qualite des eaux souterrainnes. Le deuxieme est une etude sur l'influence de certaines variables meteorologiques sur certains flux pathologiques du service des urgences de chu. De nimes.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

Balandraud, Nathalie. „Etude du vieillissement simulé et in situ des bitumes routiers par IRTF et fluorescence UV en excitation-émission synchrones : détermination des relations structures chimiques - propriétés rhéologiques par analyse en composantes principales“. Aix-Marseille 3, 1994. http://www.theses.fr/1994AIX30102.

Der volle Inhalt der Quelle
Annotation:
L'oxydation et le vieillissement de la matiere se traduisent le plus souvent par des evolutions structurales entrainant des modifications de comportement. Ceci est particulierement important en industrie, notamment pour les produits fossiles et derives. Ainsi, les phenomenes de vieillissement des bitumes routiers peuvent etre suivis par differentes methodes physiques et rheologiques. Cependant, pour mieux les apprehender, il est necessaire d'etudier l'evolution chimique des bitumes, en preservant au maximum leur integralite (approche globale). L'etude de leur oxydation apres vieillissement par test rtfot (en film mince, a chaud et sous air) ou en service (sur la route), a ete menee ponctuellement par prise de spectres irtf et de fluorescence uv en excitation-emission synchrones (ees). L'evolution des bitumes a ete simulee par oxydation en continu, dans une cellule irtf mise au point a cet effet. Resituer les phenomenes naturels et les tests industriels, en comparant les indices obtenus en discontinu avec ceux en continu, a permis de mieux apprehender les chemins reactionnels de ces matieres organiques complexes. Dans cet objectif, des indices de vieillissement ont ete determines a partir des spectres des bitumes et de leurs fractions asphalteniques et malteniques. En fluorescence uv ees, ces indices traduisent l'etat de condensation des especes aromatiques presentes. En irtf, les indices decrivent les structures chimiques et les groupements fonctionnels. Leur evolution est correlee a celle des indices de fluorescence. Cette etude a permis de mettre en evidence des differences de reactivite selon l'origine du bitume (sa composition, etc. ) et les conditions d'utilisation. L'analyse en composantes principales (acp) des bitumes, en fonction soit de leurs proprietes rheologiques et mecaniques, soit de leurs indices spectrometriques, est semblable. En consequence, l'influence du taux et de la nature de certaines structures chimiques du liant sur ses proprietes rheologiques est indeniable. Il est maintenant possible, connaissant la structure initiale des bitumes, d'estimer sinon de prevoir une partie de leurs comportements rheologiques et chimiques, durant les vieillissements thermiques et sur site, par une regression multilineaire de certains indices spectrometriques. L'interet des outils analytiques developpes (indices spectrometriques d'irtf et de fluorescence uv), simples a realiser, ne s'arrete pas a l'etude du vieillissement des bitumes. En effet, l'etude prospective realisee sur les bitumes polymeres a aussi demontre la pertinence de l'information apportee par cette methodologie analytique. Les fractions bitumineuses responsables du gonflement du polymere ont ainsi ete determinees. De meme, il est possible, par comparaison avec une banque de donnees spectrales, de prevoir les phenomenes de demixtion de polymere au sein du bitume et l'interet industriel de ces melanges
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Dubuisson, Séverine. „Analyses d'expressions faciales“. Compiègne, 2001. http://www.theses.fr/2001COMP1360.

Der volle Inhalt der Quelle
Annotation:
L'objectif de la thèse est l'étude des méthodes de représentation et de reconnaissance d'expressions faciales. Le visage étant la partie la plus expressive d'un être humain, il est l'un des centres d'intérêt majeurs dans les recherches pour l'amélio¬ration de l'interaction homme/machine, Pour analyser une expression, il faut tout d'abord extraire d'un visage les attributs caractérisant l'expression. Il est ensuite nécessaire de leur choisir une représentation appropriée afin de faciliter le problème final de reconnaissance, qui se fait par le biais d'outils de mesure. Nous donnons deux états de l'art concernant l'extraction de caractéristiques et la reconnaissance d'expressions faciales, avant de proposer nos contributions personnelles. Nous proposons un algorithme de détection des traits caractéristiques per-mettant d'extraire la partie intérieure de visages supposés vus de face. Le principe est de révéler des zones caractéristiques du visage en utilisant un filtrage de Gabor. Nous déterminons ensuite lesquelles d'entre elles correspondent aux yeux et à la bouche en classant les noeuds générés par un partitionnement adaptatif de l'image du module de Gabor. La méthode testée sur de nombreux exemples s'est montrée robuste. Nous présentons ensuite une méthode de reconnaissance d'expressions basée sur une optimisation de la représentation, par analyse statistique, de masques faciaux expressifs. Nous calculons une Analyse en Composantes Principales sur un ensemble d'apprentissage composé d'individus issus de différentes classes d'expression. L'idée est de trier les composantes principales générées dans leur ordre décroissant d'importance pour le problème de reconnaissance d'expressions. Pour cela, nous utilisons une procédure itérative qui sélectionne pas à pas les composantes et dont le critère de sélection est celui de l'erreur commise par le discriminateur. Le sous-espace propre "optimisé" est construit avec les vecteurs propres associés aux composantes triées et nous y projetons les individus. Nous effectuons ensuite une Analyse Discriminante Linéaire, fournissant un sous-espace discriminant dans lequel s'opère la reconnaissance d'expressions. Les tests effectués et les résultats fournis montrent l'intérêt du choix d'une représentation optimale pour la reconnaissance.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie