Thèses sur le sujet « Analyse de données fonctionnelle »

Pour voir les autres types de publications sur ce sujet consultez le lien suivant : Analyse de données fonctionnelle.

Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres

Choisissez une source :

Consultez les 50 meilleures thèses pour votre recherche sur le sujet « Analyse de données fonctionnelle ».

À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.

Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.

Parcourez les thèses sur diverses disciplines et organisez correctement votre bibliographie.

1

Chevaillier, Béatrice. « Analyse de données d'IRM fonctionnelle rénale par quantification vectorielle ». Phd thesis, Université de Metz, 2010. http://tel.archives-ouvertes.fr/tel-00557235.

Texte intégral
Résumé :
Pour l'évaluation de la fonction rénale, l'Imagerie par Résonance Magnétique (IRM) dynamique à rehaussement de contraste est une alternative intéressante à la scintigraphie. Les résultats obtenus doivent cependant être évalués à grande échelle avant son utilisation en pratique clinique. L'exploitation des séquences acquises demande un recalage de la série d'images et la segmentation des structures internes du rein. Notre objectif est de fournir un outil fiable et simple à utiliser pour automatiser en partie ces deux opérations. Des méthodes statistiques de recalage utilisant l'information mutuelle sont testées sur des données réelles. La segmentation du cortex, de la médullaire et des cavités est réalisée en classant les voxels rénaux selon leurs courbes temps-intensité. Une stratégie de classification en deux étapes est proposée. Des classificateurs sont d'abord construits grâce à la coupe rénale principale en utilisant deux algorithmes de quantification vectorielle (K-moyennes et Growing Neural Gas). Ils sont validés sur données simulées, puis réelles, en évaluant des critères de similarité entre une segmentation manuelle de référence et des segmentations fonctionnelles ou une seconde segmentation manuelle. Les voxels des autres coupes sont ensuite triés avec le classificateur optimum pour la coupe principale. La théorie de la généralisation permet de borner l'erreur de classification faite lors de cette extension. La méthode proposée procure les avantages suivants par rapport à une segmentation manuelle : gain de temps important, intervention de l'opérateur limitée et aisée, bonne robustesse due à l'utilisation de toute la séquence et bonne reproductibilité.
Styles APA, Harvard, Vancouver, ISO, etc.
2

Décarie, Yann. « Analyse en composantes principales et analyse discriminante fonctionnelles appliquées à des données de prises alimentaires animales ». Mémoire, Université de Sherbrooke, 2011. http://savoirs.usherbrooke.ca/handle/11143/4899.

Texte intégral
Résumé :
L'analyse de données fonctionnelles est une branche des statistiques modernes en pleine expansion. Cela est imputable aux avancées technologiques qui permettent et facilitent la collecte de large base de données ainsi que leurs représentations sous la forme de courbes ou de surfaces. Ce mémoire se divise en trois parties. La première partie, consiste en la présentation des méthodes utilisées, soit l'analyse en composantes principales et l'analyse discriminante, dans le cadre de l'analyse des données classique. La seconde partie, a comme objectif de définir le cadre théorique permettant l'application de ces deux méthodes à des données fonctionnelles et également de présenter les résultats les plus pertinents à la compréhension des modèles. Enfin, la dernière partie porte sur les résultats de l'application de l'analyse en composantes principales et de l'analyse discriminante fonctionnelles aux données de prises l'alimentaires porcines. Le but de l'application de ces méthodes consiste à déterminer s'il est possible de différencier, seulement à l'aide des données disponibles, les porcs qui ont été malades des autres. Pour ce faire, une série de modèles, qui se distinguent par le choix du critère d'affectation à une classe donnée, ont été utilisés. On présentera les résultats des modèles jugés les plus pertinents permettant d'avoir une proportion de bien classés, supérieure à 85%.
Styles APA, Harvard, Vancouver, ISO, etc.
3

Thirion, Bertrand. « Analyse de données d' IRM fonctionnelle : statistiques, information et dynamique ». Phd thesis, Télécom ParisTech, 2003. http://tel.archives-ouvertes.fr/tel-00457460.

Texte intégral
Résumé :
Dans cette thèse, nous discutons et proposons un certains nombre de méthodes pour l'analyse de données d'IRM -imagerie par résonance magnétique- fonctionnelle. L'IRM fonctionnelle est une modalité récente de l'exploration du cerveau: elle produit des séquences d'images reflétant l'activité métabolique locale, celle-ci reflétant l'activité neuronale. Nous nous intéressons tout d'abord à la modélisation des séries temporelles obtenues pour chaque voxel séparément, en faisant appel aux techniques de prédiction linéaire et au calcul de l'information des processus modélisés. Nous étudions ensuite différentes généralisations multivariées de ce modèle. Après avoir rappelé et discuté certaines techniques classiques (analyse en composantes indépendantes, regroupement), nous proposons successivement une approche linéaire fondée sur la théorie des systèmes à état et une approche non-linéaire fondée sur les décompositions à noyau. Le but commun de ces méthodes -qui peuvent se compléter- est de proposer des décompositions qui préservent au mieux la dynamique des données. Nous introduisons ensuite une approche nouvelle par réduction de la dimension des données; cette approche offre une représentation plus structurée et relativement agréable à visualiser. Nous montrons ses avantages par rapport aux techniques linéaires classiques. Enfin, nous décrivons une méthodologie d'analyse qui synthétise une grande partie de ce travail, et repose sur des hypothèses très souples. Nos résultats offrent ainsi une description globale des processus dynamiques qui sont mis en image lors des expériences d'IRM fonctionnelle.
Styles APA, Harvard, Vancouver, ISO, etc.
4

Operto, Grégory. « Analyse structurelle surfacique de données fonctionnelles cétrébrales ». Aix-Marseille 3, 2009. http://www.theses.fr/2009AIX30060.

Texte intégral
Résumé :
Les images fonctionnelles par résonance magnétique contiennent une mesure de l'activité cérébrale en chaque point du cerveau. Si de nombreuses méthodes existent, l'analyse automatique de ces données reste un problème ouvert. Notamment, la très grande majorité des méthodes considère ces données de façon volumique, dans le domaine 3D d'acquisition. Pourtant, l'essentiel de l'activité a lieu dans le cortex, qui peut être considéré comme une surface. Considérer les données sur la surface corticale présente beaucoup d'avantages : d'une part sa géométrie peut être prise en compte dans toutes les étapes de traitement, d'autre part la prise en compte de l'ensemble du volume réduit le pouvoir de détection des tests statistiques généralement employés. Cette thèse propose ainsi une extension du champ d'application des méthodes volumiques vers le domaine surfacique en abordant la projection des données sur la surface, l'analyse multi-sujets ainsi que l'estimation de la validité des résultats
Functional data acquired by magnetic resonance contain a measure of the activity in every location of the brain. If many methods exist, the automatic analysis of these data remains an open problem. In particular, the huge majority of these methods consider these data in a volume-based fashion, in the 3D acquisition space. However, most of the activity is generated within the cortex, which can be considered as a surface. Considering the data on the cortical surface has many advantages : on one hand, its geometry can be taken into account in every processing step, on the other hand considering the whole volume reduces the detection power of usually employed statistical tests. This thesis hence proposes an extension of the application field of volume-based methods to the surface-based domain by adressing problems such as projecting data onto the surface, performing surface-based multi-subjects analysis, and estimating results validity
Styles APA, Harvard, Vancouver, ISO, etc.
5

Feuillard, Vincent. « Analyse d'une base de données pour la calibration d'un code de calcul ». Phd thesis, Université Pierre et Marie Curie - Paris VI, 2007. http://tel.archives-ouvertes.fr/tel-00809048.

Texte intégral
Résumé :
Cette recherche s'insère dans le contexte général de la calibration, en vue d'applications industrielles. Son objectif est d'évaluer la qualité d'une base de données, représentant la manière dont celle-ci occupe, au mieux des objectifs recherchés, son domaine de variation. Le travail réalisé ici fournit une synthèse des outils mathématiques et algorithmiques permettant de réaliser une telle opération. Nous proposons en outre des techniques de sélection ou d'importation de nouvelles observations permettant d'améliorer la qualité globale des bases de données. Les méthodes élaborées permettent entre autres d'identifier des défauts dans la structure des données. Leurs applications sont illustrées dans le cadre de l'évaluation de paramètres fonctionnels, dans un contexte d'estimation par fonctions orthogonales.
Styles APA, Harvard, Vancouver, ISO, etc.
6

Karkar, Slim Ismael. « Parcellisation et analyse multi-niveaux de données : Application à l’étude des réseaux de connectivité cérébrale ». Strasbourg, 2011. https://publication-theses.unistra.fr/public/theses_doctorat/2011/KARKAR_Slim_Ismael_2011.pdf.

Texte intégral
Résumé :
Durant les dernières décennies, l'IRM fonctionnelle a permis de cartographier les différentes fonctions cérébrales et, plus récemment, d'identifier les réseaux fonctionnels qui décrivent les interactions qui peuvent s'établir entre régions cérébrales, proches ou distantes, lors de l'exécution d'une tâche cognitive. Pour identifier ces réseaux, une stratégie récente repose sur une parcellisation préliminaire du cerveau en régions fonctionnellement homogènes, puis sur l'identification des réseaux fonctionnels significatifs depuis une mesure des interactions entre l'ensemble des régions. Ainsi, la première partie de cette thèse propose une nouvelle méthode de parcellisation du cerveau en régions fonctionnellement homogènes. La méthode proposée est exploratoire et multi-niveaux : elle fournit plusieurs niveaux de parcellisation, et nous avons montré que les régions définies par notre méthode se superposent de manière satisfaisante aux structures anatomiques du cortex. Dans la deuxième partie de la thèse, nous avons proposé une méthode originale d'identification des réseaux fonctionnels. L'approche développée permet la significativité des réseaux étant donné leur taille et le seuil utilisé pour leur détection. Une telle approche permet de détecter des réseaux de faible taille qui impliquent des liens très significatifs, et également des réseaux plus grands impliquant des liens moins significatifs. Enfin, nous avons développé une approche permettant de classer les réseaux obtenus, de manière à réaliser une étude de groupe. L'information disponible sur l'ensemble des sujets permet alors de définir des classes qui synthétisent les caractéristiques des réseaux les plus partagés au sein d'une population de sujets
Over the last decade, functional MRI has emerged as a widely used tool for mapping functions of the brain. More recently, it has been used for identifying networks of cerebral connectivity that represent the interactions between different brain areas. In this context, a recent strategy is based on a preliminary parcellation of the brain into functional regions, and then identifying functional networks from a measurement of interactions between each area. The first part of this thesis describes a novel approach for parcellation that produces regions that are homogeneous at several levels. These regions are shown to be consistent with the anatomical landmarks of the processed subjects. In the second part, we propose a new family of statistics to identify significant networks of functional connectivity. This approach enables the detection of small, strongly-connected networks as well as larger networks that involve weaker interactions. Finally, within a classification framework, we developed a group-level study, producing networks that synthesize characteristics of functional networks across the population under study
Styles APA, Harvard, Vancouver, ISO, etc.
7

Prifti, Edi. « Une approche bioinformatique intégrative pour la recherche de cibles physiopathologiques dans les maladies complexes : une application aux données transcriptomiques ». Paris 6, 2011. http://www.theses.fr/2011PA066175.

Texte intégral
Résumé :
L’analyse des interactions transcriptionnelles mesurées par les puces à ADN est utilisée pour identifier des cibles physiopathologiques d'intérêt. Il est possible de caractériser l'importance relative des transcrits à l'aide de mesures de centralité basées sur l’abstraction des réseaux. Le bruit expérimental est l’un des problèmes majeurs rencontrés lors de l’analyse du transcriptome et se retrouve également dans les réseaux de co-expression, diminuant la pertinence biologique des mesures de centralité. Nous avons supposé que l’intégration des données d’expression avec les annotations fonctionnelles pourrait augmenter la pertinence biologique et rendre les mesures plus robustes au bruit. Dans ce contexte nous avons développé l’ATC, un score de centralité fonctionnelle, qui se base sur la propagation des annotations génomiques au sein des réseaux de co-expression. Cette approche, inspirée de la propagation des influences fonctionnelles dans les réseaux d’interaction moléculaires, a été comparée à d’autres mesures de centralité topologique, la connectivité et l’intermédiarité, dans leur capacité à identifier des gènes fonctionnellement importants. Elle s’est avérée également plus résistante au bruit aléatoire. Des indicateurs d’importance biologique, notamment l’essentialité et un score unifié de conservation phylogénétique, ont été utilisés. D’autres développements ont permis la réalisation de trois outils analytiques, publiquement accessibles : FunNet, FunNetViz et PhyloScore. L’ATC et l’analyse des réseaux de co-expression ont été appliqués à des données produites au laboratoire dans le cadre de l’obésité et de nouvelles pistes physiopathologiques ont été proposées.
Styles APA, Harvard, Vancouver, ISO, etc.
8

Grollemund, Paul-Marie. « Régression linéaire bayésienne sur données fonctionnelles ». Thesis, Montpellier, 2017. http://www.theses.fr/2017MONTS045.

Texte intégral
Résumé :
Un outil fondamental en statistique est le modèle de régression linéaire. Lorsqu'une des covariables est une fonction, on fait face à un problème de statistique en grande dimension. Pour conduire l'inférence dans cette situation, le modèle doit être parcimonieux, par exemple en projetant la covariable fonctionnelle dans des espaces de plus petites dimensions.Dans cette thèse, nous proposons une approche bayésienne nommée Bliss pour ajuster le modèle de régression linéaire fonctionnel. Notre modèle, plus précisément la distribution a priori, suppose que la fonction coefficient est une fonction en escalier. A partir de la distribution a posteriori, nous définissons plusieurs estimateurs bayésiens, à choisir suivant le contexte : un estimateur du support et deux estimateurs, un lisse et un estimateur constant par morceaux. A titre d'exemple, nous considérons un problème de prédiction de la production de truffes noires du Périgord en fonction d'une covariable fonctionnelle représentant l'évolution des précipitations au cours du temps. En terme d'impact sur les productions, la méthode Bliss dégage alors deux périodes de temps importantes pour le développement de la truffe.Un autre atout du paradigme bayésien est de pouvoir inclure de l'information dans la loi a priori, par exemple l'expertise des trufficulteurs et des biologistes sur le développement de la truffe. Dans ce but, nous proposons deux variantes de la méthode Bliss pour prendre en compte ces avis. La première variante récolte de manière indirecte l'avis des experts en leur proposant de construire des données fictives. La loi a priori correspond alors à la distribution a posteriori sachant ces pseudo-données.En outre, un système de poids relativise l'impact de chaque expert ainsi que leurs corrélations. La seconde variante récolte explicitement l'avis des experts sur les périodes de temps les plus influentes sur la production et si cet l'impact est positif ou négatif. La construction de la loi a priori repose alors sur une pénalisation des fonctions coefficients en contradiction avec ces avis.Enfin, ces travaux de thèse s'attachent à l'analyse et la compréhension du comportement de la méthode Bliss. La validité de l'approche est justifiée par une étude asymptotique de la distribution a posteriori. Nous avons construit un jeu d'hypothèses spécifique au modèle Bliss, pour écrire une démonstration efficace d'un théorème de Wald. Une des difficultés est la mauvaise spécification du modèle Bliss, dans le sens où la vraie fonction coefficient n'est sûrement pas une fonction en escalier. Nous montrons que la loi a posteriori se concentre autour d'une fonction coefficient en escalier, obtenue par projection au sens de la divergence de Kullback-Leibler de la vraie fonction coefficient sur un ensemble de fonctions en escalier. Nous caractérisons cette fonction en escalier à partir du design et de la vraie fonction coefficient
The linear regression model is a common tool for a statistician. If a covariable is a curve, we tackle a high-dimensional issue. In this case, sparse models lead to successful inference, for instance by expanding the functional covariate on a smaller dimensional space.In this thesis, we propose a Bayesian approach, named Bliss, to fit the functional linear regression model. The Bliss model supposes, through the prior, that the coefficient function is a step function. From the posterior, we propose several estimators to be used depending on the context: an estimator of the support and two estimators of the coefficient function: a smooth one and a stewpise one. To illustrate this, we explain the black Périgord truffle yield with the rainfall during the truffle life cycle. The Bliss method succeeds in selecting two relevant periods for truffle development.As another feature of the Bayesian paradigm, the prior distribution enables the integration of preliminary judgments in the statistical inference. For instance, the biologists’ knowledge about the truffles growth is relevant to inform the Bliss model. To this end, we propose two modifications of the Bliss model to take into account preliminary judgments. First, we indirectly collect preliminary judgments using pseudo data provided by experts. The prior distribution proposed corresponds to the posterior distribution given the experts’ pseudo data. Futhermore, the effect of each expert and their correlations are controlled with weighting. Secondly, we collect experts’ judgments about the most influential periods effecting the truffle yield and if the effect is positive or negative. The prior distribution proposed relies on a penalization of coefficient functions which do not conform to these judgments.Lastly, the asymptotic behavior of the Bliss method is studied. We validate the proposed approach by showing the posterior consistency of the Bliss model. Using model-specific assumptions, efficient proof of the Wald theorem is given. The main difficulty is the misspecification of the model since the true coefficient function is surely not a step function. We show that the posterior distribution contracts on a step function which is the Kullback-Leibler projection of the true coefficient function on a set of step functions. This step function is derived from the true parameter and the design
Styles APA, Harvard, Vancouver, ISO, etc.
9

Feydy, Jean. « Analyse de données géométriques, au delà des convolutions ». Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASN017.

Texte intégral
Résumé :
Analyse de données géométriques, au delà des convolutionsPour modéliser des interactions entre points, une méthode simple est de se reposer sur des sommes pondérées communément appelées "convolutions". Au cours de la dernière décennie, cette opération est devenue la brique de construction essentielle à la révolution du "deep learning". Le produit de convolution est, toutefois, loin d'être l'alpha et l'oméga des mathématiques appliquées.Pour permettre aux chercheurs d'explorer de nouvelles directions, nous présentons des implémentations robustes et efficaces de trois opérations souvent sous-estimées:1. Les manipulations de tenseurs semi-symboliques, comme les matrices de distances ou de noyaux.2. Le transport optimal, qui généralise la notion de "tri" aux espaces de dimension D > 1.3. Le tir géodésique sur une variété Riemannienne, qui se substitue à l'interpolation linéaire sur des espaces de données où aucune structure vectorielle ne peut être correctement définie.Nos routines PyTorch/NumPy sont compatibles avec la différentiation automatique, et s'exécutent en quelques secondes sur des nuages de plusieurs millions de points. Elle sont de 10 à 1,000 fois plus performantes que des implémentations GPU standards et conservent une empreinte mémoire linéaire. Ces nouveaux outils sont empaquetés dans les bibliothèques "KeOps" et "GeomLoss", avec des applications qui vont de l'apprentissage automatique à l'imagerie médicale. Notre documentation est accessible aux adresses www.kernel-operations.io/keops et /geomloss
Geometric data analysis, beyond convolutionsTo model interactions between points, a simple option is to rely on weighted sums known as convolutions. Over the last decade, this operation has become a building block for deep learning architectures with an impact on many applied fields. We should not forget, however, that the convolution product is far from being the be-all and end-all of computational mathematics.To let researchers explore new directions, we present robust, efficient and principled implementations of three underrated operations: 1. Generic manipulations of distance-like matrices, including kernel matrix-vector products and nearest-neighbor searches.2. Optimal transport, which generalizes sorting to spaces of dimension D > 1.3. Hamiltonian geodesic shooting, which replaces linear interpolation when no relevant algebraic structure can be defined on a metric space of features.Our PyTorch/NumPy routines fully support automatic differentiation and scale up to millions of samples in seconds. They generally outperform baseline GPU implementations with x10 to x1,000 speed-ups and keep linear instead of quadratic memory footprints. These new tools are packaged in the KeOps (kernel methods) and GeomLoss (optimal transport) libraries, with applications that range from machine learning to medical imaging. Documentation is available at: www.kernel-operations.io/keops and /geomloss
Styles APA, Harvard, Vancouver, ISO, etc.
10

Thirion, Bertrand. « Analyse de données d'IRM fonctionnelle : statistiques, information et dynamique / ». Paris : École nationale supérieure des télécommunications, 2004. http://catalogue.bnf.fr/ark:/12148/cb39181884r.

Texte intégral
Résumé :
Th. doct.--Signal et images--Paris--ENST, 2003. Titre de soutenance : fMRI data analysis, statistics, information and dynamics.
Bibliogr. p. 239-252. Introd. en français. Résumé en français et en anglais.
Styles APA, Harvard, Vancouver, ISO, etc.
11

Saumard, Mathieu. « Contribution à l'analyse statistique des données fontionnelles ». Thesis, Rennes, INSA, 2013. http://www.theses.fr/2013ISAR0009/document.

Texte intégral
Résumé :
Dans cette thèse, nous nous intéressons aux données fonctionnelles. La généralisation du modèle linéaire généralisé fonctionnel au modèle défini par des équations estimantes est étudiée. Nous obtenons un théorème du type théorème de la limite centrale pour l'estimateur considéré. Les instruments optimaux sont estimés, et nous obtenons une convergence uniforme des estimateurs. Nous nous intéressons ensuite à différents tests en données fonctionnelles. Il s'agit de tests non-paramétriques pour étudier l'effet d'une covariable aléatoire fonctionnelle sur un terme d'erreur, qui peut être directement observé comme une réponse ou estimé à partir d'un modèle fonctionnel comme le modèle linéaire fonctionnel. Nous avons prouvé, pour pouvoir mettre en oeuvre les différents tests, un résultat de réduction de la dimension qui s'appuie sur des projections de la covariable fonctionnelle. Nous construisons des tests de non-effet et d'adéquation en utilisant soit un lissage par un noyau, soit un lissage par les plus proches voisins. Un test d'adéquation dans le modèle linéaire fonctionnel est proposé. Tous ces tests sont étudiés d'un point de vue théorique et pratique
In this thesis, we are interested in the functional data. The problem of estimation in a model of estimating equations is studying. We derive a central limit type theorem for the considered estimator. The optimal instruments are estimated, and we obtain a uniform convergence of the estimators. We are then interested in various testing with functional data. We study the problem of nonparametric testing for the effect of a random functional covariate on an error term which could be directly observed as a response or estimated from a functional model like for instance the functional linear model. We proved, in order to construct the tests, a result of dimension reduction which relies on projections of the functional covariate. We have constructed no-effect tests by using a kernel smoothing or a nearest neighbor smoothing. A goodness-of-fit test in the functional linear model is also proposed. All these tests are studied from a theoretical and practical perspective
Styles APA, Harvard, Vancouver, ISO, etc.
12

Champely, Stéphane. « Analyse de données fonctionnelles : approximation par les splines de régression ». Lyon 1, 1994. http://www.theses.fr/1994LYO10242.

Texte intégral
Résumé :
Les phenomenes biologiques presentent naturellement des structures temporelles. La disposition de plusieurs realisations d'un processus stochastique permet d'etudier ces structures sous l'angle de l'analyse des donnees. Cependant la dimension temporelle n'est pas integree explicitement dans les analyses factorielles classiques ; notre travail se propose de la considerer en tant que donnee fondamentale a traiter. La voie choisie est la generalisation de l'analyse des donnees a un cadre hilbertien. Les individus sont dans ce contexte des courbes plutot que des vecteurs comme dans l'habituel cadre euclidien. La procedure d'analyse de donnees fonctionnelles proposee comporte deux etapes. La premiere etape vise a estimer les courbes grace a un modele unique de spline de regression. De nouvelles splines contraintes (a la symetrie) ont ete definies et nous avons developpe reglisse, un nouveau lisseur spline (estimation par validation croisee, estimation robuste) la seconde etape est une analyse de donnees concernant les fonctions obtenues, qui s'effectue en fait sur les parametres du modele spline a l'aide d'une metrique particuliere permettant de refleter les distances entre courbes. Deux grands problemes d'analyse de donnees temporelles ont ete explores probleme de discretisation les approximations fonctionnelles par les splines de regression permettent de contourner les difficultes resultant de donnees manquantes ou de discretisations differentes d'une courbe a l'autre. Probleme de couplage les collections de courbes sont rarement etudiees seules et on dispose generalement de variables concomitantes voire d'une autre collection de courbes. Ces informations externes peuvent etre integres a l'analyse
Styles APA, Harvard, Vancouver, ISO, etc.
13

Karkar, Slim. « Parcellisation et analyse multi-niveaux de données IRM fonctionnelles. Application à l'étude des réseaux de connectivité cérébrale ». Phd thesis, Université de Strasbourg, 2011. http://tel.archives-ouvertes.fr/tel-00652609.

Texte intégral
Résumé :
Durant les dernières décennies, l'IRM fonctionnelle a permis de cartographier les différentes fonctions cérébrales et, plus récemment, d'identifier les réseaux fonctionnels qui décrivent les interactions qui peuvent s'établir entre régions cérébrales, proches ou distantes, lors de l'exécution d'une tâche cognitive. Pour identifier ces réseaux, une stratégie récente repose sur une parcellisation préliminaire du cerveau en régions fonctionnellement homogènes, puis sur l'identification des réseaux fonctionnels significatifs depuis une mesure des interactions entre l'ensemble des régions. Ainsi, la première partie de cette thèse propose une nouvelle méthode de parcellisation du cerveau en régions fonctionnellement homogènes. La méthode proposée est exploratoire et multi-niveaux : elle fournit plusieurs niveaux de parcellisation, et nous avons montré que les régions définies par notre méthode se superposent de manière satisfaisante aux structures anatomiques du cortex. Dans la deuxième partie de la thèse, nous avons proposé une méthode originale d'identification des réseaux fonctionnels. L'approche développée permet la significativité des réseaux étant donné leur taille et le seuil utilisé pour leur détection. Une telle approche permet de détecter des réseaux de faible taille qui impliquent des liens très significatifs, et également des réseaux plus grands impliquant des liens moins significatifs. Enfin, nous avons développé une approche permettant de classer les réseaux obtenus, de manière à réaliser une étude de groupe. L'information disponible sur l'ensemble des sujets permet alors de définir des classes qui synthétisent les caractéristiques des réseaux les plus partagés au sein d'une population de sujets.
Styles APA, Harvard, Vancouver, ISO, etc.
14

Martin, Hugo. « Étude de données et analyse de modèles intégro-différentiels en biologie cellulaire ». Electronic Thesis or Diss., Sorbonne université, 2019. http://www.theses.fr/2019SORUS668.

Texte intégral
Résumé :
Dans cette thèse, nous nous intéressons à l’étude de dynamiques cellulaires, tant au niveau de l'analyse mathématique d'un modèle établi que de la modélisation et l'analyse de données. Les deux premiers chapitres s'intéressent à des équations de type croissance-fragmentation avec vitesse de croissance linéaire. Nous nous intéressons en premier lieu au récent modèle dit incrémental, décrivant une population bactérienne. Nous prouvons l'existence et l'unicité de la solution du problème aux valeurs propres dans un espace de Lebesgue à poids. Ensuite, nous étudions le comportement asymptotique de solutions mesures de l'équation de croissance-fragmentation dans le cas mitose égale. Une solution est alors exprimée sous la forme d'un semigroupe agissant sur une condition initiale. Nous étendons à ce cadre un phénomène connu de dynamique oscillante en temps long, qui se traduit ici par une convergence faible de la solution vers une famille périodique de mesures. Le troisième chapitre porte sur les dynamiques conjointes entre cellules mésenchymateuses, préadipocytes et adipocytes. Nous proposons un modèle non linéaire dans lequel la vitesse de croissant dépend de la taille moyenne de ces dernières et l'analysons par des approches à la fois analytiques et numériques. Dans le dernier chapitre, nous effectuons une analyse statistique de données expérimentales de lignées individuelles de levures. Nous mettons notamment en évidence l'existence de phénomènes distincts entre les arrêts précoces et la sénescence réplicative. Nous proposons enfin un raffinement d'un modèle existant, maintenant apte à décrire la génération d'entrée en sénescence pour l'ensemble des lignées
In this dissertation, we are interested in the study of some dynamics in molecular biology, making us of mathematical analysis of established models, modelling and data analysis. The first two chapters focus on growth-fragmentation equations with linear growth rate. We are first interested in the recent so-called incremental model, describing a bacterial population. We prove the existence and uniqueness of the solution of the eigenproblem in a weighted Lebesgue space. Then we study the asymptotic behaviour of measures solutions of the growth-fragmentation equation in the equal mitosis case. A solution is then expressed as a semigroup acting on an initial condition. We extend to this framework a known phenomenon of long time oscillating dynamics, which results here in a weak convergence of the solution towards a periodic family of measures. The third chapter deals with the joint dynamics between mesenchymal, pre-adipocyte and adipocyte cells. We propose a non-linear model in which the growth rate depends on the average size of the latter and analyze it using both analytical and numerical approaches. In the last chapter, we carry out a statistical analysis of experimental data from individual yeast lines. In particular, we highlight the existence of distinct phenomena between early arrests and replicative senescence. Finally, we propose a refinement of an existing model, now able to describe the generation of onset of senescence for all the lineages
Styles APA, Harvard, Vancouver, ISO, etc.
15

Conan-Guez, Brieuc. « Modélisation supervisée de données fonctionnelles par perceptron multi-couches ». Phd thesis, Université Paris Dauphine - Paris IX, 2002. http://tel.archives-ouvertes.fr/tel-00178892.

Texte intégral
Résumé :
L'Analyse de Données Fonctionnelles est une extension de l'analyse de données traditionnelles à des individus décrits par des fonctions. Le travail présenté ici s'inscrit pleinement dans ce courant, et tente de faire la jonction entre le domaine de la statistique fonctionnelle, et celui des techniques "neuronales" classiques. L'extension du perceptron multi-couches (PMC) à des espaces fonctionnels, proposé dans ce travail, apporte une réponse naturelle au traitement d'individus de type fonctions. Deux approches distinctes sont ici présentées : une approche par traitement direct des fonctions d'entrée et une approche par projection sur une base topologique de l'espace fonctionnel considéré (méthode classique en Analyse de Données Fonctionnelles). Pour chacune de ces deux méthodes, on montre dans un premier temps que le modèle est un approximateur universel, i.e. que toute fonction continue définie sur un compact d'un espace fonctionnel peut être approchée arbitrairement bien par un PMC fonctionnel. Dans un deuxième temps, on s'intéresse aux propriétés de consistance de l'estimateur fonctionnel. L'originalité de ce résultat vient du fait que non seulement l'estimation s'effectue sur un nombre fini d'individus (les fonctions observées), mais que de plus chacune de ces fonctions n'est connue qu'en un nombre fini de points d'observation (discrétisation). Un point important à noter est que ce résultat s'appuie sur une modélisation aléatoire du design des fonctions d'entrée. Enfin, on montre que le modèle peut encore être adapté afin d'obtenir une réponse fonctionnelle, ce qui autorise le traitement de processus fonctionnels à temps discret. L'approximation universelle et la consistance de l'estimateur (dans le cas i.i.d) sont encore vérifiées.
Styles APA, Harvard, Vancouver, ISO, etc.
16

Raguideau, Sébastien. « Analyse de données de métagénomique fonctionnelle par NMF pour la modélisation de la dégradation des fibres par le microbiote intestinal humain ». Thesis, Université Paris-Saclay (ComUE), 2016. http://www.theses.fr/2016SACLA027/document.

Texte intégral
Résumé :
Ce travail de thèse a pour but de modéliser la capacité de dégradation des polysaccharides non digestibles par le microbiote intestinal humain. Nous exploitons pour cela des données métagénomiques. Il s'agit de données d'abondances de séquences de nucléotides dans 1408 échantillons dont les fonctions métaboliques sont assignées par annotation contre une base de données. Les séquences sont annotées par des marqueurs fonctionnels. Après une étape de sélection manuelle de 86 marqueurs fonctionnels pertinents à l'activité de métabolisation des polysaccharides, nous étudions leurs variations d'abondances parmi les échantillons métagénomiques.Nous proposons une approche de modélisation écologique du microbiote intestinal humain et considérons principalement la sélection fonctionnelle intense de cet écosystème pour faire l'hypothèse que des regroupements identiques de fonctions métaboliques sont présents en proportions différentes dans tous les microbiotes intestinaux humains. Nous proposons le terme d'assemblage fonctionnel qui rend compte de la co-occurrence spatiale et temporelle d'un groupement de fonctions. Ces assemblages sont en pratiques déterminés par leur composition en marqueurs fonctionnels, et peuvent s'interpréter comme une combinaison de traits fonctionnels agrégés au niveau des microorganismes composant l'assemblage.Les assemblages fonctionnels sont inférés par le biais d'une factorisation en matrice positive aussi nommée NMF de l'anglais Non-Negative Matrix Factorisation. Cette méthode permet de déterminer les assemblages fonctionnels, à la fois concernant leur composition et à la fois concernant leur abondance dans chacun des 1408 échantillons. Nous exploitons par ailleurs une information métabolique provenant de 190 génomes microbiens et de la bibliographie qui permet de préciser la composition de ces assemblages fonctionnels. Cette information se traduit sous forme d'une contrainte.Nous trouvons 4 assemblages en considérant un consensus entre différents critères. L'utilisation de l'information métabolique nous permet d'interpréter biologiquement ces assemblages. Les métadonnées associées aux 1408 échantillons nous permettent d'observer un comportement différent pour les échantillons provenant d'individus atteints de la maladie de Crohn. Nous validons cette observation sur des données extérieures.Nous avons proposé une approche réductionniste permettant de représenter un processus métabolique important à l'échelle du microbiote. Nous trouvons un nombre réduit de 4 assemblages fonctionnels qui sont biologiquement vraisemblables et permettent de bien approcher les 1408 échantillons métagénomiques
The purpose of this work of thesis is to model the capacity of degradation of non-digestible polysaccharides by the human intestinal microbiote. To this end we exploit metagenomic data. We use abundances of nucleotide sequences in 1408 samples whose metabolic function are assigned by annotation against a database. The sequences are annotated with functional markers. Upon manual selection of 86 functional markers relevant to the activity of metabolisation of polysaccharides, we their abundances variation among the metagenomic samples are studied.We propose an ecological approach in modeling the human intestinal microbiote. We consider the intense functional selection of this ecosystem and assume that identical cluster of metabolic functions can be found in different proportions in every human gut microbiota. We propose the term of functional assembly as to account for spacial and temporal co-occurence of functional cluster. In practice, theses assemblies are determined by their composition and can be interpreted as combinations of functional traits aggregated at the levels of the cluster of microorganisms composing each assembly. Functional assemblies are inferred by the means of Non-Negative Matrix Factorization (NMF). This method allows to determine the composition of functional assemblies and their abundance in each of the 1408 metagenomic sample.Furthermore, we exploit metabolic information from bibliographic resources and 190 microbial genomes in order to specify the composition of these functional assemblies. This information is translated in the form of a constraint.We find 4 assemblies by considering a consensus between various criteria. The use of metabolic information allow to interpret theses assemblies biologically. By exploiting the metadata of the 1408 samples, we observe a different behaviour for the samples coming from individuals suffering from Crohn disease. We validate this observation on external data.We proposed a reductionistic approach allowing to represent an important metabolic process at the level of the microbiota. We find a small number of 4 functional assemblies which are biologically likely and approach well the 1408 metagenomic samples
Styles APA, Harvard, Vancouver, ISO, etc.
17

Chaouch, Mohamed. « Contribution à l'estimation non paramétrique des quantiles géométriques et à l'analyse des données fonctionnelles ». Phd thesis, Université de Bourgogne, 2008. http://tel.archives-ouvertes.fr/tel-00364538.

Texte intégral
Résumé :
Cette thèse est consacré à l'estimation non paramétrique des quantiles géométriques conditionnels ou non et à l'analyse des données fonctionnelles. Nous nous sommes intéressés, dans un premier temps, à l'étude des quantiles géométriques. Nous avons montré, avec plusieurs simulations, qu'une étape de Transformation-retransformation est nécessaire, pour estimer le quantile géométrique, lorsqu'on s'éloigne du cadre d'une distribution sphérique. Une étude sur des données réelles a confirmée que la modélisation des données est mieux adaptée lorsqu'on utilise les quantiles géométriques à la place des quantiles mariginaux, notamment lorsque les variables qui constituent le vecteur aléatoire sont corrélées. Ensuite nous avons étudié l'estimation des quantiles géométriques lorsque les observations sont issues d'un plan de sondage. Nous avons proposé un estimateur sans biais du quantile géométrique et à l'aide des techniques de linéarisation par les équations estimantes, nous avons déterminé la variance asymptotique de l'estimateur. Nous avons ensuite montré que l'estimateur de type Horvitz-Thompson de la variance converge en probabilité. Nous nous sommes placés par la suite dans le cadre de l'estimation des quantiles géométriques conditionnels lorsque les observations sont dépendantes. Nous avons démontré que l'estimateur du quantile géométrique conditionnel converge uniformement sur tout ensemble compact. La deuxième partie de ce mémoire est consacrée à l'étude des différents paramètres caractérisant l'ACP fonctionnelle lorsque les observations sont tirées selon un plan de sondage. Les techniques de linéarisation basées sur la fonction d'influence permettent de fournir des estimateurs de la variance dans le cadre asymptotique. Sous certaines hypothèses, nous avons démontré que ces estimateurs convergent en probabilité.
Styles APA, Harvard, Vancouver, ISO, etc.
18

Andrieu, Cindie. « Modélisation fonctionnelle de profils de vitesse en lien avec l'infrastructure et méthodologie de construction d'un profil agrégé ». Phd thesis, Toulouse 3, 2013. http://thesesups.ups-tlse.fr/2057/.

Texte intégral
Résumé :
La connaissance des vitesses pratiquées est une caractéristique essentielle du comportement des conducteurs et de leur usage du réseau routier. Cette information est rendue disponible grâce à la généralisation des véhicules connectés, mais aussi des smartphones, qui permettent d'accroître le nombre de "traceurs" susceptibles de renvoyer leur position et leur vitesse en temps réel. Dans cette thèse, nous proposons d'utiliser ces traces numériques et de développer une méthodologie, fondée sur une approche fonctionnelle, permettant d'extraire divers profils de vitesse caractéristiques. Dans une première partie, nous proposons une modélisation fonctionnelle des profils spatiaux de vitesse (i. E. Vitesse vs distance parcourue) et nous étudions leurs propriétés (continuité, dérivabilité). Dans une seconde partie, nous proposons une méthodologie permettant de construire un estimateur d'un profil spatial de vitesse à partir de mesures bruitées de position et de vitesse, fondée sur les splines de lissage et la théorie des espaces de Hilbert à noyau reproduisant (RKHS). Enfin, la troisième partie est consacrée à la construction de divers profils agrégés (moyen, médian). Nous proposons notamment un alignement des profils par landmarks au niveau des arrêts, puis nous proposons la construction d'enveloppes de vitesse reflétant la dispersion des vitesses pratiquées
The knowledge of the actual vehicle speeds is an essential characteristic of drivers behavior and their road usage. This information become available with the generalization of connected vehicles, but also smartphones, which increase the number of "tracers" likely to refer their position and speed in real time. In this thesis, we propose to use these digital traces and to develop a methodology, based on a functional approach, to produce several reference speed profiles. In a first part, we propose a functional modeling of space-speed profiles (i. E. Speed vs position) and we study their properties (continuity, differentiability). In a second part, we propose a methodology to construct an estimator of a space speed profile from noisy measurements of position and speed, based on smoothing splines and the theory of reproducing kernel Hilbert spaces (RKHS). The third part is devoted to the construction of several aggregated profiles (average, median). In particular, we propose a landmark-based registration of profiles at stops, and we propose the construction of speed corridors reflecting the dispersion of actual speeds
Styles APA, Harvard, Vancouver, ISO, etc.
19

Malkassian, Anthony. « Méthodes d’analyse fonctionnelle et multivariée appliquées à l’étude du fonctionnement écologique des assemblages phytoplanctoniques de l’étang de Berre ». Thesis, Aix-Marseille, 2012. http://www.theses.fr/2012AIXM4108.

Texte intégral
Résumé :
L'étude de la relation entre les variations d'abondance du phytoplancton et les facteurs environnementaux (naturels ou anthropiques) dans les zones saumâtres peu profondes est essentielle à la compréhension et à la gestion de cet écosystème complexe. Les relations existant entre les variables physico-chimiques (température, salinité et les nutriments) et les assemblages de phytoplancton de l'étang de Berre ont été analysées à partir d'un suivi écologique mensuel de 16 années (1994-2010). A l'aide des données recueillies par cette étude à long terme, des questions en relation avec la gestion de ce milieu ont été abordées grâce à l'application d'analyses statistiques et à la représentation originale des données. Depuis 2004, la nouvelle politique de relargage d'eau douce a provoqué de forts changements dans la salinité globale de la lagune : une diminution de la stratification et une raréfaction des phénomènes d'anoxie dans sa partie la plus profonde. Un changement dans la structure de la communauté phytoplanctonique a également été observé en association avec l'évolution des conditions environnementales. Une augmentation de la richesse spécifique phytoplanctonique, et plus précisément, l'émergence d'espèces à affinité marine a permis de mettre en évidence la première étape d'une marinisation de la lagune. Ces résultats soulignent l'impact significatif d'un nouvelle politique de gestion de cette zone côtière particulière. Nous nous sommes ensuite intéressés à la dynamique du phytoplancton à l'échelle de la journée reflet des variations rapides de l'environnement
The study of the relationship between variations in phytoplankton abundance and environmental forces (natural or anthropogenic) in shallow brackish areas is essential to both understanding and managing this complex ecosystem. Over a 16 year (1994-2011) monthly monitoring program the relationships between physicochemical variables (temperature, salinity and nutrients) and phytoplankton assemblages of the Berre Lagoon were analyzed. Using data collected from this long-term study, we have addressed environmental management issues through the application of advanced statistical analyses and original data displays. These analyses and data displays can readily be applied to other data sets related to the environment, with the aim of informing both researcher and practitioner. Since 2004, a new policy for freshwater discharge has induced strong changes in the global salinity of the lagoon : a weakened stratification and a rarefaction of anoxia phenomena in its deepest part. A shift in the structure of the phytoplankton community has been observed in association with changes in environmental conditions. An increase of phytoplanktonic species richness, and more precisely, the emergence of species with marine affinity highlights the first step of a marinization of the lagoon. The results underline the significant impact of a new management policy in this specific coastal zone. We then focused on the response of phytoplankton to quick environmental variations. An original approach for automated high frequency analysis of phytoplankton was adopted with the use of an autonomous flow cytometer (CytoSense)
Styles APA, Harvard, Vancouver, ISO, etc.
20

Bonizzi, Pietro. « Atrial activity extraction and analysis in atrial fibrillation episodes ». Nice, 2010. http://www.theses.fr/2010NICE4027.

Texte intégral
Résumé :
Atrial fibrillation (AF) as it affects up to 10% of people over 70 years of age is the most common cardiac arrhythmias encountered in clinical practice, in spite of its relevance and incidence, the mechanisms of initiation and maintenance of AF are still quite unknown. Different strategies for AF treatment are selected with respect to the duration of AF episodes, and their efficacy may also be influenced by the degree of organization in the atrial activity (AA). The degree of organization of the AA depends in turn on the chronification of AF, and on the consequent electro-structural remodeling concerning the myocardial substrate, affecting the functioning of the atrio-ventricular node in particular. Thus, proper signal processing tools are required in order to shed some light on the electrophysiological origins of AF and on its impairing influence on the cardiac system. Particularly, the signal processing interest relies in extracting as much information as possible from non invasive recordings, in line with the general tendency in the clinical domain, in order to reduce the risks to the patient and to make clinical analysis time and cost effective. In this sense, a certain knowledge of the degree of organization in the AA may be potentially relevant in clinical decision making, as this could guide the selection of the best treatment for AF for each patient. Classical methods proposed for the extraction of an AA signal from electrocardiogram (ECG) recordings and for the non invasive estimation of the degree of organization of the atrial activations during AF do not exploit completely the spatial diversity offered by multi-lead ECG recordings. They generally focus on the analysis of the spectral content of the AF on a single lead only, with the risk of underestimating the actual complexity of the inner atrial activations. In this doctoral thesis, we exploit the spatial diversity offered by multi-lead ECG recordings to accomplish two main tasks. First, we want to enhance the quality of an AA signal extracted from ECG recordings, necessary for further detailed analysis of AF. To this end, we exploit the spatial information of the ECG to generate suitable subspaces representing each of the main cardiac activities of interest, the ventricular and the atrial, respectively, by delineating the corresponding segments in the ECG recording. These subspaces are exploited as a priori information and inserted as additional constraints into the blind source extraction algorithm. Different possibilities to exploit these subspaces as a prior information are presented, underlining their versatility in satisfactorily focusing on different characteristics of the various cardiac activities and of their relationships. Second, we want to noninvasively quantify the degree of spatio-temporal organization of the atrial activations during AF from the analysis of multi-lead ECG recordings. This is achieved looking at the spatial complexity of the recorded atrial electrical activity, prop-1 erly segmented from the ECG recordings, and the temporal stationarity of its potential field spatial pattern. As for the extraction of the AA signal, spatial complexity and temporal stationarity of the AA are measured exploiting an estimate of its subspace. The results of our study confirm the interest of using the spatial information in the ECG in order to generate different subspaces suitably describing the ventricular and atrial components of the ECG. In turn, these components reveal to be useful both to define additional constraints into the blind source extraction algorithm for the AA signal extraction and to directly analyze the AF organization in surface recordings, strongly supporting the appropriateness of signal processing approaches exploiting spatial diver-sity in AF analysis. First applications of these techniques to study the effects of catheter ablation on the reorganization of the AF by exploiting standard 12-lead ECG recordings attest their potential clinical relevance in the selection of patients who may actually benefit from the ablation therapy and suggest their widespread use in future clinical applications
La fibrillation auriculaire (FA) est l’arythmie la plus fréquente dans le domaine clinique. Malgré son importance et fréquence (10% des gens plus âgés de 70), les mécanismes de génération de la FA sont encore plutôt inconnus. Différents stratégies pour traiter la FA sont sélectionnées par rapport à la durée des épisodes de FA, et leur efficacité dépend aussi du degré d’organisation de l’activité auriculaire (AA). Le degré d’organisation de l’AA dépend à son tour du niveau de chronicité de la FA, et du conséquent remodelage électro-structurel qui concerne le substrat du myocarde, et qui affecte le fonctionnement du noeud auriculo-ventriculaire en particulier. Par conséquent, des outils de traitement du signal appropriés s’avèrent nécessaires pour éclaircir les origines électrophysiologiques de la FA et son influence sur le système cardiaque. En particulier, l’intérêt du traitement du signal repose sur l’extraction de plus d’informations possibles des enregistrements non invasifs, en accord avec la tendance générale dans le domaine clinique, pour réduire les risques chez le patient et pour réduire le temps et le coût des analyses cliniques. Dans ce sens, une certaine connaissance du degré d’organisation de l’AA peut-être potentiellement important pour aider la décision clinique. Ceci pourrait guider la sélection du meilleur traitement de la FA pour chaque patient. Les méthodes classiques pour l’extraction d’un signal de AA des enregistrements d’électrocardiogramme (ECG) et pour l’estimation non invasive du degré de l’organisation des activations auriculaires pendant FA n’exploitent pas complètement la diversité spatiale offerte par des enregistrements ECG à plusieurs dérivations. En général, ils se concentrent sur l’analyse du contenu spectral de la FA dans une seule dérivation, avec le risque de sous-estimer la complexité réelle des activations auriculaires en interne. Dans ces travaux de thèse, nous exploitons la diversité spatiale offerte par des enregistrements ECG à plusieurs dérivations pour accomplir deux objectifs principaux. Premièrement, nous voulons améliorer la qualité de l’extraction du signal de AA des enregistrements ECG, nécessaire pour des ultérieures analyses détaillées de la FA. Pour ce faire, nous exploitons l’information spatiale de l’ECG pour généré des sous-espaces appropriés qui représentent chacune des activités cardiaques d’intérêt, la ventriculaire et l’auriculaire, respectivement, en déterminant les segments correspondants dans l’ECG. Ces sous-espaces sont exploités comme information a priori et insérés en forme de contraintes supplémentaires dans l’algorithme de extraction aveugle des sources. Différentes possibilités d’exploiter ces sous-espaces comme information a priori sont présentées, mettant en évidence leur polyvalence dans leur capacité de se concentrer de façon satisfaisante sur différentes caractéristiques des différentes activités cardiaques et de leur relations. Deuxièmement, nous voulons quantifier d’une manière non invasive le degré 1 de l’organisation spatio-temporel des activations auriculaires pendant FA à partir de l’étude des enregistrements ECG à plusieurs dérivations. Ceci est accompli en regardant la complexité spatiale de l’enregistrement de l’AA des enregistrements ECG correctement segmenté, et la stationnarité de l’AA mesurés exploitant une estimation de son sous-espace. Les résultats de notre étude confirment l’intérêt d’exploiter l’information spatiale dans l’ECG pour générer différentes sous-espaces qui décrivent de façon appropriée les composants ventriculaire et auriculaire de l’ECG. A leur tour, ces composants se révèlent utiles et pour définir des contraintes supplémentaires dans l’algorithme de extraction aveugle des sources pour l’extraction de l’AA et pour analyser directement l’organisation de la FA par des enregistrements de surface, soutenant la justesse des approches de traitement du signal qui exploitent la diversité spatiale dans l’analyse de la FA. Des premières applications de ces techniques pour l’étude des effets de l’ablation par cathéter sur la réorganisation de la FA à partir de l’analyse des enregistrements ECG standards à12 dérivations montrent leur importance clinique potentielle pour la sélection des sujets qui pourraient bénéficier de la thérapie d’ablation, et aussi indiquent la possibilité de les utiliser de manière plus généralisée dans des application cliniques à venir
Styles APA, Harvard, Vancouver, ISO, etc.
21

Andrieu, Cindie. « Modélisation fonctionnelle de profils de vitesse en lien avec l'infrastructure et méthodologie de construction d'un profil agrégé ». Phd thesis, Université Paul Sabatier - Toulouse III, 2013. http://tel.archives-ouvertes.fr/tel-00915420.

Texte intégral
Résumé :
La connaissance des vitesses pratiquées est une caractéristique essentielle du comportement des conducteurs et de leur usage du réseau routier. Cette information est rendue disponible grâce à la généralisation des véhicules connectés, mais aussi des smartphones, qui permettent d'accroître le nombre de "traceurs" susceptibles de renvoyer leur position et leur vitesse en temps réel. Dans cette thèse, nous proposons d'utiliser ces traces numériques et de développer une méthodologie, fondée sur une approche fonctionnelle, permettant d'extraire divers profils de vitesse caractéristiques. Dans une première partie, nous proposons une modélisation fonctionnelle des profils spatiaux de vitesse (i.e. vitesse vs distance parcourue) et nous étudions leurs propriétés (continuité, dérivabilité). Dans une seconde partie, nous proposons une méthodologie permettant de construire un estimateur d'un profil spatial de vitesse à partir de mesures bruitées de position et de vitesse, fondée sur les splines de lissage et la théorie des espaces de Hilbert à noyau reproduisant (RKHS). Enfin, la troisième partie est consacrée à la construction de divers profils agrégés (moyen, médian). Nous proposons notamment un alignement des profils par landmarks au niveau des arrêts, puis nous proposons la construction d'enveloppes de vitesse reflétant la dispersion des vitesses pratiquées.
Styles APA, Harvard, Vancouver, ISO, etc.
22

De, Vitis Alba Chiara. « Méthodes du noyau pour l’analyse des données de grande dimension ». Thesis, Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR4034.

Texte intégral
Résumé :
Les nouvelles technologies permettant la collecte de données dépendant d’un nombre de plus en plus important de paramètres, les ensembles de données voient leur dimension devenir de plus en plus grande. Les problèmes théoriques, qui dépendent notamment de la dimension intrinsèque de l’ensemble des données, et les problèmes de calcul, liés à la dimension de l’espace où vivent les données, affectent l’analyse de données en grandes dimensions. Dans cette thèse, nous étudions le problème de l’analyse de données en grandes dimensions en nous plaçant dans le cadre des espaces métriques mesurés. Nous utilisons la concentration de la mesure pour produire des outils capables de décrire la structure des ensembles de données de grandes dimensions. Nous visons à introduire un nouveau point de vue sur l’utilisation des distances et des mesures de probabilité définies sur les données. Plus précisément, nous montrons que les méthodes de noyau, déjà utilisées en petites dimensions intrinsèques pour réduire la dimensionnalité, peuvent être utilisées en grandes dimensions et appliquées à des cas non traités dans la littérature
Since data are being collected using an increasing number of features, datasets are of increasingly high dimension. Computational problems, related to the apparent dimension, i.e. the dimension of the vectors used to collect data, and theoretical problems, which depends notably on the effective dimension of the dataset, the so called intrinsic dimension, have affected high dimensional data analysis. In order to provide a suitable approach to data analysis in high dimensions, we introduce a more comprehensive scenario in the framework of metric measure spaces. The aim of this thesis, is to show how to take advantage of high dimensionality phenomena in the pure high dimensional regime. In particular, we aim at introducing a new point of view in the use of distances and probability measures defined on the data set. More specifically, we want to show that kernel methods, already used in the intrinsic low dimensional scenario in order to reduce dimensionality, can be investigated under purely high dimensional hypotheses, and further applied to cases not covered by the literature
Styles APA, Harvard, Vancouver, ISO, etc.
23

Kherif, Ferath. « Applications de modèles statistiques multivariés à la résolution de problèmes posés par les données d' imagerie fonctionnelle cérébrale ». Paris 6, 2003. http://www.theses.fr/2003PA066598.

Texte intégral
Styles APA, Harvard, Vancouver, ISO, etc.
24

Zullo, Anthony. « Analyse de données fonctionnelles en télédétection hyperspectrale : application à l'étude des paysages agri-forestiers ». Thesis, Toulouse 3, 2016. http://www.theses.fr/2016TOU30135/document.

Texte intégral
Résumé :
En imagerie hyperspectrale, chaque pixel est associé à un spectre provenant de la réflectance observée en d points de mesure (i.e., longueurs d'onde). On se retrouve souvent dans une situation où la taille d'échantillon n est relativement faible devant le nombre d de variables. Ce phénomène appelé "fléau de la dimension" est bien connu en statistique multivariée. Plus d augmente devant n, plus les performances des méthodologies statistiques standard se dégradent. Les spectres de réflectance intègrent dans leur dimension spectrale un continuum qui leur confère une nature fonctionnelle. Un hyperspectre peut être modélisé par une fonction univariée de la longueur d'onde, sa représentation produisant une courbe. L'utilisation de méthodes fonctionnelles sur de telles données permet de prendre en compte des aspects fonctionnels tels que la continuité, l'ordre des bandes spectrales, et de s'affranchir des fortes corrélations liées à la finesse de la grille de discrétisation. L'objectif principal de cette thèse est d'évaluer la pertinence de l'approche fonctionnelle dans le domaine de la télédétection hyperspectrale lors de l'analyse statistique. Nous nous sommes focalisés sur le modèle non-paramétrique de régression fonctionnelle, couvrant la classification supervisée. Dans un premier temps, l'approche fonctionnelle a été comparée avec des méthodes multivariées usuellement employées en télédétection. L'approche fonctionnelle surpasse les méthodes multivariées dans des situations délicates où l'on dispose d'une petite taille d'échantillon d'apprentissage combinée à des classes relativement homogènes (c'est-à-dire difficiles à discriminer). Dans un second temps, une alternative à l'approche fonctionnelle pour s'affranchir du fléau de la dimension a été développée à l'aide d'un modèle parcimonieux. Ce dernier permet, à travers la sélection d'un petit nombre de points de mesure, de réduire la dimensionnalité du problème tout en augmentant l'interprétabilité des résultats. Dans un troisième temps, nous nous sommes intéressés à la situation pratique quasi-systématique où l'on dispose de données fonctionnelles contaminées. Nous avons démontré que pour une taille d'échantillon fixée, plus la discrétisation est fine, meilleure sera la prédiction. Autrement dit, plus d est grand devant n, plus la méthode statistique fonctionnelle développée est performante
In hyperspectral imaging, each pixel is associated with a spectrum derived from observed reflectance in d measurement points (i.e., wavelengths). We are often facing a situation where the sample size n is relatively low compared to the number d of variables. This phenomenon called "curse of dimensionality" is well known in multivariate statistics. The mored increases with respect to n, the more standard statistical methodologies performances are degraded. Reflectance spectra incorporate in their spectral dimension a continuum that gives them a functional nature. A hyperspectrum can be modelised by an univariate function of wavelength and his representation produces a curve. The use of functional methods allows to take into account functional aspects such as continuity, spectral bands order, and to overcome strong correlations coming from the discretization grid fineness. The main aim of this thesis is to assess the relevance of the functional approach in the field of hyperspectral remote sensing for statistical analysis. We focused on the nonparametric fonctional regression model, including supervised classification. Firstly, the functional approach has been compared with multivariate methods usually involved in remote sensing. The functional approach outperforms multivariate methods in critical situations where one has a small training sample size combined with relatively homogeneous classes (that is to say, hard to discriminate). Secondly, an alternative to the functional approach to overcome the curse of dimensionality has been proposed using parsimonious models. This latter allows, through the selection of few measurement points, to reduce problem dimensionality while increasing results interpretability. Finally, we were interested in the almost systematic situation where one has contaminated functional data. We proved that for a fixed sample size, the finer the discretization, the better the prediction. In other words, the larger dis compared to n, the more effective the functional statistical methodis
Styles APA, Harvard, Vancouver, ISO, etc.
25

Gharbi, Zied. « Contribution à l’économétrie spatiale et l’analyse de données fonctionnelles ». Thesis, Lille 1, 2019. http://www.theses.fr/2019LIL1A012/document.

Texte intégral
Résumé :
Ce mémoire de thèse touche deux champs de recherche importants en statistique inférentielle, notamment l’économétrie spatiale et l’analyse de données fonctionnelles. Plus précisément, nous nous sommes intéressés à l’analyse de données réelles spatiales ou spatio-fonctionnelles en étendant certaines méthodes inférentielles pour prendre en compte une éventuelle dépendance spatiale. Nous avons d’abord considéré l’estimation d’un modèle autorégressif spatiale (SAR) ayant une variable dépendante fonctionnelle et une variable réponse réelle à l’aide d’observations sur une unité géographique donnée. Il s’agit d’un modèle de régression avec la spécificité que chaque observation de la variable indépendante collectée dans un emplacement géographique dépend d’observations de la même variable dans des emplacements voisins. Cette relation entre voisins est généralement mesurée par une matrice carrée nommée matrice de pondération spatiale et qui mesure l’effet d’interaction entre les unités spatiales voisines. Cette matrice est supposée exogène c’est-à-dire la métrique utilisée pour la construire ne dépend pas des mesures de variables explicatives du modèle. L’apport de cette thèse sur ce modèle réside dans le fait que la variable explicative est de nature fonctionnelle, à valeurs dans un espace de dimension infinie. Notre méthodologie d’estimation est basée sur une réduction de la dimension de la variable explicative fonctionnelle, par l’analyse en composantes principales fonctionnelles suivie d’une maximisation de la vraisemblance tronquée du modèle. Des propriétés asymptotiques des estimateurs, des illustrations des performances des estimateurs via une étude de Monte Carlo et une application à des données réelles environnementales ont été considérées. Dans la deuxième contribution, nous reprenons le modèle SAR fonctionnel étudié dans la première partie en considérant une structure endogène de la matrice de pondération spatiale. Au lieu de se baser sur un critère géographique pour calculer les dépendances entre localisations voisines, nous calculons ces dernières via un processus endogène, c’est-à-dire qui dépend des variables à expliquées. Nous appliquons la même approche d’estimation à deux étapes décrite ci-dessus, nous étudions aussi les performances de l’estimateur proposé pour des échantillons à taille finie et discutons le cadre asymptotique. Dans la troisième partie de cette contribution, nous nous intéressons à l’hétéroscédasticité dans les modèles partiellement linéaires pour variables exogènes réelles et variable réponse binaire. Nous proposons un modèle Probit spatial contenant une partie non-paramétrique. La dépendance spatiale est introduite au niveau des erreurs (perturbations) du modèle considéré. L’estimation des parties paramétrique et non paramétrique du modèle est récursive et consiste à fixer d’abord les composants paramétriques et à estimer la partie non paramétrique à l’aide de la méthode de vraisemblance pondérée puis utiliser cette dernière estimation pour construire un profil de la vraisemblance pour estimer la partie paramétrique. La performance de la méthode proposée est étudiée via une étude Monte Carlo. La contribution finit par une étude empirique sur la relation entre la croissance économique et la qualité environnementale en Suède à l’aide d’outils de l’économétrie spatiale
This thesis covers two important fields of research in inferential statistics, namely spatial econometrics and functional data analysis. More precisely, we have focused on the analysis of real spatial or spatio-functional data by extending certain inferential methods to take into account a possible spatial dependence. We first considered the estimation of a spatial autoregressive model (SAR) with a functional dependent variable and a real response variable using observations on a given geographical unit. This is a regression model with the specificity that each observation of the independent variable collected in a geographical location depends on observations of the same variable in neighboring locations. This relationship between neighbors is generally measured by a square matrix called the spatial weighting matrix, which measures the interaction effect between neighboring spatial units. This matrix is assumed to be exogenous, i.e. the metric used to construct it does not depend on the explanatory variable. The contribution of this thesis to this model lies in the fact that the explanatory variable is of a functional nature, with values in a space of infinite dimension. Our estimation methodology is based on a dimension reduction of the functional explanatory variable through functional principal component analysis followed by maximization of the truncated likelihood of the model. Asymptotic properties of the estimators, illustrations of the performance of the estimators via a Monte Carlo study and an application to real environmental data were considered. In the second contribution, we use the functional SAR model studied in the first part by considering an endogenous structure of the spatial weighting matrix. Instead of using a geographical criterion to calculate the dependencies between neighboring locations, we calculate them via an endogenous process, i.e. one that depends on explanatory variables. We apply the same two-step estimation approach described above and study the performance of the proposed estimator for finite or infinite-tending samples. In the third part of this thesis we focus on heteroskedasticity in partially linear models for real exogenous variables and binary response variable. We propose a spatial Probit model containing a non-parametric part. Spatial dependence is introduced at the level of errors (perturbations) of the model considered. The estimation of the parametric and non-parametric parts of the model is recursive and consists of first setting the parametric parameters and estimating the non-parametric part using the weighted likelihood method and then using the latter estimate to construct a likelihood profile to estimate the parametric part. The performance of the proposed method is investigated via a Monte-Carlo study. An empirical study on the relationship between economic growth and environmental quality in Sweden using some spatial econometric tools finishes the document
Styles APA, Harvard, Vancouver, ISO, etc.
26

Schmutz, Amandine. « Contributions à l'analyse de données fonctionnelles multivariées, application à l'étude de la locomotion du cheval de sport ». Thesis, Lyon, 2019. http://www.theses.fr/2019LYSE1241.

Texte intégral
Résumé :
Avec l'essor des objets connectés pour fournir un suivi systématique, objectif et fiable aux sportifs et à leur entraineur, de plus en plus de paramètres sont collectés pour un même individu. Une alternative aux méthodes d'évaluation en laboratoire est l'utilisation de capteurs inertiels qui permettent de suivre la performance sans l'entraver, sans limite d'espace et sans procédure d'initialisation fastidieuse. Les données collectées par ces capteurs peuvent être vues comme des données fonctionnelles multivariées : se sont des entités quantitatives évoluant au cours du temps de façon simultanée pour un même individu statistique. Cette thèse a pour objectif de chercher des paramètres d'analyse de la locomotion du cheval athlète à l'aide d'un capteur positionné dans la selle. Cet objet connecté (centrale inertielle, IMU) pour le secteur équestre permet de collecter l'accélération et la vitesse angulaire au cours du temps, dans les trois directions de l'espace et selon une fréquence d'échantillonnage de 100 Hz. Une base de données a ainsi été constituée rassemblant 3221 foulées de galop, collectées en ligne droite et en courbe et issues de 58 chevaux de sauts d'obstacles de niveaux et d'âges variés. Nous avons restreint notre travail à la prédiction de trois paramètres : la vitesse par foulée, la longueur de foulée et la qualité de saut. Pour répondre aux deux premiers objectifs nous avons développé une méthode de clustering fonctionnelle multivariée permettant de diviser notre base de données en sous-groupes plus homogènes du point de vue des signaux collectés. Cette méthode permet de caractériser chaque groupe par son profil moyen, facilitant leur compréhension et leur interprétation. Mais, contre toute attente, ce modèle de clustering n'a pas permis d'améliorer les résultats de prédiction de vitesse, les SVM restant le modèle ayant le pourcentage d'erreur inférieur à 0.6 m/s le plus faible. Il en est de même pour la longueur de foulée où une précision de 20 cm est atteinte grâce aux Support Vector Machine (SVM). Ces résultats peuvent s'expliquer par le fait que notre base de données est composée uniquement de 58 chevaux, ce qui est un nombre d'individus très faible pour du clustering. Nous avons ensuite étendu cette méthode au co-clustering de courbes fonctionnelles multivariées afin de faciliter la fouille des données collectées pour un même cheval au cours du temps. Cette méthode pourrait permettre de détecter et prévenir d'éventuels troubles locomoteurs, principale source d'arrêt du cheval de saut d'obstacle. Pour finir, nous avons investigué les liens entre qualité du saut et les signaux collectés par l'IMU. Nos premiers résultats montrent que les signaux collectés par la selle seuls ne suffisent pas à différencier finement la qualité du saut d'obstacle. Un apport d'information supplémentaire sera nécessaire, à l'aide d'autres capteurs complémentaires par exemple ou encore en étoffant la base de données de façon à avoir un panel de chevaux et de profils de sauts plus variés
With the growth of smart devices market to provide athletes and trainers a systematic, objective and reliable follow-up, more and more parameters are monitored for a same individual. An alternative to laboratory evaluation methods is the use of inertial sensors which allow following the performance without hindering it, without space limits and without tedious initialization procedures. Data collected by those sensors can be classified as multivariate functional data: some quantitative entities evolving along time and collected simultaneously for a same individual. The aim of this thesis is to find parameters for analysing the athlete horse locomotion thanks to a sensor put in the saddle. This connected device (inertial sensor, IMU) for equestrian sports allows the collection of acceleration and angular velocity along time in the three space directions and with a sampling frequency of 100 Hz. The database used for model development is made of 3221 canter strides from 58 ridden jumping horses of different age and level of competition. Two different protocols are used to collect data: one for straight path and one for curved path. We restricted our work to the prediction of three parameters: the speed per stride, the stride length and the jump quality. To meet the first to objectives, we developed a multivariate functional clustering method that allow the division of the database into smaller more homogeneous sub-groups from the collected signals point of view. This method allows the characterization of each group by it average profile, which ease the data understanding and interpretation. But surprisingly, this clustering model did not improve the results of speed prediction, Support Vector Machine (SVM) is the model with the lowest percentage of error above 0.6 m/s. The same applied for the stride length where an accuracy of 20 cm is reached thanks to SVM model. Those results can be explained by the fact that our database is build from 58 horses only, which is a quite low number of individuals for a clustering method. Then we extend this method to the co-clustering of multivariate functional data in order to ease the datamining of horses’ follow-up databases. This method might allow the detection and prevention of locomotor disturbances, main source of interruption of jumping horses. Lastly, we looked for correlation between jumping quality and signals collected by the IMU. First results show that signals collected by the saddle alone are not sufficient to differentiate finely the jumping quality. Additional information will be needed, for example using complementary sensors or by expanding the database to have a more diverse range of horses and jump profiles
Styles APA, Harvard, Vancouver, ISO, etc.
27

Gautheron, Léo. « Construction de Représentation de Données Adaptées dans le Cadre de Peu d'Exemples Étiquetés ». Thesis, Lyon, 2020. http://www.theses.fr/2020LYSES044.

Texte intégral
Résumé :
L'apprentissage automatique consiste en l'étude et la conception d'algorithmes qui construisent des modèles capables de traiter des tâches non triviales aussi bien ou mieux que les humains et, si possible, à un moindre coût.Ces modèles sont généralement entraînés à partir d'un ensemble de données où chaque exemple décrit une instance de la même tâche et est représenté par un ensemble de caractéristiques et un résultat ou étiquette que nous voulons généralement prédire.Un élément nécessaire au succès de tout algorithme d'apprentissage automatique est lié à la qualité de l'ensemble de caractéristiques décrivant les données, également appelé représentation des données.Dans l'apprentissage supervisé, plus les caractéristiques décrivant les exemples sont corrélées avec l'étiquette, plus le modèle sera efficace.Il existe trois grandes familles de caractéristiques : les caractéristiques ``observables'', les caractéristiques ``fabriquées à la main'' et les caractéristiques ``latentes'' qui sont généralement apprises automatiquement à partir des données d'entraînement.Les contributions de cette thèse s'inscrivent dans le cadre de cette dernière catégorie. Plus précisément, nous nous intéressons au cadre spécifique de l'apprentissage d'une représentation discriminatoire lorsque le nombre de données d'intérêt est limité.Un manque de données d'intérêt peut être constaté dans différents scénarios.Tout d'abord, nous abordons le problème de l'apprentissage déséquilibré avec une classe d'intérêt composée de peu d'exemples en apprenant une métrique qui induit un nouvel espace de représentation où les modèles appris ne favorisent pas les exemples majoritaires.Deuxièmement, nous proposons de traiter un scénario avec peu d'exemples disponibles en apprenant en même temps une représentation de données pertinente et un modèle qui généralise bien en boostant des modèles basés sur des noyaux et des caractéristiques de Fourier aléatoires.Enfin, pour traiter le scénario d'adaptation de domaine où l'ensemble cible ne contient pas d'étiquette alors que les exemples sources sont acquis dans des conditions différentes, nous proposons de réduire l'écart entre les deux domaines en ne conservant que les caractéristiques les plus similaires qui optimisent la solution d'un problème de transport optimal entre les deux domaines
Machine learning consists in the study and design of algorithms that build models able to handle non trivial tasks as well as or better than humans and hopefully at a lesser cost.These models are typically trained from a dataset where each example describes an instance of the same task and is represented by a set of characteristics and an expected outcome or label which we usually want to predict.An element required for the success of any machine learning algorithm is related to the quality of the set of characteristics describing the data, also referred as data representation or features.In supervised learning, the more the features describing the examples are correlated with the label, the more effective the model will be.There exist three main families of features: the ``observable'', the ``handcrafted'' and the ``latent'' features that are usually automatically learned from the training data.The contributions of this thesis fall into the scope of this last category. More precisely, we are interested in the specific setting of learning a discriminative representation when the number of data of interest is limited.A lack of data of interest can be found in different scenarios.First, we tackle the problem of imbalanced learning with a class of interest composed of a few examples by learning a metric that induces a new representation space where the learned models do not favor the majority examples.Second, we propose to handle a scenario with few available examples by learning at the same time a relevant data representation and a model that generalizes well through boosting models using kernels as base learners approximated by random Fourier features.Finally, to address the domain adaptation scenario where the target set contains no label while the source examples are acquired in different conditions, we propose to reduce the discrepancy between the two domains by keeping only the most similar features optimizing the solution of an optimal transport problem between the two domains
Styles APA, Harvard, Vancouver, ISO, etc.
28

Hedli-Griche, Sonia. « Estimation de l'opérateur de régression pour des données fonctionnelles et des erreurs corrélées ». Université Pierre Mendès France (Grenoble), 2008. http://www.theses.fr/2008GRE21009.

Texte intégral
Résumé :
Dans les recherches que nous présentons dans ce mémoire, nous étudions le problème de la modélisation non paramétrique lorsque les données statistiques sont des courbes. Plus précisément, nous nous intéressons à des problèmes de prévision à partir d'une variable explicative à valeurs dans un espace de dimension éventuellement infinie. Récemment, des travaux ont été réalisés sur l'estimation fonctionnelle opérationnelle sous des conditions d'indépendance des données fonctionnelles. Dans cette thèse, nous nous sommes affranchi de cette hypothèse en considérant que les données fonctionnelles sont dépendantes et que le processus d'erreur est stationnaire (à courte ou à longue mémoire). Nous avons étudié et estimé l'opérateur de régression sur plusieurs facettes: quand les données fonctionnelles (dépendantes) sont déterministes ou aléatoires, quand le processus d'erreur est à courte ou longue mémoire, la normalité asymptotique quand le processus d'erreur est négativement associé, le choix local/global de la largeur de fenêtre, l'étude de la pertinence de nos résultats théoriques sur des données simulées puis sur des données réelles
In the research work that we present in this thesis, we study the problem of nonparametric modelization when the statistical data are represented by curves. More precisely, we are interested in the problems of prediction from an explanatory random variable that takes values in some, eventually, infinite dimensional space. Recently, some work has been realised in the functional operatoriel estimation under the independence assumptions of the functional data. In this thesis, we consider that the functional data are dependent and that the error process is stationary (with short or long memory). We have studied and estimated the regression operator under different set-ups: when the functional data (dependent) are deterministic or random, when the error process is a short or long memory, the asymptotic normality when the error process is negatively associated, the local/global choice of the bandwidth, the study of the relevancy of our theoretical results to simulated data and then to real data
Styles APA, Harvard, Vancouver, ISO, etc.
29

Cardot, Hervé. « Contribution à l'estimation et à la prévision statistique de données fonctionnelles ». Toulouse 3, 1997. http://www.theses.fr/1997TOU30162.

Texte intégral
Résumé :
Ce travail aborde le probleme de l'estimation non parametrique des caracteristi ques du second ordre de fonctions aleatoires discretisees pour lesquelles nous considerons deux modeles : le premier est un modele de regression non parametrique, sous contrainte de rang, de donnees longitudinales dont les points de mesure varient d'une courbe a l'autre. Les estimateurs, definis comme solution d'un probleme d'optimisation, sont cons truits au moyen de splines hybrides et conduisent a une nouvelle analyse en composantes principales fonctionnelles. Cette methode est appliquee a l'etude de donnees pluviometriques. Nous prouvons ensuite la convergence en moyenne quadratique de l'estimateur de la moyenne et des vecteurs propres de l'operateur de covariance. Enfin un developpement asymptotique de l'erreur quadratique base sur la theorie des pertu rbations montre qu'il est preferable de lisser lorsque les donnees sont bruitees. Le second modele porte sur la prevision de processus autoregressifs fonctionnels. Nous developpons une methode de regression non parametrique simultanee des trajectoires qui anticipe la reduction de dimension necessaire a la construction d'un predicteur. Cette approche est ensuite appliquee a la prevision de series reelles (trafic autoroutier, series climatologiques enso) et comparee avec d'autres predicteurs de type parametrique ou non (noyaux,. . . ). Nous prouvons egalement la convergence en probabilite du predicteur construit par l'interpolation et le lissage spline des trajectoires.
Styles APA, Harvard, Vancouver, ISO, etc.
30

Bayle, Severine. « Modélisation statistique de données fonctionnelles environnementales : application à l'analyse de profils océanographiques ». Thesis, Aix-Marseille, 2014. http://www.theses.fr/2014AIXM4016.

Texte intégral
Résumé :
Afin d'étudier les processus biogéochimiques de l'Océan Austral, des balises posées sur des éléphants de mer ont permis de récolter en 2009-2010 des profils de variables océanographiques (Chlorophylle a (Chl a), température, salinité, lumière) dans une zone s'étalant du sud des îles Kerguelen jusqu'au continent Antarctique. Cette thèse se penche en particulier sur les données de Chl a, car celle-ci est contenue dans les organismes photosynthétiques qui jouent un rôle essentiel de pompe à carbone. Mais les profils verticaux de Chl a, récoltés peu fréquemment, ne permettent pas d'obtenir une cartographie de cette variable dans cette zone de l'océan. Cependant, nous disposons de profils de lumière, échantillonnés plus souvent. L'objectif était alors de développer une méthodologie permettant de reconstruire de manière indirecte les profils de Chl a à partir des profils de lumière, et qui prenne en compte les caractéristiques de ce type de données qui se présentent naturellement comme des données fonctionnelles. Pour cela, nous avons abordé la décomposition des profils à reconstruire ou explicatifs sur une base de splines, ainsi que les questions d'ajustement associées. Un modèle linéaire fonctionnel a été utilisé, permettant de prédire des profils de Chl a à partir des dérivées des profils de lumière. Il est montré que l'utilisation d'un tel modèle permet d'obtenir une bonne qualité de reconstruction pour accéder aux variations hautes fréquences des profils de Chl a à fine échelle. Enfin, une interpolation par krigeage fonctionnel permet de prédire la concentration en Chl a de nuit, car les mesures de lumière acquises à ce moment-là ne peuvent pas être exploitées
To study biogeochemical processes in the Southern Ocean, tags placed on elephant seals allowed to collect during 2009-2010 oceanographic variables profiles (Chlorophyll a (Chl a), temperature, salinity, light) in an area ranging from southern Kerguelen until the Antarctic continent. This thesis focuses on Chl a data as it is contained in photosynthetic organisms and these ones play an essential role in the oceanic carbon cycle. The infrequently collected vertical Chl a profiles don't provide a mapping of this variable in this area of the ocean. However, we have light profiles sampled more often. The aim of this thesis was then to develop a methodology for reconstructing indirectly Chl a profiles from light profiles, and that takes into account characteristics of this kind of data that naturally occur as functional data. For this, we adressed the profiles decomposition to rebuild or explanations on splines basis, as well as issues related adjustment. A functional linear model was used to predict Chl a profiles from light profiles derivatives. It was shown that the use of such a model provides a good quality of reconstruction to access high frequency variations of Chl a profiles at fine scale. Finally, a functional kriging interpolation predicted the Chl a concentration during night, as light measurements acquired at that time can't be exploited. In the future, the methodology aims to be applied to any type of functional data
Styles APA, Harvard, Vancouver, ISO, etc.
31

Sauder, Cécile. « Méthodes d’analyse des données fonctionnelles appliquées aux dynamiques de croissance et de lactation chez les bovins laitiers ». Rennes, Agrocampus Ouest, 2014. http://www.theses.fr/2014NSARB245.

Texte intégral
Résumé :
L’essor des technologies d’investigation à haut débit a pour conséquence principale une augmentation très importante de la quantité d’information disponible par animal, et ce, de manière quasi-continue. Se posent alors le problème de la mobilisation et de la pertinence des méthodes permettant d’analyser ces données. Dans ce travail de doctorat, des méthodologies statistiques exploratoires dédiées au traitement des données fonctionnelles dans le contexte zootechnique des bovins laitiers sont étudiées. Les données fonctionnelles représentent des courbes (ou trajectoires) décrivant l’évolution de la croissance, de la production laitière ou de la qualité du lait par exemple. L’information contenue dans leur évolution est peu ou pas exploitée à ce jour. L’hypothèse retenue pour ce travail de thèse était que cette prise en compte permettrait d’améliorer la prédiction des performances zootechniques ultérieures. Le travail visait à savoir si les méthodes d’analyse des données fonctionnelles appliquées à ces dynamiques biologiques permettaient de mieux d´écrire les profils biologiques et d’améliorer leur prédiction des performances. Pour cela, les dynamiques de croissance et/ou de production individuelle ont et déterminées via la mobilisation de méthodes d’analyse de données fonctionnelles et d’estimation non-paramétriques, puis classés. Les effets des groupes obtenus ont ensuite été testées sur les performances (variables d’intérêts, discrètes et/ou continues). Les méthodes d´enveloppes ont permis au final de prendre en compte l’intégrité des courbes sur différents intervalles de temps. La modélisation des courbes est basée sur l’utilisation de splines, qui nécessitent de réaliser des choix quant au nombre de nœuds et de leur position, au paramètre de lissage ou encore, au choix du nombre de groupes de la classification. Différentes méthodes ont été testées et discutées. Il ressort surtout de ce travail que l’apport des outils de la statistique issue de l’analyse des données fonctionnelles permet de mettre en place de nouvelles approches d’analyses de bases de données complexes, mais permettant de prendre en compte les phénomènes biologiques d’un point de vue dynamique. Le couplage de plusieurs bases de données fonctionnelles est ainsi possible, mais reste à effectuer. Quoique prometteuses, notamment par rapport à l’évolution technique et l’émergence des problèmatiques autour de la gestion et l’exploitation des “Sensor Data” et/ou “Big Data”, ces approches doivent encore s’affiner pour une utilisation pertinente et efficace en élevages.
Styles APA, Harvard, Vancouver, ISO, etc.
32

Dos, Santos Raimundo N. Macedo. « Rationalisation de l'usage de la Classification Internationale des Brevets par l'analyse fonctionnelle pour répondre à la demande de l'information industrielle ». Aix-Marseille 3, 1995. http://www.theses.fr/1995AIX30037.

Texte intégral
Résumé :
La methode, presentee dans cette these, propose la rationalisation de l'usage de la classification internationale des brevets par l'analyse fonctionnelle, afin de repondre a un besoin eprouve par l'entreprise. En proposant cette methode et toutes les reflexions qu'elle suscite, notre aspiration est de contribuer a mettre a la disposition des utilisateurs finaux un moyen efficace permettant de combler leurs besoins tout en diminuant les couts d'exploitation. Desormais, maintiendront les bases de leur competitivite les entreprises qui franchiront un seuil qualitatif important dans leur capacite a prevoir l'evolution des marches, cerneront les besoins potentiels, identifieront les innovations technologiques, anticiperont les modifications de comportement des acteurs economiques, politiques et sociaux. Assurer la perennite de l'entreprise en milieu international exigera la mise en place d'un ensemble de capteurs sensibles jusqu'aux signaux faibles, informant sans delais des centres de decisions attentifs. Si la revolution de l'information a rendu les donnees plus largement et rapidement disponibles, c'est deja une evidence que les volumes d'information vont croissant, et que, parallelement, la masse d'information a consulter pour trouver une information pertinente va en augmentant. L'exploitation des connaissances, des outils et des techniques devient plus fine et requiert plus d'intelligence, de creativite et des methodes susceptibles de mettre, au meme niveau d'echange, tous les acteurs concernes dans l'action de mediation entre l'offre et la demande d'information
Styles APA, Harvard, Vancouver, ISO, etc.
33

Saouessi, Melek. « Modélisation de la dynamique fonctionnelle de l'Acétylcholinestérase humainevue par diffusion quasi-élastique de neutrons ». Thesis, Orléans, 2020. http://www.theses.fr/2020ORLE3065.

Texte intégral
Résumé :
Dans le travail présent, des spectres de diffusion quasi-élastique de neutrons (QENS) de l'Acétylcholinestérase humaine (hAChE) sont analysés afin d'étudier des changements dans la dynamique interne de cet enzyme sous l'effet inhibiteur du ligand non-covalent HuperZine A (HupA). Le défi est de voir si l'activité enzymatique est reflétée par la dynamique de relaxation à des échelles de temps courtes de l'ordre de quelques dizaines de pico-secondes. Les mouvements de molécules entières peuvent être ici négligés, car les expériences ont été menées sur des poudres hydratées. Afin de tenir en compte du caractère auto-similaire de la dynamique des protéines, un modèle multi-échelle est utilisé pour les fonctions de diffusion, qui ajuste simultanément les parties élastique et quasi-élastique du spectre QENS. Contrairement à une analyse précédemment effectuée sur les mêmes données, l'analyse présente révèle des changements subtiles mais systématiques dans la dynamique interne de l'enzyme en présence de l'inhibiteur. Dans une première analyse dans le domaine du temps, les fonctions intermédiaires de diffusion sont obtenues par déconvolution des spectres expérimentales de la résolution instrumentale. Les fonctions de relaxation correspondantes sont ici modélisées par la fonction Mittag-Leffler "étirée" dont le choix se justifie entre autres par son comportement asymptotique en loi de puissance. Afin de consolider les résultats trouvés, une deuxième analyse est menée directement sur les spectres expérimentaux mesurés dans le domaine des fréquences, en utilisant une approche semi analytique pour la convolution du spectre modèle avec la fonction de résolution instrumentale. Les résultats sont cohérents avec ceux trouvés par l'analyse précédente dans le domaine du temps. Ils indiquent en particulier une augmentation des amplitudes des mouvements des atomes d'hydrogène et un ralentissement de la dynamique interne de l'enzyme. Ces résultats sont interprétés du point de vue physique en utilisant le concept de ``paysages énergétiques'' pour les mouvements des atomes d'hydrogène
In the present work, quasi-elastic neutron scattering spectra (QENS) from human Acetylcholinesterase are analyzed to study changes in the internal dynamics of this enzyme upon the non-covalent binding of the ligand HuperZine A (HupA). The challenge is to see if the enzymatic activity is reflected in the short time relaxation dynamics extending over time scales of some ten picoseconds. Global motions of whole molecules can here be neglected since the experiments have been performed on hydrated powder samples. In order to account for the the self-similar character of protein dynamics, a multi-scale model has been used for the scattering functions, which fits simultaneously the elastic and quasi-elastic components of the the QENS spectrum. In contrast to a previous analysis of the experimental data, the present study reveals subtle but systematic changes of the internal dynamics of the enzyme in presence of the inhibitor. In a first analysis, which is performed in the time domain, the intermediate scattering functions are obtained by deconvolution of the experimental spectra from the instrumental resolution. The corresponding relaxation functions are here modeled by the ``stretched'' Mittag-Leffler function whose choice is justified, among others, by its asymptotic power law decay. In order to consolidate the results, a second analysis has been performed directly on the experimental spectra measured in the frequency domain, by using a semi-analytical approach for the convolution of the model spectrum with the instrumental resolution function. The results are consistent with those obtained by the preceding analysis in the time domain. They indicate in particular an increase of the motional amplitudes of the hydrogen atoms and a slowing-down of the internal dynamics of the enzyme. From a physical point of view, these findings are interpreted by employing the the concept of ``energy landscapes'' for the motions of the hydrogen atoms
Styles APA, Harvard, Vancouver, ISO, etc.
34

Vrac, Mathieu. « Analyse et modélisation de données probabilistes par décomposition de mélange de copules et application à une base de données climatologiques ». Phd thesis, Université Paris Dauphine - Paris IX, 2002. http://tel.archives-ouvertes.fr/tel-00002386.

Texte intégral
Résumé :
Nous étendons les méthodes de décomposition de mélange de densités de probabilité au cas des données "fonctions de répartition", permettant ainsi de classifier ces fonctions et de modéliser une loi pour ces données fonctionnelles particulières. Cette loi est donnée par la notion de "fonctions de distribution de distributions" (FDD), basée sur la définition d'une fonction de répartition pour des variables aléatoires à valeurs dans un espace probabiliste. Les extensions sont effectuées en associant les FDD aux fonctions "copules" par le théorème de Sklar. Les copules "couplent" les fonctions de répartition à n dimensions (jointes) et à 1-dimension (marginales) d'un n-uplet de variables aléatoires. Nous regardons principalement une classe de copules paramétriques, les copules Archimédiennes, et proposons trois nouvelles méthodes d'estimation des paramètres dans le cas de copules multivariées : par coefficients de corrélation de Kendall, de Spearman, et par maximisation de la vraisemblance. L'association des FDD et des copules caractérise l'évolution des données fonctionnelles (i.e. la forme de ces fonctions) entre différents points à l'intérieur des classes pour chaque variable, et donne une mesure de dépendance entre les variables utilisées. Les méthodes sont tout d'abord développées pour une variable, puis divers généralisations sont proposées pour n dimensions. Certains points théoriques sont ensuite discutés, tels que la convergence de l'algorithme et le fait que la méthode par copules est une généralisation du cas classique. Une application de la méthode "approche classification" par copules est réalisée sur des données climatiques de l'atmosphère terrestre. Le but est la classification de "profils" atmosphériques et l'estimation de la loi sous-jacente des données. Les résultats sont comparés avec ceux de méthodes "classiques", prouvant ainsi les performances nettement supérieures de la méthode par décomposition de mélange de copules (DMC) et l'intérêt de l'utilisation des données probabilistes.
Styles APA, Harvard, Vancouver, ISO, etc.
35

Kandé, Yoba. « Spatial environmental analyses using functional approaches : application to multifrequential fisheries acoustics data ». Electronic Thesis or Diss., Université de Lille (2022-....), 2023. http://www.theses.fr/2023ULILB047.

Texte intégral
Résumé :
Cette thèse s'inscrit dans le cadre de la statistique fonctionnelle appliquée à l'environnement.La statistique fonctionnelle constitue un domaine de la statistique qui se penche sur des données présentées sous forme fonctionnelle. Elle propose des techniques pour la réduction de dimension, l'apprentissage supervisé et non supervisé, tout en tenant compte des dépendances temporelles et/ou spatiales des données fonctionnelles. Ce type de données est de plus en plus disponible dans de nombreux domaines, notamment les sciences de l'environnement, grâce aux technologies modernes. C'est notamment le cas des techniques d'acoustique des pêches, qui permettent d'obtenir des échantillons spatiaux et temporels d'organismes marins à diverses profondeurs et échelles spatiales, sans intrusivité.Dans le cadre de cette thèse, nous avons analysé un ensemble de données acoustiques multifréquences extraites par des échosondeurs scientifiques afin d'étudier la structure spatiale des agrégations d'organismes marins, communément appelées "Sound Scattering Layers". Nous avons examiné les caractéristiques de ces objets biologiques complexes, telles que leur épaisseur, leur densité relative et leur profondeur, en relation avec leur environnement. Cet environnement a été représenté à une échelle fine grâce à un système multiparamétrique tracté. Pour ce faire, nous avons d'abord utilisé des méthodes standards de statistique multivariée, puis nous avons mobilisé des techniques de l'analyse de données fonctionnelles, avec ou sans la dimension spatiale.Dans notre première analyse exploratoire, l'Analyse en composantes Principales fonctionnelle multivariée a fourni des informations précises sur la variation des paramètres le long des profondeurs, contrairement à l'Analyse en composantes Principales classique. Dans le cadre des tâches de régression, nos analyses, qu'elles intègrent ou non la dimension spatiale, ont mis en évidence des interactions entre les caractéristiques des "Sound Scattering Layers" et les variables environnementales clés à l'échelle spatiale. Nous avons observé des différences significatives entre les "Sound Scattering Layers" du nord et du sud, ainsi qu'entre ceux des zones côtières et des zones hauturières. Il est à noter que la prise en compte de la dimension spatiale a amélioré la qualité de la modélisation. Ces résultats démontrent que l'analyse statistique spatiale-fonctionnelle revêt une importance cruciale dans les études écologiques portant sur des objets spatialement complexes.Au-delà de notre étude de cas spécifique, l'application de l'analyse de données fonctionnelles ouvre des perspectives prometteuses pour un large éventail d'études écologiques impliquant des données spatiales massives
This thesis falls within the framework of functional statistics applied to the environment.Functional data analysis is a field of statistics that studies data in functional forms. It provides techniques for dimension reduction, supervised and unsupervised learning, while considering temporal and/or spatial dependencies in functional data. Such data types are increasingly available in various fields, particularly in environmental sciences, thanks to modern technologies. One example is the use of fisheries acoustics, which allows for obtaining spatial and temporal samples of marine organisms at various depths and spatial scales, without intrusiveness.In this thesis, we analyzed a set of multifrequency acoustic data collected by scientific echosounders to study the spatial structure of marine organism aggregations, commonly known as "Sound Scattering Layers." We examined the characteristics of these complex biological entities, such as thickness, relative density, and depth, in relation to their environment, represented at a fine scale using a towed multiparametric system. To do so, we initially applied standard multivariate statistical methods and then incorporated functional data analysis techniques, with or without the spatial dimension.In our initial exploratory analysis, Multivariate Functional Principal Component Analysis provided precise information about parameter variation along depths, unlike traditional Principal Component Analysis. In regression tasks, our analyses, whether incorporating spatial dimension or not, revealed interactions between "Sound Scattering Layers" descriptors and key environmental variables on a spatial scale. We noted significant differences between the "Sound Scattering Layers" in the northern and southern regions, as well as between those in coastal and offshore zones. It is worth noting that considering the spatial dimension improved modeling quality. These results highlight spatial-functional statistical analysis as a key method in ecological studies involving spatially complex objects.Beyond our specific case study, the application of functional data analysis offers promising prospects for a wide range of ecological studies involving massive spatial data
Styles APA, Harvard, Vancouver, ISO, etc.
36

Henchiri, Yousri. « L'approche Support Vector Machines (SVM) pour le traitement des données fonctionnelles ». Thesis, Montpellier 2, 2013. http://www.theses.fr/2013MON20187/document.

Texte intégral
Résumé :
L'Analyse des Données Fonctionnelles est un domaine important et dynamique en statistique. Elle offre des outils efficaces et propose de nouveaux développements méthodologiques et théoriques en présence de données de type fonctionnel (fonctions, courbes, surfaces, ...). Le travail exposé dans cette thèse apporte une nouvelle contribution aux thèmes de l'apprentissage statistique et des quantiles conditionnels lorsque les données sont assimilables à des fonctions. Une attention particulière a été réservée à l'utilisation de la technique Support Vector Machines (SVM). Cette technique fait intervenir la notion d'Espace de Hilbert à Noyau Reproduisant. Dans ce cadre, l'objectif principal est d'étendre cette technique non-paramétrique d'estimation aux modèles conditionnels où les données sont fonctionnelles. Nous avons étudié les aspects théoriques et le comportement pratique de la technique présentée et adaptée sur les modèles de régression suivants. Le premier modèle est le modèle fonctionnel de quantiles de régression quand la variable réponse est réelle, les variables explicatives sont à valeurs dans un espace fonctionnel de dimension infinie et les observations sont i.i.d.. Le deuxième modèle est le modèle additif fonctionnel de quantiles de régression où la variable d'intérêt réelle dépend d'un vecteur de variables explicatives fonctionnelles. Le dernier modèle est le modèle fonctionnel de quantiles de régression quand les observations sont dépendantes. Nous avons obtenu des résultats sur la consistance et les vitesses de convergence des estimateurs dans ces modèles. Des simulations ont été effectuées afin d'évaluer la performance des procédures d'inférence. Des applications sur des jeux de données réelles ont été considérées. Le bon comportement de l'estimateur SVM est ainsi mis en évidence
Functional Data Analysis is an important and dynamic area of statistics. It offers effective new tools and proposes new methodological and theoretical developments in the presence of functional type data (functions, curves, surfaces, ...). The work outlined in this dissertation provides a new contribution to the themes of statistical learning and quantile regression when data can be considered as functions. Special attention is devoted to use the Support Vector Machines (SVM) technique, which involves the notion of a Reproducing Kernel Hilbert Space. In this context, the main goal is to extend this nonparametric estimation technique to conditional models that take into account functional data. We investigated the theoretical aspects and practical attitude of the proposed and adapted technique to the following regression models.The first model is the conditional quantile functional model when the covariate takes its values in a bounded subspace of the functional space of infinite dimension, the response variable takes its values in a compact of the real line, and the observations are i.i.d.. The second model is the functional additive quantile regression model where the response variable depends on a vector of functional covariates. The last model is the conditional quantile functional model in the dependent functional data case. We obtained the weak consistency and a convergence rate of these estimators. Simulation studies are performed to evaluate the performance of the inference procedures. Applications to chemometrics, environmental and climatic data analysis are considered. The good behavior of the SVM estimator is thus highlighted
Styles APA, Harvard, Vancouver, ISO, etc.
37

Ávila-Funes, José Alberto. « Relations entre le risque nutritionnel, les symptômes dépressifs et la capacité fonctionnelle chez la personne âgée de la communauté une analyse secondaire des données de l'étude NuAge ». Mémoire, Université de Sherbrooke, 2007. http://savoirs.usherbrooke.ca/handle/11143/3912.

Texte intégral
Résumé :
La dépression et la malnutrition ne sont pas des conditions inévitables du vieillissement et elles représentent des problèmes de santé très importants étant donné leur prévalence élevée et leurs effets néfastes sur les capacités fonctionnelles. Précédemment, aucun travail de recherche ne s'est intéressé à étudier l'effet explicatif de la nutrition dans la relation entre la dépression et la capacité fonctionnelle. Objectifs. 1) Déterminer l'effet du risque nutritionnel (RN) dans la relation entre les symptômes dépressifs (SD) et la capacité fonctionnelle (CF) des personnes âgées. Méthodologie. Les données de base (TI) des 1,793 hommes (48 %) et femmes (52 %) (74,4[plus ou moins]4,1 ans) de la cohorte NuAge ont été utilisées pour les analyses. La CF a été mesurée par le score global de 4 tests de performance physique selon la méthode proposée par Guralnik et coil. (Timed"up & go", vitesse de marche (4 m), levée de chaise (5X), équilibre unipodal). Un résultat [supérieur ou égal à] 11 ou [inférieur ou égal à] 20 à l'Échelle de dépression gériatrique indique la présence de SD et un score [supérieur ou égal à] 3 au Dépistage nutritionnel des aînés (DNA[copyright]), un RN. Des analyses de variance ont été utilisées pour comparer les groupes suivants sur leur CF : saris RN et sans SD, avec RN et sans SD, sans RN et avec SD, avec RN et avec SD. La régression linéaire multivariée a permis de tester l'effet modificateur du RN VII dans la relation SD/CF ainsi que les associations entre le score global de CF et plusieurs variables sociodémographiques et sanitaires. Résultats. Le RN est présent chez 51% des sujets et sa prévalence est plus élevée dans les groupes plus âgés dans les 2 sexes ([rhô][inférieur à]0,001). La prévalence des SD est plus élevée chez les femmes (12,7%) que chez les hommes (7,7%) ([rhô]=0,001) de même que le score de CF (H: 10,59[plus ou moins]3,41; F: 9,25[plus ou moins]3,40; [rhô][inférieur à]0,001). Chez les deux sexes, la meilleure performance a été observée chez les plus jeunes et chez ceux qui rapportaient plus d'activités physiques. Par contre, le score de CF est plus faible dans le groupe avec RN et avec SD (8,86[plus ou moins]3,42) en comparaison avec le groupe sans RN et sans SD (10,55[plus ou moins]3,28) ([rhô]=0,001). L'inclusion du RN dans un modèle comprenant l'âge, le sexe et les SD a montré que le RN a un effet additionnel indépendant sur la CF ([rhô][inférieur à]0,001), lequel persiste après l'ajustement selon la scolarité, le revenu, l'indice de masse corporelle, le fardeau de la maladie et l'activité physisque. Par contre, l'interaction (RN*SD) n'est pas significative indiquant que le RN ne modifie pas la relation entre les SD et le score de CF. Ce dernier modèle explique 34% de la variabilité observée dans le score de la CF. Conclusion. Le risque nutritionnel est associé, de façon indépendante, à une capacité fonctionnelle réduite, mais ne modifie pas la relation entre cette dernière et les symptômes dépressifs. Étant donné l'importance des capacités fonctionnelles pour le maintien de l'autonomie, le développement de programmes comprenant la prévention du risque nutritionnel est une voie plausible et raisonnable d'intervention. De plus, ces programmes devraient inclure des composantes psychosociales qui auraient le potentiel de soulager les symptômes dépressifs. Malgré leurs limites liées aux analyses transversales, nos résultats proposent des hypothèses pour identifier les personnes âgées les plus à risque de présenter des limites fonctionnelles.
Styles APA, Harvard, Vancouver, ISO, etc.
38

Morvan, Marie. « Modèles de régression pour données fonctionnelles hétérogènes : application à la modélisation de données de spectrométrie dans le moyen infrarouge ». Thesis, Rennes 1, 2019. http://www.theses.fr/2019REN1S097.

Texte intégral
Résumé :
Dans de nombreux domaines d’application, les données récoltées correspondent à des courbes. Ce travail se concentre sur l’analyse de courbes de spectrométrie, constituées de plusieurs centaines de variables ordonnées, correspondant chacune à une valeur d’absorbance associée aux nombres d’ondes mesurés. Dans ce contexte, une méthode de traitement statistique automatique est développée, avec pour objectif la construction d’un modèle de prédiction prenant en compte l’hétérogénéité des données observées. Plus particulièrement, un modèle de diagnostic d’une maladie métabolique est établi à partir de courbes mesurées sur des individus provenant d’une population constituée de profils de patients différents. La procédure développée permet de sélectionner l’information pertinente sous forme de portions de courbes discriminantes, puis de construire de façon simultanée une partition des données et un modèle de prédiction parcimonieux grâce à un mélange de régressions pénalisées adapté aux données fonctionnelles. Ces données étant complexes, tout comme le cas d’application étudié, une méthode permettant une meilleure compréhension et une meilleure visualisation des interactions entre les portions de courbes a par ailleurs été développée. Cette méthode se base sur l’étude de la structure des matrices de covariance, avec pour but de faire ressortir des blocs de dépendances entre intervalles de variables. Un cas d’application médicale est utilisé pour présenter la méthode et les résultats, et permet l’utilisation d’outils de visualisation spécifiques
In many application fields, data corresponds to curves. This work focuses on the analysis of spectrometric curves, composed of hundreds of ordered variables that corresponds to the absorbance values measured for each wavenumber. In this context, an automatic statistical procedure is developped, that aims at building a prediction model taking into account the heterogeneity of the observed data. More precisely, a diagnosis tool is built in order to predict a metabolic disease from spectrometric curves measured on a population composed of patients with differents profile. The procedure allows to select portions of curves relevant for the prediction and to build a partition of the data and a sparse predictive model simultaneously, using a mixture of penalized regressions suitable for functional data. In order to study the complexity of the data and of the application case, a method to better understand and display the interactions between variables is built. This method is based on the study of the covariance matrix structure, and aims to highlight the dependencies between blocks of variables. A medical example is used to present the method and results, and allows the use of specific visualization tools
Styles APA, Harvard, Vancouver, ISO, etc.
39

Sidibe, Ibrahima dit Bouran. « Analyse non-paramétrique des politiques de maintenance basée sur des données des durées de vie hétérogènes ». Thesis, Université de Lorraine, 2014. http://www.theses.fr/2014LORR0081/document.

Texte intégral
Résumé :
Dans la littérature, plusieurs travaux ont été développés autour de la modélisation, l’analyse et la mise en place de politiques de maintenance pour les équipements sujets à des défaillances aléatoires. Ces travaux occultent souvent les réalités industrielles par des hypothèses telles que la connaissance a priori des distributions paramétriques des durées de vie et l’homogénéité des conditions d’exploitation des équipements. Ces hypothèses sont restrictives et constituent une source de biais parce qu’elles conditionnent l’analyse statistique des politiques de maintenance. Dans ce présent travail de thèse, de telles hypothèses sont relaxées pour permettre la prise en compte et la mise en valeurs des informations dérivant directement des données de durées vie issues de l’exploitation de l’équipement et ce sans passer par un modèle paramétrique intermédiaire. L’objectif de ce travail de thèse consiste alors en le développement de modèles statistiques et d’outils efficaces pour l’analyse des politiques de maintenance basées sur les données de durées de vie hétérogènes. Nous proposons en effet une démarche complète d’analyse de stratégies de maintenance en partant des données de durées de vie jusqu’à l’obtention des politiques optimales de maintenance en passant par une phase d’estimation des lois de probabilité. Les politiques de maintenance considérées sont appliques à des équipements usagés évoluant dans des environnements d’exploitation distingués par leur niveau de sévérité. Dans ce contexte, un modèle mathématique est proposé permettant d’évaluer et d’analyser théoriquement les coûts unitaires d’une stratégie de maintenance particulière dite de type âge. Cette analyse a permis d’établir les conditions nécessaires et suffisantes garantissant un âge optimal de remplacement préventif de l’équipement. Les coûts unitaires de maintenance sont complètement estimés par la méthode du Noyau de Parzen. Cette méthode d’estimation est non-paramétrique et définie par une fonction noyau et un paramètre de lissage. Il est également montré, dans nos travaux de recherche, que cet estimateur garantit une faible propagation des erreurs induites par le paramètre de lissage. Les résultats obtenus par la méthode du Noyau de Parzen sont proches des valeurs théoriques avec un faible coefficient de variation. Des extensions de la première politique de maintenance sont également proposées et étudiées. Ce travail de thèse s’achève par la proposition d’une approche permettant de mesurer et d’analyser le risque induit par le report d’une maintenance préventive. Ce risque est analysé à travers une fonction risque proposée
In the reliability literature, several researches works have been developed to deal with modeling, analysis and implementation of maintenance policies for equipments subject to random failures. The majority of these works are based on common assumptions among which the distribution function of the equipment lifetimes is assumed to be known. Furthermore, the equipment is assumed to experience only one operating environment. Such assumptions are indeed restrictive and may introduce a bias in the statistical analysis of the distribution function of the equipment lifetimes which in turn impacts optimization of maintenance policies. In the present research work, these two particular assumptions are relaxed. This relaxation allows to take into account of information related to conditions where the equipment is being operating and to focus on the statistical analysis of maintenance policies without using an intermediate parametric lifetimes distribution. The objective of this thesis consists then on the development of efficient statistical models and tools for managing the maintenance of equipments whose lifetimes distribution is unknown and defined through the heterogeneous lifetimes data. Indeed, this thesis proposes a framework for maintenance strategies determination, from lifetimes data acquisition toward the computation of optimal maintenance policies. The maintenance policies considered are assumed to be performed on used equipments. These later are conduct to experience their missions within different environments each of which is characterized by a degree of severity. In this context, a first mathematical model is proposed to evaluate costs induced by maintenance strategies. The analysis of these costs helps to establish the necessary and sufficient conditions to ensure the existence of an optimal age to perform the preventive maintenance. The maintenance costs are fully estimated by using the Kernel method. This estimation method is non-parametric and defined by two parameters, namely the kernel function and the smoothing parameter. The variability of maintenance costs estimator is deeply analyzed according to the smoothing parameter of Kernel method. From these analyses, it is shown that Kernel estimator method ensures a weak propagation of the errors due to the computation of smoothing parameter. In addition, several simulations are made to estimate the optimal replacement age. These simulations figure out that the numerical results from the Kernel method are close to the theoretical values with a weak coefficient of variation. Two probabilistic extensions of the first mathematical model are proposed and theoretically discussed. To deal with the problem of delayed preventive maintenance, an approach is proposed and discussed. The proposed approach allows evaluating the risk that could induce the delay taken to perform a preventive maintenance at the required optimal date. This approach is based on risk analysis conduct on the basis of a proposed risk function
Styles APA, Harvard, Vancouver, ISO, etc.
40

Schwartz, Cédric. « Contribution à l'élaboration d'un espace commun de représentation pour l'analyse morpho-fonctionnelle du membre supérieur : application à l'articulation glénohumérale ». Brest, 2009. http://www.theses.fr/2009BRES2016.

Texte intégral
Résumé :
La compréhension des dysfonctionnements locomoteurs est limitée par l'absence de technologie permettant l'analyse dynamique des structures internes et en particulier des segments osseux. Les imageurs tridimensionnels donnent accès à une description précise mais statique de la morphologie osseuse. Les systèmes d'analyse du mouvement par marqueurs externes fournissent quant à eux une information dynamique mais potentiellement empreinte d'erreurs relativement importantes en raison de la présence de tissus mous entre les os et la peau. Dans un premier temps, une étude a été menée pour proposer une méthode de correction des artéfacts des tissus mous lors de l'estimation du mouvement. Une approche surfacique est décrite. Cette méthode repose sur le suivi de la déformation, induite par le déplacement de l'omoplate, d'une nappe de marqueurs à la surface de la peau. Le suivi est réalisé par un algorithme de recalage robuste, l'IMCP. Cet algorithme, développé dans des travaux précédents, a été modifié et adapté de manière à prendre en compte le contexte de l'étude. Les améliorations ont principalement consisté en un post-traitement des données afin d'exploiter au maximum les capacités de mutualisation de l'information de l'algorithme, la prise en compte de l'influence des bords de la nappe de marqueurs et enfin l'optimisation du temps de calcul. Dans un second temps, afin de réaliser une étude morpho-fonctionnelle dans un espace commun de représentation, un protocole spécifique d'acquisition IRM a été mis en place. Celui-ci a pour objectif le recalage des repères locaux propres à l'acquisition morphologique et à celle du mouvement. Analyse morpho-fonctionnelle de l'articulation glénohumérale, dans le cas de mouvements empreints d'erreurs, a également nécessité le développement de mesures quantifiant la cohérence articulaire. Les résultats obtenus montrent que l'utilisation d'une nappe de marqueurs recouvrant l'omoplate à la surface de la peau ne permet pas le suivi de l'empreinte de l'os. L'étude sur des simulations conduisent à avancer 2 hypothèses pour expliquer ces résultats : le bruit crée par les tissus mous est trop important et / ou la résolution de la surface de la peau disponible est insuffisante. L'intérêt de tendre vers des méthodes d'acquisition sans marqueurs est ainsi également mis en évidence. L'analyse morpho-fonctionnelle a, quant à elle, mis en évidence l'influence du protocole d'acquisition utilisé sur la cohérence articulaire lors de l'animation des os. Le choix du positionnement des marqueurs sur l'omoplate et sur l'humérus ainsi que la méthode de traitement employée pour reconstruire le mouvement ont ainsi une influence significative sur l'estimation du mouvement des structures osseuses.
Styles APA, Harvard, Vancouver, ISO, etc.
41

Rouch-Leroyer, Isabelle. « Aspects neuropsychologiques et fonctionnels de la phase précoce de démence : analyse des données de la cohorte PAQUID ». Bordeaux 2, 2001. http://www.theses.fr/2001BOR28825.

Texte intégral
Résumé :
L'objectif général était en premier lieu de mieux connaître l'histoire naturelle des déficits neuropsychologiques et leurs conséquences sur les activités fonctionnelles complexes dans la phase précoce des maladies responsables de démence, afin de proposer ensuite une meilleure stratégie d'identification des sujets à haut risque. Nos travaux ont été réalisés sur la cohorte PAQUID. La première partie de nos travaux a permis, grâce à des études de prédiction de la démence par les tests neuropsychologiques, de mieux identifier les fonctions neuropsychologiques détériorées en phase précoce de processus démentiel. Les résultats des articles 1 et 2 suggèrent que la détérioration des processus de contrôle survenait précocement chez les sujets évoluant vers une démence. La deuxième partie a été consacrée à l'étude dans la phase pré-démentielle des 4 activités instrumentales de la vie courante (IADL) liées aux fonctions cognitives, et à leurs relations avec les tests neuropsychologiques. Les résultats de l'article 3 ont permis de mieux comprendre les performances cognitives liées à chacune de ces IADL et mieux identifier les processus cognitifs impliqués dans les IADL prédicteurs de démence. L'article 4 décrit les performances à chacun des 4 IADL dans les 5 ans précédant la démence, ainsi que l'influence des facteurs socio-démographiques sur la relation entre déficit fonctionnel et diagnostic clinique. Enfin, la troisième partie permet de proposer une application à une stratégie de détection des sujets à haut risque de démence en pratique de médecine de ville. Celle-ci sera présentée dans l'article 5. De plus, la depression pose un problème fréquent de diagnostic différentiel des processus démentiels, ou en est parfois un sugne de début : c'est pourquoi nous avons dans l'article 6 défini une version abrégée d'une échelle de dépression validée chez les sujets âgés, qui pourra être utilisée en médecine de ville
The aim of this thesis relying on the PAQUID study was to better understand the natural history of neuropsychological impairments and their consequences on complex functional activities on preclinical stage of dementia, this in order to develop a better screening strategy of subjects at high risk of developing dementia. The first section of our work leaded to better identify the cognitive processes impaired in the phase preceding dementia. The results of the Articles 1 and 2 suggest that the controlled processes are deteriorated early in the preclinical phase of dementia. In the second part of this work, we studied the 4 Instrumental Activities of Daily Living and their relation with neuropsychological tests. The results of the articles 3 and 4 allowed to better understand the cognitive processes related to each of these IADL, and to better describe the evolution of each IADL in the 5 years preceding the clinical phase of dementia. In the last section, we determined for clinical practice a strategy of detection of subjects at high risk of developing dementia (article 5). Besides, we also defined a short-form of a depression scale which could be used in general medical practice ; depression is indeed a frequent differential diagnosis of dementia, but can also be a early sign of dementia (article 6)
Styles APA, Harvard, Vancouver, ISO, etc.
42

Stransky, Jan. « Analyse sémantique de structures de données dynamiques avec application au cas particulier de langages LISPiens ». Paris 11, 1988. http://www.theses.fr/1988PA112187.

Texte intégral
Résumé :
L'objectif est de présenter une méthode permettant d'obtenir par analyse sémantique du code source d'un programme, des informations sur ce que sera la structure des données dynamiques (c'est à "tas") à l'exécution de ce programme. Pour cela, dans un premier temps, un treillis de graphes spécialisés (les "h-graphes") est construit Nous montrons que chaque h-graphe est une approximation sémantiquement correcte d'un ensemble d'états possibles de la mémoire dynamique, et présentons les primitives abstraites correspondantes à quelques primitives classiques d'un langage LISPien. Dans un deuxième temps, la question de l'analyse d'un langage LISPien utilisant des fonctions récursives et la portée dynamique est abordée. Une méthode permettant de résoudre ce problème délicat est présentée, et les éléments nécessaires à une preuve de correction sémantique sont donnés. Dans un troisième temps, enfin, un analyseur de Le_Lisp utilisant nos techniques est présenté, et quelques exemples d'analyse sont fournis. Les idées nécessaires à une adaptation de nos méthodes pour l'analyse d'un langage PASCALien sont données dans la thèse.
Styles APA, Harvard, Vancouver, ISO, etc.
43

Benabderrahmane, Sidahmed. « Prise en compte des connaissances du domaine dans l'analyse transcriptomique : Similarité sémantique, classification fonctionnelle et profils flous : application au cancer colorectal ». Phd thesis, Université Henri Poincaré - Nancy I, 2011. http://tel.archives-ouvertes.fr/tel-00653169.

Texte intégral
Résumé :
L'analyse bioinformatique des données de transcriptomique a pour but d'identifier les gènes qui présentent des variations d'expression entre différentes situations, par exemple entre des échantillons de tissu sain et de tissu malade et de caractériser ces gènes à partir de leurs annotations fonctionnelles. Dans ce travail de thèse, je propose quatre contributions pour la prise en compte des connaissances du domaine dans ces méthodes. Tout d'abord je définis une nouvelle mesure de similarité sémantique et fonctionnelle (IntelliGO) entre les gènes, qui exploite au mieux les annotations fonctionnelles issues de l'ontologie GO ('Gene Ontology'). Je montre ensuite, grâce à une méthodologie d'évaluation rigoureuse, que la mesure IntelliGO est performante pour la classification fonctionnelle des gènes. En troisième contribution je propose une approche différentielle avec affectation floue pour la construction de profils d'expression différentielle (PED). Je définis alors un algorithme d'analyse de recouvrement entre classes fonctionnelles et ensemble des références, ici les PEDs, pour mettre en évidence des gènes ayant à la fois les mêmes variations d'expression et des annotations fonctionnelles similaires. Cette méthode est appliquée à des données expérimentales produites à partir d'échantillons de tissus sains, de tumeur colo-rectale et de lignée cellulaire cancéreuse. Finalement, la mesure de similarité IntelliGO est généralisée à d'autres vocabulaires structurés en graphe acyclique dirigé et enraciné (rDAG) comme l'est l'ontologie GO, avec un exemple d'application concernant la réduction sémantique d'attributs avant la fouille.
Styles APA, Harvard, Vancouver, ISO, etc.
44

Carcenac, Manuel. « Structures de données arborescentes et évaluation paresseuse : une nouvelle approche pour la résolution des équations aux dérivées partielles ». Toulouse, ENSAE, 1994. http://www.theses.fr/1994ESAE0008.

Texte intégral
Résumé :
Cette thèse traite de la résolution de problèmes de calcul numérique suivant une approche fonctionnelle paresseuse, fondée sur des structures de données arborescentes ; il s'agit en fait d'obtenir des valeurs de champs solutions d'équations aux dérivées partielles. Nous nous situons dans le cadre du projet de recherche MaRS, de l'ONERA-CERT, qui consiste à développer un modèle de calcul parallèle dédié à l'exécution de logiciels fonctionnels paresseux. L'idée de départ consiste à remplacer les structures de données régulières utilisées en calcul numérique par des structures irrégullières, arborescentes. En conséquence, nous avons modélisé le domaine de calcul par une structure d'arbre, en faisant ressortir l'infinité et l'irrégularité de cette structure, ainsi que la sémantique qui lui est associée. Puis nous aons défini la notion de matrice arborescente, indépendante des notions de tableau et d'indice usuellemnt associées aux matrices. Résoudre le problème revient alors à inverser paresseusement une matricearborescente à l'aide de fonctions récursives. Les résultats ainsi obtenus montrent une très forte réduction du temps de calcul.
Styles APA, Harvard, Vancouver, ISO, etc.
45

Chrysanthos, Nicolas. « Kernel methods for flight data monitoring ». Thesis, Troyes, 2014. http://www.theses.fr/2014TROY0030/document.

Texte intégral
Résumé :
L'analyse de données de vols appliquée aux opérations aériennes ou "Flight Data Monitoring" (FDM), est le processus par lequel une compagnie aérienne recueille, analyse et traite de façon régulière les données enregistrées dans les avions, dans le but d'améliorer de façon globale la sécurité.L'objectif de cette thèse est d'élaborer dans le cadre des méthodes à noyau, des techniques pour la détection des vols atypiques qui présentent potentiellement des problèmes qui ne peuvent être trouvés en utilisant les méthodes classiques. Dans la première partie, nous proposons une nouvelle méthode pour la détection d'anomalies.Nous utilisons une nouvelle technique de réduction de dimension appelée analyse en entropie principale par noyau afin de concevoir une méthode qui est à la fois non supervisée et robuste.Dans la deuxième partie, nous résolvons le problème de la structure des données dans le domaine FDM.Tout d'abord, nous étendons la méthode pour prendre en compte les paramètres de différents types tels que continus, discrets ou angulaires.Ensuite, nous explorons des techniques permettant de prendre en compte l'aspect temporel des vols et proposons un nouveau noyau dans la famille des techniques de déformation de temps dynamique, et démontrons qu'il est plus rapide à calculer que les techniques concurrentes et est de plus défini positif.Nous illustrons notre approche avec des résultats prometteurs sur des données réelles des compagnies aériennes TAP et Transavia comprenant plusieurs centaines de vols
Flight Data Monitoring (FDM), is the process by which an airline routinely collects, processes, and analyses the data recorded in aircrafts with the goal of improving the overall safety or operational efficiency.The goal of this thesis is to investigate machine learning methods, and in particular kernel methods, for the detection of atypical flights that may present problems that cannot be found using traditional methods.Atypical flights may present safety of operational issues and thus need to be studied by an FDM expert.In the first part we propose a novel method for anomaly detection that is suited to the constraints of the field of FDM.We rely on a novel dimensionality reduction technique called kernel entropy component analysis to design a method which is both unsupervised and robust.In the second part we solve the most salient issue regarding the field of FDM, which is how the data is structured.Firstly, we extend the method to take into account parameters of diverse types such as continuous, discrete or angular.Secondly, we explore techniques to take into account the temporal aspect of flights and propose a new kernel in the family of dynamic time warping techniques, and demonstrate that it is faster to compute than competing techniques and is positive definite.We illustrate our approach with promising results on real world datasets from airlines TAP and Transavia comprising hundreds of flights
Styles APA, Harvard, Vancouver, ISO, etc.
46

Gregorutti, Baptiste. « Forêts aléatoires et sélection de variables : analyse des données des enregistreurs de vol pour la sécurité aérienne ». Thesis, Paris 6, 2015. http://www.theses.fr/2015PA066045/document.

Texte intégral
Résumé :
De nouvelles réglementations imposent désormais aux compagnies aériennes d'établir une stratégie de gestion des risques pour réduire encore davantage le nombre d'accidents. Les données des enregistreurs de vol, très peu exploitées à ce jour, doivent être analysées de façon systématique pour identifier, mesurer et suivre l'évolution des risques. L'objectif de cette thèse est de proposer un ensemble d'outils méthodologiques pour répondre à la problématique de l'analyse des données de vol. Les travaux présentés dans ce manuscrit s'articulent autour de deux thèmes statistiques : la sélection de variables en apprentissage supervisé d'une part et l'analyse des données fonctionnelles d'autre part. Nous utilisons l'algorithme des forêts aléatoires car il intègre des mesures d'importance pouvant être employées dans des procédures de sélection de variables. Dans un premier temps, la mesure d'importance par permutation est étudiée dans le cas où les variables sont corrélées. Nous étendons ensuite ce critère pour des groupes de variables et proposons une nouvelle procédure de sélection de variables fonctionnelles. Ces méthodes sont appliquées aux risques d'atterrissage long et d'atterrissage dur, deux questions importantes pour les compagnies aériennes. Nous présentons enfin l'intégration des méthodes proposées dans le produit FlightScanner développé par Safety Line. Cette solution innovante dans le transport aérien permet à la fois le monitoring des risques et le suivi des facteurs qui les influencent
New recommendations require airlines to establish a safety management strategy to keep reducing the number of accidents. The flight data recorders have to be systematically analysed in order to identify, measure and monitor the risk evolution. The aim of this thesis is to propose methodological tools to answer the issue of flight data analysis. Our work revolves around two statistical topics: variable selection in supervised learning and functional data analysis. The random forests are used as they implement importance measures which can be embedded in selection procedures. First, we study the permutation importance measure when the variables are correlated. This criterion is extended for groups of variables and a new selection algorithm for functional variables is introduced. These methods are applied to the risks of long landing and hard landing which are two important questions for airlines. Finally, we present the integration of the proposed methods in the software FlightScanner implemented by Safety Line. This new solution in the air transport helps safety managers to monitor the risks and identify the contributed factors
Styles APA, Harvard, Vancouver, ISO, etc.
47

Jarry, Gabriel. « Analyse et détection des trajectoires d'approches atypiques des aéronefs à l'aide de l'analyse de données fonctionnelles et de l'apprentissage automatique ». Thesis, Toulouse 3, 2020. http://www.theses.fr/2020TOU30284.

Texte intégral
Résumé :
L'amélioration de la sécurité aérienne implique généralement l'identification, la détection et la gestion des événements indésirables qui peuvent conduire à des événements finaux mortels. De précédentes études menées par la DSAC, l'autorité de surveillance française, ont permis d'identifier les approches non-conformes présentant des déviations par rapport aux procédures standards comme des événements indésirables. Cette thèse vise à explorer les techniques de l'analyse de données fonctionnelles et d'apprentissage automatique afin de fournir des algorithmes permettant la détection et l'analyse de trajectoires atypiques en approche à partir de données sol. Quatre axes de recherche sont abordés. Le premier axe vise à développer un algorithme d'analyse post-opérationnel basé sur des techniques d'analyse de données fonctionnelles et d'apprentissage non-supervisé pour la détection de comportements atypiques en approche. Le modèle sera confronté à l'analyse des bureaux de sécurité des vols des compagnies aériennes, et sera appliqué dans le contexte particulier de la période COVID-19 pour illustrer son utilisation potentielle alors que le système global ATM est confronté à une crise. Le deuxième axe de recherche s'intéresse plus particulièrement à la génération et à l'extraction d'informations à partir de données radar à l'aide de nouvelles techniques telles que l'apprentissage automatique. Ces méthodologies permettent d'améliorer la compréhension et l'analyse des trajectoires, par exemple dans le cas de l'estimation des paramètres embarqués à partir des paramètres radar. Le troisième axe, propose de nouvelles techniques de manipulation et de génération de données en utilisant le cadre de l'analyse de données fonctionnelles. Enfin, le quatrième axe se concentre sur l'extension en temps réel de l'algorithme post-opérationnel grâce à l'utilisation de techniques de contrôle optimal, donnant des pistes vers de nouveaux systèmes d'alerte permettant une meilleure conscience de la situation
Improving aviation safety generally involves identifying, detecting and managing undesirable events that can lead to final events with fatalities. Previous studies conducted by the French National Supervisory Authority have led to the identification of non-compliant approaches presenting deviation from standard procedures as undesirable events. This thesis aims to explore functional data analysis and machine learning techniques in order to provide algorithms for the detection and analysis of atypical trajectories in approach from ground side. Four research directions are being investigated. The first axis aims to develop a post-op analysis algorithm based on functional data analysis techniques and unsupervised learning for the detection of atypical behaviours in approach. The model is confronted with the analysis of airline flight safety offices, and is applied in the particular context of the COVID-19 crisis to illustrate its potential use while the global ATM system is facing a standstill. The second axis of research addresses the generation and extraction of information from radar data using new techniques such as Machine Learning. These methodologies allow to \mbox{improve} the understanding and the analysis of trajectories, for example in the case of the estimation of on-board parameters from radar parameters. The third axis proposes novel data manipulation and generation techniques using the functional data analysis framework. Finally, the fourth axis focuses on extending the post-operational algorithm into real time with the use of optimal control techniques, giving directions to new situation awareness alerting systems
Styles APA, Harvard, Vancouver, ISO, etc.
48

Dwivedi, Ankit. « Functional analysis of genomic variations associated with emerging artemisinin resistant P. falciparum parasite populations and human infecting piroplasmida B. microti ». Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT073/document.

Texte intégral
Résumé :
Le programme d’élimination du paludisme de l’OMS est menacé par l’émergence etla propagation potentielle de parasites de l’espèce Plasmodium falciparum résistants à l’artémisinine. Récemment il a été montré que (a) des SNPs dans une région du chromosome 13 subissaient une forte sélection positive récente au Cambodge,(b) plusieurs sous-populations de parasites de P. falciparum résistants et sensibles à l’artémisinine étaient présentes au Cambodge, (c) des mutations dans le domaine Kelch du gène k13 sont des déterminants majeurs de la résistance à l’artémisinine dans la population parasitaire cambodgien et (d) des parasites de sous-populations du nord du Cambodge près de la Thaïlande et du Laos sont résistants à la méfloquine et portent l’allèle R539T du gène de k13.Il est donc nécessaire d’identifier la base génétique de la résistance dans le but de surveiller et de contrôler la transmission de parasites résistants au reste du monde, pour comprendre le métabolisme des parasites et pour le développement de nouveaux médicaments. Ce travail a porté sur la caractérisation de la structure de la population de P. falciparum au Cambodge et la description des propriétés métaboliques des sous-populations présentes ainsi que des flux de gènes entre ces sous-populations. Le but est d’identifier les bases génétiques associées à la transmission et l’acquisition de résistance à l’artémisinine dans le pays.La première approche par code-barre a été développée pour identifier des sous-populations à l’aide d’un petit nombre de loci. Une approche moléculaire de PCR-LDR-FMA multiplexée et basée sur la technologie LUMINEX a été mise au point pour identifier les SNP dans 537 échantillons de sang (2010 - 2011) provenant de 16centres de santé au Cambodge. La présence de sous-populations le long des frontières du pays a été établie grâce à l’analyse de 282 échantillons. Les flux de gènes ont été décrits à partir des 11 loci du code-barre. Le code-barre permet d’identifier les sous-populations de parasites associées à la résistance à l’artémisinine et à la méfloquine qui ont émergé récemment.La seconde approche de caractérisation de la structure de la population de P.falciparum au Cambodge a été définie sur la base de l’analyse de 167 génomes de parasites (données NGS de 2008 à 2011) provenant de quatre localités au Cambodge et récupérés à partir de la base de données ENA. Huit sous-populations de parasites ont pu être décrites à partir d’un jeu de 21257 SNPs caractérisés dans cette étude. La présence de sous-populations mixtes de parasite apparait comme un risque majeur pour la transmission de la résistance à l’artémisinine. L’analyse fonctionnelle montre qu’il existe un fond génétique commun aux isolats dans les populations résistantes et a confirmé l’importance de la voie PI3K dans l’acquisition de la résistance en aidant le parasite à rester sous forme de stade anneau.Nos résultats remettent en question l’origine et la persistance des sous-populations de P. falciparum au Cambodge, fournissent des preuves de flux génétique entre les sous-populations et décrivent un modèle d’acquisition de résistance à l’artémisinine.Le processus d’identification des SNPs fiables a été ensuite appliqué au génome de Babesia microti. Ce parasite est responsable de la babésiose humain (un syndrome de type malaria) et est endémique dans le nord-est des Etats-Unis. L’objectif était de valider la position taxonomique de B. microti en tant que groupe externe aux piroplasmes et d’améliorer l’annotation fonctionnelle du génome en incluant la variabilité génétique, l’expression des gènes et la capacité antigénique des protéines. Nous avons ainsi identifié de nouvelles protéines impliquées dans les interactions hôte-parasite
The undergoing WHO Malaria elimination program is threatened by the emergenceand potential spread of the Plasmodium falciparum artemisinin resistant parasite.Recent reports have shown (a) SNPs in region of chromosome 13 to be understrong recent positive selection in Cambodia, (b) presence of P. falciparum parasiteresistant and sensitive subpopulations in Cambodia, (c) the evidence that mutationsin the Kelch propeller domain of the k13 gene are major determinants ofartemisinin resistance in Cambodian parasite population and (d) parasite subpopulations in Northern Cambodia near Thailand and Laos with mefloquine drugresistance and carrying R539T allele of the k13 gene.Identifying the genetic basis of resistance is important to monitor and control thetransmission of resistant parasites and to understand parasite metabolism for the development of new drugs. This thesis focuses on analysis of P. falciparum population structure in Cambodia and description of metabolic properties of these subpopulations and gene flow among them. This could help in identifying the genetic evidence associated to transmission and acquisition of artemisinin resistance over the country.First, a barcode approach was used to identify parasite subpopulations using smallnumber of loci. A mid-throughput PCR-LDR-FMA approach based on LUMINEXtechnology was used to screen for SNPs in 537 blood samples (2010 - 2011) from 16health centres in Cambodia. Based on successful typing of 282 samples, subpopulations were characterized along the borders of the country. Gene flow was described based on the gradient of alleles at the 11 loci in the barcode. The barcode successfully identifies recently emerging parasite subpopulations associated to artemisinin and mefloquine resistance.In the second approach, the parasite population structure was defined based on167 parasite NGS genomes (2008 - 2011) originating from four locations in Cambodia,recovered from the ENA database. Based on calling of 21257 SNPs, eight parasite subpopulations were described. Presence of admixture parasite subpopulation couldbe supporting artemisinin resistance transmission. Functional analysis based on significant genes validated similar background for resistant isolates and revealed PI3K pathway in resistant populations supporting acquisition of resistance by assisting the parasite in ring stage form.Our findings question the origin and the persistence of the P. falciparum subpopulations in Cambodia, provide evidence of gene flow among subpopulations anddescribe a model of artemisinin resistance acquisition.The variant calling approach was also implemented on the Babesia microti genome.This is a malaria like syndrome, and is endemic in the North-Eastern USA. Theobjective was to validate the taxonomic position of B. microti as out-group amongpiroplasmida and improve the functional genome annotation based on genetic variation, gene expression and protein antigenicity. We identified new proteins involved in parasite host interactions
Styles APA, Harvard, Vancouver, ISO, etc.
49

Denecker, Thomas. « Bioinformatique et analyse de données multiomiques : principes et applications chez les levures pathogènes Candida glabrata et Candida albicans Functional networks of co-expressed genes to explore iron homeostasis processes in the pathogenic yeast Candida glabrata Efficient, quick and easy-to-use DNA replication timing analysis with START-R suite FAIR_Bioinfo : a turnkey training course and protocol for reproducible computational biology Label-free quantitative proteomics in Candida yeast species : technical and biological replicates to assess data reproducibility Rendre ses projets R plus accessibles grâce à Shiny Pixel : a content management platform for quantitative omics data Empowering the detection of ChIP-seq "basic peaks" (bPeaks) in small eukaryotic genomes with a web user-interactive interface A hypothesis-driven approach identifies CDK4 and CDK6 inhibitors as candidate drugs for treatments of adrenocortical carcinomas Characterization of the replication timing program of 6 human model cell lines ». Thesis, université Paris-Saclay, 2020. http://www.theses.fr/2020UPASL010.

Texte intégral
Résumé :
Plusieurs évolutions sont constatées dans la recherche en biologie. Tout d’abord, les études menées reposent souvent sur des approches expérimentales quantitatives. L’analyse et l’interprétation des résultats requièrent l’utilisation de l’informatique et des statistiques. Également, en complément des études centrées sur des objets biologiques isolés, les technologies expérimentales haut débit permettent l’étude des systèmes (caractérisation des composants du système ainsi que des interactions entre ces composants). De très grandes quantités de données sont disponibles dans les bases de données publiques, librement réutilisables pour de nouvelles problématiques. Enfin, les données utiles pour les recherches en biologie sont très hétérogènes (données numériques, de textes, images, séquences biologiques, etc.) et conservées sur des supports d’information également très hétérogènes (papiers ou numériques). Ainsi « l’analyse de données » s’est petit à petit imposée comme une problématique de recherche à part entière et en seulement une dizaine d’années, le domaine de la « Bioinformatique » s’est en conséquence totalement réinventé. Disposer d’une grande quantité de données pour répondre à un questionnement biologique n’est souvent pas le défi principal. La vraie difficulté est la capacité des chercheurs à convertir les données en information, puis en connaissance. Dans ce contexte, plusieurs problématiques de recherche en biologie ont été abordées lors de cette thèse. La première concerne l’étude de l’homéostasie du fer chez la levure pathogène Candida glabrata. La seconde concerne l’étude systématique des modifications post-traductionnelles des protéines chez la levure pathogène Candida albicans. Pour ces deux projets, des données « omiques » ont été exploitées : transcriptomiques et protéomiques. Des outils bioinformatiques et des outils d’analyses ont été implémentés en parallèle conduisant à l’émergence de nouvelles hypothèses de recherche en biologie. Une attention particulière et constante a aussi été portée sur les problématiques de reproductibilité et de partage des résultats avec la communauté scientifique
Biological research is changing. First, studies are often based on quantitative experimental approaches. The analysis and the interpretation of the obtained results thus need computer science and statistics. Also, together with studies focused on isolated biological objects, high throughput experimental technologies allow to capture the functioning of biological systems (identification of components as well as the interactions between them). Very large amounts of data are also available in public databases, freely reusable to solve new open questions. Finally, the data in biological research are heterogeneous (digital data, texts, images, biological sequences, etc.) and stored on multiple supports (paper or digital). Thus, "data analysis" has gradually emerged as a key research issue, and in only ten years, the field of "Bioinformatics" has been significantly changed. Having a large amount of data to answer a biological question is often not the main challenge. The real challenge is the ability of researchers to convert the data into information and then into knowledge. In this context, several biological research projects were addressed in this thesis. The first concerns the study of iron homeostasis in the pathogenic yeast Candida glabrata. The second concerns the systematic investigation of post-translational modifications of proteins in the pathogenic yeast Candida albicans. In these two projects, omics data were used: transcriptomics and proteomics. Appropriate bioinformatics and analysis tools were developed, leading to the emergence of new research hypotheses. Particular and constant attention has also been paid to the question of data reproducibility and sharing of results with the scientific community
Styles APA, Harvard, Vancouver, ISO, etc.
50

Brahimi, Lahcene. « Données de tests non fonctionnels de l'ombre à la lumière : une approche multidimensionnelle pour déployer une base de données ». Thesis, Chasseneuil-du-Poitou, Ecole nationale supérieure de mécanique et d'aérotechnique, 2017. http://www.theses.fr/2017ESMA0009/document.

Texte intégral
Résumé :
Le choix d'un système de gestion de bases de données (SGBD) et de plateforme d'exécution pour le déploiement est une tâche primordiale pour la satisfaction des besoins non-fonctionnels(comme la performance temporelle et la consommation d'énergie). La difficulté de ce choix explique la multitude de tests pour évaluer la qualité des bases de données (BD) développées.Cette évaluation se base essentiellement sur l'utilisation des métriques associées aux besoins non fonctionnels. En effet, une mine de tests existe couvrant toutes les phases de cycle de vie de conception d'une BD. Les tests et leurs environnements sont généralement publiés dans des articles scientifiques ou dans des sites web dédiés comme le TPC (Transaction Processing Council).Par conséquent, cette thèse contribue à la capitalisation et l'exploitation des tests effectués afin de diminuer la complexité du processus de choix. En analysant finement les tests, nous remarquons que chaque test porte sur les jeux de données utilisés, la plateforme d'exécution, les besoins non fonctionnels, les requêtes, etc. Nous proposons une démarche de conceptualisation et de persistance de toutes .ces dimensions ainsi que les résultats de tests. Cette thèse a donné lieu aux trois contributions. (1) Une conceptualisation basée sur des modélisations descriptive,prescriptive et ontologique pour expliciter les différentes dimensions. (2) Le développement d'un entrepôt de tests multidimensionnel permettant de stocker les environnements de tests et leurs résultats. (3) Le développement d'une méthodologie de prise de décision basée sur un système de recommandation de SGBD et de plateformes
Choosing appropriate database management systems (DBMS) and/or execution platforms for given database (DB) is complex and tends to be time- and effort-intensive since this choice has an important impact on the satisfaction of non-functional requirements (e.g., temporal performance or energy consumption). lndeed, a large number of tests have been performed for assessing the quality of developed DB. This assessment often involves metrics associated with non-functional requirement. That leads to a mine of tests covering all life-cycle phases of the DB's design. Tests and their environments are usually published in scientific articles or specific websites such as Transaction Processing Council (TPC). Therefore, this thesis bas taken a special interest to the capitalization and the reutilization of performed tests to reduce and mastery the complexity of the DBMS/platforms selection process. By analyzing the test accurately, we identify that tests concem: the data set, the execution platform, the addressed non-functional requirements, the used queries, etc. Thus, we propose an approach of conceptualization and persistence of all dimensions as well as the results of tests. Conseguently, this thesis leads to the following contributions. (1) The design model based on descriptive, prescriptive and ontological concepts to raise the different dimensions. (2) The development of a multidimensional repository to store the test environments and their results. (3) The development of a decision making methodology based on a recommender system for DBMS and platforms selection
Styles APA, Harvard, Vancouver, ISO, etc.
Nous offrons des réductions sur tous les plans premium pour les auteurs dont les œuvres sont incluses dans des sélections littéraires thématiques. Contactez-nous pour obtenir un code promo unique!

Vers la bibliographie