Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Données neuronales.

Dissertationen zum Thema „Données neuronales“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-42 Dissertationen für die Forschung zum Thema "Données neuronales" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Werner, Thilo. „Réseaux de neurones impulsionnels basés sur les mémoires résistives pour l'analyse de données neuronales“. Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAS028/document.

Der volle Inhalt der Quelle
Annotation:
Le système nerveux central humain est un système de traitement de l'information stupéfiant en termes de capacités, de polyvalence, d’adaptabilité et de faible consommation d'énergie. Sa structure complexe se compose de milliards de neurones, interconnectés par plusieurs trillions de synapses, formant des grappes spécialisées. Récemment, l'imitation de ces paradigmes a suscité un intérêt croissant en raison de la nécessité d'approches informatiques avancées pour s'attaquer aux défis liés à la génération de quantités massives de données complexes dans l'ère de l’Internet des Objets (IoT). Ceci a mené à un nouveau domaine de recherche, connu sous le nom d’informatique cognitive ou d'ingénierie neuromorphique, qui repose sur les architectures dites non-von-Neumann (inspirées du cerveau) en opposition aux architectures von-Neumann (ordinateurs classiques). Dans cette thèse, nous examinons l'utilisation des technologies de mémoire résistive telles que les mémoires à accès aléatoires à base de lacunes d’oxygène (OxRAM) et les mémoires à pont conducteur (CBRAM) pour la conception de synapses artificielles, composants de base indispensables des réseaux neuromorphiques. De plus, nous développons un réseau de neurones impulsionnels artificiel (SNN), utilisant des synapses OxRAM, pour l'analyse de données impulsionnelles provenant du cerveau humain en vue du traitement de troubles neurologiques, en connectant la sortie du SNN à une interface cerveau-ordinateur (BCI). L'impact des problèmes de fiabilité, caractéristiques des OxRAMs, sur les performances du système est étudié en détail et les moyens possibles pour atténuer les pénalités liées aux incertitudes des dispositifs seuls sont démontrés. En plus de l’implémentation avec des OxRAMs et CBRAMs de la bien connue plasticité fonction du temps d’occurrence des impulsions (STDP), qui constitue une forme de plasticité à long terme (LTP), les dispositifs OxRAM ont également été utilisés pour imiter la plasticité à court terme (STP). Les fonctionnalités fondamentalement différentes de la LTP et STP sont mises en évidence
The central nervous system of humankind is an astonishing information processing system in terms of its capabilities, versatility, adaptability and low energy consumption. Its complex structure consists of billions of neurons interconnected by trillions of synapses forming specialized clusters. Recently, mimicking those paradigms has attracted a strongly growing interest, triggered by the need for advanced computing approaches to tackle challenges related to the generation of massive amounts of complex data in the Internet of Things (IoT) era. This has led to a new research field, known as cognitive computing or neuromorphic engineering, which relies on the so-called non-von-Neumann architectures (brain-inspired) in contrary to von-Neumann architectures (conventional computers). In this thesis, we explore the use of resistive memory technologies such as oxide vacancy based random access memory (OxRAM) and conductive bridge RAM (CBRAM) for the design of artificial synapses that are a basic building block for neuromorphic networks. Moreover, we develop an artificial spiking neural network (SNN) based on OxRAM synapses dedicated to the analysis of spiking data recorded from the human brain with the goal of using the output of the SNN in a brain-computer interface (BCI) for the treatment of neurological disorders. The impact of reliability issues characteristic to OxRAM on the system performance is studied in detail and potential ways to mitigate penalties related to single device uncertainties are demonstrated. Besides the already well-known spike-timing-dependent plasticity (STDP) implementation with OxRAM and CBRAM which constitutes a form of long term plasticity (LTP), OxRAM devices were also used to mimic short term plasticity (STP). The fundamentally different functionalities of LTP and STP are put in evidence
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Merlin, Paul. „Des techniques neuronales dans l'alternatif“. Phd thesis, Université Panthéon-Sorbonne - Paris I, 2009. http://tel.archives-ouvertes.fr/tel-00450649.

Der volle Inhalt der Quelle
Annotation:
Cette thèse s'attache à redéfinir des modèles financiers traditionnels en considérant un cadre d'analyse moins restrictif, s'accordant mieux avec les caractéristiques empiriques des fonds alternatifs. Ce cadre élargi, certes plus réaliste, a néanmoins pour principal effet de complexifier les modèles étudiés ; nous choisissons alors d'employer des procédés de calcul naturel pour les simplifier. Dans le premier chapitre de la thèse, nous répondons à une problématique générale qui concerne l'étape essentielle du traitement des données. Nous proposons ainsi une nouvelle approche de la complétion des valeurs manquantes, autorisant une meilleure prise en compte des dépendances inter-actifs. Nous montrons dans le deuxième chapitre comment intégrer des moments d'ordre supérieur dans les modèles d'allocation. Une technique d'optimisation définie à partir des fonctions dites de pénurie nous permet de résoudre les problèmes d'optimisation dans l'espace non-convexe des quatre premiers moments de la distribution de rendements des portefeuilles optimisés. Le troisième chapitre s'attache à évaluer l'impact des données aberrantes sur les modèles d'allocation d'actifs intégrant les moments d'ordre supérieur. Un réseau de neurones modélisant la volatilité nous permet d'étendre les travaux de Chen et Liu (1993). Nous terminons cette thèse avec le quatrième chapitre en proposant un modèle d'analyse de style défini à partir de cartes de Kohonen. Le lien entre les facteurs de style traditionnels et les neurones de la carte est effectué au moyen d'une analyse conditionnelle. Une projection dynamique des fonds autorise ainsi l'étude de la stabilité des styles des gérants d'actifs.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Fuchs, Robin. „Méthodes neuronales et données mixtes : vers une meilleure résolution spatio-temporelle des écosystèmes marins et du phytoplancton“. Electronic Thesis or Diss., Aix-Marseille, 2022. http://www.theses.fr/2022AIXM0295.

Der volle Inhalt der Quelle
Annotation:
Le phytoplancton constitue un des premiers maillons du réseau trophique et génère jusqu'à 50% de la production primaire mondiale. L’étude du phytoplancton et de son environnement physique nécessite des observations ayant une résolution inférieure à la journée et au kilomètre, ainsi que la prise en compte des types hétérogènes de données impliquées et des structures de dépendance spatio-temporelles des écosystèmes marins.Cette thèse s’applique à développer des méthodes statistiques dans ce contexte en s’appuyant sur des technologies comme la cytométrie en flux automatisée. Les développements théoriques ont porté sur les modèles de cytométrie en flux automatisée profonds (DGMM) introduits par Viroli et McLachlan (2019). Afin de mieux caractériser les niches écologiques du phytoplancton, nous avons étendu ces modèles aux données mixtes (présentant des variables continues et non continues) souvent présentes en océanographie. Une méthode de clustering a ainsi été proposée ainsi qu’un algorithme de génération de données mixtes synthétiques.Concernant l'étude haute fréquence à proprement parler, des réseaux neuronaux convolutifs ont été introduits pour traiter les sorties de cytométrie en flux et étudier six groupes fonctionnels du phytoplancton en zone littorale et en océan ouvert. Des réactions différenciées et reproductibles de ces groupes ont été identifiées à la suite d'événements impulsionnels induits par le vent, soulignant l'importance du couplage entre la physique et la biologie. À cet égard, une méthode de détection de rupture a été proposée pour délimiter les zones épipélagique et mésopélagique, proposant ainsi une nouvelle base pour le calcul de budgets carbone mésopélagiques
Phytoplankton are one of the first links in the food web and generate up to 50% of the world's primary production. The study of phytoplankton and their physical environment requires observations with a resolution of less than a day and a kilometer, as well as the consideration of the heterogeneous types of data involved and the spatio-temporal dependency structures of marine ecosystems.This thesis aims to develop statistical methods in this context by using technologies such as automated flow cytometry. Theoretical developments focused on Deep Gaussian Mixture Models (DGMM) introduced by Viroli and McLachlan (2019). To better characterize phytoplankton ecological niches, we extended these models to mixed data (exhibiting continuous and non-continuous variables) often found in oceanography. A clustering method has been proposed as well as an algorithm for generating synthetic mixed data.Regarding the high-frequency study itself, convolutional neural networks have been introduced to process flow cytometry outputs and to study six functional groups of phytoplankton in the littoral zone and the open ocean. Differentiated and reproducible responses of these groups were identified following wind-induced pulse events, highlighting the importance of the coupling between physics and biology. In this regard, a change-point detection method has been proposed to delineate epipelagic and mesopelagic zones, providing a new basis for the calculation of mesopelagic carbon budgets
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Martinez, Herrera Miguel. „Inference of non-linear or imperfectly observed Hawkes processes“. Electronic Thesis or Diss., Sorbonne université, 2024. http://www.theses.fr/2024SORUS273.

Der volle Inhalt der Quelle
Annotation:
Le processus ponctuel de Hawkes est un outil statistique très répandu pour analyser des dynamiques temporelles. Les applications modernes des processus de Hawkes proposent des extensions du modèle initial pour prendre en compte certaines caractéristiques spécifiques à chaque domaine d'étude, ce qui complexifie les tâches d'inférence. Dans cette thèse, nous proposons différentes contributions à l'estimation paramétrique de deux variantes du processus de Hawkes dans les cadres univarié et multivarié. Motivée par la modélisation d'interactions complexes au sein d'une population de neurones, notre première étude porte sur la prise en compte conjointe d'effets excitateurs et inhibiteurs entre les signaux émis par les neurones au cours du temps, modélisés par un processus de Hawkes non-linéaire. Dans ce modèle, nous obtenons une expression explicite de la log-vraisemblance qui nous permet d'implémenter une procédure de maximum de vraisemblance.Nous établissons également une méthode de sélection de modèle qui fournit notamment une estimation du réseau d'interactions dans le cadre multivarié. La deuxième partie de cette thèse est consacrée à l'étude des processus de Hawkes bruités par deux types d'altérations : l'ajout ou la suppression de certains points. Le manque d'information lié à ces mécanismes de bruit rend les méthodes classiques d'inférence non-applicables ou numériquement coûteuses. Notre solution consiste à s'appuyer sur l'analyse spectrale des processus ponctuels afin d'établir un estimateur obtenu en maximisant la log-vraisemblance spectrale. Nous obtenons l'expression des densités spectrales des processus bruités et, après avoir établi des conditions d'identifiabilité pour nos différents modèles, nous montrons que cette méthode d'inférence ne nécessite pas de connaître la structure du bruit, contournant ainsi le problème d'estimation. Notre étude sur les processus bruités donne accès à une méthode de sous-échantillonnage qui nous permet d'améliorer les approches d'estimation en introduisant un paramètre de pénalisation. Nous illustrons la performance des différentes méthodes proposées à travers des implémentations numériques reproductibles
The Hawkes point process is a popular statistical tool to analyse temporal patterns.Modern applications propose extensions of this model to account for specificities in each field of study, which in turn complexifies the task of inference.In this thesis, we advance different approaches for the parametric estimation of two submodels of the Hawkes process in univariate and multivariate settings.Motivated by the modelling of complex neuronal interactions observed from spike train data,our first study focuses on accounting for both inhibition and excitation effects between neurons, modelled by the non-linear Hawkes process.We derive a closed-form expression of the log-likelihood in order to implement a maximum likelihood procedure.As a consequence of our approach, we gain access to a goodness-of-fit scheme allowing us to establish ad hoc model selection methods to estimate the interaction network in the multivariate setting.The second part of this thesis focuses on studying Hawkes process data noised by two different alterations: adding or removing points.The absence of knowledge on the noise dynamics makes classical inference procedures intractable or computationally expensive.Our solution is to leverage the spectral analysis of point processes to establish an estimator obtained by maximising the spectral log-likelihood.By deriving the spectral densities of the noised processes and by establishing identifiability conditions on our model, we show that the spectral inference method does not necessitate any information on the structure of the noise, effectively circumventing this issue.An additional result of the study of Hawkes processes with missing points is that it gives access to a subsampling paradigm to enhance the estimation methods by introducing a penalisation parameter.We illustrate the efficiency of all of our methods through reproducible numerical implementations
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Dora, Matteo. „Mathematical models and signal processing methods to explore biological mechanisms across multiple scales : from intracellular dynamics to neural time series“. Electronic Thesis or Diss., Université Paris sciences et lettres, 2022. http://www.theses.fr/2022UPSLE033.

Der volle Inhalt der Quelle
Annotation:
Cette thèse est une étude de phénomènes biologiques liés au cerveau à travers des modèles mathématiques et méthodes quantitatives. Le leitmotiv de ce travail est l'analyse des séries spatio-temporelles qui apparaissent naturellement dans les systèmes biologiques à différentes échelles. La première partie de la thèse se penche sur l’échelle la plus fine. J’étudie la dynamique des protéines au sein du réticulum endoplasmique (RE), un organite de la cellule eucaryote formé d’un réseau de structures membranaires tubulaires. Le RE joue un rôle clé dans le transport des protéines et son dysfonctionnement a été associé à de nombreuses maladies, dont notamment les troubles neurodégénératifs. Des observations expérimentales antérieures ont suggéré une possible déviation du transport luminal du RE par rapport à la diffusion classique. Pour tester cette hypothèse, j’introduis un modèle de réseau pour décrire la dynamique des protéines dans le RE. J’analyse le modèle et développe des simulations numériques, en révélant un possible mécanisme de transport de protéines agrégées qui s'écarte du mouvement purement diffusif. Pour tester davantage les prédictions du modèle, nous nous tournons ensuite vers l'analyse des données expérimentales. Alors que la mobilité des protéines a été traditionnellement caractérisée par l'imagerie par fluorescence, les caractéristiques morphologiques du RE posent de nouveaux défis à une analyse quantitative d'une telle dynamique à petite échelle. Pour résoudre ces problèmes, j’introduis une nouvelle méthode de traitement d'image pour analyser la dynamique du RE basée sur des protéines fluorescentes photoactivables. Cette technique joint l'analyse et la réduction du bruit à la segmentation automatique du RE, et peut fournir une estimation robuste de l'échelle de temps de transport. Cela nous permet également de caractériser l'hétérogénéité spatiale du processus de mélange des protéines. Je présente et compare les résultats pour les protéines luminales, membranaires et mal repliées dans le RE. Dans la deuxième partie de la thèse, nous étudions les signaux neuronaux à des échelles supérieures. Tout d'abord, à l'échelle du neurone, je présente une méthode de débruitage adaptée à l'enregistrement optique de l'activité unicellulaire chez les souris éveillées via des indicateurs de voltage fluorescents. Je montre comment il est possible de réduire le bruit instrumental et quantique dans de telles séries temporelles, ce qui permet d'extraire les potentiels d’action à une fréquence d'acquisition plus faible. Ce résultat rend possible l'enregistrement simultané de plusieurs cellules, permettant ainsi d'explorer la corrélation des pointes et des oscillations de voltage au sein d'un ensemble de neurones. Enfin, dans les derniers chapitres, nous atteignons le niveau le plus global avec l'étude des électroencéphalogrammes (EEG), qui enregistrent l'activité de l'ensemble du cerveau. Motivés par les applications de l'EEG dans la surveillance clinique, j’introduis une nouvelle méthode basée sur les ondelettes pour atténuer les artefacts indésirables qui contaminent l'enregistrement du signal EEG physiologique. La méthode est basée sur le remappage des coefficients d'ondelettes selon une distribution de référence extraite de portions propres du signal EEG. Notre technique peut fournir une alternative flexible aux approches traditionnelles, comme le seuillage d'ondelettes, dans le contexte de la surveillance clinique en temps réel. En conclusion, cette thèse illustre la manière dont une approche interdisciplinaire combinant données expérimentales, modélisation mathématique et traitement du signal peut fournir de nouveaux outils pour la compréhension d'une large variété de mécanismes biologiques, allant du transport des protéines au suivi EEG
This dissertation is an investigation of biological phenomena related to the brain by means of mathematical models and quantitative methods. The leitmotiv of this work is the analysis of spatiotemporal series which naturally arise in biological systems at different scales. In the first part of the thesis, we study the finest of such scales. I analyse intracellular protein dynamics in the endoplasmic reticulum (ER), an organelle of eukaryotic cells formed by a network of tubular membrane structures. The ER plays a key role in protein transport, and its dysfunction has been associated with numerous diseases, including, in particular, neurodegenerative disorders. Previous experimental observations suggested a possible deviation of ER luminal transport compared to classical diffusion. Based on this hypothesis, I introduce a graph model to describe ER protein dynamics. I analyse the model and develop numerical simulations, revealing a possible mechanism of aggregated protein transport that deviates from purely diffusive motion. Then, to further test the predictions of the model, we turn to the analysis of experimental data. While protein mobility has been traditionally characterized by fluorescence imaging, the morphological characteristics of the ER pose new challenges to a quantitative analysis of such small scale dynamics. To address these issues, I introduce a novel image processing method to analyse ER dynamics based on photoactivatable fluorescent proteins. By joining analysis and reduction of noise with automatic segmentation of the ER, the technique can provide a robust estimation of the timescale of transport. Moreover, it allows us to characterize the spatial heterogeneity of the protein mixing process. I present and compare results for luminal, membrane, and misfolded proteins in the ER. In the second part of the dissertation, we study neuronal signals at coarser scales. First, at the scale of the single neuron, I present a denoising method suitable for optical recording of single-cell activity in awake, behaving mice via fluorescent voltage indicators. I show how it is possible to reduce instrumental and photon-counting noise in such time series, allowing us to extract spike patterns at lower acquisition frequency. Such results enable simultaneous recording of multiple cells, thus allowing to explore the correlation of spikes and voltage oscillations within ensembles of neurons. Finally, in the last chapters, we reach the coarsest scale with the study of electroencephalograms (EEG) which record the activity of the entire brain. Motivated by the applications of EEG in clinical monitoring, I introduce a new wavelet-based method that can attenuate undesired artefacts which contaminate the recording of the physiological EEG signal. The method is based on the remapping of the wavelet coefficients according to a reference distribution extracted from clean portions of the EEG signal. This technique can provide a flexible alternative to traditional approaches such as wavelet thresholding in the context of real-time clinical monitoring. In conclusion, this thesis illustrates how an interdisciplinary approach combining experimental data with mathematical modelling and signal processing can provide new tools for the understanding of a wide variety of biological mechanisms, ranging from protein transport to EEG monitoring
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Leclerc, Gabriel. „Apprendre de données positives et non étiquetées : application à la segmentation et la détection d'évènements calciques“. Master's thesis, Université Laval, 2021. http://hdl.handle.net/20.500.11794/69813.

Der volle Inhalt der Quelle
Annotation:
Deux types de neurotransmission se produisent dans les neurones du cerveau : la transmission évoquée et la transmission spontanée. Contrairement à la transmission évoquée, le rôle de la transmission spontanée sur la plasticité synaptique - un mécanisme utilisé pour doter le cerveau de capacités d'apprentissage et de mémorisation - reste incertain. Les neurotransmissions spontanées sont localisées et se produisent aléatoirement dans les synapses des neurones. Lorsqu'un tel événement spontané se produit, ce que l'on appelle un influx synaptique miniature d'ions calcium (miniature Synaptic Ca²⁺ Transient, mSCT), des ions calcium messagers secondaires pénètrent dans la synapse, activant les voies de signalisation en aval de la plasticité synaptique. L'utilisation de l'imagerie calcique du neurone in vitro permet la visualisation spatiotemporelle de l'entrée des ions calcium. Les vidéos calciques qui en résultent permettent une étude quantitative de l'impact du mSCT sur la plasticité synaptique. Cependant, la localisation des mSCTs dans l'imagerie du calcium est difficile en raison de leur petite taille, de leur faible intensité par rapport au bruit de l'imagerie et de leur caractère aléatoire inhérent. Dans ce mémoire, nous présentons une méthode d'analyse quantitative à grande échelle des vidéos d'imagerie calcique limitant la variabilité induite par les interventions humaines pour obtenir des données probantes, dans le but de caractériser l'impact des mSCTs sur la plasticité synaptique. En nous basant sur un outil semi-automatique de détection à seuil d'intensité (Intensity Thresholded Detection, ITD), nous sommes capables de générer des données pour entraîner un réseau pleinement convolutionnel (Fully Convolutional Network, FCN) afin de détecter rapidement et automatiquement les mSCTs à partir de vidéos calciques. En utilisant les segmentations bruitées de l'ITD comme données d'entraînement, combinées à un schéma d'entraînement positif (P) et non étiqueté (Unlabeled, U), les performances du FCN surpassent ITD. Le FCN détecte des mSCTs de faible intensité non détectés auparavant par ITD et offre une segmentation supérieure à ITD. Nous avons ensuite caractérisé l'impact des paramètres PU tels que le nombre de P et le ratio P:U. Le FCN entraîné est intégré dans une routine tout-en-un pour permettre une analyse à grande échelle des mSCTs. La routine offre la détection, la segmentation, la caractérisation et la visualisation des mSCTs ainsi qu'une solution logicielle pour gérer plusieurs vidéos avec différentes métadonnées.
Two types of neurotransmission occur in brain’s neurons: evoked transmission and spontaneous transmission. Unlike the former, the role of spontaneous transmission on synaptic plasticity –a mechanism used to endow the brain learning and memory abilities – remain unclear. Spontaneous neurotransmissions are localized and randomly happening in neuron’s synapses. When such spontaneous events happen, so-called miniature synaptic Ca²⁺ transients(mSCT), second messenger calcium ions entered the spine, activating downstream signaling pathways of synaptic plasticity. Using calcium imaging of in vitro neuron enable spatiotemporal visual-ization of the entry of calcium ions. Resulting calcium videos enable quantitative study of mSCT’s impact on synaptic plasticity. However, mSCT localization in calcium imaging can be challenging due to their small size, their low intensity compared with the imaging noise and their inherent randomness. In this master’s thesis, we present a method for quantitative high-through put analysis of calcium imaging videos that limits the variability induced by human interventions to obtain evidence for characterizing the impact of mSCTs on synaptic plasticity. Based on a semi-automatic intensity thresholded detection (ITD) tool, we are able to generate data to train a fully convolutional neural network (FCN) to rapidly and automaticaly detect mSCT from calcium videos. Using ITD noisy segmentations as training data combine with a positive and unlabeled (PU) training schema, we leveraged FCN performances and could even detect previously undetected low instensity mSCTs missed by ITD. The FCN also provide better segmentation than ITD. We then characterized the impact of PU parameters such as the number of P and the ratio P:U. The trained FCN is bundled in a all-in-one pipeline to permit a high-thoughtput analysis of mSCT. The pipeline offers detection, segmentation,characterization and visualization of mSCTs as well as a software solution to manage multiple videos with different metadatas.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Lurton, Dominique. „Mécanismes de la mort neuronale lors de l'ischémie cérébrale/substances neuroprotectrices : recueil de données bibliographiques“. Bordeaux 2, 1993. http://www.theses.fr/1993BOR23047.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Carrara, Igor. „Méthodes avancées de traitement des BCI-EEG pour améliorer la performance et la reproductibilité de la classification“. Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ4033.

Der volle Inhalt der Quelle
Annotation:
L'électroencéphalographie (EEG) mesure de manière non invasive l'activité électrique du cerveau par le biais de champs électromagnétiques générés par l'activité synchronisée de millions de neurones. Cela permet de collecter des données temporelles multivariées qui constituent une trace de l'activité électrique du cerveau mesurée au niveau du cuir chevelu. À tout instant, les mesures enregistrées par ces capteurs sont des combinaisons linéaires des activités électriques provenant d'un ensemble de sources sous-jacentes situées dans le cortex cérébral. Ces sources interagissent entre elles selon un modèle biophysique complexe qui reste mal compris. Dans certaines applications, telles que la planification chirurgicale, il est crucial de reconstruire avec précision ces sources électriques corticales, une tâche connue sous le nom de résolution du problème inverse de reconstruction de sources. Bien qu'intellectuellement satisfaisante et potentiellement plus précise, cette approche nécessite le développement et l'application d'un modèle spécifique au sujet, ce qui est à la fois coûteux et techniquement difficile à réaliser. Il est cependant souvent possible d'utiliser directement les mesures EEG au niveau des capteurs et d'en extraire des informations sur l'activité cérébrale. Cela réduit considérablement la complexité de l'analyse des données par rapport aux approches au niveau des sources. Ces mesures peuvent être utilisées pour une variété d'applications comme par exemple la surveillance des états cognitifs, le diagnostic des conditions neurologiques ou le développement d'interfaces cerveau-ordinateur (BCI). De fait, même sans avoir une compréhension complète des signaux cérébraux, il est possible de créer une communication directe entre le cerveau et un appareil externe à l'aide de la technologie BCI. Le travail décrit dans ce document est centré sur les interfaces cerveau-ordinateur basées sur l'EEG, qui ont plusieurs applications dans divers domaines médicaux, comme la réadaptation et la communication pour les personnes handicapées, ou dans des domaines non médicaux, notamment les jeux et la réalité virtuelle. La première contribution de cette thèse va dans ce sens, avec la proposition d'une méthode basée sur une matrice de covariance augmentée (ACM). Sur cette base, la méthode de covariance augmentée Block-Toeplitz (BT-ACM) représente une évolution notable, améliorant l'efficacité de calcul tout en conservant son efficacité et sa versatilité. Enfin, ce travail se poursuit avec la proposition d'un réseau de neurones artificiel Phase-SPDNet qui permet l'intégration de ces méthodologies dans une approche de Deep Learning et qui est particulièrement efficace même avec un nombre limité d'électrodes. Nous avons en outre proposé le cadre pseudo-on-line pour mieux caractériser l'efficacité des méthodes BCI et la plus grande étude de reproductibilité BCI basée sur l'EEG en utilisant le benchmark MOABB (Mother of all BCI Benchmarks). Cette recherche vise à promouvoir une plus grande reproductibilité et fiabilité des études BCI. En conclusion, nous relevons dans cette thèse deux défis majeurs dans le domaine des interfaces cerveau-ordinateur (BCI) basées sur l'EEG : l'amélioration des performances par le développement d'algorithmes avancés au niveau des capteurs et l'amélioration de la reproductibilité au sein de la communauté BCI
Electroencephalography (EEG) non-invasively measures the brain's electrical activity through electromagnetic fields generated by synchronized neuronal activity. This allows for the collection of multivariate time series data, capturing a trace of the brain electrical activity at the level of the scalp. At any given time instant, the measurements recorded by these sensors are linear combinations of the electrical activities from a set of underlying sources located in the cerebral cortex. These sources interact with one another according to a complex biophysical model, which remains poorly understood. In certain applications, such as surgical planning, it is crucial to accurately reconstruct these cortical electrical sources, a task known as solving the inverse problem of source reconstruction. While intellectually satisfying and potentially more precise, this approach requires the development and application of a subject-specific model, which is both expensive and technically demanding to achieve.However, it is often possible to directly use the EEG measurements at the level of the sensors and extract information about the brain activity. This significantly reduces the data analysis complexity compared to source-level approaches. These measurements can be used for a variety of applications, including monitoring cognitive states, diagnosing neurological conditions, and developing brain-computer interfaces (BCI). Actually, even though we do not have a complete understanding of brain signals, it is possible to generate direct communication between the brain and an external device using the BCI technology. This work is centered on EEG-based BCIs, which have several applications in various medical fields, like rehabilitation and communication for disabled individuals or in non-medical areas, including gaming and virtual reality.Despite its vast potential, BCI technology has not yet seen widespread use outside of laboratories. The primary objective of this PhD research is to try to address some of the current limitations of the BCI-EEG technology. Autoregressive models, even though they are not completely justified by biology, offer a versatile framework to effectively analyze EEG measurements. By leveraging these models, it is possible to create algorithms that combine nonlinear systems theory with the Riemannian-based approach to classify brain activity. The first contribution of this thesis is in this direction, with the creation of the Augmented Covariance Method (ACM). Building upon this foundation, the Block-Toeplitz Augmented Covariance Method (BT-ACM) represents a notable evolution, enhancing computational efficiency while maintaining its efficacy and versatility. Finally, the Phase-SPDNet work enables the integration of such methodologies into a Deep Learning approach that is particularly effective with a limited number of electrodes.Additionally, we proposed the creation of a pseudo online framework to better characterize the efficacy of BCI methods and the largest EEG-based BCI reproducibility study using the Mother of all BCI Benchmarks (MOABB) framework. This research seeks to promote greater reproducibility and trustworthiness in BCI studies.In conclusion, we address two critical challenges in the field of EEG-based brain-computer interfaces (BCIs): enhancing performance through advanced algorithmic development at the sensor level and improving reproducibility within the BCI community
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Carlier, Florent. „Nouvelle technique neuronale de détection multi-utilisateurs : Applications aux systèmes MC-CDMA“. Rennes, INSA, 2003. http://www.theses.fr/2003ISAR0019.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Lagacherie, Hervé. „L'analyse des données cliniques et biologiques par les réseaux neuronaux“. Bordeaux 2, 1997. http://www.theses.fr/1997BOR2P091.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Rathelot, Jean-Alban. „Le réseau neuronal du noyau rouge magnocellulaire : exposé bibliographique et données expérimentales chez le chat“. Aix-Marseille 1, 1997. http://www.theses.fr/1997AIX11042.

Der volle Inhalt der Quelle
Annotation:
Ce memoire concerne le noyau rouge magnocellulaire (nrm) qui est un centre extrapyramidal de controle moteur localise dans le tegmentum mesencephalique, et qui est a l'origine des voies croisees rubro-bulbaire et rubro-spinale agissant essentiellement sur la musculature de la face et des membres. La premiere partie est une revue bibliographique sur cette structure. Le but de la deuxieme partie, experimentale, a ete de determiner la synaptologie et le cablage du reseau neuronal du nrm. Nous avons utilise l'electrophysiologie intracellulaire chez des chats anesthesies au chloralose et porteurs de diverses lesions, ainsi que des techniques neuroanatomiques de tracage de voies. Nos donnees experimentales concernent surtout les afferences, qui ont principalement trois origines : cerebelleuse, corticale et spinale. 1) l'afference cerebelleuse, provenant de collaterales de fibres interposito-thalamiques, est puissante et purement excitatrice. L'existence de projection du nrm sur le cervelet n'a pu etre confirmee de facon incontestable. 2) la voie cortico-rubrique provient entierement de neurones corticaux (essentiellement du cortex moteur), differents des neurones a l'origine du tractus pyramidal. 3) une voie directe spino-rubrique est demontree, qui circule dans le lemnisque median (lm) au niveau du tronc cerebral. Les connexions sont puissantes, monosynaptiques excitatrices et disynaptiques inhibitrices. Il peut exister une composante spino-rubrique relayee dans le tronc cerebral, ayant les memes proprietes que la voie directe. Les stimulations electriques de nerfs peripheriques ou de differentes regions spinales (partie ventro-mediane, colonnes dorsales ou funiculus dorsolateral) indiquent que les messages somesthesiques sont transmis par la voie spino-rubrique. Cette voie relaie aussi certains messages reticulo-spinaux, participant au controle postural. Ces resultats sont reunis dans un schema synthetique qui montre que le nrm est inclus dans une boucle somato-motrice spino-rubro-spinale. Cette boucle de retroaction pourrait participer au controle des mouvements en cours d'execution en recalibrant les programmes moteurs en cas de necessite. Elle permettrait aussi les synergies musculaires ainsi qu'une chronologie entre reaction posturale et debut du mouvement.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Kalathur, Ravi Kiran Reddy. „An integrated systematic approach for storage, analysis and visualization of gene expression data from neuronal tissues acquired through high-throughput techniques“. Université Louis Pasteur (Strasbourg) (1971-2008), 2008. https://publication-theses.unistra.fr/public/theses_doctorat/2008/KALATHUR_Ravi_Kiran_Reddy_2008.pdf.

Der volle Inhalt der Quelle
Annotation:
The work presented in this manuscript concerns different aspects of gene expression data analysis, encompassing statistical methods and storage and visualization systems used to exploit and mine pertinent information from large volumes of data. Overall, I had the opportunity during my thesis to work on these various aspects firstly, by contributing to the tests through the design of biological applications for new clustering and meta-analysis approaches developed in our laboratory and secondly, by the development of RETINOBASE (http://alnitak. U-strasbg. Fr/RetinoBase/. ) , a relational database for storage and efficient querying of transcriptomic data which represents my major project
Le travail présenté dans ce manuscrit concerne différents aspects de l'analyse des données d'expression de gènes, qui englobe l'utilisation de méthodes statistiques et de systèmes de stockage et de visualisation, pour exploiter et extraire des informations pertinentes à partir de grands volumes de données. Durant ma thèse j'ai eu l'opportunité de travailler sur ces différents aspects, en contribuant en premier lieu aux tests de nouvelles approches de classification et de méta-analyses à travers la conception d'applications biologiques, puis dans le développement de RETINOBASE (http://alnitak. U-strasbg. Fr/RetinoBase/), une base de données relationnelle qui permet le stockage et l'interrogation performante de données de transcriptomique et qui représente la partie majeure de mon travail
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Vielzeuf, Valentin. „Apprentissage neuronal profond pour l'analyse de contenus multimodaux et temporels“. Thesis, Normandie, 2019. http://www.theses.fr/2019NORMC229/document.

Der volle Inhalt der Quelle
Annotation:
Notre perception est par nature multimodale, i.e. fait appel à plusieurs de nos sens. Pour résoudre certaines tâches, il est donc pertinent d’utiliser différentes modalités, telles que le son ou l’image.Cette thèse s’intéresse à cette notion dans le cadre de l’apprentissage neuronal profond. Pour cela, elle cherche à répondre à une problématique en particulier : comment fusionner les différentes modalités au sein d’un réseau de neurones ?Nous proposons tout d’abord d’étudier un problème d’application concret : la reconnaissance automatique des émotions dans des contenus audio-visuels.Cela nous conduit à différentes considérations concernant la modélisation des émotions et plus particulièrement des expressions faciales. Nous proposons ainsi une analyse des représentations de l’expression faciale apprises par un réseau de neurones profonds.De plus, cela permet d’observer que chaque problème multimodal semble nécessiter l’utilisation d’une stratégie de fusion différente.C’est pourquoi nous proposons et validons ensuite deux méthodes pour obtenir automatiquement une architecture neuronale de fusion efficace pour un problème multimodal donné, la première se basant sur un modèle central de fusion et ayant pour visée de conserver une certaine interprétation de la stratégie de fusion adoptée, tandis que la seconde adapte une méthode de recherche d'architecture neuronale au cas de la fusion, explorant un plus grand nombre de stratégies et atteignant ainsi de meilleures performances.Enfin, nous nous intéressons à une vision multimodale du transfert de connaissances. En effet, nous détaillons une méthode non traditionnelle pour effectuer un transfert de connaissances à partir de plusieurs sources, i.e. plusieurs modèles pré-entraînés. Pour cela, une représentation neuronale plus générale est obtenue à partir d’un modèle unique, qui rassemble la connaissance contenue dans les modèles pré-entraînés et conduit à des performances à l'état de l'art sur une variété de tâches d'analyse de visages
Our perception is by nature multimodal, i.e. it appeals to many of our senses. To solve certain tasks, it is therefore relevant to use different modalities, such as sound or image.This thesis focuses on this notion in the context of deep learning. For this, it seeks to answer a particular problem: how to merge the different modalities within a deep neural network?We first propose to study a problem of concrete application: the automatic recognition of emotion in audio-visual contents.This leads us to different considerations concerning the modeling of emotions and more particularly of facial expressions. We thus propose an analysis of representations of facial expression learned by a deep neural network.In addition, we observe that each multimodal problem appears to require the use of a different merge strategy.This is why we propose and validate two methods to automatically obtain an efficient fusion neural architecture for a given multimodal problem, the first one being based on a central fusion network and aimed at preserving an easy interpretation of the adopted fusion strategy. While the second adapts a method of neural architecture search in the case of multimodal fusion, exploring a greater number of strategies and therefore achieving better performance.Finally, we are interested in a multimodal view of knowledge transfer. Indeed, we detail a non-traditional method to transfer knowledge from several sources, i.e. from several pre-trained models. For that, a more general neural representation is obtained from a single model, which brings together the knowledge contained in the pre-trained models and leads to state-of-the-art performances on a variety of facial analysis tasks
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Lurette, Christophe. „Développement d'une technique neuronale auto-adaptative pour la classification dynamique de données évolutives : application à la supervision d'une presse hydraulique“. Lille 1, 2003. https://ori-nuxeo.univ-lille1.fr/nuxeo/site/esupversions/aed48e38-323f-425b-b6ff-c8e75ff5d4b6.

Der volle Inhalt der Quelle
Annotation:
Le caractère évolutif des procédés industriels rend leur supervision délicate puisque les modes de fonctionnement existants évoluent et que d'autres peuvent apparaitre. L'étude présentée porte sur la conception d'une structure adaptative de supervision permettant la surveillance, la détection et le diagnostic de systèmes évolutifs. La structure proposée est constituée de trois modules: modélisation, surveillance et diagnostic. En raison de l'aspect évolutif de la connaissance sur les modes de fonctionnement, l'accent a été porté sur la définition d'une technique de modélisation dynamique basée sur une approche par reconnaissance de formes. L'architecture neuronale développée, le réseau AUDyC, autorise la classification dynamique de données évolutives via un ensemble de règles d'apprentissage non supervisées permettant son autoadaptation. La première partie introduit les enjeux industriels. La deuxième partie expose des approches d'élaboration d'un système de diagnostic industriel avec en particulier celle par reconnaissance de formes. La troisième partie présente des techniques de classification à apprentissage hors ligne, puis deux techniques neuronales autorisant la prise en compte de données évolutives. La quatrième partie décrit l'architecture évolutive du réseau AUDyC construite selon une approche multiprototype. Les règles d'apprentissage autorisent l'adaptation, la création, la fusion et la suppression de prototypes ou de classes, et sont structurées en trois phases: classification, fusion et évaluation. La cinquième partie expose la structure adaptative de supervision élaborée à partir du réseau AUDyC, puis décrit les performances de celle-ci pour la supervision d'une presse hydraulique.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Demartines, Pierre. „Analyse de données par réseaux de neurones auto-organisés“. Grenoble INPG, 1994. http://www.theses.fr/1994INPG0129.

Der volle Inhalt der Quelle
Annotation:
Chercher a comprendre des donnees, c'est souvent chercher a trouver de l'information cachee dans un gros volume de mesures redondantes. C'est chercher des dependances, lineaires ou non, entre les variables observees pour pouvoir resumer ces dernieres par un petit nombre de parametres. Une methode classique, l'analyse en composantes principales (acp), est abondamment employee dans ce but. Malheureusement, il s'agit d'une methode exclusivement lineaire, qui est donc incapable de reveler les dependances non lineaires entre les variables. Les cartes auto-organisantes de kohonen sont des reseaux de neurones artificiels dont la fonction peut etre vue comme une extension de l'acp aux cas non-lineaires. L'espace parametrique est represente par une grille de neurones, dont al forme, generaleent carree ou rectangulaire, doit malheureusement etre choisie a priori. Cette forme est souvent inadaptee a celle de l'espace parametriue recherche. Nous liberons cette contrainte avec un nouvel algorithme, nomme vector quantization and projection (vqp), qui est une sorte de carte auto-organisante dont l'espace de sortie est continu et prend automatiquement la forme adequate. Sur le plan mathematique, vqp peut etre defini comme la recherche d'un diffeomorphisme entre l'espace brute des donnees et un espace parametrique inconnu a trouver. Plus intuitivement, il s'agit d'un depliage de la structure des donnees vers un espace de plus petite dimension. Cette dimension, qui correspond au nombre de degres de liberte du phenomene etudie, peut etre determinee par des methodes d'analyse fractale du nuage de donnees. Afin d'illustrer la generalite de l'approche vqp, nous donnons une serie d'exemples d'applications, simulees ou reelles, dans des domaines varies qui vont de la fusion de donnees a l'appariement de graphes, en passant par l'analyse ou la surveillance de procedes industriels, la detection de defauts dans des machines ou le routage adaptatif en telecommunications
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Zoefel, Benedikt. „Phase entrainment and perceptual cycles in audition and vision“. Thesis, Toulouse 3, 2015. http://www.theses.fr/2015TOU30232/document.

Der volle Inhalt der Quelle
Annotation:
Des travaux récents indiquent qu'il existe des différences fondamentales entre les systèmes visuel et auditif: tandis que le premier semble échantillonner le flux d'information en provenance de l'environnement, en passant d'un "instantané" à un autre (créant ainsi des cycles perceptifs), la plupart des expériences destinées à examiner ce phénomène de discrétisation dans le système auditif ont mené à des résultats mitigés. Dans cette thèse, au travers de deux expériences de psychophysique, nous montrons que le sous-échantillonnage de l'information à l'entrée des systèmes perceptifs est en effet plus destructif pour l'audition que pour la vision. Cependant, nous révélons que des cycles perceptifs dans le système auditif pourraient exister à un niveau élevé du traitement de l'information. En outre, nos résultats suggèrent que du fait des fluctuations rapides du flot des sons en provenance de l'environnement, le système auditif tend à avoir son activité alignée sur la structure rythmique de ce flux. En synchronisant la phase des oscillations neuronales, elles-mêmes correspondant à différents états d'excitabilité, le système auditif pourrait optimiser activement le moment d'arrivée de ses "instantanés" et ainsi favoriser le traitement des informations pertinentes par rapport aux événements de moindre importance. Non seulement nos résultats montrent que cet entrainement de la phase des oscillations neuronales a des conséquences importantes sur la façon dont sont perçus deux flux auditifs présentés simultanément ; mais de plus, ils démontrent que l'entraînement de phase par un flux langagier inclut des mécanismes de haut niveau. Dans ce but, nous avons créé des stimuli parole/bruit dans lesquels les fluctuations de l'amplitude et du contenu spectral de la parole ont été enlevés, tout en conservant l'information phonétique et l'intelligibilité. Leur utilisation nous a permis de démontrer, au travers de plusieurs expériences, que le système auditif se synchronise à ces stimuli. Plus précisément, la perception, estimée par la détection d'un clic intégré dans les stimuli parole/bruit, et les oscillations neuronales, mesurées par Electroencéphalographie chez l'humain et à l'aide d'enregistrements intracrâniens dans le cortex auditif chez le singe, suivent la rythmique "de haut niveau" liée à la parole. En résumé, les résultats présentés ici suggèrent que les oscillations neuronales sont un mécanisme important pour la discrétisation des informations en provenance de l'environnement en vue de leur traitement par le cerveau, non seulement dans la vision, mais aussi dans l'audition. Pourtant, il semble exister des différences fondamentales entre les deux systèmes: contrairement au système visuel, il est essentiel pour le système auditif de se synchroniser (par entraînement de phase) à son environnement, avec un échantillonnage du flux des informations vraisemblablement réalisé à un niveau hiérarchique élevé
Recent research indicates fundamental differences between the auditory and visual systems: Whereas the visual system seems to sample its environment, cycling between "snapshots" at discrete moments in time (creating perceptual cycles), most attempts at discovering discrete perception in the auditory system failed. Here, we show in two psychophysical experiments that subsampling the very input to the visual and auditory systems is indeed more disruptive for audition; however, the existence of perceptual cycles in the auditory system is possible if they operate on a relatively high level of auditory processing. Moreover, we suggest that the auditory system, due to the rapidly fluctuating nature of its input, might rely to a particularly strong degree on phase entrainment, the alignment between neural activity and the rhythmic structure of its input: By using the low and high excitability phases of neural oscillations, the auditory system might actively control the timing of its "snapshots" and thereby amplify relevant information whereas irrelevant events are suppressed. Not only do our results suggest that the oscillatory phase has important consequences on how simultaneous auditory inputs are perceived; additionally, we can show that phase entrainment to speech sound does entail an active high-level mechanism. We do so by using specifically constructed speech/noise sounds in which fluctuations in low-level features (amplitude and spectral content) of speech have been removed, but intelligibility and high-level features (including, but not restricted to phonetic information) have been conserved. We demonstrate, in several experiments, that the auditory system can entrain to these stimuli, as both perception (the detection of a click embedded in the speech/noise stimuli) and neural oscillations (measured with electroencephalography, EEG, and in intracranial recordings in primary auditory cortex of the monkey) follow the conserved "high-level" rhythm of speech. Taken together, the results presented here suggest that, not only in vision, but also in audition, neural oscillations are an important tool for the discretization and processing of the brain's input. However, there seem to be fundamental differences between the two systems: In contrast to the visual system, it is critical for the auditory system to adapt (via phase entrainment) to its environment, and input subsampling is done most likely on a hierarchically high level of stimulus processing
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Ammar, Adel. „Restitution de la salinité de surface de l'océan à partir des mesures SMOS : une approche neuronale?“ Toulouse 3, 2008. http://thesesups.ups-tlse.fr/475/.

Der volle Inhalt der Quelle
Annotation:
L'inversion des mesures du satellite SMOS par des réseaux de neurones pose plusieurs difficultés, liées principalement à la variabilité des angles d'incidence observés et à l'importance du bruit de mesure. Cette thèse propose des solutions à ces obstacles dans un cas réaliste, et montre qu'une approche neuronale peut être applicable à tous les pixels de l'océan pour restituer la salinité avec une bonne précision. Concernant le choix de la base d'apprentissage, nous montrons qu'une base équi-répartie en paramètres géophysiques permet de réduire notablement les biais systématiques sur la salinité restituée qui sont dus à l'importance du bruit de mesure. Par ailleurs, une technique de prolongation de l'apprentissage permet de faire disparaître la plupart de ces défauts dans une large gamme de latitude. Les travaux accomplis pendant cette thèse ont permis de définir la méthodologie à appliquer, en phase de vol, et de fixer l'architecture des réseaux d'inversion
Using neural networks to retrieve the sea surface salinity from the observed Soil Moisture and Ocean Salinity (SMOS) brightness temperatures (TBs) is an empirical approach that offers the possibility of being independent from any theoretical emissivity model. We prove that this approach is applicable to all pixels over ocean, by designing a set of neural networks with different inputs. Besides, we demonstrate that a judicious distribution of the geophysical parameters in the learning database allows to markedly reduce the systematic regional biases of the retrieved SSS, which are due to the high noise on the TBs. An equalization of the distribution of the geophysical parameters, followed by a new technique for boosting the learning process, makes the regional biases almost disappear for latitudes between 40°S and 40°N, while the global standard deviation remains between 0. 6 psu (at the center of the swath) and 1 psu (at the edges)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Amadou, Boubacar Habiboulaye. „Classification Dynamique de données non-stationnaires :Apprentissage et Suivi de Classes évolutives“. Phd thesis, Université des Sciences et Technologie de Lille - Lille I, 2006. http://tel.archives-ouvertes.fr/tel-00106968.

Der volle Inhalt der Quelle
Annotation:
La plupart des processus naturels ou artificiels ont des comportements évolutifs décrits par des données non-stationnaires. La problématique étudiée dans cette thèse concerne la classification dynamique de données non-stationnaires. Nous proposons une description générique de classifieurs dynamiques conçue à l'aide d'un réseau neuronal à architecture évolutive. Elle est élaborée en quatre procédures d'apprentissage : création, adaptation, fusion, et évaluation. Deux algorithmes sont développés à partir de cette description générique. Le premier est une nouvelle version de l'algorithme AUDyC (AUto-adaptive and Dynamical Clustering). Il utilise un modèle de mélange décrit suivant l'approche multimodale. Le second, nommé SAKM (Self-Adaptive Kernel Machine), est basé sur les SVM et méthodes à noyau. Ces deux algorithmes sont dotés de règles de mise à jour récursives permettant la modélisation adaptative et le suivi de classes évolutives. Ils disposent de capacités d'auto-adaptation en environnement dynamique et de bonnes performances en terme de convergence et de complexité algorithmique. Ces dernières sont prouvées théoriquement et montrées par la simulation des algorithmes.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Lurette, Christophe Lecœuche Stéphane Vasseur Christian. „Développement d'une technique neuronale auto-adaptative pour la classification dynamique de données évolutives application à la supervision d'une presse hydraulique /“. [S.l.] : [s.n.], 2003. http://www.univ-lille1.fr/bustl-grisemine/pdf/extheses/50376-2003-77-78.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Paraschivescu, Cristina. „Le rôle régulateur des cytokines dans le neurodéveloppement et le comportement au début de la période postnatale : Étude de l'impact du TNF sur le comportement de la souris au début de la période postnatale et une nouvelle approche d'analyse de données appliquée au modèle murin de l'autisme basée sur l'activation de l’immunité maternelle“. Electronic Thesis or Diss., Université Côte d'Azur (ComUE), 2019. http://www.theses.fr/2019AZUR6027.

Der volle Inhalt der Quelle
Annotation:
Plusieurs études ont montré que l’activation du système immunitaire maternel (MIA) pendant la grossesse augmentait le risque de troubles neurologiques et d’anomalies du comportement dans la descendance. Afin d’étudier les mécanismes impliqués, plusieurs auteurs ont comparé le comportement de souris nées de mères injectées pendant la grossesse avec du poly(I:C), une molécule mimant une infection par le virus de la grippe, et celui de souris nées de mères injectées avec une solution saline. Bien que ces études aient permis de confirmer que l’activation du système immunitaire maternel pouvait induire des troubles du comportement, la majorité d’entre elles se sont fondées sur des tests comportementaux effectués chez la souris adulte. Ainsi, il reste à déterminer si la modification des niveaux d’autres cytokines pendant la période périnatale peut avoir une incidence sur le neurodéveloppement précoce et sur le comportement de la jeune souris. Pour répondre à cette question, nous avons caractérisé la descendance de plusieurs cohortes de mères injectées avec du poly(I:C) ou avec une solution saline, pour leur comportement entre 5 et 15 jours après la naissance et pour la concentration de plusieurs cytokines dans le sérum. Parce que le neurodéveloppement et la production de cytokines sont affectés par plusieurs variables, nous avons utilisé une analyse multivariée pour identifier les variables environnementales et biologiques associées au fait d’être le descendant d’une mère injectée avec du poly(I :C) (par opposition au fait d’être le descendant d’une mère injectée avec une solution saline). Nous avons constaté que la diminution du poids et de la température corporelle de la mère après injection de poly(I:C), la taille de la portée, le poids de la souris à 15 jours, le nombre de vocalisations ultrasonores (USV) émises par la souris à 6 jours, la distance parcourue par le souris et le temps passé immobile à 13 jours, ainsi que les concentrations sériques de TNF, IL-5, IL-15 et CXCL10 à 15 jours étaient associés au fait d’être le descendant d’une mère injectée avec du poly(I :C). Pour continuer à explorer le rôle régulateur du TNF, nous avons injecté quotidiennement du TNF recombinant à des souris nouveau-nées entre le jour 1 et le jour 5 après leur naissance, et nous avons étudié leur développement et leur comportement entre le jour 8 et le jour 15. Contrairement à nos attentes, l’injection de TNF à des souris nouveau-nées n’a pas d’impact négatif sur le développement, mais favorise plutôt l’acquisition de réflexes sensorimoteurs et le comportement exploratoire. Pris dans leur l’ensemble, nos résultats confirment que les cytokines jouent un rôle crucial dans le neurodéveloppement et que des variations dans l’abondance de certaines d’entre elles, et notamment du TNF, ont un impact sur l’acquisition de certains réflexes et comportement pendant les premiers jours de la vie. Bien que nos études ne nous aient pas permis d’explorer les mécanismes par lesquels cytokines influent sur le neurodéveloppement, les protocoles que nous avons élaborés et les résultats que nous avons obtenus fournissent un cadre pour d’autres études visant à mieux comprendre ces mécanismes
Both preclinical and clinical studies have shown that immune activation and inflammation during the early stages of neurodevelopment increase the risk of neurodevelopment disorders and behaviour abnormalities in adults. While the underlying mechanisms have only been partially elucidated, experiments in the maternal immune activation mouse model (MIA) – in which pregnant dams are injected with the viral mimic poly(I:C) – have demonstrated the critical role of two cytokines: interleukin (IL)-6 and IL-17A. However, the vast majority of the studies performed to date have used behavioural tests in adult mice as a read out to study the impact of cytokines on neurodevelopment. Therefore, it is not clear whether altered levels of other cytokines during the perinatal period could impact neurodevelopment and behaviour in infant mice. To address this issue, we have analysed the progeny of several cohorts of poly(I:C)- and saline-injected mothers for behaviour between postnatal day 5 (P5) and P15 and serum cytokine levels at P15. Because both perinatal neurodevelopment and cytokine production are known or believed to be impacted by many environmental variables, we analysed our data using a multivariable statistical model to identify features associated with being born to a poly(I:C)-injected mother (as opposed to being born to a saline-injected mother). We found that the drop of body weight and temperature of the mother after poly(I:C) injection, the litter size, the pup weight at P15, the number of ultrasonic vocalizations (USV) emitted by the pup at P6, the distance travelled by the pup and the time it spent mobile at P13, as well as serum levels of Tumour Necrosis Factor (TNF), IL-5, IL-15 and C-X-C motif chemokine (CXCL)10 were all associated with altered odds of being born to a poly(I:C)-injected mother. To further explore the role of TNF during the early postnatal period, we injected mouse pups daily from P1 to P5 and assessed these animals for both developmental milestones and behaviour from P8 to P15. Unexpectedly, injection of recombinant TNF did not have a detrimental impact on neurodevelopment but rather promoted sensorimotor reflexes acquisition and exploratory behaviour. Altogether, our results confirm that cytokines play a critical role during neurodevelopment and that altered levels of specific cytokines, and in particular TNF, could regulate the acquisition of developmental milestones and behaviour in infant mice. While we have only obtained preliminary insights into underlying mechanisms, the protocols that we have developed provide a framework for further studies
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Legendre, Arnaud. „Modélisation fonctionnelle de l'activité neuronale hippocampique : Applications pharmacologiques“. Thesis, Mulhouse, 2015. http://www.theses.fr/2015MULH7271/document.

Der volle Inhalt der Quelle
Annotation:
Les travaux de cette thèse ont pour but de mettre en œuvre des outils de modélisation et de simulation numériques de mécanismes sous-tendant l’activité neuronale, afin de promouvoir la découverte de médicaments pour le traitement des maladies du système nerveux. Les modèles développés s’inscrivent à différentes échelles : 1) les modèles dits « élémentaires » permettent de simuler la dynamique des récepteurs, des canaux ioniques, et les réactions biochimiques des voies de signalisation intracellulaires ; 2) les modèles de neurones permettent d’étudier l’activité électrophysiologique de ces cellules ; et 3) les modèles de microcircuits permettent de comprendre les propriétés émergentes de ces systèmes complexes, tout en conservant les mécanismes élémentaires qui sont les cibles des molécules pharmaceutiques. À partir d’une synthèse bibliographique des éléments de neurobiologie nécessaires, et d’une présentation des outils mathématiques et informatiques mis en œuvre, le manuscrit décrit les différents modèles développés ainsi que leur processus de validation, allant du récepteur de neurotransmetteur au microcircuit. D’autre part, ces développements ont été appliqués à trois études visant à comprendre : 1) la modulation pharmacologique de la potentialisation à long terme (LTP) dans les synapses glutamatergiques de l’hippocampe, 2) les mécanismes de l'hyperexcitabilité neuronale dans l'épilepsie mésio-temporale (MTLE) à partir de résultats expérimentaux in vitro et in vivo, et 3) la modulation cholinergique de l'activité hippocampique, en particulier du rythme thêta associé à la voie septo-hippocampique
The work of this thesis aims to apply modeling and simulation techniques to mechanisms underlying neuronal activity, in order to promote drug discovery for the treatment of nervous system diseases. The models are developed and integrated at different scales: 1) the so-called "elementary models" permit to simulate dynamics of receptors, ion channels and biochemical reactions in intracellular signaling pathways; 2) models at the neuronal level allow to study the electrophysiological activity of these cells; and 3) microcircuits models help to understand the emergent properties of these complex systems, while maintaining the basic mechanisms that are the targets of pharmaceutical molecules. After a bibliographic synthesis of necessary elements of neurobiology, and an outline of the implemented mathematical and computational tools, the manuscript describes the developed models, as well as their validation process, ranging from the neurotransmitter receptor to the microcircuit. Moreover, these developments have been applied to three studies aiming to understand: 1) pharmacological modulation of the long-term potentiation (LTP) of glutamatergic synapses in the hippocampus, 2) mechanisms of neuronal hyperexcitability in the mesial temporal lobe epilepsy (MTLE), based on in vitro and in vivo experimental results, and 3) cholinergic modulation of hippocampal activity, particularly the theta rhythm associated with septo-hippocampal pathway
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Derras, Boumédiène. „Estimation des mouvements sismiques et de leur variabilité par approche neuronale : Apport à la compréhension des effets de la source, de propagation et de site“. Thesis, Université Grenoble Alpes (ComUE), 2017. http://www.theses.fr/2017GREAU013/document.

Der volle Inhalt der Quelle
Annotation:
Cette thèse est consacrée à une analyse approfondie de la capacité des "réseaux de neurones artificiels" (RNA) à la prédiction des mouvements sismiques. Un premier volet important concerne la dérivation par RNA de "GMPE" (équations de prédiction du mouvement du sol) et la comparaison des performances ainsi obtenues avec celles des GMPE "classiques" obtenues sur la base de régressions empiriques avec une forme fonctionnelle préétablie (plus ou moins complexe). Pour effectuer l’étude comparative et obtenir les deux composnates inter-événement « betweeen-event » et intra-événement « within-event » de la variabilité aléatoire, nous intégrons l’algorithme du « modèle à effets aléatoires » à l’approche neuronale. Cette approche est testée sur différents jeux de données réelles et synthétiques : la base de données compilée à partir d'événements européens, méditerranéens et du Moyen-Orient (RESORCE : Reference database for Seismic grOund-motion pRediction in Europe), la base de données NGA-West 2 (Next Generation Attenuation West 2 développée aux USA), la base de données japonaise dérivée du réseau accélérométrique KiK-net. En outre, un set de données synthétiques provenant d'une approche par simulation stochastique est utilisé. Les paramètres du mouvement du sol les plus utilisés en génie parasismique (PGA, PGV, spectres de réponse et également, dans certains cas, les fonctions d'amplification locales) sont considérés. Les modèles neuronaux ainsi obtenus, complètement dirigés par les données « data-driven », nous renseignent sur les influences respectives et éventuellement couplées de l’atténuation avec la distance, de l'effet d’échelle lié à la magnitude, des conditions de site et notamment la présence éventuelle de non-linéarités. Un autre volet important est consacré à l'utilisation des RNA pour tester la pertinence de différents proxies de site, au travers de leur capacité à réduire la variabilité aléatoire des prédictions de mouvement du sol. Utilisés individuellement ou en couple, ces proxies de site décrivent de manière plus ou moins détaillée l'influence des conditions de site locales sur le mouvement sismique. Dans ce même volet, nous amorçons également une étude des liens entre les aspects non-linéaire de la réponse de site, et les différents proxies de site. Le troisième volet se concentre sur certain effets liés à la source : analyse de l’influence du style de la faille sismique sur le mouvement du sol, ainsi qu'une approche indirecte de la dépendance entre la magnitude et la chute de contrainte sismique
This thesis is devoted to an in-depth analysis of the ability of "Artificial Neural Networks" (ANN) to achieve reliable ground motion predictions. A first important aspect concerns the derivation of "GMPE" (Ground Motion Prediction Equations) with an ANN approach, and the comparison of their performance with those of "classical" GMGEs derived on the basis of empirical regressions with pre-established, more or less complex, functional forms. To perform such a comparison involving the two "betweeen-event" and "within-event" components of the random variability, we adapt the algorithm of the "random effects model" to the neural approach. This approach is tested on various, real and synthetic, datasets: the database compiled from European, Mediterranean and Middle Eastern events (RESORCE: Reference database for Seismic grOund-motion pRediction in Europe), the database NGA West 2 (Next Generation Attenuation West 2 developed in the USA), and the Japanese database derived from the KiK-net accelerometer network. In addition, a comprehensive set of synthetic data is also derived with a stochastic simulation approach. The considered ground motion parameters are those which are most used in earthquake engineering (PGA, PGV, response spectra and also, in some cases, local amplification functions). Such completely "data-driven" neural models, inform us about the respective, and possibly coupled, influences of the amplitude decay with distance, the magnitude scaling effects, and the site conditions, with a particular focus on the detection of non-linearities in site response. Another important aspect is the use of ANNs to test the relevance of different site proxies, through their ability to reduce the random variability of ground motion predictions. The ANN approach allows to use such site proxies either individually or combined, and to investigate their respective impact on the various characteristics of ground motion. The same section also includes an investigation on the links between the non-linear aspects of the site response and the different site proxies. Finally, the third section focuses on a few source-related effects: analysis of the influence of the "style of faulting" on ground motion, and, indirectly, the dependence between magnitude and seismic stress drop
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Bougrain, Laurent. „Étude de la construction par réseaux neuromimétiques de représentations interprétables : application à la prédiction dans le domaine des télécommunications“. Nancy 1, 2000. http://www.theses.fr/2000NAN10241.

Der volle Inhalt der Quelle
Annotation:
Les réseaux de neurones artificiels sont de bons outils de modélisation ( efficaces, facilement adaptables et rapides) mais ils ont la réputation d'être difficiles à interpréter et sont généralement comparés à des boîtes noires dont il n'est pas facile de comprendre l'organisation interne, pourtant responsable de leurs bonnes performances. Pour obtenir une meilleure compréhension du fonctionnement des réseaux connexionnistes et une validation de leur utilisation en tant qu'outils d'acquisition de connaissances, nous avons, dans un premier temps, réuni divers travaux théoriques pour montrer les points communs existant entre certaisn réseaux de neurones classiques et des méthodes statistiques de régression et d'analyses de données. Dans un deuxième temps et à la lumière de ce qui précède, nous avons expliqué les particularités de réseaux connexionnistes plus complexes, tels que des réseaux dynamiques ou modulaires, afin d'exploiter leurs avantages respectifs en concevant un nouveau modèle d'extraction de connaissances adapté à la complexité du phénomène à modéliser. Les réseaux connexionnistes que nous avons réunis et interprétés et le modèle que nous avons développé peuvent, à partir des données, enrichir la compréhension du phénomène en analysant et en organisant les informations par rapport à la tâche à accomplir comme nous l'illustrons à travers une application de prédiction dans le domaine des télécommunications où la connaissance du domaine ne suffit pas à modéliser correctement le phénomène. Les possibilités d'application de notre travail sont donc larges et s'inscrivent dans le cadre de la fouille de données et dans le domaine des sciences cognitives
Artificial neural networks constitute good tools for certain types of computational modelling (being potentially efficient, easy to adapt and fast). However, they are often considered difficult to interpret, and are sometimes treated as black boxes. However, whilst this complexity implies that it is difficult to understand the internal organization that develops through learning, it usually encapsulates one of the key factors for obtaining good results. First, to yield a better understanding of how artificial neural networks behave and to validate their use as knowledge discovery tools, we have examined various theoretical works in order to demonstrate the common principles underlying both certain classical artificial neural network, and statistical methods for regression and data analysis. Second, in light of these studies, we have explained the specificities of some more complex artificial neural networks, such as dynamical and modular networks, in order to exploit their respective advantages in constructing a revised model for knowledge extraction, adjusted to the complexity of the phenomena we want to model. The artificial neural networks we have combined (and the subsequent model we developed) can, starting from task data, enhance the understanding of the phenomena modelled through analysing and organising the information for the task. We demonstrate this in a practical prediction task for telecommunication, where the general domain knowledge alone is insufficient to model the phenomena satisfactorily. This leads us to conclude that the possibility for practical application of out work is broad, and that our methods can combine with those already existing in the data mining and the cognitive sciences
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Hebart, Martin [Verfasser], John Dylan [Akademischer Betreuer] Haynes, Philipp [Akademischer Betreuer] Sterzer und Tobias [Akademischer Betreuer] Donner. „On the neuronal systems underlying perceptual decision-making and confidence in humans / Martin Hebart. Gutachter: John - Dylan Haynes ; Philipp Sterzer ; Tobias Donner“. Berlin : Humboldt Universität zu Berlin, Mathematisch-Naturwissenschaftliche Fakultät II, 2014. http://d-nb.info/1049237218/34.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Moinnereau, Marc-Antoine. „Encodage d'un signal audio dans un électroencéphalogramme“. Mémoire, Université de Sherbrooke, 2017. http://hdl.handle.net/11143/10554.

Der volle Inhalt der Quelle
Annotation:
Les interfaces cerveau-machine visent à établir un lien de communication entre le cerveau et un système externe à ce dernier. Les électroencéphalogrammes (EEG), dans ce contexte, ont l’avantage d’être non invasifs. Par contre, l’information sensorielle qui se retrouve dans un signal EEG est beaucoup moins ciblée que dans un signal neuronal acquis par une méthode invasive. De plus, étant donné que le cortex auditif est situé dans des repliements du tissu cortical, les neurones qui déchargent, suite à un stimulus auditif, sont parallèles à la surface corticale sur laquelle les EEG sont enregistrés. Par conséquent, l’information auditive qui se retrouve dans le canal EEG situé vis-à-vis du cortex auditif est faible. L’objectif principal de ce projet de recherche consiste donc à étudier la répartition de l’information auditive dans l’ensemble des canaux EEG. Pour ce faire, nous utilisons deux approches. Dans la première, nous tenterons d’estimer l’activité corticale sous-jacente à partir des signaux EEG en utilisant un modèle de couplage bande fréquence. En effet, certaines bandes de fréquences sont des bons prédicteurs des décharges neuronales. Cependant, cette approche n’a pas été validée pour le système auditif, nous confronterons donc l’estimation obtenue à une autre estimation en ayant recours à un modèle spécialisé pour l’encodage du signal de parole faisant appel aux processus ponctuels. Ce modèle prend en compte les dynamiques intrasèques des neurones et également des propriétés spectrotemporelles du stimulus d’entrée. Dans la seconde approche, nous étudierons la possibilité de classifier 3 voyelles (a, i et u) en fonction du nombre de canaux EEG utilisés ainsi que leur répartition sur le cuir chevelu. Nous aurons recours, pour cela, à un réservoir de neurone à décharge récurrent activé en entrée par les données EEG. Les résultats démontrent que l’information auditive se retrouve en fait dans l’ensemble des canaux EEG et qu’elle n’est pas confinée à un nombre restreint d’électrodes. Il est également montré que lorsque l’on utilise les 64 électrodes que comporte l’EEG pour classifier les 3 voyelles, on obtient une classification de l’ordre de 80%, mais aussi qu’un nombre limité de 10 électrodes suffit pour obtenir une classification satisfaisante et, qu’en plus, la position de ces électrodes sur le cuir chevelu est peu importante.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Kalathur, Ravi Kiran Reddy Poch Olivier. „Approche systématique et intégrative pour le stockage, l'analyse et la visualisation des données d'expression génique acquises par des techniques à haut débit, dans des tissus neuronaux An integrated systematic approach for storage, analysis and visualization of gene expression data from neuronal tissues acquired through high-throughput techniques /“. Strasbourg : Université Louis Pasteur, 2008. http://eprints-scd-ulp.u-strasbg.fr:8080/920/01/KALATHUR_R_2007.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Chouakri, Nassim. „Identification des paramètres d'un modèle de type Monod a l'aide de réseaux de neurones artificiels“. Vandoeuvre-les-Nancy, INPL, 1993. http://www.theses.fr/1993INPL101N.

Der volle Inhalt der Quelle
Annotation:
La modélisation des bioprocédés est principalement basée sur l'utilisation d'expressions mathématiques dérivées de la loi de Monod. Or les modèles comportant ce genre d'expressions posent des problèmes quant à l'estimation de leurs paramètres. Une démarche à suivre lors d'un processus de modélisation est présenté, utilisant les connaissances du génie biochimique et de l'automatique. Puis un état des lieux des techniques d'identification classiques en génie biochimique est réalisé. Une analyse de sensibilité du modèle étudié nous permet de procéder, en connaissance de cause, a l'estimation des paramètres. Deux types de réseaux de neurones artificiels sont utilisés pour effectuer l'identification des paramètres d'un modèle de type Monod. Une procédure itérative est mise au point combinant une recherche directe et un réseau de mémoires associatives. Le réseau de mémoires associatives fournit un critère d'ajustement basé sur la comparaison indirecte entre des images binaires de simulations et de données pseudo-expérimentales. Cette partie a abouti à une procédure rapide d'estimation des paramètres. Les réseaux de neurones multicouches, associés a un algorithme d'apprentissage original, ont conduit a une procédure d'estimation directe des paramètres d'un modèle de Monod a partir de données pseudo-expérimentales même fortement bruitées
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Donner, Christian [Verfasser], Manfred [Akademischer Betreuer] Opper, Manfred [Gutachter] Opper, Guido [Gutachter] Sanguinetti und Jakob [Gutachter] Macke. „Bayesian inference of inhomogeneous point process models : methodological advances and modelling of neuronal spiking data / Christian Donner ; Gutachter: Manfred Opper, Guido Sanguinetti, Jakob Macke ; Betreuer: Manfred Opper“. Berlin : Technische Universität Berlin, 2019. http://d-nb.info/1187333344/34.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

Rojas, Castro Dalia Marcela. „The RHIZOME architecture : a hybrid neurobehavioral control architecture for autonomous vision-based indoor robot navigation“. Thesis, La Rochelle, 2017. http://www.theses.fr/2017LAROS001/document.

Der volle Inhalt der Quelle
Annotation:
Les travaux décrits dans cette thèse apportent une contribution au problème de la navigation autonome de robots mobiles dans un contexte de vision indoor. Il s’agit de chercher à concilier les avantages des différents paradigmes d’architecture de contrôle et des stratégies de navigation. Ainsi, nous proposons l’architecture RHIZOME (Robotic Hybrid Indoor-Zone Operational ModulE) : une architecture unique de contrôle robotique mettant en synergie ces différentes approches en s’appuyant sur un système neuronal. Les interactions du robot avec son environnement ainsi que les multiples connexions neuronales permettent à l’ensemble du système de s’adapter aux conditions de navigation. L’architecture RHIZOME proposée combine les avantages des approches comportementales (e.g. rapidité de réaction face à des problèmes imprévus dans un contexte d’environnement dynamique), et ceux des approches délibératives qui tirent profit d’une connaissance a priori de l’environnement. Cependant, cette connaissance est uniquement exploitée pour corroborer les informations perçues visuellement avec celles embarquées. Elle est représentée par une séquence de symboles artificiels de navigation guidant le robot vers sa destination finale. Cette séquence est présentée au robot soit sous la forme d’une liste de paramètres, soit sous la forme d’un plan. Dans ce dernier cas, le robot doit extraire lui-même la séquence de symboles à suivre grâce à une chaine de traitements d’images. Ainsi, afin de prendre la bonne décision lors de sa navigation, le robot traite l’ensemble de l’information perçue, la compare en temps réel avec l’information a priori apportée ou extraite, et réagit en conséquence. Lorsque certains symboles de navigation ne sont plus présents dans l’environnement de navigation, l’architecture RHIZOME construit de nouveaux lieux de référence à partir des panoramas extraits de ces lieux. Ainsi, le robot, lors de phases exploratoires, peut s’appuyer sur ces nouvelles informations pour atteindre sa destination finale, et surmonter des situations imprévues. Nous avons mis en place notre architecture sur le robot humanoïde NAO. Les résultats expérimentaux obtenus lors d’une navigation indoor, dans des scenarios à la fois déterministes et stochastiques, montrent la faisabilité et la robustesse de cette approche unifiée
The work described in this dissertation is a contribution to the problem of autonomous indoor vision-based mobile robot navigation, which is still a vast ongoing research topic. It addresses it by trying to conciliate all differences found among the state-of-the-art control architecture paradigms and navigation strategies. Hence, the author proposes the RHIZOME architecture (Robotic Hybrid Indoor-Zone Operational ModulE) : a unique robotic control architecture capable of creating a synergy of different approaches by merging them into a neural system. The interactions of the robot with its environment and the multiple neural connections allow the whole system to adapt to navigation conditions. The RHIZOME architecture preserves all the advantages of behavior-based architectures such as rapid responses to unforeseen problems in dynamic environments while combining it with the a priori knowledge of the world used indeliberative architectures. However, this knowledge is used to only corroborate the dynamic visual perception information and embedded knowledge, instead of directly controlling the actions of the robot as most hybrid architectures do. The information is represented by a sequence of artificial navigation signs leading to the final destination that are expected to be found in the navigation path. Such sequence is provided to the robot either by means of a program command or by enabling it to extract itself the sequence from a floor plan. This latter implies the execution of a floor plan analysis process. Consequently, in order to take the right decision during navigation, the robot processes both set of information, compares them in real time and reacts accordingly. When navigation signs are not present in the navigation environment as expected, the RHIZOME architecture builds new reference places from landmark constellations, which are extracted from these places and learns them. Thus, during navigation, the robot can use this new information to achieve its final destination by overcoming unforeseen situations.The overall architecture has been implemented on the NAO humanoid robot. Real-time experimental results during indoor navigation under both, deterministic and stochastic scenarios show the feasibility and robustness of the proposed unified approach
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Valentin, Nicolas. „Construction d'un capteur logiciel pour le contrôle automatique du procédé de coagulation en traitement d'eau potable“. Compiègne, 2000. http://www.theses.fr/2000COMP1314.

Der volle Inhalt der Quelle
Annotation:
L'établissement de modèles du comportement des systèmes est un problème incontournable en automatique. D'importants efforts dans le développement de méthodes de contrôle et de surveillance automatique ont été effectués durant ces dernières années. Le présent travail s'inscrit dans ce courant de recherche, en proposant une nouvelle approche pour l'automatisation du dosage de coagulant en traitement d'eau potable. L'objectif des traiteurs d'eau est la production d'une eau potable de qualité irréprochable à un faible coût. La coagulation est l'une des étapes les plus importantes dans le traitement des eaux de surface. Le contrôle de cette opération est essentiel pour la maîtrise de la qualité de l'eau traitée en sortie (turbidité), pour le contrôle du coagulant résiduel en sortie et la diminution des coûts de fonctionnement (coût des produits chimiques et opération de maintenance). Cette thèse aborde le problème de la prédiction en ligne de la dose optimale de coagulant dans une usine de traitement d'eau potable en fonction des caractéristiques de l'eau brute (conductivité, turbidité, pH, etc. ) à l'aide d'un modèle basé sur les réseaux de neurones artificiels (RNA). Le procédé de coagulation met en jeu de nombreux phénomènes physiques et chimiques complexes qu'il est difficile modéliser en utilisant des méthodes de modélisation traditionnelles. Il a été démontré, expérimentalement, que la quantité de coagulant assurant une efficacité optimale du procédé de coagulation n'est pas linéairement corrélée avec les paramètres de qualité de l'eau brute telles que la turbidité, la conductivité, le pH, la température, etc. Le capteur logiciel développé est un système hybride comprenant une carte auto-organisatrice de Kohonen (SOM) pour la validation et la reconstruction des données, et un perceptron multicouches (MLP) pour la modélisation du procédé de coagulation. L'intérêt principal du système réside dans sa capacité à prendre en compte diverses sources d'incertitude, telles que des données d'entrées atypiques, des erreurs de mesure et la taille limitée de l'ensemble d'apprentissage. Des résultats expérimentaux sont présentés et montrent l'efficacité de cette approche.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Zhang, Yujing. „Deep learning-assisted video list decoding in error-prone video transmission systems“. Electronic Thesis or Diss., Valenciennes, Université Polytechnique Hauts-de-France, 2024. http://www.theses.fr/2024UPHF0028.

Der volle Inhalt der Quelle
Annotation:
Au cours des dernières années, les applications vidéo ont connu un développement rapide. Par ailleurs, l’expérience en matière de qualité vidéo s’est considérablement améliorée grâce à l’avènement de la vidéo HD et à l’émergence des contenus 4K. En conséquence, les flux vidéo ont tendance à représenter une plus grande quantité de données. Pour réduire la taille de ces flux vidéo, de nouvelles solutions de compression vidéo telles que HEVC ont été développées.Cependant, les erreurs de transmission susceptibles de survenir sur les réseaux peuvent provoquer des artefacts visuels indésirables qui dégradent considérablement l'expérience utilisateur. Diverses approches ont été proposées dans la littérature pour trouver des solutions efficaces et peu complexes afin de réparer les paquets vidéo contenant des erreurs binaires, en évitant ainsi une retransmission coûteuse et incompatible avec les contraintes de faible latence de nombreuses applications émergentes (vidéo immersive, télé-opération). La correction d'erreurs basée sur le contrôle de redondance cyclique (CRC) est une approche prometteuse qui utilise des informations facilement disponibles sans surcoût de débit. Cependant, elle ne peut corriger en pratique qu'un nombre limité d'erreurs. Selon le polynôme générateur utilisé, la taille des paquets et le nombre maximum d'erreurs considéré, cette méthode peut conduire non pas à un paquet corrigé unique, mais plutôt à une liste de paquets possiblement corrigés. Dans ce cas, le décodage de liste devient pertinent en combinaison avec la correction d'erreurs basée CRC ainsi qu'avec les méthodes exploitant l'information sur la fiabilité des bits reçus. Celui-ci présente toutefois des inconvénients en termes de sélection de vidéos candidates. Suite à la génération des candidats classés lors du processus de décodage de liste dans l'état de l'art, la sélection finale considéra souvent le premier candidat valide dans la liste finale comme vidéo reconstruite. Cependant, cette sélection simple est arbitraire et non optimale, la séquence vidéo candidate en tête de liste n'étant pas nécessairement celle qui présente la meilleure qualité visuelle. Il est donc nécessaire de développer une nouvelle méthode permettant de sélectionner automatiquement la vidéo ayant la plus haute qualité dans la liste des candidats.Nous proposons de sélectionner le meilleur candidat en fonction de la qualité visuelle déterminée par un système d'apprentissage profond (DL). Considérant que la distorsion sera gérée sur chaque image, nous considérons l’évaluation de la qualité de l’image plutôt que l’évaluation de la qualité vidéo. Plus précisément, chaque candidat subit un traitement par une méthode d'évaluation de la qualité d'image (image quality assessment, IQA) sans référence basée sur l'apprentissage profond pour obtenir un score. Par la suite, le système sélectionne le candidat ayant le score IQA le plus élevé. Pour cela, notre système évalue la qualité des vidéos soumises à des erreurs de transmission sans éliminer les paquets perdus ni dissimuler les régions perdues. Les distorsions causées par les erreurs de transmission diffèrent de celles prises en compte par les mesures de qualité visuelle traditionnelles, qui traitent généralement des distorsions globales et uniformes de l'image. Ainsi, ces métriques ne parviennent pas à distinguer la version corrigée des différentes versions vidéo corrompues. Notre approche revisite et optimise la technique de décodage de liste classique en lui associant une architecture CNN d’abord, puis Transformer pour évaluer la qualité visuelle et identifier le meilleur candidat. Elle est sans précédent et offre d'excellentes performances. En particulier, nous montrons que lorsque les erreurs de transmission se produisent dans une trame intra, nos architectures basées sur CNN et Transformer atteignent une précision de décision de 100%. Pour les erreurs dans une image inter, la précision est de 93% et 95%, respectivement
In recent years, video applications have developed rapidly. At the same time, the video quality experience has improved considerably with the advent of HD video and the emergence of 4K content. As a result, video streams tend to represent a larger amount of data. To reduce the size of these video streams, new video compression solutions such as HEVC have been developed.However, transmission errors that may occur over networks can cause unwanted visual artifacts that significantly degrade the user experience. Various approaches have been proposed in the literature to find efficient and low-complexity solutions to repair video packets containing binary errors, thus avoiding costly retransmission that is incompatible with the low latency constraints of many emerging applications (immersive video, tele-operation). Error correction based on cyclic redundancy check (CRC) is a promising approach that uses readily available information without throughput overhead. However, in practice it can only correct a limited number of errors. Depending on the generating polynomial used, the size of the packets and the maximum number of errors considered, this method can lead not to a single corrected packet but rather to a list of possibly corrected packets. In this case, list decoding becomes relevant in combination with CRC-based error correction as well as methods exploiting information on the reliability of the received bits. However, this has disadvantages in terms of selection of candidate videos. Following the generation of ranked candidates during the state-of-the-art list decoding process, the final selection often considers the first valid candidate in the final list as the reconstructed video. However, this simple selection is arbitrary and not optimal, the candidate video sequence at the top of the list is not necessarily the one which presents the best visual quality. It is therefore necessary to develop a new method to automatically select the video with the highest quality from the list of candidates.We propose to select the best candidate based on the visual quality determined by a deep learning (DL) system. Considering that distortions will be assessed on each frame, we consider image quality assessment rather than video quality assessment. More specifically, each candidate undergoes processing by a reference-free image quality assessment (IQA) method based on deep learning to obtain a score. Subsequently, the system selects the candidate with the highest IQA score. To do this, our system evaluates the quality of videos subject to transmission errors without eliminating lost packets or concealing lost regions. Distortions caused by transmission errors differ from those accounted for by traditional visual quality measures, which typically deal with global, uniform image distortions. Thus, these metrics fail to distinguish the repaired version from different corrupted video versions when local, non-uniform errors occur. Our approach revisits and optimizes the classic list decoding technique by associating it with a CNN architecture first, then with a Transformer to evaluate the visual quality and identify the best candidate. It is unprecedented and offers excellent performance. In particular, we show that when transmission errors occur within an intra frame, our CNN and Transformer-based architectures achieve 100% decision accuracy. For errors in an inter frame, the accuracy is 93% and 95%, respectively
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Bertrand, Laurent. „Contribution à la mise en place d'un système d'aide au diagnostic en métallurgie : stockage, analyse et interpolation des diagrammes de transformation en refroidissement continu des aciers“. Saint-Etienne, 1995. http://www.theses.fr/1995STET4012.

Der volle Inhalt der Quelle
Annotation:
Cette recherche de base, pour le groupe Usinor-Sacilor, s'inscrit dans le cadre de l'élaboration de bases de données matériaux concernant les données métallurgiques, dans le but d'alimenter les codes de calcul par des données de qualité et d'aider le diagnostic des métallurgistes. Les diagrammes de transformation d'acier sont nécessaires à la simulation des changements de phases lors d'un traitement thermomécanique. Aujourd'hui une quantité importante de données est disponible sur papier. Ces courbes et toutes les données qui s'y rapportent, rassemblées à différentes époques et par différents opérateurs, s'avèrent d'une qualité plus ou moins bonne. Mais les efforts apportés à l'automatisation et à l'acquisition des machines d'essais mettent à notre disposition des données expérimentales de qualité qui coutent relativement cher. La base de connaissance, développée afin de mettre à disposition cet ensemble d'informations, emploie des techniques très variées, à savoir une architecture client-serveur, une analyse par imagerie et une modélisation statistique par réseau de neurones. Ceci a conduit à sa mise en place et son utilisation par le groupe Usinor-Sacilor. L'apprentissage du modèle de prédiction doit se faire sur une base de données suffisamment large de manière à couvrir une gamme de nuances plus importante. Pour accroitre les performances, le couplage du modèle neuronal à un modèle métallurgique est prévu
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Deleuze, Carine. „Le chlorhydrate de 1-[1-(2-benzo[b]thiophényl]pipéridine (BTCP), un puissant inhibiteur de capture neuronale de dopamine, donne deux métabolites primaires actifs in vitro et in vivo : Synthèse, identification et quantification des métabolites obtenus à partir de microsomes de foie, de tissus cérébraux, de plasma et d'urines“. Montpellier 1, 1998. http://www.theses.fr/1998MON13508.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Gaudier, Fabrice. „Modélisation par réseaux de neurones : application à la gestion du combustible dans un réacteur“. Cachan, Ecole normale supérieure, 1999. http://www.theses.fr/1999DENS0009.

Der volle Inhalt der Quelle
Annotation:
Tous les ans, un quart du combustible nucléaire d'un cœur de réacteur est remplace par du combustible neuf. Du fait de leur historique. Les autres combustibles ont des propriétés physiques très différentes. Se pose alors le problème de la répartition du combustible au sein du cœur tout en veillant à ce que le plan de chargement proposé vérifie des contraintes de sureté : c'est le problème du repositionnement de combustible. Si une recherche exhaustive est illusoire, elle nécessite le calcul des caractéristiques neutroniques, notamment le pic de puissance, pour des milliers de plans de chargements. Dans un code d'optimisation automatique comme Formosa, le calcul de ces caractéristiques représente 90% de la dizaine d'heures nécessaire à l'optimisation. Afin de réduire ce temps de calcul, nous proposons une architecture neuronale originale adaptée au phénomène physique à modéliser. Une analyse de données a permis de caractériser plus finement le combustible nucléaire. L'introduction d'une connaissance a priori portant sur les phénomènes neutroniques a permis de réduire le nombre de paramètres libres du modèle. Nous avons ensuite implémenté ce modèle neuronal dans Formosa, et nous avons montre sur des problèmes réels d'EDF un gain de temps considérable. Enfin, nous proposons également une méthode hybride alliant le meilleur parti de l'approximateur linéaire local GPT (generalized perturbation theory) et les réseaux de neurones.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Tiano, Donato. „Learning models on healthcare data with quality indicators“. Electronic Thesis or Diss., Lyon 1, 2022. http://www.theses.fr/2022LYO10182.

Der volle Inhalt der Quelle
Annotation:
Les séries temporelles sont des collections de données obtenues par des mesures dans le temps. Cette données vise à fournir des éléments de réflexion pour l'extraction d'événements et à les représenter dans une configuration compréhensible pour une utilisation ultérieure. L'ensemble du processus de découverte et d'extraction de modèles à partir de l'ensemble de données s'effectue avec plusieurs techniques d'extraction, notamment l'apprentissage automatique, les statistiques et les clusters. Ce domaine est ensuite divisé par le nombre de sources adoptées pour surveiller un phénomène. Les séries temporelles univariées lorsque la source de données est unique, et les séries temporelles multivariées lorsque la source de données est multiple. La série chronologique n'est pas une structure simple. Chaque observation de la série a une relation forte avec les autres observations. Cette interrelation est la caractéristique principale des séries temporelles, et toute opération d'extraction de séries temporelles doit y faire face. La solution adoptée pour gérer l'interrelation est liée aux opérations d'extraction. Le principal problème de ces techniques est de ne pas adopter d'opération de prétraitement sur les séries temporelles. Les séries temporelles brutes comportent de nombreux effets indésirables, tels que des points bruyants ou l'énorme espace mémoire requis pour les longues séries. Nous proposons de nouvelles techniques d'exploration de données basées sur l'adoption des caractéristiques plus représentatives des séries temporelles pour obtenir de nouveaux modèles à partir des données. L'adoption des caractéristiques a un impact profond sur la scalabilité des systèmes. En effet, l'extraction d'une caractéristique de la série temporelle permet de réduire une série entière en une seule valeur. Par conséquent, cela permet d'améliorer la gestion des séries temporelles, en réduisant la complexité des solutions en termes de temps et d'espace. FeatTS propose une méthode de clustering pour les séries temporelles univariées qui extrait les caractéristiques les plus représentatives de la série. FeatTS vise à adopter les particularités en les convertissant en réseaux de graphes pour extraire les interrelations entre les signaux. Une matrice de cooccurrence fusionne toutes les communautés détectées. L'intuition est que si deux séries temporelles sont similaires, elles appartiennent souvent à la même communauté, et la matrice de cooccurrence permet de le révéler. Dans Time2Feat, nous créons un nouveau clustering de séries temporelles multivariées. Time2Feat propose deux extractions différentes pour améliorer la qualité des caractéristiques. Le premier type d'extraction est appelé extraction de caractéristiques intra-signal et permet d'obtenir des caractéristiques à partir de chaque signal de la série temporelle multivariée. Inter-Signal Features Extraction permet d'obtenir des caractéristiques en considérant des couples de signaux appartenant à la même série temporelle multivariée. Les deux méthodes fournissent des caractéristiques interprétables, ce qui rend possible une analyse ultérieure. L'ensemble du processus de clustering des séries temporelles est plus léger, ce qui réduit le temps nécessaire pour obtenir le cluster final. Les deux solutions représentent l'état de l'art dans leur domaine. Dans AnomalyFeat, nous proposons un algorithme pour révéler des anomalies à partir de séries temporelles univariées. La caractéristique de cet algorithme est la capacité de travailler parmi des séries temporelles en ligne, c'est-à-dire que chaque valeur de la série est obtenue en streaming. Dans la continuité des solutions précédentes, nous adoptons les fonctionnalités de révélation des anomalies dans les séries. Avec AnomalyFeat, nous unifions les deux algorithmes les plus populaires pour la détection des anomalies : le clustering et le réseau neuronal récurrent. Nous cherchons à découvrir la zone de densité du nouveau point obtenu avec le clustering
Time series are collections of data obtained through measurements over time. The purpose of this data is to provide food for thought for event extraction and to represent them in an understandable pattern for later use. The whole process of discovering and extracting patterns from the dataset is carried out with several extraction techniques, including machine learning, statistics, and clustering. This domain is then divided by the number of sources adopted to monitor a phenomenon. Univariate time series when the data source is single and multivariate time series when the data source is multiple. The time series is not a simple structure. Each observation in the series has a strong relationship with the other observations. This interrelationship is the main characteristic of time series, and any time series extraction operation has to deal with it. The solution adopted to manage the interrelationship is related to the extraction operations. The main problem with these techniques is that they do not adopt any pre-processing operation on the time series. Raw time series have many undesirable effects, such as noisy points or the huge memory space required for long series. We propose new data mining techniques based on the adoption of the most representative features of time series to obtain new models from the data. The adoption of features has a profound impact on the scalability of systems. Indeed, the extraction of a feature from the time series allows for the reduction of an entire series to a single value. Therefore, it allows for improving the management of time series, reducing the complexity of solutions in terms of time and space. FeatTS proposes a clustering method for univariate time series that extracts the most representative features of the series. FeatTS aims to adopt the features by converting them into graph networks to extract interrelationships between signals. A co-occurrence matrix merges all detected communities. The intuition is that if two time series are similar, they often belong to the same community, and the co-occurrence matrix reveals this. In Time2Feat, we create a new multivariate time series clustering. Time2Feat offers two different extractions to improve the quality of the features. The first type of extraction is called Intra-Signal Features Extraction and allows to obtain of features from each signal of the multivariate time series. Inter-Signal Features Extraction is used to obtain features by considering pairs of signals belonging to the same multivariate time series. Both methods provide interpretable features, which makes further analysis possible. The whole time series clustering process is lighter, which reduces the time needed to obtain the final cluster. Both solutions represent the state of the art in their field. In AnomalyFeat, we propose an algorithm to reveal anomalies from univariate time series. The characteristic of this algorithm is the ability to work among online time series, i.e. each value of the series is obtained in streaming. In the continuity of previous solutions, we adopt the functionality of revealing anomalies in the series. With AnomalyFeat, we unify the two most popular algorithms for anomaly detection: clustering and recurrent neural network. We seek to discover the density area of the new point obtained with clustering
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Zhou, Rongyan. „Exploration of opportunities and challenges brought by Industry 4.0 to the global supply chains and the macroeconomy by integrating Artificial Intelligence and more traditional methods“. Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPAST037.

Der volle Inhalt der Quelle
Annotation:
L'industrie 4.0 est un changement important et un défi de taille pour chaque segment industriel. La recherche utilise d'abord l'analyse de la littérature pour trier la littérature et énumérer la direction du développement et l'état d'application de différents domaines, ce qui se consacre à montrer un rôle de premier plan pour la théorie et la pratique de l'industrie 4.0. La recherche explore ensuite la tendance principale de l'offre à plusieurs niveaux dans l'industrie 4.0 en combinant l'apprentissage automatique et les méthodes traditionnelles. Ensuite, la recherche examine la relation entre l'investissement et l'emploi dans l'industrie 4.0 pour examiner la dépendance interrégionale de l'industrie 4.0 afin de présenter un regroupement raisonnable basé sur différents critères et de faire des suggestions et une analyse de la chaîne d'approvisionnement mondiale pour les entreprises et les organisations.De plus, notre système d'analyse jette un coup d'oeil sur la macroéconomie. La combinaison du traitement du langage naturel dans l'apprentissage automatique pour classer les sujets de recherche et de la revue de la littérature traditionnelle pour enquêter sur la chaîne d'approvisionnement à plusieurs niveaux améliore considérablement l'objectivité de l'étude et jette une base solide pour des recherches ultérieures. L'utilisation de réseaux et d'économétrie complexes pour analyser la chaîne d'approvisionnement mondiale et les problèmes macroéconomiques enrichit la méthodologie de recherche au niveau macro et politique. Cette recherche fournit des analyses et des références aux chercheurs, aux décideurs et aux entreprises pour leur prise de décision stratégique
Industry 4.0 is a significant shift and a tremendous challenge for every industrial segment, especially for the manufacturing industry that gave birth to the new industrial revolution. The research first uses literature analysis to sort out the literature, and focuses on the use of “core literature extension method” to enumerate the development direction and application status of different fields, which devotes to showing a leading role for theory and practice of industry 4.0. The research then explores the main trend of multi-tier supply in Industry 4.0 by combining machine learning and traditional methods. Next, the research investigates the relationship of industry 4.0 investment and employment to look into the inter-regional dependence of industry 4.0 so as to present a reasonable clustering based on different criteria and make suggestions and analysis of the global supply chain for enterprises and organizations. Furthermore, our analysis system takes a glance at the macroeconomy. The combination of natural language processing in machine learning to classify research topics and traditional literature review to investigate the multi-tier supply chain significantly improves the study's objectivity and lays a solid foundation for further research. Using complex networks and econometrics to analyze the global supply chain and macroeconomic issues enriches the research methodology at the macro and policy level. This research provides analysis and references to researchers, decision-makers, and companies for their strategic decision-making
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Mascarilla, Laurent. „Apprentissage de connaissances pour l'interprétation des images satellite“. Toulouse 3, 1996. http://www.theses.fr/1996TOU30300.

Der volle Inhalt der Quelle
Annotation:
Dans le cadre d'un systeme expert en interpretation d'images satellite pour la cartographie automatique, ou donnees multi-spectrales et connaissances sont combinees pour produire une classification finale, ce document a pour objet la description d'un systeme neuro-flou d'apprentissage automatique de regles. Deux niveaux de reseaux de neurones sont mis en uvre pour induire, puis optimiser, des regles floues a partir d'exemples de classes de vegetation designees sur l'image par un expert. Dans une premiere phase, un reseau neuro-flou de type competitif entraine sur les echantillons fournit, a partir des donnees exogenes, une base de connaissances et a partir des donnees image un classifieur. A ce stade, les notions d'information relative et de mesure de frequence floue sont utilisees pour produire des regles compactes affectees d'un facteur de certitude. Une approximation linguistique permet ensuite de les presenter en langage naturel a l'expert qui peut alors les valider ou les modifier. A l'issue de cette phase, une premiere carte peut etre obtenue en fusionnant, pour chaque pixel, les degres d'appartenance issus de la partie regle et de la partie image. Dans une seconde phase, un perceptron neuro-flou affine les resultats en ajustant les parametres de la base de connaissances sur la base d'echantillons. En particulier, les formes des fonctions d'appartenance et les connecteurs logiques sont optimises. De la meme facon qu'a la fin de la premiere phase, une carte finale est produite
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Al, Saied Hazem. „Analyse automatique par transitions pour l'identification des expressions polylexicales“. Electronic Thesis or Diss., Université de Lorraine, 2019. http://www.theses.fr/2019LORR0206.

Der volle Inhalt der Quelle
Annotation:
Cette thèse porte sur l'identification des expressions polylexicales, abordée au moyen d'une analyse par transitions. Une expression polylexicale (EP) est une construction linguistique composée de plusieurs éléments dont la combinaison montre une irrégularité à un ou plusieurs niveaux linguistiques. La tâche d'identification d'EPs consiste à annoter en contexte les occurrences d'EPs dans des textes, i.e à détecter les ensembles de tokens formant de telles occurrences. L'analyse par transitions est une approche célèbre qui construit une sortie structurée à partir d'une séquence d'éléments, en appliquant une séquence de «transitions» choisies parmi un ensemble prédéfini, pour construire incrémentalement la sortie. Dans cette thèse, nous proposons un système par transitions dédié à l'identification des EPs au sein de phrases représentées comme des séquences de tokens, et étudions diverses architectures pour le classifieur qui sélectionne les transitions à appliquer, permettant de construire l'analyse de la phrase. La première variante de notre système utilise un classifieur linéaire de type machine à vecteur support. Les variantes suivantes utilisent des modèles neuronaux: un simple perceptron multicouche, puis des variantes intégrant une ou plusieurs couches récurrentes. Le scénario privilégié est une identification d'EPs n'utilisant pas d'informations syntaxiques, alors même que l'on sait les deux tâches liées. Nous étudions ensuite une approche par apprentissage multitâche, réalisant conjointement l’étiquetage morphosyntaxique, l’identification des EPs par transitions et l’analyse syntaxique en dépendances par transitions. La thèse comporte une partie expérimentale importante. Nous avons d'une part étudié quelles techniques de ré-échantillonnage des données permettent une bonne stabilité de l'apprentissage malgré des initialisations aléatoires. D'autre part, nous avons proposé une méthode de réglage des hyperparamètres de nos modèles par analyse de tendances au sein d'une recherche aléatoire de combinaison d'hyperparamètres. Nous utilisons en effet de manière privilégiée les données des deux compétitions internationales PARSEME des EPs verbales. Nos variantes produisent de très bons résultats, et notamment les scores d’état de l’art pour de nombreuses langues de PARSEME. L’une des variantes s'est classée première pour la plupart des langues de PARSEME 1.0. Pourtant, nos modèles ont des performances faibles sur les EPs non vues à l'apprentissage
This thesis focuses on the identification of multi-word expressions, addressed through a transition-based system. A multi-word expression (MWE) is a linguistic construct composed of several elements whose combination shows irregularity at one or more linguistic levels. Identifying MWEs in context amounts to annotating the occurrences of MWEs in texts, i.e. to detecting sets of tokens forming such occurrences. For example, in the sentence This has nothing to do with the book, the tokens has, to, do and with would be marked as forming an occurrence of the MWE have to do with. Transition-based analysis is a famous NLP technique to build a structured output from a sequence of elements, applying a sequence of actions (called «transitions») chosen from a predefined set, to incrementally build the output structure. In this thesis, we propose a transition system dedicated to MWE identification within sentences represented as token sequences, and we study various architectures for the classifier which selects the transitions to apply to build the sentence analysis. The first variant of our system uses a linear support vector machine (SVM) classifier. The following variants use neural models: a simple multilayer perceptron (MLP), followed by variants integrating one or more recurrent layers. The preferred scenario is an identification of MWEs without the use of syntactic information, even though we know the two related tasks. We further study a multitasking approach, which jointly performs and take mutual advantage of morphosyntactic tagging, transition-based MWE identification and dependency parsing. The thesis comprises an important experimental part. Firstly, we studied which resampling techniques allow good learning stability despite random initializations. Secondly, we proposed a method for tuning the hyperparameters of our models by trend analysis within a random search for a hyperparameter combination. We produce systems with the constraint of using the same hyperparameter combination for different languages. We use data from the two PARSEME international competitions for verbal MWEs. Our variants produce very good results, including state-of-the-art scores for many languages in the PARSEME 1.0 and 1.1 datasets. One of the variants ranked first for most languages in the PARSEME 1.0 shared task. By the way, our models have poor performance on MWEs that are were not seen at learning time
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Toofanee, Mohammud Shaad Ally. „An innovative ecosystem based on deep learning : Contributions for the prevention and prediction of diabetes complications“. Electronic Thesis or Diss., Limoges, 2023. https://aurore.unilim.fr/theses/nxfile/default/656b0a1f-2ff2-49c5-bb3e-f34704d6f6b0/blobholder:0/2023LIMO0107.pdf.

Der volle Inhalt der Quelle
Annotation:
En 2021, le diabète touchait environ 537 millions de personnes dans le monde. Ce chiffre devrait grimper à 643 millions d'ici 2030 et 783 millions d'ici 2045. Le diabète est une maladie métabolique persistante qui nécessite des soins et une gestion quotidiens continus. Le fardeau des maladies chroniques pèse lourdement sur les systèmes de santé lorsqu'il touche une partie substantielle de la population. De telles circonstances ont un impact négatif non seulement sur le bien-être général d'une grande partie de la population, mais contribuent également de manière significative aux dépenses de santé. Dans le contexte de Maurice, selon le rapport le plus récent de la Fédération Internationale du Diabète, la prévalence du diabète, en particulier du diabète de type 2 (T2D), était de 22,6 % de la population en 2021, avec des projections indiquant une hausse à 26,6 % d'ici 2045. Face à cette tendance alarmante, une évolution concomitante a été observée dans le domaine de la technologie, l'intelligence artificielle démontrant des capacités prometteuses dans les domaines de la médecine et de la santé. Cette thèse de doctorat entreprend l'exploration de l'intersection entre l'intelligence artificielle, plus précisément l’apprentissage profond, l'éducation, la prévention, et la gestion du diabète. Nous nous sommes d'abord concentrés sur l'exploration du potentiel de l'Intelligence Artificielle (IA) pour répondre à une complication fréquente du diabète : l'Ulcère du Pied Diabétique (DFU). Les DFU présentent un risque grave d'amputations des membres inférieurs, entraînant des conséquences graves. En réponse, nous avons proposé une solution innovante nommée DFU-HELPER. Cet outil permet de valider les protocoles de traitement administrés par les professionnels de la santé aux patients individuels atteints de DFU. L'évaluation initiale de l'outil a montré des résultats prometteurs, bien qu'un affinement further et des tests rigoureux soient impératifs. Les efforts collaboratifs avec les experts en santé publique seront essentiels pour évaluer l'efficacité pratique de l'outil dans des scénarios réels. Cette approche vise à combler le fossé entre les technologies IA et les interventions cliniques, avec pour objectif ultime d'améliorer la prise en charge des patients atteints de DFU. Notre recherche a également abordé les aspects critiques de la vie privée et de la confidentialité inhérents à la manipulation des données liées à la santé. Reconnaissant l'importance capitale de la protection des informations sensibles, nous avons appliqué une approche avancée d'apprentissage fédéré Peer-to-Peer à notre proposition pour l'outil DFU-Helper. Cette approche permet de traiter des données sensibles sans les transférer vers un serveur central, contribuant ainsi à créer un environnement de confiance et sécurisé pour la gestion des données de santé. Enfin, notre recherche s'est étendue au développement d'un agent conversationnel intelligent conçu pour fournir des informations et un soutien 24 heures sur 24 aux personnes atteintes de diabète. Dans la poursuite de cet objectif, la création d'un jeu de données approprié était essentielle. Dans ce contexte, nous avons utilisé des techniques de traitement du langage naturel pour sélectionner des données de qualité provenant de sources médias en ligne traitant du diabète
In the year 2021, estimations indicated that approximately 537 million individuals were affected by diabetes, a number anticipated to escalate to 643 million by the year 2030 and further to 783 million by 2045. Diabetes, characterized as a persistent metabolic ailment, necessitates unceasing daily care and management. In the context of Mauritius, as per the most recent report by the International Diabetes Federation, the prevalence of diabetes, specifically Type 2 Diabetes (T2D), stood at 22.6% of the population in 2021, with projections indicating a surge to 26.6% by the year 2045. Amidst this alarming trend, a concurrent advancement has been observed in the realm of technology, with artificial intelligence techniques showcasing promising capabilities in the spheres of medicine and healthcare. This doctoral dissertation embarks on the exploration of the intersection between artificial intelligence and diabetes education, prevention, and management.We initially focused on exploring the potential of artificial intelligence (AI), more specifically, deep learning, to address a critical complication linked to diabetes – Diabetic Foot Ulcer (DFU). The emergence of DFU poses the grave risk of lower limb amputations, consequently leading to severe socio-economic repercussions. In response, we put forth an innovative solution named DFU-HELPER. This tool serves as a preliminary measure for validating the treatment protocols administered by healthcare professionals to individual patients afflicted by DFU. The initial assessment of the proposed tool has exhibited promising performance characteristics, although further refinement and rigorous testing are imperative. Collaborative efforts with public health experts will be pivotal in evaluating the practical efficacy of the tool in real-world scenarios. This approach seeks to bridge the gap between AI technologies and clinical interventions, with the ultimate goal of improving the management of patients with DFU.Our research also addressed the critical aspects of privacy and confidentiality inherent in handling health-related data. Acknowledging the extreme importance of safeguarding sensitive information, we delved into the realm of Peer-to-Peer Federated Learning. This investigation specifically found application in our proposal for the DFU-Helper tool discussed earlier. By exploring this advanced approach, we aimed to ensure that the implementation of our technology aligns with privacy standards, thereby fostering a trustworthy and secure environment for healthcare data management.Finally, our research extended to the development of an intelligent conversational agent designed to offer round-the-clock support for individuals seeking information about diabetes. In pursuit of this goal, the creation of an appropriate dataset was paramount. In this context, we leveraged Natural Language Processing techniques to curate data from online media sources focusing on diabetes-related content
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Derras, Boumédiène. „Contribution des données accélérométriques de KiKNet à la prédiction du mouvement sismique par l'approche neuronale avec la prise en compte des effets de site“. Phd thesis, 2011. http://tel.archives-ouvertes.fr/tel-00653902.

Der volle Inhalt der Quelle
Annotation:
Ce travail a pour objet d'analyser la capacité des réseaux de neurones artificiels (RNA) à prédire les mouvements sismiques avec des performances statistiques similaires aux techniques de régression par moindres carrés conduisant aux "équations de prédiction du mouvement du sol" (EPMS), utilisées classiquement depuis plusieurs décennies. Les principaux avantages de cette nouvelle approche RNA vis-à-vis des EPMS sont d'une part l'absence d'a priori sur les formes fonctionnelles régissant la dépendance aux différents paramètres, celle-ci devant "automatiquement" émerger des données, ainsi qu'une quantification simple de l'importance relative des variables indépendantes qui affectent le mouvement sismique du sol. Le présent travail s'appuie sur un sous-ensemble de la base de données sismique KiKNet, où les événements retenus ont une profondeur inferieure à 25 km, une magnitude comprise entre 3.5 et 7.3 et une distance épicentrale allant de 1 à 343 km. L'effet de site est pris en considération dans cette étude avec l'utilisation conjointe de la vitesse des ondes de cisaillement moyenne sur trente mètres de profondeur et la fréquence de résonance du site. L'analyse des données KiK-Net enregistrées en surface et en profondeur permet de calculer, par un RNA, les rapports d'amplification spectrale surface/profondeur afin d'estimer l'effet de site. La même approche est utilisée pour la prédiction des indicateurs de nocivité les plus communément utilisés en ingénierie parasismique, ainsi que pour la génération des pseudo-accélérations spectrales largement utilisées dans l'analyse dynamique des structures. Les résultats obtenus montrent que les modèles neuronaux élaborés sont relativement robustes et ne dépendent que faiblement de la base de données initiale. Ce résultat est intéressant pour les régions où les données sismiques sont rares. Les écarts-types obtenus pour ces modèles sont légèrement inferieurs à ceux des équations classiques de prédiction du mouvement sismique. Les modèles neuronaux établis ne nécessitent aucun a priori sur la nature de la forme fonctionnelle de la relation d'atténuation. L'atténuation du mouvement sismique avec la distance, l'effet d'échelle de la magnitude et l'effet de site non linéaire sont ainsi pris en considération "naturellement" par les RNA à partir du moment où ils existent dans le jeu de données initial. Les résultats obtenus indiquent également une influence significative de la profondeur focale et de la fréquence de résonance sur le mouvement sismique à la surface libre. La possibilité de mettre ces modèles en oeuvre à l'aide d'un tableur Excel ou autre est démontrée, ouvrant ainsi un très vaste champ d'utilisation.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Diouf, Jean Noël Dibocor. „Classification, apprentissage profond et réseaux de neurones : application en science des données“. Thèse, 2020. http://depot-e.uqtr.ca/id/eprint/9555/1/eprint9555.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Sanka, Norbert Bertrand. „Étude comparative et choix optimal du nombre de classes en classification et réseaux de neurones : application en science des données“. Thèse, 2021. http://depot-e.uqtr.ca/id/eprint/9662/1/eprint9662.pdf.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie