Siga este enlace para ver otros tipos de publicaciones sobre el tema: EEG/MEG data.

Tesis sobre el tema "EEG/MEG data"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 15 mejores tesis para su investigación sobre el tema "EEG/MEG data".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Zaremba, Wojciech. "Modeling the variability of EEG/MEG data through statistical machine learning". Habilitation à diriger des recherches, Ecole Polytechnique X, 2012. http://tel.archives-ouvertes.fr/tel-00803958.

Texto completo
Resumen
Brain neural activity generates electrical discharges, which manifest as electrical and magnetic potentials around the scalp. Those potentials can be registered with magnetoencephalography (MEG) and electroencephalography (EEG) devices. Data acquired by M/EEG is extremely difficult to work with due to the inherent complexity of underlying brain processes and low signal-to-noise ratio (SNR). Machine learning techniques have to be employed in order to reveal the underlying structure of the signal and to understand the brain state. This thesis explores a diverse range of machine learning techniques which model the structure of M/EEG data in order to decode the mental state. It focuses on measuring a subject's variability and on modeling intrasubject variability. We propose to measure subject variability with a spectral clustering setup. Further, we extend this approach to a unified classification framework based on Laplacian regularized support vector machine (SVM). We solve the issue of intrasubject variability by employing a model with latent variables (based on a latent SVM). Latent variables describe transformations that map samples into a comparable state. We focus mainly on intrasubject experiments to model temporal misalignment.
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Molins, Jiménez Antonio. "Multimodal integration of EEG and MEG data using minimum ℓ₂-norm estimates". Thesis, Massachusetts Institute of Technology, 2007. http://hdl.handle.net/1721.1/40528.

Texto completo
Resumen
Thesis (S.M.)--Massachusetts Institute of Technology, Dept. of Electrical Engineering and Computer Science, 2007.
Includes bibliographical references (leaves 69-74).
The aim of this thesis was to study the effects of multimodal integration of electroencephalography (EEG) and magnetoencephalography (MEG) data on the minimum ℓ₂-norm estimates of cortical current densities. We investigated analytically the effect of including EEG recordings in MEG studies versus the addition of new MEG channels. To further confirm these results, clinical datasets comprising concurrent MEG/EEG acquisitions were analyzed. Minimum ℓ₂-norm estimates were computed using MEG alone, EEG alone, and the combination of the two modalities. Localization accuracy of responses to median-nerve stimulation was evaluated to study the utility of combining MEG and EEG.
by Antonio Molins Jiménez.
S.M.
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Papadopoulo, Théodore. "Contributions and perspectives to computer vision, image processing and EEG/MEG data analysis". Habilitation à diriger des recherches, Université Nice Sophia Antipolis, 2011. http://tel.archives-ouvertes.fr/tel-00847782.

Texto completo
Resumen
Dans une première partie, j'illustrerai quelques uns de mes travaux en visio n par ordinateur et traitement d'images. Ceux-ci portent notamment sur la géométrie multi-vues, l'utilisation du raisonnement géométrique pour intégrer des contraintes sur la scène, l'appariement et la segmentation d'images. Sans forcément rentrer dans les détails, j'exposerai les idées fondamentales qui sous-tendent ces travaux qui ont maintenant quelques années et proposerai quelques perspectives sur des extensions possibles. Une deuxième partie abordera certains problèmes liés à l'électro- et la magnéto-encéphalographie M/EEG, sujet auquel je me suis intéressé plus récemment. Je décrirai en particulier un algorithme de détection d'événements d'intérêts en essai par essai ainsi que certaines techniques que nous avons développé pour la modélisation du problème direct M/EEG. Comme pour la première partie, je tenterai de proposer quelques unes des évolutions possibles autour de cette thématique.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Zavala, Fernandez Heriberto. "Evaluation and comparsion of the independent components of simultaneously measured MEG and EEG data /". Berlin : Univ.-Verl. der TU, 2009. http://www.ub.tu-berlin.de/index.php?id=2260#c9917.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Ablin, Pierre. "Exploration of multivariate EEG /MEG signals using non-stationary models". Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLT051.

Texto completo
Resumen
L'Analyse en Composantes Indépendantes (ACI) modèle un ensemble de signaux comme une combinaison linéaire de sources indépendantes. Cette méthode joue un rôle clé dans le traitement des signaux de magnétoencéphalographie (MEG) et électroencéphalographie (EEG). L'ACI de tels signaux permet d'isoler des sources de cerveau intéressantes, de les localiser, et de les séparer d'artefacts. L'ACI fait partie de la boite à outils de nombreux neuroscientifiques, et est utilisée dans de nombreux articles de recherche en neurosciences. Cependant, les algorithmes d'ACI les plus utilisés ont été développés dans les années 90. Ils sont souvent lents lorsqu'ils sont appliqués sur des données réelles, et sont limités au modèle d'ACI classique.L'objectif de cette thèse est de développer des algorithmes d'ACI utiles en pratique aux neuroscientifiques. Nous suivons deux axes. Le premier est celui de la vitesse : nous considérons le problème d'optimisation résolu par deux des algorithmes les plus utilisés par les praticiens: Infomax et FastICA. Nous développons une nouvelle technique se basant sur un préconditionnement par des approximations de la Hessienne de l'algorithm L-BFGS. L'algorithme qui en résulte, Picard, est conçu pour être appliqué sur données réelles, où l'hypothèse d’indépendance n'est jamais entièrement vraie. Sur des données de M/EEG, il converge plus vite que les implémentations `historiques'.Les méthodes incrémentales, qui traitent quelques échantillons à la fois au lieu du jeu de données complet, constituent une autre possibilité d’accélération de l'ACI. Ces méthodes connaissent une popularité grandissante grâce à leur faculté à bien passer à l'échelle sur de grands jeux de données. Nous proposons un algorithme incrémental pour l'ACI, qui possède une importante propriété de descente garantie. En conséquence, cet algorithme est simple d'utilisation, et n'a pas de paramètre critique et difficile à régler comme un taux d'apprentissage.En suivant un second axe, nous proposons de prendre en compte du bruit dans le modèle d'ACI. Le modèle resultant est notoirement difficile et long à estimer sous l'hypothèse standard de non-Gaussianité de l'ACI. Nous nous reposons donc sur une hypothèse de diversité spectrale, qui mène à un algorithme facile d'utilisation et utilisable en pratique, SMICA. La modélisation du bruit permet de nouvelles possibilités inenvisageables avec un modèle d'ACI classique, comme une estimation fine des source et l'utilisation de l'ACI comme une technique de réduction de dimension statistiquement bien posée. De nombreuses expériences sur données M/EEG démontrent l'utilité de cette nouvelle approche.Tous les algorithmes développés dans cette thèse sont disponibles en accès libre sur internet. L’algorithme Picard est inclus dans les librairies de traitement de données M/EEG les plus populaires en Python (MNE) et en Matlab (EEGlab)
Independent Component Analysis (ICA) models a set of signals as linear combinations of independent sources. This analysis method plays a key role in electroencephalography (EEG) and magnetoencephalography (MEG) signal processing. Applied on such signals, it allows to isolate interesting brain sources, locate them, and separate them from artifacts. ICA belongs to the toolbox of many neuroscientists, and is a part of the processing pipeline of many research articles. Yet, the most widely used algorithms date back to the 90's. They are often quite slow, and stick to the standard ICA model, without more advanced features.The goal of this thesis is to develop practical ICA algorithms to help neuroscientists. We follow two axes. The first one is that of speed. We consider the optimization problems solved by two of the most widely used ICA algorithms by practitioners: Infomax and FastICA. We develop a novel technique based on preconditioning the L-BFGS algorithm with Hessian approximation. The resulting algorithm, Picard, is tailored for real data applications, where the independence assumption is never entirely true. On M/EEG data, it converges faster than the `historical' implementations.Another possibility to accelerate ICA is to use incremental methods, which process a few samples at a time instead of the whole dataset. Such methods have gained huge interest in the last years due to their ability to scale well to very large datasets. We propose an incremental algorithm for ICA, with important descent guarantees. As a consequence, the proposed algorithm is simple to use and does not have a critical and hard to tune parameter like a learning rate.In a second axis, we propose to incorporate noise in the ICA model. Such a model is notoriously hard to fit under the standard non-Gaussian hypothesis of ICA, and would render estimation extremely long. Instead, we rely on a spectral diversity assumption, which leads to a practical algorithm, SMICA. The noise model opens the door to new possibilities, like finer estimation of the sources, and use of ICA as a statistically sound dimension reduction technique. Thorough experiments on M/EEG datasets demonstrate the usefulness of this approach.All algorithms developed in this thesis are open-sourced and available online. The Picard algorithm is included in the largest M/EEG processing Python library, MNE and Matlab library, EEGlab
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Abbasi, Omid [Verfasser], Georg [Gutachter] Schmitz y Markus [Gutachter] Butz. "Retrieving neurophysiological information from strongly distorted EEG and MEG data / Omid Abbasi ; Gutachter: Georg Schmitz, Markus Butz". Bochum : Ruhr-Universität Bochum, 2017. http://d-nb.info/1140223119/34.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Dubarry, Anne-Sophie. "Linking neurophysiological data to cognitive functions : methodological developments and applications". Thesis, Aix-Marseille, 2016. http://www.theses.fr/2016AIXM5017.

Texto completo
Resumen
Un des enjeux majeurs de la Psychologie Cognitive est de décrire les grandes fonctions mentales, notamment chez l’humain. Du point de vue neuroscientifique, il s’agit de modéliser l’activité cérébrale pour en extraire les éléments et mécanismes spatio-temporels susceptibles d’être mis en correspondance avec les opérations cognitives. Le travail de cette thèse a consisté à définir et mettre en œuvre des stratégies originales permettant de confronter les modèles cognitifs existants à des données issues d’enregistrements neurophysiologiques chez l’humain. Dans une première étude nous avons démontré que la distinction entre les organisations classiques de la dénomination de dessin sériel-parallèle, doit être adressée au niveau des essais uniques et non sur la moyenne des signaux. Nous avons conçu et mené l’analyse des signaux SEEG de 15 patients pour montrer que l’organisation temporelle de la dénomination de dessin n’est pas, au sens strict, parallèle. Dans une deuxième étude nous avons combiné trois techniques d’enregistrements : SEEG, EEG et MEG pour clarifier l’organisation spatiale des sources d’activité neuronales. Nous avons établi la faisabilité de l’enregistrement sur un patient qui exécute une tâche de perception visuelle. Au delà des corrélations entre les signaux moyens des trois techniques, cette analyse a révélé des corrélations au niveau des essais uniques. À travers deux approches expérimentales, cette thèse propose de nombreux développements méthodologiques et conceptuels originaux et pertinents. Ces contributions ouvrent de nouvelles perspectives à partir desquelles les signaux neurophysiologiques pourront informer les théories des Neurosciences Cognitives
A major issue in Cognitive Psychology is to describe human cognitive functions. From the Neuroscientific perceptive, measurements of brain activity are collected and processed in order to grasp, at their best resolution, the relevant spatio-temporal features of the signal that can be linked with cognitive operations. The work of this thesis consisted in designing and implementing strategies in order to overcome spatial and temporal limitations of signal processing procedures used to address cognitive issues. In a first study we demonstrated that the distinction between picture naming classical temporal organizations serial-parallel, should be addressed at the level of single trials and not on the averaged signals. We designed and conducted the analysis of SEEG signals from 5 patients to show that the temporal organization of picture naming involves a parallel processing architecture to a limited degree only. In a second study, we combined SEEG, EEG and MEG into a simultaneous trimodal recording session. A patient was presented with a visual stimulation paradigm while the three types of signals were simultaneously recorded. Averaged activities at the sensor level were shown to be consistent across the three techniques. More importantly a fine-grained coupling between the amplitudes of the three recording techniques is detected at the level of single evoked responses. This thesis proposes various relevant methodological and conceptual developments. It opens up several perspectives in which neurophysiological signals shall better inform Cognitive Neuroscientific theories
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Ewald, Arne Verfasser], Klaus-Robert [Akademischer Betreuer] [Müller, Andreas [Akademischer Betreuer] Daffertshofer y Guido [Akademischer Betreuer] Nolte. "Novel multivariate data analysis techniques to determine functionally connected networks within the brain from EEG or MEG data / Arne Ewald. Gutachter: Klaus-Robert Müller ; Andreas Daffertshofer ; Guido Nolte". Berlin : Technische Universität Berlin, 2014. http://d-nb.info/1067387773/34.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Ewald, Arne [Verfasser], Klaus-Robert [Akademischer Betreuer] Müller, Andreas [Akademischer Betreuer] Daffertshofer y Guido [Akademischer Betreuer] Nolte. "Novel multivariate data analysis techniques to determine functionally connected networks within the brain from EEG or MEG data / Arne Ewald. Gutachter: Klaus-Robert Müller ; Andreas Daffertshofer ; Guido Nolte". Berlin : Technische Universität Berlin, 2014. http://d-nb.info/1067387773/34.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Carrara, Igor. "Méthodes avancées de traitement des BCI-EEG pour améliorer la performance et la reproductibilité de la classification". Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ4033.

Texto completo
Resumen
L'électroencéphalographie (EEG) mesure de manière non invasive l'activité électrique du cerveau par le biais de champs électromagnétiques générés par l'activité synchronisée de millions de neurones. Cela permet de collecter des données temporelles multivariées qui constituent une trace de l'activité électrique du cerveau mesurée au niveau du cuir chevelu. À tout instant, les mesures enregistrées par ces capteurs sont des combinaisons linéaires des activités électriques provenant d'un ensemble de sources sous-jacentes situées dans le cortex cérébral. Ces sources interagissent entre elles selon un modèle biophysique complexe qui reste mal compris. Dans certaines applications, telles que la planification chirurgicale, il est crucial de reconstruire avec précision ces sources électriques corticales, une tâche connue sous le nom de résolution du problème inverse de reconstruction de sources. Bien qu'intellectuellement satisfaisante et potentiellement plus précise, cette approche nécessite le développement et l'application d'un modèle spécifique au sujet, ce qui est à la fois coûteux et techniquement difficile à réaliser. Il est cependant souvent possible d'utiliser directement les mesures EEG au niveau des capteurs et d'en extraire des informations sur l'activité cérébrale. Cela réduit considérablement la complexité de l'analyse des données par rapport aux approches au niveau des sources. Ces mesures peuvent être utilisées pour une variété d'applications comme par exemple la surveillance des états cognitifs, le diagnostic des conditions neurologiques ou le développement d'interfaces cerveau-ordinateur (BCI). De fait, même sans avoir une compréhension complète des signaux cérébraux, il est possible de créer une communication directe entre le cerveau et un appareil externe à l'aide de la technologie BCI. Le travail décrit dans ce document est centré sur les interfaces cerveau-ordinateur basées sur l'EEG, qui ont plusieurs applications dans divers domaines médicaux, comme la réadaptation et la communication pour les personnes handicapées, ou dans des domaines non médicaux, notamment les jeux et la réalité virtuelle. La première contribution de cette thèse va dans ce sens, avec la proposition d'une méthode basée sur une matrice de covariance augmentée (ACM). Sur cette base, la méthode de covariance augmentée Block-Toeplitz (BT-ACM) représente une évolution notable, améliorant l'efficacité de calcul tout en conservant son efficacité et sa versatilité. Enfin, ce travail se poursuit avec la proposition d'un réseau de neurones artificiel Phase-SPDNet qui permet l'intégration de ces méthodologies dans une approche de Deep Learning et qui est particulièrement efficace même avec un nombre limité d'électrodes. Nous avons en outre proposé le cadre pseudo-on-line pour mieux caractériser l'efficacité des méthodes BCI et la plus grande étude de reproductibilité BCI basée sur l'EEG en utilisant le benchmark MOABB (Mother of all BCI Benchmarks). Cette recherche vise à promouvoir une plus grande reproductibilité et fiabilité des études BCI. En conclusion, nous relevons dans cette thèse deux défis majeurs dans le domaine des interfaces cerveau-ordinateur (BCI) basées sur l'EEG : l'amélioration des performances par le développement d'algorithmes avancés au niveau des capteurs et l'amélioration de la reproductibilité au sein de la communauté BCI
Electroencephalography (EEG) non-invasively measures the brain's electrical activity through electromagnetic fields generated by synchronized neuronal activity. This allows for the collection of multivariate time series data, capturing a trace of the brain electrical activity at the level of the scalp. At any given time instant, the measurements recorded by these sensors are linear combinations of the electrical activities from a set of underlying sources located in the cerebral cortex. These sources interact with one another according to a complex biophysical model, which remains poorly understood. In certain applications, such as surgical planning, it is crucial to accurately reconstruct these cortical electrical sources, a task known as solving the inverse problem of source reconstruction. While intellectually satisfying and potentially more precise, this approach requires the development and application of a subject-specific model, which is both expensive and technically demanding to achieve.However, it is often possible to directly use the EEG measurements at the level of the sensors and extract information about the brain activity. This significantly reduces the data analysis complexity compared to source-level approaches. These measurements can be used for a variety of applications, including monitoring cognitive states, diagnosing neurological conditions, and developing brain-computer interfaces (BCI). Actually, even though we do not have a complete understanding of brain signals, it is possible to generate direct communication between the brain and an external device using the BCI technology. This work is centered on EEG-based BCIs, which have several applications in various medical fields, like rehabilitation and communication for disabled individuals or in non-medical areas, including gaming and virtual reality.Despite its vast potential, BCI technology has not yet seen widespread use outside of laboratories. The primary objective of this PhD research is to try to address some of the current limitations of the BCI-EEG technology. Autoregressive models, even though they are not completely justified by biology, offer a versatile framework to effectively analyze EEG measurements. By leveraging these models, it is possible to create algorithms that combine nonlinear systems theory with the Riemannian-based approach to classify brain activity. The first contribution of this thesis is in this direction, with the creation of the Augmented Covariance Method (ACM). Building upon this foundation, the Block-Toeplitz Augmented Covariance Method (BT-ACM) represents a notable evolution, enhancing computational efficiency while maintaining its efficacy and versatility. Finally, the Phase-SPDNet work enables the integration of such methodologies into a Deep Learning approach that is particularly effective with a limited number of electrodes.Additionally, we proposed the creation of a pseudo online framework to better characterize the efficacy of BCI methods and the largest EEG-based BCI reproducibility study using the Mother of all BCI Benchmarks (MOABB) framework. This research seeks to promote greater reproducibility and trustworthiness in BCI studies.In conclusion, we address two critical challenges in the field of EEG-based brain-computer interfaces (BCIs): enhancing performance through advanced algorithmic development at the sensor level and improving reproducibility within the BCI community
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Jas, Mainak. "Contributions pour l'analyse automatique de signaux neuronaux". Electronic Thesis or Diss., Paris, ENST, 2018. http://www.theses.fr/2018ENST0021.

Texto completo
Resumen
Les expériences d’électrophysiologie ont longtemps reposé sur de petites cohortes de sujets pour découvrir des effets d’intérêt significatifs. Toutefois, la faible taille de l’échantillon se traduit par une faible puissance statistique, ce qui entraîne un taux élevé de fausses découvertes et un faible taux de reproductibilité. Deux questions restent à répondre : 1) comment faciliter le partage et la réutilisation des données pour créer de grands ensembles de données; et 2) une fois que de grands ensembles de données sont disponibles, quels outils pouvons-nous construire pour les analyser ? Donc, nous introduisons une nouvelle norme pour le partage des données, Brain Imaging Data Structure (BIDS), et son extension MEG-BIDS. Puis, nous présentons un pipeline d’analyse de données électrophysiologie avec le logiciel MNE. Nous tenons compte des différents choix que l’utilisateur doit faire à chaque étape et formulons des recommandations standardisées. De plus, nous proposons un outil automatisé pour supprimer les segments de données corrompus par des artefacts, ainsi qu’un algorithme de détection d’anomalies basé sur le réglage des seuils de rejet. Par ailleurs, nous utilisons les données HCP, annotées manuellement, pour comparer notre algorithme aux méthodes existantes. Enfin, nous utilisons le convolutional sparse coding pour identifier les structures des séries temporelles neuronales. Nous reformulons l’approche existante comme une inférence MAP pour être atténuer les artefacts provenant des grandes amplitudes et des distributions à queue lourde. Ainsi, cette thèse tente de passer des méthodes d’analyse lentes et manuelles vers des méthodes automatisées et reproducibles
Electrophysiology experiments has for long relied upon small cohorts of subjects to uncover statistically significant effects of interest. However, the low sample size translates into a low power which leads to a high false discovery rate, and hence a low rate of reproducibility. To address this issue means solving two related problems: first, how do we facilitate data sharing and reusability to build large datasets; and second, once big datasets are available, what tools can we build to analyze them ? In the first part of the thesis, we introduce a new data standard for sharing data known as the Brain Imaging Data Structure (BIDS), and its extension MEG-BIDS. Next, we introduce the reader to a typical electrophysiological pipeline analyzed with the MNE software package. We consider the different choices that users have to deal with at each stage of the pipeline and provide standard recommendations. Next, we focus our attention on tools to automate analysis of large datasets. We propose an automated tool to remove segments of data corrupted by artifacts. We develop an outlier detection algorithm based on tuning rejection thresholds. More importantly, we use the HCP data, which is manually annotated, to benchmark our algorithm against existing state-of-the-art methods. Finally, we use convolutional sparse coding to uncover structures in neural time series. We reformulate the existing approach in computer vision as a maximuma posteriori (MAP) inference problem to deal with heavy tailed distributions and high amplitude artifacts. Taken together, this thesis represents an attempt to shift from slow and manual methods of analysis to automated, reproducible analysis
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Ziehe, Andreas. "Blind source separation based on joint diagonalization of matrices with applications in biomedical signal processing". Phd thesis, [S.l. : s.n.], 2005. http://deposit.ddb.de/cgi-bin/dokserv?idn=976710331.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Bengtsson, Richard y Joel Lindgren. "Portabel EKG : Med möjlighet att trådlöst överföra och behandla EKG-data". Thesis, Linköpings universitet, Elektroniska Kretsar och System, 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-168107.

Texto completo
Resumen
Hjärt-kärlsjukdomar är den vanligaste dödsorsaken i Sverige och om dessa hjärtfel kan konstateras i ett tidigt stadie är chansen för att överleva hos den drabbade mycket hög. Detta projekt gick ut på att designa ett modulbaserat och portabelt EKG-system som kan mäta minst sju avledningar och trådlöst överför EKG-data till en dator eller mobil där det sparas för analys vid ett senare tillfälle. De tre moduler som använts i projektet är ett demokort från Texas Instrument, som bygger runt deras A/D-omvandlar ADS1298 konstruerad för att sampla EKG-data, en Nordic Thingy 52 som trådlöst via Bluetooth Low Energy överför det data som samplats samt en Raspberry Pi för lagring och datahantering. Mätvärdena ska sparas i en fil som senare ska kunna användas för att visualisera ett EKG-komplex.   Arbetet inleddes med en förstudie samt en designspecifikation som en grund till EKG-systemet. När systemet var implementerat utfördes en rad olika EKG för att kontrollera dataöverföring samt att filtrering var korrekt. Det färdiga EKG-systemet visade sig uppfylla de krav som ställdes i början av projektet och har mycket hög förbättringspotential inför framtiden.
Cardiovascular disease is the most common cause of death in Sweden and if these heart defects can be diagnosed at an early stage, the chance of survival in the sufferer is very high. This project involved designing a modular and portable ECG system that can measure at least seven leads and wirelessly over Bluetooth Low Energy transfer ECG data to a computer or mobile where it can be saved for later analysis. The three modules used in the project are a demonstration board from Texas Instrument, which builds around the analog to digital converter ADS1298 designed to collect ECG data, Nordic Thingy 52 which wirelessly via Bluetooth Low Energy transmits the collected ECG data and a Raspberry Pi for storage and data management. The measured values ​​must be saved in a file that can later be used to visualize an ECG complex.  The work began with a feasibility study and a design specification as a basis for the ECG system. When the system was implemented several different ECGs was done to test so that data transfer and filtering were correct. The completed ECG system proved to meet the requirements set at the beginning of the project and has a very high potential for improvement in the future.
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Hurdal, Monica Kimberly. "Mathematical and computer modelling of the human brain with reference to cortical magnification and dipole source localisation in the visual cortx". Thesis, Queensland University of Technology, 1998.

Buscar texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Rodríguez-Rivera, Alberto. "MEG/EEG source detection and localization techniques for small numbers of data records". 2004. http://catalog.hathitrust.org/api/volumes/oclc/61464423.html.

Texto completo
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía