Literatura científica selecionada sobre o tema "Données EEG/MEG"

Crie uma referência precisa em APA, MLA, Chicago, Harvard, e outros estilos

Selecione um tipo de fonte:

Consulte a lista de atuais artigos, livros, teses, anais de congressos e outras fontes científicas relevantes para o tema "Données EEG/MEG".

Ao lado de cada fonte na lista de referências, há um botão "Adicionar à bibliografia". Clique e geraremos automaticamente a citação bibliográfica do trabalho escolhido no estilo de citação de que você precisa: APA, MLA, Harvard, Chicago, Vancouver, etc.

Você também pode baixar o texto completo da publicação científica em formato .pdf e ler o resumo do trabalho online se estiver presente nos metadados.

Artigos de revistas sobre o assunto "Données EEG/MEG"

1

Mallet, L. "∑njeux de la πsychiatrie ℂomputationnelle". European Psychiatry 30, S2 (novembro de 2015): S50—S51. http://dx.doi.org/10.1016/j.eurpsy.2015.09.143.

Texto completo da fonte
Resumo:
La psychiatrie computationnelle est un champ émergent qui, dans le prolongement des évolutions récentes en neurosciences cognitives, cherche à comprendre les pathologies mentales par la modélisation des processus élémentaires de pensée et leurs dysfonctionnements. En explicitant l’implémentation neurobiologique des algorithmes utilisés par le cerveau humain pour choisir, percevoir, ou ressentir… D’une certaine façon, cette nouvelle approche de la physiopathologie psychiatrique a pour ambition de combler le « fossé explicatif » entre cerveau et esprit. L’approche computationnelle se base sur la confrontation entre des données neurophysiologiques (IRM, EEG, MEG, électrophysiologie) acquises à chaque niveau de description du cerveau (récepteurs, neurones, réseaux, aires corticales) et les variables cachées prédites par des modèles ajustés aux comportements humains observables. Ce point de vue permet une approche transnosographique des symptômes psychiatriques qui peuvent être reconsidérés et caractérisés en termes de traitements pathologiques de l’information. Ces principes seront illustrés pour montrer :– comment cette approche permet de mieux comprendre l’émergence des processus élémentaires de pensée à partir de réseaux neuraux distribués, à contre-pied des approches néophrénologiques ;– illustrer comment ce type d’approche permet l’étude de l’architecture neurobiologique des processus de prise de décision chez l’homme ;– montrer l’intérêt des modèles bayésiens pour comprendre l’émergence des idées délirantes dans la schizophrénie.
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Cournoyer, A., V. Langlois-Carbonneau, R. Daoust e J. Chauny. "LO29: Création dune règle de décision clinique pour le diagnostic dun syndrome aortique aigu avec les outils dintelligence artificielle : phase initiale de définition des attributs communs aux patients sans syndrome aortique aigu chez une population à risque". CJEM 20, S1 (maio de 2018): S16—S17. http://dx.doi.org/10.1017/cem.2018.91.

Texto completo da fonte
Resumo:
Introduction: Les outils de prédiction disponibles (score clinique, ratio des neutrophiles sur lymphocytes et dosage des D-dimères) dans le diagnostic du syndrome aortique aigu (SAA) demeurent imparfaits. Dans ce contexte, avec lobjectif de développer une règle de décision clinique pour le diagnostic du SAA, la présente étude visait à définir un ensemble de variables discriminantes chez les patients souffrant ou non dun SAA en utilisant les outils dintelligence artificielle. Methods: À partir de lensemble des données cliniques disponibles chez les patients investigués pour douleur thoracique au département durgence avec une angiographie par tomodensitométrie (angioCT) visant à éliminer un SAA entre 2008 et 2014, un programme dapprentissage a été chargé de construire un arbre de décision (Clustering And Regression Tree) identifiant les patients ne souffrant pas dun SAA. La variable dintérêt était labsence de SAA et 23 attributs ont été testés. Le diagnostic de SAA était établi avec les résultats de langioCT. Des échantillons aléatoires de 70% de la population étudiée ont été testés de façon récursive (maximum de 100 itérations) pour construire larbre de décision. Six algorithmes dapprentissage (Reg Tree, LR, KNN, Naive B, Random Forest et CN2) ont été comparés et loptimisation du gain dinformation a été mesurée par les techniques de Gain Ratio et de Gini. Results: Un total de 198 patients (99 hommes et 99 femmes) dun âge moyen de 63 ans (±16) ont été inclus dans létude, parmi lesquels 26 (13%) souffraient dun SAA. Trois attributs ou regroupements dattributs ont permis de construire un arbre de décision permettant didentifier 114 patients sur 198 (57,6%) ayant une très faible probabilité de SAA (sensibilité visée de 100%). La sensibilité et spécificité de larbre de décision clinique était respectivement de 100% (intervalle de confiance [IC] 95% 86,7-100,0) et 70,4% (IC 95% 62,7-77,3). Les attributs en question étaient labsence de tout facteur de risque (e.g. syndrome de Marfan, chirurgie aortique ou valvulaire, histoire familiale), les signes vitaux (tension artérielle systolique, pouls et choc index) et les D-dimères. Le seuil de D-dimères utilisé pouvait varier entre 1114 et 1211 mcg/L selon lhémodynamie et la présence de facteur de risque. Les attributs suivants nétaient pas discriminants : le sexe, un antécédent de diabète, dhypertension artérielle ou de dyslipidémie, le tabagisme, avoir un déficit de perfusion, une différence de tension artérielle entre les deux bras ou un souffle dinsuffisance aortique et la formule sanguine. Conclusion: Les attributs les plus discriminants pour le SAA sont les facteurs à risque, lhémodynamie et les D-dimères. Une étude prospective multicentrique devrait être réalisé afin de développer une règle de décision clinique afin didentifier les patients à très bas risque de SAA à partir de ces attributs.
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Merlet, Isabelle. "Analyse dipolaire des paroxysmes intercritiques et critiques en EEG et MEG". Epileptic Disorders 3, SP1 (dezembro de 2001). http://dx.doi.org/10.1684/j.1950-6945.2001.tb00409.x.

Texto completo da fonte
Resumo:
RÉSUMÉ Les méthodes de modélisation dipolaire permettent d'estimer statistiquement la localisation et l'orientation des sources des signaux électroencéphalographiques (EEG) ou magnétoencéphalographiques (MEG). Ces méthodes ont été appliquées aux paroxysmes intercritiques depuis plus de 20 ans et suggèrent que la genèse des paroxysmes intercritiques repose plus sur l'expression d'un réseau de structures anatomiques que sur l'activation d'une région très focale. Nous examinons dans cette revue: (1) l'étendue de ce réseau selon différents types d'épilepsies, (2) les rapports entre ce réseau et les anomalies structurelles identifiées grâce à l'imagerie par résonance magnétique (IRM) ou les anomalies fonctionnelles observées en tomographie par émission de positons (TEP), et (3) la concordance spatiale et temporelle des sources dipolaires des paroxysmes intercritiques et critiques avec les enregistrements intracrâniens simultanés. Les informations issues des données de la modélisation dipolaire des pointes intercritiques sont généralement insuffisantes pour planifier une chirurgie sélective sans enregistrements invasifs. Cependant, les résultats des études examinées dans cette revue montrent que, confrontés aux données des autres techniques non invasives, les résultats de la modélisation dipolaire peuvent s'avérer utiles pour mieux définir la limite de la zone épileptogène ou l'étendue de l'implantation stéréo‐électroencéphalographique (SEEG).
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Quinn, Kieran L., Corita R. Grudzen, Alexander K. Smith e Allan S. Detsky. "Stop that Train! I Want to Get Off: Emergency Care for Patients with Advanced Dementia". Canadian Journal of General Internal Medicine 12, n.º 1 (9 de maio de 2017). http://dx.doi.org/10.22374/cjgim.v12i1.205.

Texto completo da fonte
Resumo:
The prevalence of advanced dementia (AD) is expected to increase dramatically over the next few decades. Patients with AD suffer from recurrent episodic illnesses that frequently result in transfers to acute care hospitals. The default pathway followed by some emergency physicians, internists and intensivists who see those patients is to prioritize disease-directed therapies over attention to the larger picture of AD. While this strategy is desired by many families, some families prefer a different approach. This essay examines the reason why there can be a failure to focus on the over-arching issue of AD and offers suggestions for improvement. Gaps in information and physician workload are important factors, but we argue that until physicians who see patients in emergency departments learn to pause first and ask “Why are we doing this?” they will revert to their comfort zone of ordering tests and therapies that may be unwanted. A separate emergency palliative care pathway may be one solution. Shifting the focus back to the larger picture of AD and away from the physiologic disturbance of the moment may alter the trajectory of care in ways that truly respect the wishes of some patients and their families. On s’attend à ce que la prévalence de la démence avancée (DA) augmente de façon extrêmement importante au cours des prochaines décennies. Or, il arrive que des patients atteints de DA soient aux prises avec des maladies épisodiques récurrentes qui entraînent fréquemment un transfert dans un hôpital de soins actifs. La voie suivie par défaut par certains urgentologues, internistes et intensivistes qui reçoivent ces patients consiste à donner la priorité à l’application de traitements axés sur la maladie plutôt qu’à aborder le problème plus large de la DA. Cette stratégie satisfait bien des familles, mais certaines préfèrent une autre approche. Cet article examine pourquoi on semble vouloir éviter de s’attarder au problème récurrent de la DA et offre des suggestions d’amélioration. Des lacunes en matière d’information ainsi que la charge de travail des médecins sont sûrement des facteurs importants qui mènent à cette situation. Toutefois, nous soutenons que tant que les médecins qui voient ces patients au service des urgences ne prendront pas le temps de s’arrêter et de se questionner sur leur choix d’actions, ils se limiteront à se retirer dans leur zone de confort qui consiste à prescrire des tests et des traitements qui risquent d’être inopportuns. Une voie distincte en matière de soins palliatifs d’urgence peut s’avérer être une solution. En déplaçant l’accent mis sur les troubles physiologiques du moment pour le mettre sur le problème plus large de la DA, la trajectoire des soins pourrait être modifiée de façon à mieux respecter les désirs de certains patients et de leur famille.An 84-year-old bed-bound man with severe Alzheimer’s dementia presents to the emergency department with pneumonia, accompanied by his 3 daughters. He has been hospitalized 4 times in the past 2 years for antibiotic-associated Clostridium difficile diarrhea. Antibiotics and intravenous fluids were started by the first physicians who saw him. An internist was consulted to take over his care.In 2016, 564,000 Canadians were living with dementia. Each year 25,000 new cases of dementia are diagnosed, and it is expected that by 2030 there will be close to 1 million Canadians who have dementia.1 People with advanced dementia (AD) suffer with cognitive deficits and are unable to communicate, ambulate and have incontinence. They are at high risk for imminent death,2,3 an under-recognized fact even among health care professionals.4 In contrast to patients with terminal cancer and end stage heart disease, most patients with AD do not die from devastating acute events (like bowel obstruction, or heart failure) that result from the progression of their primary disease. Instead, they die from recurrent episodic illnesses that can be treated with relatively simple therapeutic responses (like intravenous fluids or antibiotics). 3 These include pneumonias, urinary tract and skin infections, influenza, problems with eating (including aspiration) and dehydration. It is not surprising that in the United States that 19% of nursing home residents with cognitive impairment experience at least one transfer to a hospital in the last 120 days of life.5When these patients arrive in the emergency department (ED), the default pathway is to prioritize disease-directed therapies (e.g., intravenous fluid and antibiotics) over attention to the larger picture of AD. The physiologic disturbances receive intense focus and the AD is seemingly forgotten. These patients often suffer from treatable symptoms, including pain and shortness of breath.3 In some (but not all) cases, patients may receive care they don’t really want, families may be afraid to express their true wishes, and health care professionals may deliver care they suspect is unnecessary, or even harmful. This essay examines the reasons why this phenomenon occurs and offers suggestions for improvement by encouraging acute care clinicians to pause and ask themselves, “Why are we doing this?” and by engage family members in focused goals of care discussions that include outcomes of aggressive disease-directed treatments and palliative approaches.There are many reasons why the physicians who treat these patients in acute care hospitals (primarily emergency physicians, internists/hospitalists and intensivists) prioritize life-sustaining therapies over relief of burdensome symptoms as the default strategy. Information gaps affect the process of care. These physicians likely assume that a transfer to an acute care facility indicates the (sometimes mistaken) desire for life-sustaining interventions by the patient’s relatives. Transfer decisions are a human endeavour, and thus are subject to error6 especially when personnel worry about blame. While nearly half of all transfers from nursing homes to the ED are for cardiovascular and respiratory problems, 7 key factors influencing decisions to transfer as reported by family physicians include medico-legal concerns, family pressure, the capability of nursing home staff and the physician’s workload.8Even in Ontario, where nursing home residents are legally required to have annually updated instructions about whether transfer to acute care hospitals is indicated, the process only works as well as the nature of the counselling and discussion (which is often perfunctory) that takes place before the patients or their legal substitutes sign that document. In the United States, it is unclear how and whether the rapid uptake of Physician Orders for Life-Sustaining Treatment in nursing homes has affected end-of-life care in AD.9 From an economic and medico-legal perspective, there is no incentive for nursing homes or their staff to manage the acutely ill nursing home patient themselves, and every incentive to transfer care to an ED even when “no transfer” instructions are clearly recorded. The physician who meets the patient for the first time in the ED often lacks familiarity with the patient’s clinical course and his or her family, which coupled with a lack of communication training for these circumstances, inhibits addressing goals of care directly.10Physician workload is also an important factor. In a busy ED, an empathetic conversation that elucidates patients’ goals of care, educates families about the outcomes of care11 and offers the option of prioritizing attention to symptoms takes time and requires a higher cognitive load than ordering tests, intravenous fluids and antibiotics. In addition, the process of acute care, once initiated, may be a contributing factor. Family members see that life-prolonging therapies can be given, making it more difficult for them to decide to forgo disease-directed therapies once started without being overwhelmed by a sense of guilt. Finally, precise prognostication in a patient with AD is fraught with hazards.12 All of these factors play a role, but overall, until the physicians who see patients in the ED acquire the expertise to routinely address goals of care, and experience the rewards and sense of professional fulfillment that can be derived from sparing patients unwanted invasive care, the opportunity to prioritize comfort may not be offered. Those physicians will revert to their comfort zone of checking the electrolytes, obtaining a chest x-ray and urine culture which then results in a discussion that starts by asking families questions like, “Do you want us to treat the hypernatremia?” When phrased that way, few family members (even those who are physicians) are prepared to say “No.”While assessing goals of care for patients with AD may currently be viewed as impractical in the busy ED, perhaps the right models have not been proposed. Complexity has not deterred the rapid response in EDs for patients with acute strokes and ST-elevation myocardial infarctions. One solution may be to develop a separate “emergency palliative care pathway” where the primary task is prioritizing relief of burdensome symptoms and eliciting true preferences.13 thus avoiding stressful lengthy stays in the chaotic ED where patients with AD are often of low priority. Interventions aimed upstream from the ED may include increasing resources for training of nursing home staff along with the provision of decision aids to assist caregivers in the clarification of goals of care prior to transfer to the ED.14Some patients with AD and their families may prefer prioritizing comfort above all else but may not be offered the chance to make that choice. In a survey of elderly hospitalized Canadians, 70% reported wanting to focus on providing comfort rather than life-prolonging treatment, yet 54% of these patients are admitted to intensive care units at the end of life. 15 Even if this circumstance occurs in a minority of the dementia patients who are sent to EDs, the substantial rise in the number of people with dementia means that it will occur much more commonly in the future. In these cases, emergency physicians and the consultants that they approach for help can play a critical role if they push the pause button before beginning empiric disease-directed therapies, and simply ask patients’ families, “What is your understanding of your loved one’s prognosis?” and, “ What are you hoping for?” On the one hand, these conversations take time. On the other, they can be efficient, focus on these simple questions, and describe outcomes of care including potential discomforts associated with treatments. By shifting the focus back to the larger picture of AD and away from the physiologic disturbance of the moment, they may alter the trajectory of care, ultimately reducing the burden to patients and their families. We can facilitate patients’ wishes and honour the truly vital role that family members play as members of the health care team.Returning to the case, after a 7-minute discussion of the goals and options for care, led by the internist, the patient’s daughters were unable to decide upon the best course of treatment. A phone call to his wife was made, and she indicated that comfort measures were “what he would want.” After initiating oxygen and subcutaneous morphine for relief of pain and dyspnea in the ED, the patient was transferred to the ward with palliative care physicians. He received comfort-directed care and died peacefully 4 days later surrounded by his family. Competing InterestsNone declared AcknowledgementsWe thank S. Ryan Greysen MD, Gurpreet Dhaliwal (both of University of California San Francisco), Lewis A. Lipsitz MD (Harvard), Howard Ovens MD and Barry J. Goldlist MD (both of University of Toronto) for comments on an earlier draft.References1. Alzheimer Society of Canada. Report summary Prevalence and monetary costs of dementia in Canada (2016): a report by the Alzheimer Society of Canada. Health promotion and chronic disease prevention in Canada: research, policy and practice. October 2016:231–32.2. Morrison RS, Siu AL. Survival in end-stage dementia following acute illness. JAMA 2000;284(1):47–52.3. Mitchell SL, Teno JM, Kiely DK, et al. The clinical course of AD. N Engl J Med 2009;361(16):1529–38. doi:10.1056/NEJMoa0902234.4. Chang A, Walter LC. Recognizing dementia as a terminal illness in nursing home residents: Comment on "Survival and comfort after treatment of pneumonia in AD." Arch Intern Med 2010;170(13):1107–1109. doi:10.1001/archinternmed.2010.166.5. Gozalo P, Teno JM, Mitchell SL, et al. End-of-life transitions among nursing home residents with cognitive issues. N Engl J Med 2011;365(13):1212–21. doi:10.1056/NEJMsa1100347.6. Stephens CE, Newcomer R, Blegen M, Miller B, Harrington C. Emergency department use by nursing home residents: effect of severity of cognitive impairment. Gerontologist 2012;52(3):383–93. doi:10.1093/geront/gnr109.7. Jensen PM, Fraser F, Shankardass K, Epstein R, Khera J. Are long-term care residents referred appropriately to hospital emergency departments? Can Fam Physician 2009;55(5):500–505.8. McDermott C, Coppin R, Little P, Leydon G. Hospital admissions from nursing homes: a qualitative study of GP decision making. Br J Gen Pract 2012;62(601):e538–e545. doi:10.3399/bjgp12X653589.9. Halpern SD. Toward evidence-based end-of-life care. N Engl J Med 2015;373(21):2001-2003. doi:10.1056/NEJMp1509664.10. Lamba S, Nagurka R, Zielinski A, Scott SR. Palliative care provision in the emergency department: barriers reported by emergency physicians. J Palliat Med 2013;16(2):143–47. doi:10.1089/jpm.2012.0402.11. Givens JL, Jones RN, Shaffer ML, et al. Survival and comfort after treatment of pneumonia in AD. Arch Intern Med 2010;170(13):1102–107. doi:10.1001/archinternmed.2010.181.12. Mitchell SL, Miller SC, Teno JM, et al. Prediction of 6-month survival of nursing home residents with advanced dementia using ADEPT vs hospice eligibility guidelines. JAMA 2010;304(17):1929–35. doi:10.1001/jama.2010.1572.13. Grudzen CR, Stone SC, Morrison RS. The palliative care model for emergency department patients with advanced illness. J Palliat Med 2011;14(8):945–50. doi:10.1089/jpm.2011.0011.14. Hanson LC, Zimmerman S, Song M-K, et al. Effect of the goals of care intervention for AD. JAMA Intern Med 2017;177(1):24–28. doi:10.1001/jamainternmed.2016.7031.15. Fowler R, Hammer M. End-of-life care in Canada. Clin Invest Med 2013;36(3):E127–E132.
Estilos ABNT, Harvard, Vancouver, APA, etc.

Teses / dissertações sobre o assunto "Données EEG/MEG"

1

Belaoucha, Brahim. "Utilisation de l’IRM de diffusion pour la reconstruction de réseaux d’activations cérébrales à partir de données MEG/EEG". Thesis, Université Côte d'Azur (ComUE), 2017. http://www.theses.fr/2017AZUR4027/document.

Texto completo da fonte
Resumo:
Comprendre comment différentes régions du cerveau interagissent afin d’exécuter une tâche, est un défi très complexe. La magnéto- et l’électroencéphalographie (MEEG) sont deux techniques non-invasive d’imagerie fonctionnelle utilisées pour mesurer avec une bonne résolution temporelle l’activité cérébrale. Estimer cette activité à partir des mesures MEEG est un problème mal posé. Il est donc crucial de le régulariser pour obtenir une solution unique. Il a été montré que l’homogénéité structurelle des régions corticales reflète leur homogénéité fonctionnelle. Un des buts principaux de ce travail est d’utiliser cette information structurelle pour définir des a priori permettant de contraindre de manière plus anatomique ce problème inverse de reconstruction de sources. L’imagerie par résonance magnétique de diffusion (IRMd) est, à ce jour, la seule technique non-invasive qui fournisse des informations sur l’organisation structurelle de la matière blanche. Cela justifie son utilisation pour contraindre notre problème inverse. Nous utilisons l’information fournie par l’IRMd de deux manière différentes pour reconstruire les activations du cerveau : (1) via une méthode spatiale qui utilise une parcellisation du cerveau pour contraindre l’activité des sources. Ces parcelles sont obtenues par un algorithme qui permet d’obtenir un ensemble optimal de régions structurellement homogènes pour une mesure de similarité donnée sur tout le cerveau. (2) dans une approche spatio-temporelle qui utilise les connexions anatomiques, calculées à partir des données d’IRMd, pour contraindre la dynamique des sources. Ces méthodes sont appliquée à des données synthétiques et réelles
Understanding how brain regions interact to perform a given task is a very challenging task. Electroencephalography (EEG) and Magnetoencephalography (MEG) are two non-invasive functional imaging modalities used to record brain activity with high temporal resolution. As estimating brain activity from these measurements is an ill-posed problem. We thus must set a prior on the sources to obtain a unique solution. It has been shown in previous studies that structural homogeneity of brain regions reflect their functional homogeneity. One of the main goals of this work is to use this structural information to define priors to constrain more anatomically the MEG/EEG source reconstruction problem. This structural information is obtained using diffusion magnetic resonance imaging (dMRI), which is, as of today, the unique non-invasive structural imaging modality that provides an insight on the structural organization of white matter. This makes its use to constrain the EEG/MEG inverse problem justified. In our work, dMRI information is used to reconstruct brain activation in two ways: (1) In a spatial method which uses brain parcels to constrain the sources activity. These parcels are obtained by our whole brain parcellation algorithm which computes cortical regions with the most structural homogeneity with respect to a similarity measure. (2) In a spatio-temporal method that makes use of the anatomical connections computed from dMRI to constrain the sources’ dynamics. These different methods are validated using synthetic and real data
Estilos ABNT, Harvard, Vancouver, APA, etc.
2

Ablin, Pierre. "Exploration of multivariate EEG /MEG signals using non-stationary models". Thesis, Université Paris-Saclay (ComUE), 2019. http://www.theses.fr/2019SACLT051.

Texto completo da fonte
Resumo:
L'Analyse en Composantes Indépendantes (ACI) modèle un ensemble de signaux comme une combinaison linéaire de sources indépendantes. Cette méthode joue un rôle clé dans le traitement des signaux de magnétoencéphalographie (MEG) et électroencéphalographie (EEG). L'ACI de tels signaux permet d'isoler des sources de cerveau intéressantes, de les localiser, et de les séparer d'artefacts. L'ACI fait partie de la boite à outils de nombreux neuroscientifiques, et est utilisée dans de nombreux articles de recherche en neurosciences. Cependant, les algorithmes d'ACI les plus utilisés ont été développés dans les années 90. Ils sont souvent lents lorsqu'ils sont appliqués sur des données réelles, et sont limités au modèle d'ACI classique.L'objectif de cette thèse est de développer des algorithmes d'ACI utiles en pratique aux neuroscientifiques. Nous suivons deux axes. Le premier est celui de la vitesse : nous considérons le problème d'optimisation résolu par deux des algorithmes les plus utilisés par les praticiens: Infomax et FastICA. Nous développons une nouvelle technique se basant sur un préconditionnement par des approximations de la Hessienne de l'algorithm L-BFGS. L'algorithme qui en résulte, Picard, est conçu pour être appliqué sur données réelles, où l'hypothèse d’indépendance n'est jamais entièrement vraie. Sur des données de M/EEG, il converge plus vite que les implémentations `historiques'.Les méthodes incrémentales, qui traitent quelques échantillons à la fois au lieu du jeu de données complet, constituent une autre possibilité d’accélération de l'ACI. Ces méthodes connaissent une popularité grandissante grâce à leur faculté à bien passer à l'échelle sur de grands jeux de données. Nous proposons un algorithme incrémental pour l'ACI, qui possède une importante propriété de descente garantie. En conséquence, cet algorithme est simple d'utilisation, et n'a pas de paramètre critique et difficile à régler comme un taux d'apprentissage.En suivant un second axe, nous proposons de prendre en compte du bruit dans le modèle d'ACI. Le modèle resultant est notoirement difficile et long à estimer sous l'hypothèse standard de non-Gaussianité de l'ACI. Nous nous reposons donc sur une hypothèse de diversité spectrale, qui mène à un algorithme facile d'utilisation et utilisable en pratique, SMICA. La modélisation du bruit permet de nouvelles possibilités inenvisageables avec un modèle d'ACI classique, comme une estimation fine des source et l'utilisation de l'ACI comme une technique de réduction de dimension statistiquement bien posée. De nombreuses expériences sur données M/EEG démontrent l'utilité de cette nouvelle approche.Tous les algorithmes développés dans cette thèse sont disponibles en accès libre sur internet. L’algorithme Picard est inclus dans les librairies de traitement de données M/EEG les plus populaires en Python (MNE) et en Matlab (EEGlab)
Independent Component Analysis (ICA) models a set of signals as linear combinations of independent sources. This analysis method plays a key role in electroencephalography (EEG) and magnetoencephalography (MEG) signal processing. Applied on such signals, it allows to isolate interesting brain sources, locate them, and separate them from artifacts. ICA belongs to the toolbox of many neuroscientists, and is a part of the processing pipeline of many research articles. Yet, the most widely used algorithms date back to the 90's. They are often quite slow, and stick to the standard ICA model, without more advanced features.The goal of this thesis is to develop practical ICA algorithms to help neuroscientists. We follow two axes. The first one is that of speed. We consider the optimization problems solved by two of the most widely used ICA algorithms by practitioners: Infomax and FastICA. We develop a novel technique based on preconditioning the L-BFGS algorithm with Hessian approximation. The resulting algorithm, Picard, is tailored for real data applications, where the independence assumption is never entirely true. On M/EEG data, it converges faster than the `historical' implementations.Another possibility to accelerate ICA is to use incremental methods, which process a few samples at a time instead of the whole dataset. Such methods have gained huge interest in the last years due to their ability to scale well to very large datasets. We propose an incremental algorithm for ICA, with important descent guarantees. As a consequence, the proposed algorithm is simple to use and does not have a critical and hard to tune parameter like a learning rate.In a second axis, we propose to incorporate noise in the ICA model. Such a model is notoriously hard to fit under the standard non-Gaussian hypothesis of ICA, and would render estimation extremely long. Instead, we rely on a spectral diversity assumption, which leads to a practical algorithm, SMICA. The noise model opens the door to new possibilities, like finer estimation of the sources, and use of ICA as a statistically sound dimension reduction technique. Thorough experiments on M/EEG datasets demonstrate the usefulness of this approach.All algorithms developed in this thesis are open-sourced and available online. The Picard algorithm is included in the largest M/EEG processing Python library, MNE and Matlab library, EEGlab
Estilos ABNT, Harvard, Vancouver, APA, etc.
3

Jas, Mainak. "Contributions pour l'analyse automatique de signaux neuronaux". Electronic Thesis or Diss., Paris, ENST, 2018. http://www.theses.fr/2018ENST0021.

Texto completo da fonte
Resumo:
Les expériences d’électrophysiologie ont longtemps reposé sur de petites cohortes de sujets pour découvrir des effets d’intérêt significatifs. Toutefois, la faible taille de l’échantillon se traduit par une faible puissance statistique, ce qui entraîne un taux élevé de fausses découvertes et un faible taux de reproductibilité. Deux questions restent à répondre : 1) comment faciliter le partage et la réutilisation des données pour créer de grands ensembles de données; et 2) une fois que de grands ensembles de données sont disponibles, quels outils pouvons-nous construire pour les analyser ? Donc, nous introduisons une nouvelle norme pour le partage des données, Brain Imaging Data Structure (BIDS), et son extension MEG-BIDS. Puis, nous présentons un pipeline d’analyse de données électrophysiologie avec le logiciel MNE. Nous tenons compte des différents choix que l’utilisateur doit faire à chaque étape et formulons des recommandations standardisées. De plus, nous proposons un outil automatisé pour supprimer les segments de données corrompus par des artefacts, ainsi qu’un algorithme de détection d’anomalies basé sur le réglage des seuils de rejet. Par ailleurs, nous utilisons les données HCP, annotées manuellement, pour comparer notre algorithme aux méthodes existantes. Enfin, nous utilisons le convolutional sparse coding pour identifier les structures des séries temporelles neuronales. Nous reformulons l’approche existante comme une inférence MAP pour être atténuer les artefacts provenant des grandes amplitudes et des distributions à queue lourde. Ainsi, cette thèse tente de passer des méthodes d’analyse lentes et manuelles vers des méthodes automatisées et reproducibles
Electrophysiology experiments has for long relied upon small cohorts of subjects to uncover statistically significant effects of interest. However, the low sample size translates into a low power which leads to a high false discovery rate, and hence a low rate of reproducibility. To address this issue means solving two related problems: first, how do we facilitate data sharing and reusability to build large datasets; and second, once big datasets are available, what tools can we build to analyze them ? In the first part of the thesis, we introduce a new data standard for sharing data known as the Brain Imaging Data Structure (BIDS), and its extension MEG-BIDS. Next, we introduce the reader to a typical electrophysiological pipeline analyzed with the MNE software package. We consider the different choices that users have to deal with at each stage of the pipeline and provide standard recommendations. Next, we focus our attention on tools to automate analysis of large datasets. We propose an automated tool to remove segments of data corrupted by artifacts. We develop an outlier detection algorithm based on tuning rejection thresholds. More importantly, we use the HCP data, which is manually annotated, to benchmark our algorithm against existing state-of-the-art methods. Finally, we use convolutional sparse coding to uncover structures in neural time series. We reformulate the existing approach in computer vision as a maximuma posteriori (MAP) inference problem to deal with heavy tailed distributions and high amplitude artifacts. Taken together, this thesis represents an attempt to shift from slow and manual methods of analysis to automated, reproducible analysis
Estilos ABNT, Harvard, Vancouver, APA, etc.
4

Carrara, Igor. "Méthodes avancées de traitement des BCI-EEG pour améliorer la performance et la reproductibilité de la classification". Electronic Thesis or Diss., Université Côte d'Azur, 2024. http://www.theses.fr/2024COAZ4033.

Texto completo da fonte
Resumo:
L'électroencéphalographie (EEG) mesure de manière non invasive l'activité électrique du cerveau par le biais de champs électromagnétiques générés par l'activité synchronisée de millions de neurones. Cela permet de collecter des données temporelles multivariées qui constituent une trace de l'activité électrique du cerveau mesurée au niveau du cuir chevelu. À tout instant, les mesures enregistrées par ces capteurs sont des combinaisons linéaires des activités électriques provenant d'un ensemble de sources sous-jacentes situées dans le cortex cérébral. Ces sources interagissent entre elles selon un modèle biophysique complexe qui reste mal compris. Dans certaines applications, telles que la planification chirurgicale, il est crucial de reconstruire avec précision ces sources électriques corticales, une tâche connue sous le nom de résolution du problème inverse de reconstruction de sources. Bien qu'intellectuellement satisfaisante et potentiellement plus précise, cette approche nécessite le développement et l'application d'un modèle spécifique au sujet, ce qui est à la fois coûteux et techniquement difficile à réaliser. Il est cependant souvent possible d'utiliser directement les mesures EEG au niveau des capteurs et d'en extraire des informations sur l'activité cérébrale. Cela réduit considérablement la complexité de l'analyse des données par rapport aux approches au niveau des sources. Ces mesures peuvent être utilisées pour une variété d'applications comme par exemple la surveillance des états cognitifs, le diagnostic des conditions neurologiques ou le développement d'interfaces cerveau-ordinateur (BCI). De fait, même sans avoir une compréhension complète des signaux cérébraux, il est possible de créer une communication directe entre le cerveau et un appareil externe à l'aide de la technologie BCI. Le travail décrit dans ce document est centré sur les interfaces cerveau-ordinateur basées sur l'EEG, qui ont plusieurs applications dans divers domaines médicaux, comme la réadaptation et la communication pour les personnes handicapées, ou dans des domaines non médicaux, notamment les jeux et la réalité virtuelle. La première contribution de cette thèse va dans ce sens, avec la proposition d'une méthode basée sur une matrice de covariance augmentée (ACM). Sur cette base, la méthode de covariance augmentée Block-Toeplitz (BT-ACM) représente une évolution notable, améliorant l'efficacité de calcul tout en conservant son efficacité et sa versatilité. Enfin, ce travail se poursuit avec la proposition d'un réseau de neurones artificiel Phase-SPDNet qui permet l'intégration de ces méthodologies dans une approche de Deep Learning et qui est particulièrement efficace même avec un nombre limité d'électrodes. Nous avons en outre proposé le cadre pseudo-on-line pour mieux caractériser l'efficacité des méthodes BCI et la plus grande étude de reproductibilité BCI basée sur l'EEG en utilisant le benchmark MOABB (Mother of all BCI Benchmarks). Cette recherche vise à promouvoir une plus grande reproductibilité et fiabilité des études BCI. En conclusion, nous relevons dans cette thèse deux défis majeurs dans le domaine des interfaces cerveau-ordinateur (BCI) basées sur l'EEG : l'amélioration des performances par le développement d'algorithmes avancés au niveau des capteurs et l'amélioration de la reproductibilité au sein de la communauté BCI
Electroencephalography (EEG) non-invasively measures the brain's electrical activity through electromagnetic fields generated by synchronized neuronal activity. This allows for the collection of multivariate time series data, capturing a trace of the brain electrical activity at the level of the scalp. At any given time instant, the measurements recorded by these sensors are linear combinations of the electrical activities from a set of underlying sources located in the cerebral cortex. These sources interact with one another according to a complex biophysical model, which remains poorly understood. In certain applications, such as surgical planning, it is crucial to accurately reconstruct these cortical electrical sources, a task known as solving the inverse problem of source reconstruction. While intellectually satisfying and potentially more precise, this approach requires the development and application of a subject-specific model, which is both expensive and technically demanding to achieve.However, it is often possible to directly use the EEG measurements at the level of the sensors and extract information about the brain activity. This significantly reduces the data analysis complexity compared to source-level approaches. These measurements can be used for a variety of applications, including monitoring cognitive states, diagnosing neurological conditions, and developing brain-computer interfaces (BCI). Actually, even though we do not have a complete understanding of brain signals, it is possible to generate direct communication between the brain and an external device using the BCI technology. This work is centered on EEG-based BCIs, which have several applications in various medical fields, like rehabilitation and communication for disabled individuals or in non-medical areas, including gaming and virtual reality.Despite its vast potential, BCI technology has not yet seen widespread use outside of laboratories. The primary objective of this PhD research is to try to address some of the current limitations of the BCI-EEG technology. Autoregressive models, even though they are not completely justified by biology, offer a versatile framework to effectively analyze EEG measurements. By leveraging these models, it is possible to create algorithms that combine nonlinear systems theory with the Riemannian-based approach to classify brain activity. The first contribution of this thesis is in this direction, with the creation of the Augmented Covariance Method (ACM). Building upon this foundation, the Block-Toeplitz Augmented Covariance Method (BT-ACM) represents a notable evolution, enhancing computational efficiency while maintaining its efficacy and versatility. Finally, the Phase-SPDNet work enables the integration of such methodologies into a Deep Learning approach that is particularly effective with a limited number of electrodes.Additionally, we proposed the creation of a pseudo online framework to better characterize the efficacy of BCI methods and the largest EEG-based BCI reproducibility study using the Mother of all BCI Benchmarks (MOABB) framework. This research seeks to promote greater reproducibility and trustworthiness in BCI studies.In conclusion, we address two critical challenges in the field of EEG-based brain-computer interfaces (BCIs): enhancing performance through advanced algorithmic development at the sensor level and improving reproducibility within the BCI community
Estilos ABNT, Harvard, Vancouver, APA, etc.

Capítulos de livros sobre o assunto "Données EEG/MEG"

1

van der Zwaard, Joke. "Meedoen versus zelf doen: Zin en onzin van stads-, buurt- en straatburgerschap". In Geleefd Burgerschap: Van eenheidsdwang naar ruimte voor verschil en vitaliteit, 154–68. Uitgeverij SWP, 2012. http://dx.doi.org/10.36254/978-90-8850-334-4.09.

Texto completo da fonte
Resumo:
Stadsburgers zijn trots op hun stad, kennen hun rechten én plichten, voelen zich verbonden met de stad, uiten dit in participatie en onbetaalde activiteiten en gaan op een respectvolle manier met elkaar om (gemeente Rotterdam 2007). Stadsburgerschap en straatburgerschap zijn door bestuurders, beleidsmakers en wetenschappers om diverse redenen omarmd als pragmatisch alternatief voor het cultureel geladen en beladen staatsburgerschap. Allereerst omdat het beter lijkt te werken: de Erasmusbrug is een effectiever identificatiemiddel dan het Wilhelmus. Immigranten en hun nazaten blijken zich sneller te identificeren met hun woonplaats dan met hun nieuwe land (Phalet et al. 2000). Terwijl op landelijke schaal de wij-zij-tegenstellingen (arm-rijk, hoogopgeleid-laagopgeleid, autochtoon-allochtoon/ islamitisch, de culturele elite-henk&ingrid) onoverbrugbaar lijken, blijken mensen op straatniveau ondanks verschillende afkomst en positie gezamenlijke problemen te kunnen formuleren en oplossen; al of niet met hulp van een opbouwwerker (Duyvendak & Uitermark 2006). Er is zelfs al een woord uitgevonden voor dit productieve burgerschap in wijken en buurten: de ‘doedemocratie’ (Van de Weijdeven & Hendriks 2010). Voormalig minister Donner van Binnenlandse Zaken, waaronder ‘de wijken’ tegenwoordig vallen, kondigde aan dat hij dit ‘moderne burgerschap’ wilde ondersteunen door de ‘bewonersbudgetten in wijken’ te verruimen (Donner 2011).
Estilos ABNT, Harvard, Vancouver, APA, etc.
Oferecemos descontos em todos os planos premium para autores cujas obras estão incluídas em seleções literárias temáticas. Contate-nos para obter um código promocional único!

Vá para a bibliografia