Zeitschriftenartikel zum Thema „Auditory attention decoding“
Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an
Machen Sie sich mit Top-50 Zeitschriftenartikel für die Forschung zum Thema "Auditory attention decoding" bekannt.
Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.
Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.
Sehen Sie die Zeitschriftenartikel für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.
Han, Cong, James O’Sullivan, Yi Luo, Jose Herrero, Ashesh D. Mehta und Nima Mesgarani. „Speaker-independent auditory attention decoding without access to clean speech sources“. Science Advances 5, Nr. 5 (Mai 2019): eaav6134. http://dx.doi.org/10.1126/sciadv.aav6134.
Der volle Inhalt der QuelleAldag, Nina, Andreas Büchner, Thomas Lenarz und Waldo Nogueira. „Towards decoding selective attention through cochlear implant electrodes as sensors in subjects with contralateral acoustic hearing“. Journal of Neural Engineering 19, Nr. 1 (01.02.2022): 016023. http://dx.doi.org/10.1088/1741-2552/ac4de6.
Der volle Inhalt der QuelleGeirnaert, Simon, Servaas Vandecappelle, Emina Alickovic, Alain de Cheveigne, Edmund Lalor, Bernd T. Meyer, Sina Miran, Tom Francart und Alexander Bertrand. „Electroencephalography-Based Auditory Attention Decoding: Toward Neurosteered Hearing Devices“. IEEE Signal Processing Magazine 38, Nr. 4 (Juli 2021): 89–102. http://dx.doi.org/10.1109/msp.2021.3075932.
Der volle Inhalt der QuelleFu, Zhen, Xihong Wu und Jing Chen. „Congruent audiovisual speech enhances auditory attention decoding with EEG“. Journal of Neural Engineering 16, Nr. 6 (06.11.2019): 066033. http://dx.doi.org/10.1088/1741-2552/ab4340.
Der volle Inhalt der QuelleStraetmans, L., B. Holtze, S. Debener, M. Jaeger und B. Mirkovic. „Neural tracking to go: auditory attention decoding and saliency detection with mobile EEG“. Journal of Neural Engineering 18, Nr. 6 (01.12.2021): 066054. http://dx.doi.org/10.1088/1741-2552/ac42b5.
Der volle Inhalt der QuelleFacoetti, Andrea, Anna Noemi Trussardi, Milena Ruffino, Maria Luisa Lorusso, Carmen Cattaneo, Raffaella Galli, Massimo Molteni und Marco Zorzi. „Multisensory Spatial Attention Deficits Are Predictive of Phonological Decoding Skills in Developmental Dyslexia“. Journal of Cognitive Neuroscience 22, Nr. 5 (Mai 2010): 1011–25. http://dx.doi.org/10.1162/jocn.2009.21232.
Der volle Inhalt der QuelleXu, Zihao, Yanru Bai, Ran Zhao, Qi Zheng, Guangjian Ni und Dong Ming. „Auditory attention decoding from EEG-based Mandarin speech envelope reconstruction“. Hearing Research 422 (September 2022): 108552. http://dx.doi.org/10.1016/j.heares.2022.108552.
Der volle Inhalt der QuelleAroudi, Ali, und Simon Doclo. „Cognitive-Driven Binaural Beamforming Using EEG-Based Auditory Attention Decoding“. IEEE/ACM Transactions on Audio, Speech, and Language Processing 28 (2020): 862–75. http://dx.doi.org/10.1109/taslp.2020.2969779.
Der volle Inhalt der QuelleAroudi, Ali, Eghart Fischer, Maja Serman, Henning Puder und Simon Doclo. „Closed-Loop Cognitive-Driven Gain Control of Competing Sounds Using Auditory Attention Decoding“. Algorithms 14, Nr. 10 (30.09.2021): 287. http://dx.doi.org/10.3390/a14100287.
Der volle Inhalt der QuelleWang, Lei, Ed X. Wu und Fei Chen. „EEG-based auditory attention decoding using speech-level-based segmented computational models“. Journal of Neural Engineering 18, Nr. 4 (25.05.2021): 046066. http://dx.doi.org/10.1088/1741-2552/abfeba.
Der volle Inhalt der QuelleLu, Yun, Mingjiang Wang, Longxin Yao, Hongcai Shen, Wanqing Wu, Qiquan Zhang, Lu Zhang et al. „Auditory attention decoding from electroencephalography based on long short-term memory networks“. Biomedical Signal Processing and Control 70 (September 2021): 102966. http://dx.doi.org/10.1016/j.bspc.2021.102966.
Der volle Inhalt der QuelleYufei, Wu, Wang Dandan und Zhu Yanwei. „Research on the Advantages of Digital Sensor Equipment in Language Audio-Visual and Oral Teaching“. Journal of Sensors 2021 (30.11.2021): 1–13. http://dx.doi.org/10.1155/2021/3006397.
Der volle Inhalt der QuelleTreder, M. S., H. Purwins, D. Miklody, I. Sturm und B. Blankertz. „Decoding auditory attention to instruments in polyphonic music using single-trial EEG classification“. Journal of Neural Engineering 11, Nr. 2 (10.03.2014): 026009. http://dx.doi.org/10.1088/1741-2560/11/2/026009.
Der volle Inhalt der QuelleEtard, Octave, Mikolaj Kegler, Chananel Braiman, Antonio Elia Forte und Tobias Reichenbach. „Decoding of selective attention to continuous speech from the human auditory brainstem response“. NeuroImage 200 (Oktober 2019): 1–11. http://dx.doi.org/10.1016/j.neuroimage.2019.06.029.
Der volle Inhalt der QuelleDas, Neetha, Wouter Biesmans, Alexander Bertrand und Tom Francart. „The effect of head-related filtering and ear-specific decoding bias on auditory attention detection“. Journal of Neural Engineering 13, Nr. 5 (13.09.2016): 056014. http://dx.doi.org/10.1088/1741-2560/13/5/056014.
Der volle Inhalt der QuelleAroudi, Ali, Bojana Mirkovic, Maarten De Vos und Simon Doclo. „Impact of Different Acoustic Components on EEG-Based Auditory Attention Decoding in Noisy and Reverberant Conditions“. IEEE Transactions on Neural Systems and Rehabilitation Engineering 27, Nr. 4 (April 2019): 652–63. http://dx.doi.org/10.1109/tnsre.2019.2903404.
Der volle Inhalt der QuelleGraña, Gilberto David, Cyrus P. Billimoria und Kamal Sen. „Analyzing Variability in Neural Responses to Complex Natural Sounds in the Awake Songbird“. Journal of Neurophysiology 101, Nr. 6 (Juni 2009): 3147–57. http://dx.doi.org/10.1152/jn.90917.2008.
Der volle Inhalt der QuelleXu, Zihao, Yanru Bai, Ran Zhao, Hongmei Hu, Guangjian Ni und Dong Ming. „Corrigendum to “Decoding selective auditory attention with EEG using a transformer model” [Methods 204 (2022) 410–417]“. Methods 205 (September 2022): 157. http://dx.doi.org/10.1016/j.ymeth.2022.07.008.
Der volle Inhalt der QuelleMiran, Sina, Sahar Akram, Alireza Sheikhattar, Jonathan Z. Simon, Tao Zhang und Behtash Babadi. „Robust and real-time decoding of selective auditory attention from M/EEG: A state-space modeling approach“. Journal of the Acoustical Society of America 143, Nr. 3 (März 2018): 1743. http://dx.doi.org/10.1121/1.5035690.
Der volle Inhalt der QuelleGeirnaert, Simon, Tom Francart und Alexander Bertrand. „An Interpretable Performance Metric for Auditory Attention Decoding Algorithms in a Context of Neuro-Steered Gain Control“. IEEE Transactions on Neural Systems and Rehabilitation Engineering 28, Nr. 1 (Januar 2020): 307–17. http://dx.doi.org/10.1109/tnsre.2019.2952724.
Der volle Inhalt der QuelleAkram, Sahar, Alessandro Presacco, Jonathan Z. Simon, Shihab A. Shamma und Behtash Babadi. „Robust decoding of selective auditory attention from MEG in a competing-speaker environment via state-space modeling“. NeuroImage 124 (Januar 2016): 906–17. http://dx.doi.org/10.1016/j.neuroimage.2015.09.048.
Der volle Inhalt der QuelleSchäfer, Patrick J., Farah I. Corona-Strauss, Ronny Hannemann, Steven A. Hillyard und Daniel J. Strauss. „Testing the Limits of the Stimulus Reconstruction Approach: Auditory Attention Decoding in a Four-Speaker Free Field Environment“. Trends in Hearing 22 (Januar 2018): 233121651881660. http://dx.doi.org/10.1177/2331216518816600.
Der volle Inhalt der QuelleMajerus, Steve, Frédéric Péters, Marion Bouffier, Nelson Cowan und Christophe Phillips. „The Dorsal Attention Network Reflects Both Encoding Load and Top–down Control during Working Memory“. Journal of Cognitive Neuroscience 30, Nr. 2 (Februar 2018): 144–59. http://dx.doi.org/10.1162/jocn_a_01195.
Der volle Inhalt der QuelleXi, Jie, Hongkai Xu, Ying Zhu, Linjun Zhang, Hua Shu und Yang Zhang. „Categorical Perception of Chinese Lexical Tones by Late Second Language Learners With High Proficiency: Behavioral and Electrophysiological Measures“. Journal of Speech, Language, and Hearing Research 64, Nr. 12 (13.12.2021): 4695–704. http://dx.doi.org/10.1044/2021_jslhr-20-00210.
Der volle Inhalt der QuelleChouiter, Leila, Athina Tzovara, Sebastian Dieguez, Jean-Marie Annoni, David Magezi, Marzia De Lucia und Lucas Spierer. „Experience-based Auditory Predictions Modulate Brain Activity to Silence as Do Real Sounds“. Journal of Cognitive Neuroscience 27, Nr. 10 (Oktober 2015): 1968–80. http://dx.doi.org/10.1162/jocn_a_00835.
Der volle Inhalt der QuelleХомякова, Т. В. „The Peculiarities of Hidden Sense Decoding by Young Schoolchildren with Alalia“. Психолого-педагогический поиск, Nr. 2(54) (23.10.2020): 195–201. http://dx.doi.org/10.37724/rsu.2020.54.2.020.
Der volle Inhalt der QuelleHou, Yao, Rongnian Tang und Xiaofeng Xie. „A Decoding Method Using Riemannian Local Linear Feature Construction for a Lower-Limb Motor Imagery Brain–Computer Interface System“. Electronics 12, Nr. 22 (18.11.2023): 4697. http://dx.doi.org/10.3390/electronics12224697.
Der volle Inhalt der QuelleTaranenko, Larysa, und Svitlana Aleksenko. „Prosodic means’ interaction in realising the anecdote humorous effect“. Revista Amazonia Investiga 11, Nr. 59 (15.12.2022): 172–83. http://dx.doi.org/10.34069/ai/2022.59.11.16.
Der volle Inhalt der QuelleSlaney, Malcolm, und Richard F. Lyon. „Speech and hearing for the next billion users“. Journal of the Acoustical Society of America 150, Nr. 4 (Oktober 2021): A347. http://dx.doi.org/10.1121/10.0008539.
Der volle Inhalt der QuelleLiu, Mengmeng, Jianling Tan und Yin Tian. „Decoding Auditory Attentional States by a 3D Convolutional Neural Network Model“. International Journal of Psychophysiology 168 (Oktober 2021): S134—S135. http://dx.doi.org/10.1016/j.ijpsycho.2021.07.387.
Der volle Inhalt der QuelleTychinina, Alyona R., und Nataliia V. Nikoriak. „V. DOMONTOVYCH’S SHORT STORY “THIRST FOR MUSIC” IN THE ASPECT OF INTERDISCURSIVE METHODOLOGY“. Alfred Nobel University Journal of Philology 1, Nr. 25 (30.05.2023): 131–43. http://dx.doi.org/10.32342/2523-4463-2023-1-25-10.
Der volle Inhalt der QuelleSeabra, A. G., G. R. Brito und L. R. R. Carreiro. „Reading assessment in ADHD and dyslexia in Brazilian teenagers“. European Psychiatry 66, S1 (März 2023): S714—S715. http://dx.doi.org/10.1192/j.eurpsy.2023.1496.
Der volle Inhalt der QuelleJones, Samuel A., und Uta Noppeney. „Older adults preserve audiovisual integration through enhanced cortical activations, not by recruiting new regions“. PLOS Biology 22, Nr. 2 (06.02.2024): e3002494. http://dx.doi.org/10.1371/journal.pbio.3002494.
Der volle Inhalt der QuelleGeirnaert, Simon, Tom Francart und Alexander Bertrand. „Unsupervised Self-Adaptive Auditory Attention Decoding“. IEEE Journal of Biomedical and Health Informatics, 2021, 1. http://dx.doi.org/10.1109/jbhi.2021.3075631.
Der volle Inhalt der QuelleWang, Lei, Yihan Wang, Zhixing Liu, Ed X. Wu und Fei Chen. „A Speech-Level–Based Segmented Model to Decode the Dynamic Auditory Attention States in the Competing Speaker Scenes“. Frontiers in Neuroscience 15 (10.02.2022). http://dx.doi.org/10.3389/fnins.2021.760611.
Der volle Inhalt der QuelleSimon, Adèle, Gérard Loquet, Jan Østergaard und Søren Bech. „Cortical Auditory Attention Decoding During Music And Speech Listening“. IEEE Transactions on Neural Systems and Rehabilitation Engineering, 2023, 1. http://dx.doi.org/10.1109/tnsre.2023.3291239.
Der volle Inhalt der QuelleSu, Enze, Siqi Cai, Longhan Xie, Haizhou Li und Tanja Schultz. „STAnet: A Spatiotemporal Attention Network for Decoding Auditory Spatial Attention from EEG“. IEEE Transactions on Biomedical Engineering, 2022, 1. http://dx.doi.org/10.1109/tbme.2022.3140246.
Der volle Inhalt der QuelleKurmanavičiūtė, Dovilė, Hanna Kataja, Mainak Jas, Anne Välilä und Lauri Parkkonen. „Target of selective auditory attention can be robustly followed with MEG“. Scientific Reports 13, Nr. 1 (06.07.2023). http://dx.doi.org/10.1038/s41598-023-37959-4.
Der volle Inhalt der QuelleCai, Siqi, Peiwen Li, Enze Su und Longhan Xie. „Auditory Attention Detection via Cross-Modal Attention“. Frontiers in Neuroscience 15 (21.07.2021). http://dx.doi.org/10.3389/fnins.2021.652058.
Der volle Inhalt der QuelleRotaru, Iustina, Simon Geirnaert, Nicolas Heintz, Iris Van de Ryck, Alexander Bertrand und Tom Francart. „What are we really decoding? Unveiling biases in EEG-based decoding of the spatial focus of auditory attention“. Journal of Neural Engineering, 24.01.2024. http://dx.doi.org/10.1088/1741-2552/ad2214.
Der volle Inhalt der QuelleXu, Zihao, Yanru Bai, Ran Zhao, Hongmei Hu, Guangjian Ni und Dong Ming. „Decoding selective auditory attention with EEG using a transformer model“. Methods, April 2022. http://dx.doi.org/10.1016/j.ymeth.2022.04.009.
Der volle Inhalt der QuelleZeng, Xianzhang, Siqi Cai und Longhan Xie. „Attention-guided graph structure learning network for EEG-enabled auditory attention detection“. Journal of Neural Engineering, 22.05.2024. http://dx.doi.org/10.1088/1741-2552/ad4f1a.
Der volle Inhalt der QuelleRaghavan, Vinay S., James O’Sullivan, Jose Herrero, Stephan Bickel, Ashesh D. Mehta und Nima Mesgarani. „Improving auditory attention decoding by classifying intracranial responses to glimpsed and masked acoustic events“. Imaging Neuroscience, 2024. http://dx.doi.org/10.1162/imag_a_00148.
Der volle Inhalt der QuelleTanveer, M. Asjid, Martin A. Skoglund, Bo Bernhardsson und Emina Alickovic. „Deep learning-based auditory attention decoding in listeners with hearing impairment“. Journal of Neural Engineering, 10.05.2024. http://dx.doi.org/10.1088/1741-2552/ad49d7.
Der volle Inhalt der QuelleThornton, Mike, Danilo Mandic und Tobias Reichenbach. „Robust decoding of the speech envelope from EEG recordings through deep neural networks“. Journal of Neural Engineering, 16.06.2022. http://dx.doi.org/10.1088/1741-2552/ac7976.
Der volle Inhalt der QuelleGeirnaert, Simon, Tom Francart und Alexander Bertrand. „Time-adaptive Unsupervised Auditory Attention Decoding Using EEG-based Stimulus Reconstruction“. IEEE Journal of Biomedical and Health Informatics, 2022, 1. http://dx.doi.org/10.1109/jbhi.2022.3162760.
Der volle Inhalt der Quellede Vries, Ingmar E. J., Giorgio Marinato und Daniel Baldauf. „Decoding object-based auditory attention from source-reconstructed MEG alpha oscillations“. Journal of Neuroscience, 24.08.2021, JN—RM—0583–21. http://dx.doi.org/10.1523/jneurosci.0583-21.2021.
Der volle Inhalt der QuelleKuruvila, Ivine, Jan Muncke, Eghart Fischer und Ulrich Hoppe. „Extracting the Auditory Attention in a Dual-Speaker Scenario From EEG Using a Joint CNN-LSTM Model“. Frontiers in Physiology 12 (02.08.2021). http://dx.doi.org/10.3389/fphys.2021.700655.
Der volle Inhalt der QuelleWilroth, Johanna, Bo Bernhardsson, Frida Heskebeck, Martin A. Skoglund, Carolina Bergeling und Emina Alickovic. „Improving EEG-based decoding of the locus of auditory attention through domain adaptation“. Journal of Neural Engineering, 21.11.2023. http://dx.doi.org/10.1088/1741-2552/ad0e7b.
Der volle Inhalt der QuelleDolhopiatenko, Hanna, und Waldo Nogueira. „Selective attention decoding in bimodal cochlear implant users“. Frontiers in Neuroscience 16 (11.01.2023). http://dx.doi.org/10.3389/fnins.2022.1057605.
Der volle Inhalt der Quelle