Zeitschriftenartikel zum Thema „Cross-Modal effect“
Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an
Machen Sie sich mit Top-50 Zeitschriftenartikel für die Forschung zum Thema "Cross-Modal effect" bekannt.
Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.
Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.
Sehen Sie die Zeitschriftenartikel für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.
Kitamura, Emi, Katsuya Miyashita, Kenji Ozawa, Masaki Omata und Atsumi Imamiya. „Cross-Modality Between Haptic and Auditory Roughness with a Force Feedback Device“. Journal of Robotics and Mechatronics 18, Nr. 4 (20.08.2006): 450–57. http://dx.doi.org/10.20965/jrm.2006.p0450.
Der volle Inhalt der QuelleMaki, Takuma, und Hideyoshi Yanagisawa. „A Methodology for Multisensory Product Experience Design Using Cross-modal Effect: A Case of SLR Camera“. Proceedings of the Design Society: International Conference on Engineering Design 1, Nr. 1 (Juli 2019): 3801–10. http://dx.doi.org/10.1017/dsi.2019.387.
Der volle Inhalt der QuelleXia, Jing, Wei Zhang, Yizhou Jiang, You Li und Qi Chen. „Neural practice effect during cross-modal selective attention: Supra-modal and modality-specific effects“. Cortex 106 (September 2018): 47–64. http://dx.doi.org/10.1016/j.cortex.2018.05.003.
Der volle Inhalt der QuelleKang, Cheng, Nan Ye, Fangwen Zhang, Yanwen Wu, Guichun Jin, Jihong Xie und Lin Du. „The cross-modal affective priming effect: Effects of the valence and arousal of primes“. Social Behavior and Personality: an international journal 49, Nr. 12 (01.12.2021): 1–11. http://dx.doi.org/10.2224/sbp.10202.
Der volle Inhalt der QuelleLi, A., und E. H. Dowell. „Asymptotic modal analysis of dynamical systems: the effect of modal cross-correlation“. Journal of Sound and Vibration 276, Nr. 1-2 (September 2004): 65–80. http://dx.doi.org/10.1016/j.jsv.2003.07.031.
Der volle Inhalt der QuelleHanauer, Julie B., und Patricia J. Brooks. „Developmental change in the cross-modal Stroop effect“. Perception & Psychophysics 65, Nr. 3 (April 2003): 359–66. http://dx.doi.org/10.3758/bf03194567.
Der volle Inhalt der QuelleTagliabue, Mariaelena, Marco Zorzi und Carlo Umiltà. „Cross-modal re-mapping influences the Simon effect“. Memory & Cognition 30, Nr. 1 (Januar 2002): 18–23. http://dx.doi.org/10.3758/bf03195261.
Der volle Inhalt der QuellePatchay, Sandhiran, Umberto Castiello und Patrick Haggard. „A cross-modal interference effect in grasping objects“. Psychonomic Bulletin & Review 10, Nr. 4 (Dezember 2003): 924–31. http://dx.doi.org/10.3758/bf03196553.
Der volle Inhalt der QuelleKida, Tetsuo, Koji Inui, Emi Tanaka und Ryusuke Kakigi. „Dynamics of Within-, Inter-, and Cross-Modal Attentional Modulation“. Journal of Neurophysiology 105, Nr. 2 (Februar 2011): 674–86. http://dx.doi.org/10.1152/jn.00807.2009.
Der volle Inhalt der QuelleGu, Jiyou, und Huiqin Dong. „The effect of gender stereotypes on cross-modal spatial attention“. Social Behavior and Personality: an international journal 49, Nr. 9 (01.09.2021): 1–6. http://dx.doi.org/10.2224/sbp.10753.
Der volle Inhalt der QuelleVallet, Guillaume, Lionel Brunel und Rémy Versace. „The Perceptual Nature of the Cross-Modal Priming Effect“. Experimental Psychology 57, Nr. 5 (01.12.2010): 376–82. http://dx.doi.org/10.1027/1618-3169/a000045.
Der volle Inhalt der QuelleSato, Naoto, Mana Miyamoto, Risa Santa, Ayaka Sasaki und Kenichi Shibuya. „Cross-modal and subliminal effects of smell and color“. PeerJ 11 (17.02.2023): e14874. http://dx.doi.org/10.7717/peerj.14874.
Der volle Inhalt der QuelleHanada, G. M., J. Ahveninen, F. J. Calabro, A. Yengo-Kahn und L. M. Vaina. „Cross-Modal Cue Effects in Motion Processing“. Multisensory Research 32, Nr. 1 (2019): 45–65. http://dx.doi.org/10.1163/22134808-20181313.
Der volle Inhalt der QuelleSun, Xunwei, und Qiufang Fu. „The Visual Advantage Effect in Comparing Uni-Modal and Cross-Modal Probabilistic Category Learning“. Journal of Intelligence 11, Nr. 12 (27.11.2023): 218. http://dx.doi.org/10.3390/jintelligence11120218.
Der volle Inhalt der QuelleScurry, Alexandra N., Dustin Dutcher, John S. Werner und Fang Jiang. „Age-Related Effects on Cross-Modal Duration Perception“. Multisensory Research 32, Nr. 8 (11.12.2019): 693–714. http://dx.doi.org/10.1163/22134808-20191461.
Der volle Inhalt der QuelleFucci, Donald, Daniel Harris, Linda Petrosino und Elizabeth Randolph-Tyler. „Auditory Psychophysical Scaling Exposure Effects: Magnitude Estimation and Cross-Modal Matching“. Perceptual and Motor Skills 66, Nr. 2 (April 1988): 643–48. http://dx.doi.org/10.2466/pms.1988.66.2.643.
Der volle Inhalt der QuelleFarnè, Alessandro, und Elisabetta Làdavas. „Auditory Peripersonal Space in Humans“. Journal of Cognitive Neuroscience 14, Nr. 7 (01.10.2002): 1030–43. http://dx.doi.org/10.1162/089892902320474481.
Der volle Inhalt der QuelleKaiser, Saskia, Axel Buchner, Laura Mieth und Raoul Bell. „Negative target stimuli do not influence cross-modal auditory distraction“. PLOS ONE 17, Nr. 10 (07.10.2022): e0274803. http://dx.doi.org/10.1371/journal.pone.0274803.
Der volle Inhalt der QuelleFucci, Donald, Daniel Harris, Linda Petrosino und Elizabeth Randolph-Tyler. „Exposure Effects on the Psychophysical Scaling Methods of Magnitude Estimation and Cross-Modal Matching for Vibrotactile Stimulation of the Tongue and Hand“. Perceptual and Motor Skills 66, Nr. 2 (April 1988): 479–85. http://dx.doi.org/10.2466/pms.1988.66.2.479.
Der volle Inhalt der QuelleShcherbakova, O. „The Effect of Induced Emotional States on The Magnitude of Cross-Modal Correspondence Effect“. Psikhologicheskii zhurnal 44, Nr. 1 (2023): 30. http://dx.doi.org/10.31857/s020595920023642-2.
Der volle Inhalt der QuelleLo Verde, Luca, Maria Concetta Morrone und Claudia Lunghi. „Early Cross-modal Plasticity in Adults“. Journal of Cognitive Neuroscience 29, Nr. 3 (März 2017): 520–29. http://dx.doi.org/10.1162/jocn_a_01067.
Der volle Inhalt der QuelleHairston, W. D., M. T. Wallace, J. W. Vaughan, B. E. Stein, J. L. Norris und J. A. Schirillo. „Visual Localization Ability Influences Cross-Modal Bias“. Journal of Cognitive Neuroscience 15, Nr. 1 (01.01.2003): 20–29. http://dx.doi.org/10.1162/089892903321107792.
Der volle Inhalt der QuelleTomono, Keisuke, und Akira Tomono. „Cross-Modal Effect of Presenting Food Images on Taste Appetite“. Sensors 20, Nr. 22 (19.11.2020): 6615. http://dx.doi.org/10.3390/s20226615.
Der volle Inhalt der QuelleTobayama, Risa, Haruna Kusano und Kazuhiko Yokosawa. „The effect of cross-modal correspondence on memory and preference.“ Proceedings of the Annual Convention of the Japanese Psychological Association 84 (08.09.2020): PI—087—PI—087. http://dx.doi.org/10.4992/pacjpa.84.0_pi-087.
Der volle Inhalt der Quelle思竹, 韩. „The Cross-Modal Affective Priming Effect of Music Priming Stimulus“. Advances in Psychology 04, Nr. 01 (2014): 70–75. http://dx.doi.org/10.12677/ap.2014.41013.
Der volle Inhalt der QuelleZhao, Song, Yajie Wang, Hongyuan Xu, Chengzhi Feng und Wenfeng Feng. „Early cross-modal interactions underlie the audiovisual bounce-inducing effect“. NeuroImage 174 (Juli 2018): 208–18. http://dx.doi.org/10.1016/j.neuroimage.2018.03.036.
Der volle Inhalt der QuelleZU, Guangyao, Shuqi LI, Tianyang ZHANG, Aijun WANG und Ming ZHANG. „Effect of inhibition of return on audiovisual cross-modal correspondence“. Acta Psychologica Sinica 55, Nr. 8 (2023): 1220. http://dx.doi.org/10.3724/sp.j.1041.2023.01220.
Der volle Inhalt der QuelleGold, Rinat, Dina Klein und Osnat Segal. „The Bouba-Kiki Effect in Children With Childhood Apraxia of Speech“. Journal of Speech, Language, and Hearing Research 65, Nr. 1 (12.01.2022): 43–52. http://dx.doi.org/10.1044/2021_jslhr-21-00070.
Der volle Inhalt der QuelleChen, Lihan, Qingcui Wang und Ming Bao. „Spatial References and Audio-Tactile Interaction in Cross-Modal Dynamic Capture“. Multisensory Research 27, Nr. 1 (2014): 55–70. http://dx.doi.org/10.1163/22134808-00002441.
Der volle Inhalt der QuelleCui, Jiahong, Daisuke Sawamura, Satoshi Sakuraba, Ryuji Saito, Yoshinobu Tanabe, Hiroshi Miura, Masaaki Sugi et al. „Effect of Audiovisual Cross-Modal Conflict during Working Memory Tasks: A Near-Infrared Spectroscopy Study“. Brain Sciences 12, Nr. 3 (03.03.2022): 349. http://dx.doi.org/10.3390/brainsci12030349.
Der volle Inhalt der QuelleZhang, Mengqi, Fulvio Martinelli, Jian Wu, Peter J. Schmid und Maurizio Quadrio. „Modal and non-modal stability analysis of electrohydrodynamic flow with and without cross-flow“. Journal of Fluid Mechanics 770 (01.04.2015): 319–49. http://dx.doi.org/10.1017/jfm.2015.134.
Der volle Inhalt der QuelleHe, Ping, Huaying Qi, Shiyi Wang und Jiayue Cang. „Cross-Modal Sentiment Analysis of Text and Video Based on Bi-GRU Cyclic Network and Correlation Enhancement“. Applied Sciences 13, Nr. 13 (25.06.2023): 7489. http://dx.doi.org/10.3390/app13137489.
Der volle Inhalt der QuelleBertelsen, Anne Sjoerup, Line Ahm Mielby, Niki Alexi, Derek Victor Byrne und Ulla Kidmose. „Individual Differences in Sweetness Ratings and Cross-Modal Aroma-Taste Interactions“. Foods 9, Nr. 2 (01.02.2020): 146. http://dx.doi.org/10.3390/foods9020146.
Der volle Inhalt der QuelleBahrami Balani, Alex. „Cross-modal information transfer and the effect of concurrent task-load.“ Journal of Experimental Psychology: Learning, Memory, and Cognition 46, Nr. 1 (Januar 2020): 104–16. http://dx.doi.org/10.1037/xlm0000715.
Der volle Inhalt der Quellevan der Zande, Patrick, Alexandra Jesse und Anne Cutler. „Hearing words helps seeing words: A cross-modal word repetition effect“. Speech Communication 59 (April 2014): 31–43. http://dx.doi.org/10.1016/j.specom.2014.01.001.
Der volle Inhalt der QuelleTAYAMA, Tadayuki, und Qiongyao SHAO. „Cross-modal study about the effect of expectation on time perception“. Proceedings of the Annual Convention of the Japanese Psychological Association 77 (19.09.2013): 3PM—044–3PM—044. http://dx.doi.org/10.4992/pacjpa.77.0_3pm-044.
Der volle Inhalt der QuelleKwok, Sze Chai, Carlo Fantoni, Laura Tamburini, Lei Wang und Walter Gerbino. „A biphasic effect of cross-modal priming on visual shape recognition“. Acta Psychologica 183 (Februar 2018): 43–50. http://dx.doi.org/10.1016/j.actpsy.2017.12.013.
Der volle Inhalt der QuelleHAYASHI, Jumpei, Hiromasa SASAKI und Takeo KATO. „Cross-modal Effect between Taste and Shape Controlled by Curvature Entropy“. Proceedings of Design & Systems Conference 2022.32 (2022): 2413. http://dx.doi.org/10.1299/jsmedsd.2022.32.2413.
Der volle Inhalt der QuelleBertelsen, Anne Sjoerup, Line Ahm Mielby, Derek Victor Byrne und Ulla Kidmose. „Ternary Cross-Modal Interactions between Sweetness, Aroma, and Viscosity in Different Beverage Matrices“. Foods 9, Nr. 4 (30.03.2020): 395. http://dx.doi.org/10.3390/foods9040395.
Der volle Inhalt der QuelleNaidu Balireddy, Somi, Pitchaimani Jeyaraj, Lenin Babu Mailan Chinnapandi und Ch V. S. N. Reddi. „Effect of lamination schemes on natural frequency and modal damping of fiber reinforced laminated beam using Ritz method“. International Journal for Simulation and Multidisciplinary Design Optimization 12 (2021): 15. http://dx.doi.org/10.1051/smdo/2021016.
Der volle Inhalt der QuelleMishra, Jyoti, Antigona Martínez und Steven A. Hillyard. „Effect of Attention on Early Cortical Processes Associated with the Sound-induced Extra Flash Illusion“. Journal of Cognitive Neuroscience 22, Nr. 8 (August 2010): 1714–29. http://dx.doi.org/10.1162/jocn.2009.21295.
Der volle Inhalt der QuelleRobinson, Christopher W., und Vladimir M. Sloutsky. „When Audition Dominates Vision“. Experimental Psychology 60, Nr. 2 (01.11.2013): 113–21. http://dx.doi.org/10.1027/1618-3169/a000177.
Der volle Inhalt der QuelleLiu, Yongfei, Bo Wan, Xiaodan Zhu und Xuming He. „Learning Cross-Modal Context Graph for Visual Grounding“. Proceedings of the AAAI Conference on Artificial Intelligence 34, Nr. 07 (03.04.2020): 11645–52. http://dx.doi.org/10.1609/aaai.v34i07.6833.
Der volle Inhalt der QuelleLin, Yi, Hongwei Ding und Yang Zhang. „Prosody Dominates Over Semantics in Emotion Word Processing: Evidence From Cross-Channel and Cross-Modal Stroop Effects“. Journal of Speech, Language, and Hearing Research 63, Nr. 3 (23.03.2020): 896–912. http://dx.doi.org/10.1044/2020_jslhr-19-00258.
Der volle Inhalt der QuelleDu, Qinsheng, Yingxu Bian, Jianyu Wu, Shiyan Zhang und Jian Zhao. „Cross-Modal Adaptive Interaction Network for RGB-D Saliency Detection“. Applied Sciences 14, Nr. 17 (23.08.2024): 7440. http://dx.doi.org/10.3390/app14177440.
Der volle Inhalt der QuelleBonetti, Leonardo, und Marco Costa. „Pitch-verticality and pitch-size cross-modal interactions“. Psychology of Music 46, Nr. 3 (02.06.2017): 340–56. http://dx.doi.org/10.1177/0305735617710734.
Der volle Inhalt der QuelleJanyan, Armina, Yury Shtyrov, Ekaterina Andriushchenko, Ekaterina Blinova und Olga Shcherbakova. „Look and ye shall hear: Selective auditory attention modulates the audiovisual correspondence effect“. i-Perception 13, Nr. 3 (Mai 2022): 204166952210958. http://dx.doi.org/10.1177/20416695221095884.
Der volle Inhalt der QuelleFeenders, Gesa, und Georg M. Klump. „Audio-Visual Interference During Motion Discrimination in Starlings“. Multisensory Research 36, Nr. 2 (17.01.2023): 181–212. http://dx.doi.org/10.1163/22134808-bja10092.
Der volle Inhalt der QuelleLi, Wenxiao, Hongyan Mei, Yutian Li, Jiayao Yu, Xing Zhang, Xiaorong Xue und Jiahao Wang. „A Cross-Modal Hash Retrieval Method with Fused Triples“. Applied Sciences 13, Nr. 18 (21.09.2023): 10524. http://dx.doi.org/10.3390/app131810524.
Der volle Inhalt der QuelleZheng, Fuzhong, Weipeng Li, Xu Wang, Luyao Wang, Xiong Zhang und Haisu Zhang. „A Cross-Attention Mechanism Based on Regional-Level Semantic Features of Images for Cross-Modal Text-Image Retrieval in Remote Sensing“. Applied Sciences 12, Nr. 23 (29.11.2022): 12221. http://dx.doi.org/10.3390/app122312221.
Der volle Inhalt der Quelle