Artykuły w czasopismach na temat „Guided gaze”
Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych
Sprawdź 50 najlepszych artykułów w czasopismach naukowych na temat „Guided gaze”.
Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.
Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.
Przeglądaj artykuły w czasopismach z różnych dziedzin i twórz odpowiednie bibliografie.
Prime, S. L., i J. J. Marotta. "Gaze strategies during visually-guided and memory-guided grasping". Journal of Vision 11, nr 11 (23.09.2011): 967. http://dx.doi.org/10.1167/11.11.967.
Pełny tekst źródłaPrime, Steven L., i Jonathan J. Marotta. "Gaze strategies during visually-guided versus memory-guided grasping". Experimental Brain Research 225, nr 2 (13.12.2012): 291–305. http://dx.doi.org/10.1007/s00221-012-3358-3.
Pełny tekst źródłaPowers, Alice S., Michele A. Basso i Craig Evinger. "Blinks slow memory-guided saccades". Journal of Neurophysiology 109, nr 3 (1.02.2013): 734–41. http://dx.doi.org/10.1152/jn.00746.2012.
Pełny tekst źródłaVesterby, Tore, Jonas C. Voss, John Paulin Hansen, Arne John Glenstrup, Dan Witzner Hansen i Mark Rudolph. "Gaze-guided viewing of interactive movies". Digital Creativity 16, nr 4 (styczeń 2005): 193–204. http://dx.doi.org/10.1080/14626260500476523.
Pełny tekst źródłaBaker, Justin T., Timothy M. Harper i Lawrence H. Snyder. "Spatial Memory Following Shifts of Gaze. I. Saccades to Memorized World-Fixed and Gaze-Fixed Targets". Journal of Neurophysiology 89, nr 5 (1.05.2003): 2564–76. http://dx.doi.org/10.1152/jn.00610.2002.
Pełny tekst źródłaMessmer, Nathan, Nathan Leggett, Melissa Prince i Jason S. McCarley. "Gaze Linking in Visual Search: A Help or a Hindrance?" Proceedings of the Human Factors and Ergonomics Society Annual Meeting 61, nr 1 (wrzesień 2017): 1376–79. http://dx.doi.org/10.1177/1541931213601828.
Pełny tekst źródłaFowler, Garth A., i Helen Sherk. "Gaze during visually-guided locomotion in cats". Behavioural Brain Research 139, nr 1-2 (luty 2003): 83–96. http://dx.doi.org/10.1016/s0166-4328(02)00096-7.
Pełny tekst źródłaPrime, Steven L., i Jonathan J. Marotta. "Erratum to: Gaze strategies during visually-guided versus memory-guided grasping". Experimental Brain Research 225, nr 2 (13.02.2013): 307. http://dx.doi.org/10.1007/s00221-013-3432-5.
Pełny tekst źródłaStone, Lesego S., i Gyan P. Nyaupane. "The Tourist Gaze: Domestic versus International Tourists". Journal of Travel Research 58, nr 5 (27.06.2018): 877–91. http://dx.doi.org/10.1177/0047287518781890.
Pełny tekst źródłaB. N., Pavan Kumar, Adithya Balasubramanyam, Ashok Kumar Patil, Chethana B. i Young Ho Chai. "GazeGuide: An Eye-Gaze-Guided Active Immersive UAV Camera". Applied Sciences 10, nr 5 (1.03.2020): 1668. http://dx.doi.org/10.3390/app10051668.
Pełny tekst źródłaArora, Harbandhan Kaur, Vishal Bharmauria, Xiaogang Yan, Saihong Sun, Hongying Wang i John Douglas Crawford. "Eye-head-hand coordination during visually guided reaches in head-unrestrained macaques". Journal of Neurophysiology 122, nr 5 (1.11.2019): 1946–61. http://dx.doi.org/10.1152/jn.00072.2019.
Pełny tekst źródłaDirik, Castillo i Kocamaz. "Gaze-Guided Control of an Autonomous Mobile Robot Using Type-2 Fuzzy Logic". Applied System Innovation 2, nr 2 (24.04.2019): 14. http://dx.doi.org/10.3390/asi2020014.
Pełny tekst źródłaYan, Qiunv, Weiwei Zhang, Wenhao Hu, Guohua Cui, Dan Wei i Jiejie Xu. "Gaze dynamics with spatiotemporal guided feature descriptor for prediction of driver’s maneuver behavior". Proceedings of the Institution of Mechanical Engineers, Part D: Journal of Automobile Engineering 235, nr 12 (31.03.2021): 3051–65. http://dx.doi.org/10.1177/09544070211007807.
Pełny tekst źródłaAbdelkarim, M., M. K. Abbas, Alaa Osama, Dalia Anwar, Mostafa Azzam, M. Abdelalim, H. Mostafa, Samah El-Tantawy i Ibrahim Sobh. "GG-Net: Gaze Guided Network for Self-driving Cars". Electronic Imaging 2021, nr 17 (18.01.2021): 171–1. http://dx.doi.org/10.2352/issn.2470-1173.2021.17.avm-171.
Pełny tekst źródłaKokubu, M., J. C. Dessing i J. D. Crawford. "Hand-specificity in gaze-dependent memory-guided reach errors". Journal of Vision 12, nr 9 (10.08.2012): 427. http://dx.doi.org/10.1167/12.9.427.
Pełny tekst źródłaDits, Joyce, Johan J. M. Pel, Angelique Remmers i Johannes van der Steen. "Version–Vergence Interactions during Memory-Guided Binocular Gaze Shifts". Investigative Opthalmology & Visual Science 54, nr 3 (5.03.2013): 1656. http://dx.doi.org/10.1167/iovs.12-10680.
Pełny tekst źródłaChen, L. Longtang. "Head Movements Evoked by Electrical Stimulation in the Frontal Eye Field of the Monkey: Evidence for Independent Eye and Head Control". Journal of Neurophysiology 95, nr 6 (czerwiec 2006): 3528–42. http://dx.doi.org/10.1152/jn.01320.2005.
Pełny tekst źródłaFlanagan, J. Randall, Gerben Rotman, Andreas F. Reichelt i Roland S. Johansson. "The role of observers' gaze behaviour when watching object manipulation tasks: predicting and evaluating the consequences of action". Philosophical Transactions of the Royal Society B: Biological Sciences 368, nr 1628 (19.10.2013): 20130063. http://dx.doi.org/10.1098/rstb.2013.0063.
Pełny tekst źródłaFreedman, E. G., T. R. Stanford i D. L. Sparks. "Combined eye-head gaze shifts produced by electrical stimulation of the superior colliculus in rhesus monkeys". Journal of Neurophysiology 76, nr 2 (1.08.1996): 927–52. http://dx.doi.org/10.1152/jn.1996.76.2.927.
Pełny tekst źródłaIsraël, I., C. André-Deshays, O. Charade, A. Berthoz, K. Popov i M. Lipshits. "Gaze Control in Microgravity: 2. Sequences of Saccades toward Memorized Visual Targets". Journal of Vestibular Research 3, nr 3 (1.09.1993): 345–60. http://dx.doi.org/10.3233/ves-1993-3314.
Pełny tekst źródłaSeara, J. F., i G. Schmidt. "Intelligent gaze control for vision-guided humanoid walking: methodological aspects". Robotics and Autonomous Systems 48, nr 4 (październik 2004): 231–48. http://dx.doi.org/10.1016/j.robot.2004.07.003.
Pełny tekst źródłaZhang, Ruohan. "Attention Guided Imitation Learning and Reinforcement Learning". Proceedings of the AAAI Conference on Artificial Intelligence 33 (17.07.2019): 9906–7. http://dx.doi.org/10.1609/aaai.v33i01.33019906.
Pełny tekst źródłaMeerhoff, L. A., J. Bruneau, A. Vu, A. H. Olivier i J. Pettré. "Guided by gaze: Prioritization strategy when navigating through a virtual crowd can be assessed through gaze activity". Acta Psychologica 190 (październik 2018): 248–57. http://dx.doi.org/10.1016/j.actpsy.2018.07.009.
Pełny tekst źródłaBrägger, L., L. Baumgartner, K. Koebel, J. Scheidegger i A. Çöltekin. "INTERACTION AND VISUALIZATION DESIGN CONSIDERATIONS FOR GAZE-GUIDED COMMUNICATION IN COLLABORATIVE EXTENDED REALITY". ISPRS Annals of the Photogrammetry, Remote Sensing and Spatial Information Sciences V-4-2022 (18.05.2022): 205–12. http://dx.doi.org/10.5194/isprs-annals-v-4-2022-205-2022.
Pełny tekst źródłaHayhoe, Mary M., i Jonathan Samir Matthis. "Control of gaze in natural environments: effects of rewards and costs, uncertainty and memory in target selection". Interface Focus 8, nr 4 (15.06.2018): 20180009. http://dx.doi.org/10.1098/rsfs.2018.0009.
Pełny tekst źródłaDuinkharjav, Budmonde, Kenneth Chen, Abhishek Tyagi, Jiayi He, Yuhao Zhu i Qi Sun. "Color-Perception-Guided Display Power Reduction for Virtual Reality". ACM Transactions on Graphics 41, nr 6 (30.11.2022): 1–16. http://dx.doi.org/10.1145/3550454.3555473.
Pełny tekst źródłaPetit, Laurent, i Michael S. Beauchamp. "Neural Basis of Visually Guided Head Movements Studied With fMRI". Journal of Neurophysiology 89, nr 5 (1.05.2003): 2516–27. http://dx.doi.org/10.1152/jn.00988.2002.
Pełny tekst źródłaWilliamson, Shawn S., Ari Z. Zivotofsky i Michele A. Basso. "Modulation of Gaze-Evoked Blinks Depends Primarily on Extraretinal Factors". Journal of Neurophysiology 93, nr 1 (styczeń 2005): 627–32. http://dx.doi.org/10.1152/jn.00820.2004.
Pełny tekst źródłaAbekawa, Naotoshi, Hiroaki Gomi i Jörn Diedrichsen. "Gaze control during reaching is flexibly modulated to optimize task outcome". Journal of Neurophysiology 126, nr 3 (1.09.2021): 816–26. http://dx.doi.org/10.1152/jn.00134.2021.
Pełny tekst źródłaCheng, Yihua, Shiyao Huang, Fei Wang, Chen Qian i Feng Lu. "A Coarse-to-Fine Adaptive Network for Appearance-Based Gaze Estimation". Proceedings of the AAAI Conference on Artificial Intelligence 34, nr 07 (3.04.2020): 10623–30. http://dx.doi.org/10.1609/aaai.v34i07.6636.
Pełny tekst źródłaHerter, Troy M., i Daniel Guitton. "Human Head-Free Gaze Saccades to Targets Flashed Before Gaze-Pursuit Are Spatially Accurate". Journal of Neurophysiology 80, nr 5 (1.11.1998): 2785–89. http://dx.doi.org/10.1152/jn.1998.80.5.2785.
Pełny tekst źródłaEkici Cilkin, Remziye, i Beykan Cizel. "Tourist gazes through photographs". Journal of Vacation Marketing 28, nr 2 (22.10.2021): 188–210. http://dx.doi.org/10.1177/13567667211038955.
Pełny tekst źródłaPowell, Nathaniel V., Xavier Marshall, Gabriel J. Diaz i Brett R. Fajen. "Coordination of gaze and action during high-speed steering and obstacle avoidance". PLOS ONE 19, nr 3 (8.03.2024): e0289855. http://dx.doi.org/10.1371/journal.pone.0289855.
Pełny tekst źródłaDominguez-Zamora, Javier, Shaila Gunn i Daniel Marigold. "Does uncertainty about the terrain explain gaze behavior during visually guided walking?" Journal of Vision 17, nr 10 (31.08.2017): 709. http://dx.doi.org/10.1167/17.10.709.
Pełny tekst źródłaHan, Yangtianyue. "The Male Gaze and Its Impact on Womens Public Living Space". Communications in Humanities Research 5, nr 1 (14.09.2023): 145–50. http://dx.doi.org/10.54254/2753-7064/5/20230148.
Pełny tekst źródłaYang, Yaokun, Yihan Yin i Feng Lu. "Gaze Target Detection by Merging Human Attention and Activity Cues". Proceedings of the AAAI Conference on Artificial Intelligence 38, nr 7 (24.03.2024): 6585–93. http://dx.doi.org/10.1609/aaai.v38i7.28480.
Pełny tekst źródłaYoshida, Hanako, Aakash Patel i Joseph Burling. "Gaze as a Window to the Process of Novel Adjective Mapping". Languages 4, nr 2 (3.06.2019): 33. http://dx.doi.org/10.3390/languages4020033.
Pełny tekst źródłaPritchett, Lisa M., Michael J. Carnevale i Laurence R. Harris. "Body and gaze centered coding of touch locations during a dynamic task". Seeing and Perceiving 25 (2012): 195. http://dx.doi.org/10.1163/187847612x648242.
Pełny tekst źródłaReingold, Eyal M., Lester C. Loschky, George W. McConkie i David M. Stampe. "Gaze-Contingent Multiresolutional Displays: An Integrative Review". Human Factors: The Journal of the Human Factors and Ergonomics Society 45, nr 2 (czerwiec 2003): 307–28. http://dx.doi.org/10.1518/hfes.45.2.307.27235.
Pełny tekst źródłaQuinet, Julie, i Laurent Goffart. "Saccade Dysmetria in Head-Unrestrained Gaze Shifts After Muscimol Inactivation of the Caudal Fastigial Nucleus in the Monkey". Journal of Neurophysiology 93, nr 4 (kwiecień 2005): 2343–49. http://dx.doi.org/10.1152/jn.00705.2004.
Pełny tekst źródłaFlanagan, J. Randall, Yasuo Terao i Roland S. Johansson. "Gaze Behavior When Reaching to Remembered Targets". Journal of Neurophysiology 100, nr 3 (wrzesień 2008): 1533–43. http://dx.doi.org/10.1152/jn.90518.2008.
Pełny tekst źródłaWohlgemuth, Melville, Angeles Salles i Cynthia Moss. "Sonar-guided attention in natural tasks". Molecular Psychology: Brain, Behavior, and Society 1 (26.06.2023): 4. http://dx.doi.org/10.12688/molpsychol.17488.2.
Pełny tekst źródłaWohlgemuth, Melville, Angeles Salles i Cynthia Moss. "Sonar-guided attention in natural tasks". Molecular Psychology: Brain, Behavior, and Society 1 (7.08.2023): 4. http://dx.doi.org/10.12688/molpsychol.17488.3.
Pełny tekst źródłaFu, Xianping, Yuxiao Yan, Yang Yan, Jinjia Peng i Huibing Wang. "Purifying real images with an attention-guided style transfer network for gaze estimation". Engineering Applications of Artificial Intelligence 91 (maj 2020): 103609. http://dx.doi.org/10.1016/j.engappai.2020.103609.
Pełny tekst źródłaWu, Chenglin, Huanqiang Hu, Kean Lin, Qing Wang, Tianjian Liu i Guannan Chen. "Attention-guided and fine-grained feature extraction from face images for gaze estimation". Engineering Applications of Artificial Intelligence 126 (listopad 2023): 106994. http://dx.doi.org/10.1016/j.engappai.2023.106994.
Pełny tekst źródłaLee, Seung Won, Hwan Kim, Taeha Yi i Kyung Hoon Hyun. "BIGaze: An eye-gaze action-guided Bayesian information gain framework for information exploration". Advanced Engineering Informatics 58 (październik 2023): 102159. http://dx.doi.org/10.1016/j.aei.2023.102159.
Pełny tekst źródłaSchall, Jeffrey D. "The neural selection and control of saccades by the frontal eye field". Philosophical Transactions of the Royal Society of London. Series B: Biological Sciences 357, nr 1424 (29.08.2002): 1073–82. http://dx.doi.org/10.1098/rstb.2002.1098.
Pełny tekst źródłaHAYET, JEAN-BERNARD, CLAUDIA ESTEVES, GUSTAVO ARECHAVALETA, OLIVIER STASSE i EIICHI YOSHIDA. "HUMANOID LOCOMOTION PLANNING FOR VISUALLY GUIDED TASKS". International Journal of Humanoid Robotics 09, nr 02 (czerwiec 2012): 1250009. http://dx.doi.org/10.1142/s0219843612500090.
Pełny tekst źródłaNorris, Scott A., Emily N. Hathaway, Jordan A. Taylor i W. Thomas Thach. "Cerebellar inactivation impairs memory of learned prism gaze-reach calibrations". Journal of Neurophysiology 105, nr 5 (maj 2011): 2248–59. http://dx.doi.org/10.1152/jn.01009.2010.
Pełny tekst źródłaKühnlenz, Kolja, i Martin Buss. "Multi-Focal Vision and Gaze Control Improve Navigation Performance". International Journal of Advanced Robotic Systems 9, nr 1 (1.01.2012): 25. http://dx.doi.org/10.5772/50920.
Pełny tekst źródła