Zeitschriftenartikel zum Thema „Event-driven vision“
Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an
Machen Sie sich mit Top-50 Zeitschriftenartikel für die Forschung zum Thema "Event-driven vision" bekannt.
Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.
Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.
Sehen Sie die Zeitschriftenartikel für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.
Sun, Ruolin, Dianxi Shi, Yongjun Zhang, Ruihao Li und Ruoxiang Li. „Data-Driven Technology in Event-Based Vision“. Complexity 2021 (27.03.2021): 1–19. http://dx.doi.org/10.1155/2021/6689337.
Der volle Inhalt der QuelleCamunas-Mesa, Luis, Carlos Zamarreno-Ramos, Alejandro Linares-Barranco, Antonio J. Acosta-Jimenez, Teresa Serrano-Gotarredona und Bernabé Linares-Barranco. „An Event-Driven Multi-Kernel Convolution Processor Module for Event-Driven Vision Sensors“. IEEE Journal of Solid-State Circuits 47, Nr. 2 (Februar 2012): 504–17. http://dx.doi.org/10.1109/jssc.2011.2167409.
Der volle Inhalt der QuelleSemeniuta, Oleksandr, und Petter Falkman. „EPypes: a framework for building event-driven data processing pipelines“. PeerJ Computer Science 5 (11.02.2019): e176. http://dx.doi.org/10.7717/peerj-cs.176.
Der volle Inhalt der QuelleLiu, Shih-Chii, Bodo Rueckauer, Enea Ceolini, Adrian Huber und Tobi Delbruck. „Event-Driven Sensing for Efficient Perception: Vision and Audition Algorithms“. IEEE Signal Processing Magazine 36, Nr. 6 (November 2019): 29–37. http://dx.doi.org/10.1109/msp.2019.2928127.
Der volle Inhalt der QuelleTominski, Christian. „Event-Based Concepts for User-Driven Visualization“. Information Visualization 10, Nr. 1 (24.12.2009): 65–81. http://dx.doi.org/10.1057/ivs.2009.32.
Der volle Inhalt der QuelleRoheda, Siddharth, Hamid Krim, Zhi-Quan Luo und Tianfu Wu. „Event driven sensor fusion“. Signal Processing 188 (November 2021): 108241. http://dx.doi.org/10.1016/j.sigpro.2021.108241.
Der volle Inhalt der QuelleBerjón, Roberto, Montserrat Mateos, M. Encarnación Beato und Ana Fermoso García. „An Event Mesh for Event Driven IoT Applications“. International Journal of Interactive Multimedia and Artificial Intelligence 7, Nr. 6 (2022): 54. http://dx.doi.org/10.9781/ijimai.2022.09.003.
Der volle Inhalt der QuelleMatsui, Chihiro, Kazuhide Higuchi, Shunsuke Koshino und Ken Takeuchi. „Event data-based computation-in-memory (CiM) configuration by co-designing integrated in-sensor and CiM computing for extremely energy-efficient edge computing“. Japanese Journal of Applied Physics 61, SC (07.04.2022): SC1085. http://dx.doi.org/10.35848/1347-4065/ac5533.
Der volle Inhalt der QuelleLenero-Bardallo, Juan Antonio, Teresa Serrano-Gotarredona und Bernabé Linares-Barranco. „A 3.6 $\mu$s Latency Asynchronous Frame-Free Event-Driven Dynamic-Vision-Sensor“. IEEE Journal of Solid-State Circuits 46, Nr. 6 (Juni 2011): 1443–55. http://dx.doi.org/10.1109/jssc.2011.2118490.
Der volle Inhalt der QuelleSchraml, Stephan, Ahmed Nabil Belbachir und Horst Bischof. „An Event-Driven Stereo System for Real-Time 3-D 360° Panoramic Vision“. IEEE Transactions on Industrial Electronics 63, Nr. 1 (Januar 2016): 418–28. http://dx.doi.org/10.1109/tie.2015.2477265.
Der volle Inhalt der QuelleLiu, Zhengfa, Guang Chen, Ya Wu, Jiatong Du, Jörg Conradt und Alois Knoll. „Mixed Event-Frame Vision System for Daytime Preceding Vehicle Taillight Signal Measurement Using Event-Based Neuromorphic Vision Sensor“. Journal of Advanced Transportation 2022 (22.09.2022): 1–20. http://dx.doi.org/10.1155/2022/2673191.
Der volle Inhalt der QuelleShe, Xueyuan, und Saibal Mukhopadhyay. „SPEED: Spiking Neural Network With Event-Driven Unsupervised Learning and Near-Real-Time Inference for Event-Based Vision“. IEEE Sensors Journal 21, Nr. 18 (15.09.2021): 20578–88. http://dx.doi.org/10.1109/jsen.2021.3098013.
Der volle Inhalt der Quellevan Horssen, Eelco P., Jeroen A. A. van Hooijdonk, Duarte Antunes und W. P. M. H. Heemels. „Event- and Deadline-Driven Control of a Self-Localizing Robot With Vision-Induced Delays“. IEEE Transactions on Industrial Electronics 67, Nr. 2 (Februar 2020): 1212–21. http://dx.doi.org/10.1109/tie.2019.2899553.
Der volle Inhalt der QuelleYoon, Rina, Seokjin Oh, Seungmyeong Cho und Kyeong-Sik Min. „Memristor–CMOS Hybrid Circuits Implementing Event-Driven Neural Networks for Dynamic Vision Sensor Camera“. Micromachines 15, Nr. 4 (22.03.2024): 426. http://dx.doi.org/10.3390/mi15040426.
Der volle Inhalt der QuelleBergner, Florian, Emmanuel Dean-Leon, Julio Rogelio Guadarrama-Olvera und Gordon Cheng. „Evaluation of a Large Scale Event Driven Robot Skin“. IEEE Robotics and Automation Letters 4, Nr. 4 (Oktober 2019): 4247–54. http://dx.doi.org/10.1109/lra.2019.2930493.
Der volle Inhalt der QuelleXu, Zimin, Guoli Wang und Xuemei Guo. „Event-driven daily activity recognition with enhanced emergent modeling“. Pattern Recognition 135 (März 2023): 109149. http://dx.doi.org/10.1016/j.patcog.2022.109149.
Der volle Inhalt der QuelleZhang, Shixiong, Wenmin Wang, Honglei Li und Shenyong Zhang. „EVtracker: An Event-Driven Spatiotemporal Method for Dynamic Object Tracking“. Sensors 22, Nr. 16 (15.08.2022): 6090. http://dx.doi.org/10.3390/s22166090.
Der volle Inhalt der QuelleAkolkar, Himanshu, Cedric Meyer, Xavier Clady, Olivier Marre, Chiara Bartolozzi, Stefano Panzeri und Ryad Benosman. „What Can Neuromorphic Event-Driven Precise Timing Add to Spike-Based Pattern Recognition?“ Neural Computation 27, Nr. 3 (März 2015): 561–93. http://dx.doi.org/10.1162/neco_a_00703.
Der volle Inhalt der QuelleSemeniuta, Oleksandr, und Petter Falkman. „Event-driven industrial robot control architecture for the Adept V+ platform“. PeerJ Computer Science 5 (29.07.2019): e207. http://dx.doi.org/10.7717/peerj-cs.207.
Der volle Inhalt der QuelleKrijnders, J. D., M. E. Niessen und T. C. Andringa. „Sound event recognition through expectancy-based evaluation ofsignal-driven hypotheses“. Pattern Recognition Letters 31, Nr. 12 (September 2010): 1552–59. http://dx.doi.org/10.1016/j.patrec.2009.11.004.
Der volle Inhalt der QuelleKepski, Michal, und Bogdan Kwolek. „Event‐driven system for fall detection using body‐worn accelerometer and depth sensor“. IET Computer Vision 12, Nr. 1 (27.11.2017): 48–58. http://dx.doi.org/10.1049/iet-cvi.2017.0119.
Der volle Inhalt der QuelleCottini, Nicola, Leonardo Gasparini, Marco De Nicola, Nicola Massari und Massimo Gottardi. „A CMOS Ultra-Low Power Vision Sensor With Image Compression and Embedded Event-Driven Energy-Management“. IEEE Journal on Emerging and Selected Topics in Circuits and Systems 1, Nr. 3 (September 2011): 299–307. http://dx.doi.org/10.1109/jetcas.2011.2167072.
Der volle Inhalt der QuellePardo, Fernando, Càndid Reig, José A. Boluda und Francisco Vegara. „A 4K-Input High-Speed Winner-Take-All (WTA) Circuit with Single-Winner Selection for Change-Driven Vision Sensors“. Sensors 19, Nr. 2 (21.01.2019): 437. http://dx.doi.org/10.3390/s19020437.
Der volle Inhalt der QuelleNur Khozin, Nursaid,. „ISLAMIC EDUCATION REORIENTATION IN GROWING THE FITRAH GOODNESS IN THE ERA OF GLOBALIZATION“. al-Iltizam: Jurnal Pendidikan Agama Islam 4, Nr. 1 (30.05.2019): 121. http://dx.doi.org/10.33477/alt.v4i1.755.
Der volle Inhalt der QuelleQu, Qiang, Yiran Shen, Xiaoming Chen, Yuk Ying Chung und Tongliang Liu. „E2HQV: High-Quality Video Generation from Event Camera via Theory-Inspired Model-Aided Deep Learning“. Proceedings of the AAAI Conference on Artificial Intelligence 38, Nr. 5 (24.03.2024): 4632–40. http://dx.doi.org/10.1609/aaai.v38i5.28263.
Der volle Inhalt der QuelleSarhan, Amany M., Ahmed I. Saleh und Ramy K. Elsadek. „A Reliable Event-Driven Strategy for Real-Time Multiple Object Tracking Using Static Cameras“. Advances in Multimedia 2011 (2011): 1–20. http://dx.doi.org/10.1155/2011/976463.
Der volle Inhalt der QuellePerez-Carrasco, J. A., Bo Zhao, C. Serrano, B. Acha, T. Serrano-Gotarredona, Shouchun Chen und B. Linares-Barranco. „Mapping from Frame-Driven to Frame-Free Event-Driven Vision Systems by Low-Rate Rate Coding and Coincidence Processing--Application to Feedforward ConvNets“. IEEE Transactions on Pattern Analysis and Machine Intelligence 35, Nr. 11 (November 2013): 2706–19. http://dx.doi.org/10.1109/tpami.2013.71.
Der volle Inhalt der QuelleTSUZAKI, Tomoya, und Shinsuke YASUKAWA. „Construction of an Event-Driven Binocular Vision System and Proposal of a Time-Surface-Based Disparity Calculation Method“. Proceedings of JSME annual Conference on Robotics and Mechatronics (Robomec) 2023 (2023): 1P1—H02. http://dx.doi.org/10.1299/jsmermd.2023.1p1-h02.
Der volle Inhalt der QuelleWang, Hui, Youming Li, Tingcheng Chang, Shengming Chang und Yexian Fan. „Event-Driven Sensor Deployment in an Underwater Environment Using a Distributed Hybrid Fish Swarm Optimization Algorithm“. Applied Sciences 8, Nr. 9 (13.09.2018): 1638. http://dx.doi.org/10.3390/app8091638.
Der volle Inhalt der QuellePfeiffer, Friedrich. „The TUM walking machines“. Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences 365, Nr. 1850 (17.11.2006): 109–31. http://dx.doi.org/10.1098/rsta.2006.1922.
Der volle Inhalt der QuelleHuang, Xiaoqian, Rajkumar Muthusamy, Eman Hassan, Zhenwei Niu, Lakmal Seneviratne, Dongming Gan und Yahya Zweiri. „Neuromorphic Vision Based Contact-Level Classification in Robotic Grasping Applications“. Sensors 20, Nr. 17 (21.08.2020): 4724. http://dx.doi.org/10.3390/s20174724.
Der volle Inhalt der QuelleZhang, Jin, Cheng Wu und Yiming Wang. „Human Fall Detection Based on Body Posture Spatio-Temporal Evolution“. Sensors 20, Nr. 3 (10.02.2020): 946. http://dx.doi.org/10.3390/s20030946.
Der volle Inhalt der QuelleGrabenhorst, Matthias, Laurence T. Maloney, David Poeppel und Georgios Michalareas. „Two sources of uncertainty independently modulate temporal expectancy“. Proceedings of the National Academy of Sciences 118, Nr. 16 (14.04.2021): e2019342118. http://dx.doi.org/10.1073/pnas.2019342118.
Der volle Inhalt der QuelleCopeland, Bruce R., Min Chen, Brad D. Wade und Linda S. Powers. „A noise-driven strategy for background estimation and event detection in data streams“. Signal Processing 86, Nr. 12 (Dezember 2006): 3739–51. http://dx.doi.org/10.1016/j.sigpro.2006.03.002.
Der volle Inhalt der QuelleHameed, Shameem, Swapnaa Jayaraman, Melissa Ballard und Nadine Sarter. „Guiding Visual Attention by Exploiting Crossmodal Spatial Links: An Application in Air Traffic Control“. Proceedings of the Human Factors and Ergonomics Society Annual Meeting 51, Nr. 4 (Oktober 2007): 220–24. http://dx.doi.org/10.1177/154193120705100416.
Der volle Inhalt der QuelleCardell-Oliver, Rachel, Mark Kranz, Keith Smettem und Kevin Mayer. „A Reactive Soil Moisture Sensor Network: Design and Field Evaluation“. International Journal of Distributed Sensor Networks 1, Nr. 2 (März 2005): 149–62. http://dx.doi.org/10.1080/15501320590966422.
Der volle Inhalt der QuelleTătaru, Ioana Miruna, Elena Fleacă, Bogdan Fleacă und Radu D. Stanciu. „Modelling the Implementation of a Sustainable Development Strategy through Process Mapping“. Proceedings 63, Nr. 1 (10.12.2020): 6. http://dx.doi.org/10.3390/proceedings2020063006.
Der volle Inhalt der QuelleFarmakis, Ioannis, D. Jean Hutchinson, Nicholas Vlachopoulos, Matthew Westoby und Michael Lim. „Slope-Scale Rockfall Susceptibility Modeling as a 3D Computer Vision Problem“. Remote Sensing 15, Nr. 11 (23.05.2023): 2712. http://dx.doi.org/10.3390/rs15112712.
Der volle Inhalt der QuelleSHIMODA, Masayuki, Shimpei SATO und Hiroki NAKAHARA. „Power Efficient Object Detector with an Event-Driven Camera for Moving Object Surveillance on an FPGA“. IEICE Transactions on Information and Systems E102.D, Nr. 5 (01.05.2019): 1020–28. http://dx.doi.org/10.1587/transinf.2018rcp0005.
Der volle Inhalt der QuelleCheng, Rui, Jiaming Wang und Pin-Chao Liao. „Temporal Visual Patterns of Construction Hazard Recognition Strategies“. International Journal of Environmental Research and Public Health 18, Nr. 16 (20.08.2021): 8779. http://dx.doi.org/10.3390/ijerph18168779.
Der volle Inhalt der QuelleZhang, Tao, Shuiying Xiang, Wenzhuo Liu, Yanan Han, Xingxing Guo und Yue Hao. „Hybrid Spiking Fully Convolutional Neural Network for Semantic Segmentation“. Electronics 12, Nr. 17 (23.08.2023): 3565. http://dx.doi.org/10.3390/electronics12173565.
Der volle Inhalt der QuelleSwathi, H. Y., und G. Shivakumar. „Audio-visual multi-modality driven hybrid feature learning model for crowd analysis and classification“. Mathematical Biosciences and Engineering 20, Nr. 7 (2023): 12529–61. http://dx.doi.org/10.3934/mbe.2023558.
Der volle Inhalt der QuelleQiu, Xuerui, Rui-Jie Zhu, Yuhong Chou, Zhaorui Wang, Liang-Jian Deng und Guoqi Li. „Gated Attention Coding for Training High-Performance and Efficient Spiking Neural Networks“. Proceedings of the AAAI Conference on Artificial Intelligence 38, Nr. 1 (24.03.2024): 601–10. http://dx.doi.org/10.1609/aaai.v38i1.27816.
Der volle Inhalt der QuelleHe, Yingmei, Bin Xin, Sai Lu, Qing Wang und Yulong Ding. „Memetic Algorithm for Dynamic Joint Flexible Job Shop Scheduling with Machines and Transportation Robots“. Journal of Advanced Computational Intelligence and Intelligent Informatics 26, Nr. 6 (20.11.2022): 974–82. http://dx.doi.org/10.20965/jaciii.2022.p0974.
Der volle Inhalt der QuelleLi, Xiang, Hiroki Imanishi, Mamoru Minami, Takayuki Matsuno und Akira Yanou. „Dynamical Model of Walking Transition Considering Nonlinear Friction with Floor“. Journal of Advanced Computational Intelligence and Intelligent Informatics 20, Nr. 6 (20.11.2016): 974–82. http://dx.doi.org/10.20965/jaciii.2016.p0974.
Der volle Inhalt der QuelleYao, Yaping, Bin Wan, Bo Long, Te Bu und Yang Zhang. „In quest of China sports lottery development path to common prosperity in 2035“. PLOS ONE 19, Nr. 1 (26.01.2024): e0297629. http://dx.doi.org/10.1371/journal.pone.0297629.
Der volle Inhalt der QuelleSalah, Bashir, Sajjad Khan, Muawia Ramadan und Nikola Gjeldum. „Integrating the Concept of Industry 4.0 by Teaching Methodology in Industrial Engineering Curriculum“. Processes 8, Nr. 9 (19.08.2020): 1007. http://dx.doi.org/10.3390/pr8091007.
Der volle Inhalt der Quellevarma, Neha. „STYLESYNC: A FASHION RECOMMENDATION SYSTEM“. INTERANTIONAL JOURNAL OF SCIENTIFIC RESEARCH IN ENGINEERING AND MANAGEMENT 08, Nr. 05 (27.05.2024): 1–5. http://dx.doi.org/10.55041/ijsrem34672.
Der volle Inhalt der QuelleDupuis-Déri, Francis. „L’Affaire Salman Rushdie: symptôme d'un « Clash of Civilizations »?“ Études internationales 28, Nr. 1 (12.04.2005): 27–45. http://dx.doi.org/10.7202/703706ar.
Der volle Inhalt der QuelleMabu, Shingo, Lu Yu, Jin Zhou, Shinji Eto und Kotaro Hirasawa. „A Double-Deck Elevator Systems Controller with Idle Cage Assignment Algorithm Using Genetic Network Programming“. Journal of Advanced Computational Intelligence and Intelligent Informatics 14, Nr. 5 (20.07.2010): 487–96. http://dx.doi.org/10.20965/jaciii.2010.p0487.
Der volle Inhalt der Quelle