Littérature scientifique sur le sujet « Embedded Systems, Computer Vision, Object Classification »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « Embedded Systems, Computer Vision, Object Classification ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Articles de revues sur le sujet "Embedded Systems, Computer Vision, Object Classification"
Medina, Adán, Juana Isabel Méndez, Pedro Ponce, Therese Peffer et Arturo Molina. « Embedded Real-Time Clothing Classifier Using One-Stage Methods for Saving Energy in Thermostats ». Energies 15, no 17 (23 août 2022) : 6117. http://dx.doi.org/10.3390/en15176117.
Texte intégralSengan, Sudhakar, Ketan Kotecha, Indragandhi Vairavasundaram, Priya Velayutham, Vijayakumar Varadarajan, Logesh Ravi et Subramaniyaswamy Vairavasundaram. « Real-Time Automatic Investigation of Indian Roadway Animals by 3D Reconstruction Detection Using Deep Learning for R-3D-YOLOv3 Image Classification and Filtering ». Electronics 10, no 24 (10 décembre 2021) : 3079. http://dx.doi.org/10.3390/electronics10243079.
Texte intégralOsipov, Aleksey, Ekaterina Pleshakova, Sergey Gataullin, Sergey Korchagin, Mikhail Ivanov, Anton Finogeev et Vibhash Yadav. « Deep Learning Method for Recognition and Classification of Images from Video Recorders in Difficult Weather Conditions ». Sustainability 14, no 4 (20 février 2022) : 2420. http://dx.doi.org/10.3390/su14042420.
Texte intégralZhang, Dong, Alok Desai et Dah-Jye Lee. « Using synthetic basis feature descriptor for motion estimation ». International Journal of Advanced Robotic Systems 15, no 5 (1 septembre 2018) : 172988141880383. http://dx.doi.org/10.1177/1729881418803839.
Texte intégralMohan, Navya, et James Kurian. « Design and implementation of shape-based feature extraction engine for vision systems using Zynq SoC ». International journal of electrical and computer engineering systems 13, no 2 (28 février 2022) : 109–17. http://dx.doi.org/10.32985/ijeces.13.2.3.
Texte intégralKalms, Lester, Pedram Amini Rad, Muhammad Ali, Arsany Iskander et Diana Göhringer. « A Parametrizable High-Level Synthesis Library for Accelerating Neural Networks on FPGAs ». Journal of Signal Processing Systems 93, no 5 (15 mars 2021) : 513–29. http://dx.doi.org/10.1007/s11265-021-01651-5.
Texte intégralParise, Cesare V., Cesare V. Parise et Marc O. Ernst. « Multisensory mechanisms for perceptual disambiguation. A classification image study on the stream–bounce illusion ». Multisensory Research 26 (2013) : 96–97. http://dx.doi.org/10.1163/22134808-000s0068.
Texte intégralLi, Junfeng, Dehai Zhang, Yu Ma et Qing Liu. « Lane Image Detection Based on Convolution Neural Network Multi-Task Learning ». Electronics 10, no 19 (27 septembre 2021) : 2356. http://dx.doi.org/10.3390/electronics10192356.
Texte intégralNayyar, Anand, Pijush Kanti Dutta Pramankit et Rajni Mohana. « Introduction to the Special Issue on Evolving IoT and Cyber-Physical Systems : Advancements, Applications, and Solutions ». Scalable Computing : Practice and Experience 21, no 3 (1 août 2020) : 347–48. http://dx.doi.org/10.12694/scpe.v21i3.1568.
Texte intégralKim, Iuliia, João Pedro Matos-Carvalho, Ilya Viksnin, Tiago Simas et Sérgio Duarte Correia. « Particle Swarm Optimization Embedded in UAV as a Method of Territory-Monitoring Efficiency Improvement ». Symmetry 14, no 6 (24 mai 2022) : 1080. http://dx.doi.org/10.3390/sym14061080.
Texte intégralThèses sur le sujet "Embedded Systems, Computer Vision, Object Classification"
Fagg, Ashton J. « Why capture frame rate matters for embedded vision ». Thesis, Queensland University of Technology, 2018. https://eprints.qut.edu.au/117072/1/Ashton_Fagg_Thesis.pdf.
Texte intégralBartoli, Giacomo. « Edge AI : Deep Learning techniques for Computer Vision applied to embedded systems ». Master's thesis, Alma Mater Studiorum - Università di Bologna, 2018. http://amslaurea.unibo.it/16820/.
Texte intégralÖrn, Fredrik. « Computer Vision for Camera Trap Footage : Comparing classification with object detection ». Thesis, Uppsala universitet, Avdelningen för visuell information och interaktion, 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:uu:diva-447482.
Texte intégralParvez, Bilal. « Embedded Vision Machine Learning on Embedded Devices for Image classification in Industrial Internet of things ». Thesis, KTH, Skolan för informations- och kommunikationsteknik (ICT), 2017. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-219622.
Texte intégralMaskiner har blivit extremt bra på bildklassificering i nära realtid. På grund av maskininlärning med kraftig träningsdata, kan kraftfulla maskiner utbildas för att känna igen bilder så bra som alla människor skulle. Hittills har trenden varit att få bilderna skickade till en server och sedan få servern att känna igen bilderna. Men eftersom sensorerna ökar i antal, går trenden mot så kallad "edge computing" för att stryka den ökande graden av dataöverföring och kommunikationsflaskhalsar. Tanken är att göra bearbetningen lokalt eller så nära sensorn som möjligt och sedan bara överföra aktiv data till servern. Samtidigt som detta löser överflöd av kommunikationsproblem, speciellt i industriella inställningar, skapar det ett nytt problem. Sensorerna måste kunna göra denna beräkningsintensiva bildklassificering ombord vilket speciellt är en utmaning för inbyggda system och bärbara enheter, på grund av sin resursbegränsade natur. Denna avhandling analyserar maskininlärningsalgoritmer och biblioteken från motivationen att portera generiska bildklassificatorer till inbyggda system. Att jämföra olika övervakade maskininlärningsmetoder för bildklassificering, utreda vilka som är mest lämpade för att bli porterade till inbyggda system, för att göra processen att testa och implementera maskininlärningsalgoritmer lika enkelt som sina skrivbordsmodeller. Målet är att underlätta processen för att portera nya bildigenkännings och klassificeringsalgoritmer på en mängd olika inbyggda system och att ge motivation bakom designbeslut som tagits och för att beskriva det snabbaste sättet att skapa en prototyp med "embedded vision design". Det slutliga förslaget går igenom all hänsyn till konstruktion och implementerar en prototyp som är maskinvaruoberoende och kan användas för snabb framtagning av prototyper och sedan senare överföring av maskininlärningsklassificatorer till inbyggda system.
Palazzo, Simone. « Hybrid human-machine vision systems for automated object segmentation and categorization ». Doctoral thesis, Università di Catania, 2017. http://hdl.handle.net/10761/3985.
Texte intégralWallenberg, Marcus. « Components of Embodied Visual Object Recognition : Object Perception and Learning on a Robotic Platform ». Licentiate thesis, Linköpings universitet, Datorseende, 2013. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-93812.
Texte intégralEmbodied Visual Object Recognition
Simons, Taylor Scott. « High-Speed Image Classification for Resource-Limited Systems Using Binary Values ». BYU ScholarsArchive, 2021. https://scholarsarchive.byu.edu/etd/9097.
Texte intégralLindqvist, Zebh. « Design Principles for Visual Object Recognition Systems ». Thesis, Luleå tekniska universitet, Institutionen för system- och rymdteknik, 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:ltu:diva-80769.
Texte intégralHuttunen, S. (Sami). « Methods and systems for vision-based proactive applications ». Doctoral thesis, Oulun yliopisto, 2011. http://urn.fi/urn:isbn:9789514296536.
Texte intégralTiivistelmä Ihmisen ja eri laitteiden välisellä vuorovaikutuksella on keskeinen osa nyky-yhteiskunnassa. Teknisten laitteiden lisääntymisen myötä vuorovaikutustavat ovat myös muuttumassa. Tulevaisuuden järjestelmien tulisi olla proaktiivisia, jotta ne voisivat sopeutua ihmisten liikkeisiin ja toimintoihin ilman tietoista ohjausta. Ilmaisuvoimansa ansiosta visuaalisella tiedolla on keskeinen rooli tällaisessa epäsuorassa ihminen-tietokone –vuorovaikutuksessa. Tämän vuoksi on selvää, että kamerat yhdessä laskentaresurssien ja konenäkömenetelmien kanssa tarjoavat huomaamattoman tavan ihmisten toiminnan analysointiin. Lukuisista eduistaan huolimatta konenäön soveltaminen ei ole aina suoraviivaista. Yleensä jokainen sovellus asettaa erikoisvaatimuksia käytettäville menetelmille. Tästä syystä väitöskirjassa on päämääränä kehittää uusia kuvatietoon perustuvia menetelmiä ja järjestelmiä, joita voidaan hyödyntää proaktiivisissa sovelluksissa. Tässä väitöskirjassa esitellään kaksi proaktiivista sovellusta, jotka molemmat hyödyntävät tietokonenäköä. Ensimmäinen sovellus on etäopetusjärjestelmä, joka valitsee ja vaihtaa kuvalähteen automaattisesti. Järjestelmään esitellään myös ohjattavaan kameraan perustava laajennus, jonka avulla opettajaa voidaan seurata hänen liikkuessaan eri puolilla luokkahuonetta. Toinen proaktiivisen tekniikan sovellus on tarkoitettu mobiililaitteisiin. Kehitetty järjestelmä kykenee tunnistamaan maisemakuvat, jolloin kameran kuvaustila voidaan asettaa automaattisesti. Monissa sovelluksissa on tarpeen käyttää useampia kameroita. Tämän seurauksena eri puolille ympäristöä sijoitettavat älykkäät kamerat ovat olleet viime vuosina erityisen kiinnostuksen kohteena. Suurin osa kehityksestä on kuitenkin keskittynyt lähinnä eri konenäköalgoritmeihin tai yksittäisiin sovelluksiin. Sen sijaan panostukset yleisiin ja helposti laajennettaviin ratkaisuihin, jotka mahdollistavat erilaisten menetelmien, sensoreiden ja tiedonvälityskanavien käyttämisen, ovat olleet vähäisempiä. Tilanteen parantamiseksi väitöskirjassa esitellään hajautettujen sensoriverkkojen kehitykseen tarkoitettu avoin ja laajennettavissa oleva ohjelmistorunko. Menetelmien osalta tässä väitöskirjassa keskitytään useiden kohteiden seurantaan. Kehitetty seurantamenetelmä yhdistää saadut paikkamittaukset seurattaviin kohteisiin siten, että jokaiselle mittaukselle lasketaan todennäköisyys, jolla se kuuluu jokaiseen yksittäiseen seurattavaan kohteeseen. Seurantaongelman lisäksi työssä esitellään kaksi erilaista tapaa, joilla kohteiden paikka kuvassa voidaan määrittää. Esiteltyä kokonaisuutta voidaan hyödyntää proaktiivisissa sovelluksissa, jotka tarvitsevat usean kohteen paikkatiedon tai kohteiden kulkeman reitin
Andersson, Dickfors Robin, et Nick Grannas. « OBJECT DETECTION USING DEEP LEARNING ON METAL CHIPS IN MANUFACTURING ». Thesis, Mälardalens högskola, Akademin för innovation, design och teknik, 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:mdh:diva-55068.
Texte intégralDIGICOGS
Livres sur le sujet "Embedded Systems, Computer Vision, Object Classification"
1977-, Mamic G. J., dir. Object recognition : Fundamentals and case studies. London : Springer, 2002.
Trouver le texte intégralBennamoun, M., et George Mamic. Object Recognition. Springer, 2002.
Trouver le texte intégralObject Recognition : Fundamentals and Case Studies. Springer, 2012.
Trouver le texte intégralChapitres de livres sur le sujet "Embedded Systems, Computer Vision, Object Classification"
Myers, Karl, et Emanuele Lindo Secco. « A Low-Cost Embedded Computer Vision System for the Classification of Recyclable Objects ». Dans Intelligent Learning for Computer Vision, 11–30. Singapore : Springer Singapore, 2021. http://dx.doi.org/10.1007/978-981-33-4582-9_2.
Texte intégralVadhanam, B. Rebecca Jeya, Mohan S., V. Sugumaran, Vani V. et V. V. Ramalingam. « Computer Vision Based Classification on Commercial Videos ». Dans Advances in Computational Intelligence and Robotics, 105–35. IGI Global, 2017. http://dx.doi.org/10.4018/978-1-5225-0889-2.ch004.
Texte intégralMusa, Aminu, Mohammed Hassan, Mohamed Hamada, Habeebah Adamu Kakudi, Md Faizul Ibne Amin et Yutaka Watanobe. « A Lightweight CNN-Based Pothole Detection Model for Embedded Systems Using Knowledge Distillation ». Dans Frontiers in Artificial Intelligence and Applications. IOS Press, 2022. http://dx.doi.org/10.3233/faia220281.
Texte intégralJawad, M. Abdul, et Farida Khursheed. « Machine Learning-Aided Automatic Detection of Breast Cancer ». Dans Advances in Healthcare Information Systems and Administration, 274–90. IGI Global, 2022. http://dx.doi.org/10.4018/978-1-7998-7709-7.ch016.
Texte intégralTuzova, Lyudmila N., Dmitry V. Tuzoff, Sergey I. Nikolenko et Alexey S. Krasnov. « Teeth and Landmarks Detection and Classification Based on Deep Neural Networks ». Dans Computational Techniques for Dental Image Analysis, 129–50. IGI Global, 2019. http://dx.doi.org/10.4018/978-1-5225-6243-6.ch006.
Texte intégralN., Raghu, Trupti V. N., Chandrashekhar Badachi, Balamurugan M., Md Firuz Mia N., Ashok Kumar S. et Niranjan Kannanugo. « Autonomous Vehicles Using OpenCV and Python With Wireless Charging ». Dans Advances in Civil and Industrial Engineering, 76–101. IGI Global, 2023. http://dx.doi.org/10.4018/978-1-6684-8816-4.ch006.
Texte intégralRamaiah, Alageswaran, Arun K. S., Yathishan D., Sriram J. et Palanivel S. « Role of Deep Learning in Image and Video Processing ». Dans Advances in Computational Intelligence and Robotics, 115–31. IGI Global, 2022. http://dx.doi.org/10.4018/978-1-7998-8892-5.ch007.
Texte intégralActes de conférences sur le sujet "Embedded Systems, Computer Vision, Object Classification"
Pauly, Nicholas, et Nader I. Rafla. « An automated embedded computer vision system for object measurement ». Dans 2013 IEEE 56th International Midwest Symposium on Circuits and Systems (MWSCAS). IEEE, 2013. http://dx.doi.org/10.1109/mwscas.2013.6674846.
Texte intégralAghdam, Hamed H., Elnaz J. Heravi, Selameab S. Demilew et Robert Laganiere. « RAD : Realtime and Accurate 3D Object Detection on Embedded Systems ». Dans 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). IEEE, 2021. http://dx.doi.org/10.1109/cvprw53098.2021.00322.
Texte intégralElhoseiny, Mohamed, Amr Bakry et Ahmed Elgammal. « MultiClass Object Classification in Video Surveillance Systems - Experimental Study ». Dans 2013 IEEE Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). IEEE, 2013. http://dx.doi.org/10.1109/cvprw.2013.118.
Texte intégralThokrairak, Sorawit, Kittiya Thibuy, Chalermpan Fongsamut et Prajaks Jitngernmadan. « Optimal Object Classification Model for Embedded Systems based on Pre-trained Models ». Dans 2021 25th International Computer Science and Engineering Conference (ICSEC). IEEE, 2021. http://dx.doi.org/10.1109/icsec53205.2021.9684656.
Texte intégralTripathi, Subarna, Gokce Dane, Byeongkeun Kang, Vasudev Bhaskaran et Truong Nguyen. « LCDet : Low-Complexity Fully-Convolutional Neural Networks for Object Detection in Embedded Systems ». Dans 2017 IEEE Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). IEEE, 2017. http://dx.doi.org/10.1109/cvprw.2017.56.
Texte intégralLiu, Yang, Evan Gunnell, Yu Sun et Hao Zheng. « An Object-Driven Collision Detection with 2D Cameras using Artificial Intelligence and Computer Vision ». Dans 11th International Conference on Embedded Systems and Applications (EMSA 2022). Academy and Industry Research Collaboration Center (AIRCC), 2022. http://dx.doi.org/10.5121/csit.2022.120626.
Texte intégralArth, Clemens, Christian Leistner et Horst Bischof. « Robust Local Features and their Application in Self-Calibration and Object Recognition on Embedded Systems ». Dans 2007 IEEE Conference on Computer Vision and Pattern Recognition. IEEE, 2007. http://dx.doi.org/10.1109/cvpr.2007.383419.
Texte intégralUjiie, Takayuki, Masayuki Hiromoto et Takashi Sato. « Interpolation-Based Object Detection Using Motion Vectors for Embedded Real-time Tracking Systems ». Dans 2018 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). IEEE, 2018. http://dx.doi.org/10.1109/cvprw.2018.00104.
Texte intégralTahiri, Mohamed Amine, Ahmed Bencherqui, Hicham Karmouni, Mohamed Ouazzani Jamil, Mhamed Sayyouri et Hassan Qjidaa. « Optimal 3D object reconstruction and classification by separable moments via the Firefly algorithm ». Dans 2022 International Conference on Intelligent Systems and Computer Vision (ISCV). IEEE, 2022. http://dx.doi.org/10.1109/iscv54655.2022.9806106.
Texte intégralXiao, Yang, Chuanjun Zhang, Kevin Inck et Vijaykrishnan Narayanan. « Dynamic bandwidth adaptation using recognition accuracy prediction through pre-classification for embedded vision systems ». Dans 2013 IEEE 31st International Conference on Computer Design (ICCD). IEEE, 2013. http://dx.doi.org/10.1109/iccd.2013.6657020.
Texte intégral