Gotowa bibliografia na temat „Next-Best-View planning”
Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych
Zobacz listy aktualnych artykułów, książek, rozpraw, streszczeń i innych źródeł naukowych na temat „Next-Best-View planning”.
Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.
Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.
Artykuły w czasopismach na temat "Next-Best-View planning"
Monica, Riccardo, i Jacopo Aleotti. "Surfel-Based Next Best View Planning". IEEE Robotics and Automation Letters 3, nr 4 (październik 2018): 3324–31. http://dx.doi.org/10.1109/lra.2018.2852778.
Pełny tekst źródłaLauri, Mikko, Joni Pajarinen, Jan Peters i Simone Frintrop. "Multi-Sensor Next-Best-View Planning as Matroid-Constrained Submodular Maximization". IEEE Robotics and Automation Letters 5, nr 4 (październik 2020): 5323–30. http://dx.doi.org/10.1109/lra.2020.3007445.
Pełny tekst źródłaVasquez-Gomez, J. Irving, L. Enrique Sucar, Rafael Murrieta-Cid i Efrain Lopez-Damian. "Volumetric Next-best-view Planning for 3D Object Reconstruction with Positioning Error". International Journal of Advanced Robotic Systems 11, nr 10 (3.10.2014): 159. http://dx.doi.org/10.5772/58759.
Pełny tekst źródłaPotapova, S. G., A. V. Artemov, S. V. Sviridov, D. A. Musatkina, D. N. Zorin i E. V. Burnaev. "Next Best View Planning via Reinforcement Learning for Scanning of Arbitrary 3D Shapes". Journal of Communications Technology and Electronics 65, nr 12 (grudzień 2020): 1484–90. http://dx.doi.org/10.1134/s1064226920120141.
Pełny tekst źródłaHardouin, Guillaume, Fabio Morbidi, Julien Moras, Julien Marzat i El Mustapha Mouaddib. "Surface-driven Next-Best-View planning for exploration of large-scale 3D environments". IFAC-PapersOnLine 53, nr 2 (2020): 15501–7. http://dx.doi.org/10.1016/j.ifacol.2020.12.2376.
Pełny tekst źródłaMonica, Riccardo, i Jacopo Aleotti. "Contour-based next-best view planning from point cloud segmentation of unknown objects". Autonomous Robots 42, nr 2 (6.02.2017): 443–58. http://dx.doi.org/10.1007/s10514-017-9618-0.
Pełny tekst źródłaWakisaka, Eisuke, Satoshi Kanai i Hiroaki Date. "Model-based next-best-view planning of terrestrial laser scanner for HVAC facility renovation". Computer-Aided Design and Applications 15, nr 3 (21.12.2017): 353–66. http://dx.doi.org/10.1080/16864360.2017.1397886.
Pełny tekst źródłaKong, Yanzi, Feng Zhu, Haibo Sun, Zhiyuan Lin i Qun Wang. "A Generic View Planning System Based on Formal Expression of Perception Tasks". Entropy 24, nr 5 (20.04.2022): 578. http://dx.doi.org/10.3390/e24050578.
Pełny tekst źródłaMoritani, R., S. Kanai, H. Date, Y. Niina i R. Honma. "PLAUSIBLE RECONSTRUCTION OF AN APPROXIMATED MESH MODEL FOR NEXT-BEST VIEW PLANNING OF SFM-MVS". ISPRS - International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences XLIII-B2-2020 (12.08.2020): 465–71. http://dx.doi.org/10.5194/isprs-archives-xliii-b2-2020-465-2020.
Pełny tekst źródłaGehrung, J., M. Hebel, M. Arens i U. Stilla. "EFFICIENT TOUR PLANNING FOR A MEASUREMENT VEHICLE BY COMBINING NEXT BEST VIEW AND TRAVELING SALESMAN". International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences XLIII-B2-2021 (28.06.2021): 729–36. http://dx.doi.org/10.5194/isprs-archives-xliii-b2-2021-729-2021.
Pełny tekst źródłaRozprawy doktorskie na temat "Next-Best-View planning"
Svensson, Martin. "Accelerated Volumetric Next-Best-View Planning in 3D Mapping". Thesis, Linköpings universitet, Datorseende, 2014. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-111905.
Pełny tekst źródłaMorast, Embla. "Towards Next Best View Planning for Observation of Time-Variant Scenes". Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-291335.
Pełny tekst źródłaMycket av forskningen inom robotik fokuserar på att applicera nya koncept och tekniker i isolerade statiska miljöer, även när det tilltänkta användnings-området är ofrånkomligen dynamiskt. För att föra fältet framåt kan det vara användbart att utforska hur dynamiska egenskaper kan utnyttjas och kompen-seras för. I det här arbetet undersöker vi hur planering av nästa bästa vy kan anpassas till dynamiska scener. För detta syfte genomförs en nogrann under-sökning av hur information bör representeras, baserat på tidigare slutsatser från det välstuderade statiska fallet. Vi finner att vyplanering inte kan direkt över-föras från statiska till dynamiska miljöer utan att hantera informationsbortfall och den partiskhet mot redan observerade regioner som uppstår. Resultatet av undersökningen är en ökad förståelse för det tidsvarianta planeringsproblemet som att välja nästa vy innebär.
Hardouin, Guillaume. "A centralized and distributed multi-robot system for 3D surface reconstruction of unknown environments". Electronic Thesis or Diss., Amiens, 2022. http://www.theses.fr/2022AMIE0027.
Pełny tekst źródłaIn archaeology and cultural heritage, the 3D modelling of large-scale structures using high-quality sensors, remains time-consuming, complex, and expansive process. In present age of robotics, a new generation of scanning systems based on mobile robots, could address this challenge, improving efficiency, flexibility and responsiveness. This PhD thesis considers the problem of 3D reconstruction of an unknown environment, with a team of cooperative vehicles. The robots equipped with forward-facing stereo cameras, explore the environment, uncover discrete Incomplete Surface Elements (ISEs) in the volumetric map, and generate candidate viewpoints to scan them. These areas of interest are greedily assigned to the robots using a Next-Best-View approach, where the visit is planned by iteratively solving a Traveling Salesman Problem. Then, a sampling-based planner is used to compute obstacle-free paths using the volumetric map. A single-robot architecture has been first designed, which leverages the 3D surface representation of volumetric map for planning. This architecture has been extended to a multi-robot system with a single base station, in order to accelerate the scanning process. Finally, a distributed architecture has been presented and discussed to increase the robustness of the multi-robot system. Extensive numerical and real-world experiments with multiple aerial and ground robots have been conducted to validate the prosposed architectures in challenging environments
Khalfaoui, Souhaiel. "Production automatique de modèles tridimensionnels par numérisation 3D". Phd thesis, Université de Bourgogne, 2012. http://tel.archives-ouvertes.fr/tel-00841916.
Pełny tekst źródłaFoix, Salmerón Sergi. "Task-oriented viewpoint planning for free-form objects". Doctoral thesis, Universitat Politècnica de Catalunya, 2016. http://hdl.handle.net/10803/396623.
Pełny tekst źródłaAquesta tesi aborda el tema de la percepció activa i el seu ús en tasques d'exploració en entorns reals tot considerant la ambigüitat en l'escena i la incertesa del sistema de percepció. Al contrari de la majoria d'algoritmes de percepció activa, on el modelatge d'objectes sol ser l'objectiu implícit, en aquesta tesi hem explorat noves estratègies per poder tractar tasques genèriques i de major complexitat. Tot sistema de percepció activa requereix un aparell sensorial amb la capacitat de variar els seus paràmetres de forma controlada, per poder, d'aquesta manera, recopilar nova informació per resoldre una tasca determinada. En tasques d'exploració, la posició i orientació del sensor són paràmetres claus per resoldre la tasca. En el nostre estudi hem fet ús d'un robot manipulador com a sistema de posicionament i d'una càmera de profunditat de temps de vol (ToF), adherida al seu efector final, com a sistema de percepció. Com a tasca final, ens hem concentrat en l'adquisició de mesures sobre fulles dins de l'àmbit del fenotipatge de les plantes. Les plantes son objectes molt complexos, amb fulles que canvien de textura, posició i mida al llarg del temps. Això comporta diverses dificultats. Per una banda, abans de dur a terme una mesura sobre un fulla s'ha d'explorar l'entorn i trobar una regió que ho permeti. A més a més, aquells punts de vista que han estat adequats per una determinada planta difícilment ho seran per una altra, tot i sent les dues de la mateixa espècie. Per un altra banda, en el moment de la mesura, certs instruments, tals com els mesuradors de clorofil·la o les eines d'extracció de mostres, requereixen ser posicionats amb molta precisió. És necessari, doncs, disposar d'un model detallat d'aquestes regions d'interès, i que inclogui no només l'espai ocupat sinó també el lliure. Gràcies a la modelització de l'espai lliure es pot dur a terme una bona evitació d'obstacles i un bon càlcul de la trajectòria d'aproximació de l'eina a la fulla. En aquest context, és fàcil veure que, en general, amb un sol punt de vista no n'hi ha prou per adquirir tota la informació necessària per prendre una mesura, i que l'ús de trajectòries predeterminades no garanteixen l'èxit. L'objectiu general d'aquesta tesi és resoldre tasques complexes de percepció activa mitjançant la codificació del seu objectiu d'exploració en un model geomètric prèviament estimat, fent servir el guany d'informació com a guia fonamental dins de la funció de cost. Les principals contribucions d'aquesta tesi es poden dividir en dos grups: primer, l'avaluació de les càmeres ToF i el seu calibratge per poder avaluar la incertesa de les seves mesures (presentat en la Part I); i en segon lloc, la proposta d'un sistema capaç de codificar la tasca mitjançant el modelatge de l'espai lliure i ocupat, i que té en compte la incertesa del sensor per millorar la selecció de les accions (presentat en la Part II). Aquesta tesi ha donat lloc a 14 publicacions, incloent 5 en revistes indexades, i els resultats obtinguts s'han fet servir en el projecte Europeu GARNICS. La funcionalitat del sistema complet està basada en els mètodes Next-Best-View (següent-millor-vista) i es pot desglossar en els següents passos principals. En primer lloc, s'obté una vista inicial de l'objecte (p. ex., una planta). A partir d'aquesta vista inicial i d'un conjunt de vistes candidates, s'estima, per cada una d'elles, el guany d'informació resultant, tant de moure la càmera com d'obtenir una nova mesura. És rellevant dir que aquest càlcul té en compte la incertesa de cada un dels píxels del sensor, l'estimació de la informació basada en el model de la tasca preestablerta i les possibles oclusions. Un cop seleccionada la vista més prometedora, el robot es mou a la nova posició, pren una nova imatge, integra aquesta informació en el model i torna a avaluar, un altre cop, el conjunt de punts de vista restants. Per últim, la tasca acaba en el moment que es recopila suficient informació.
Części książek na temat "Next-Best-View planning"
Haner, Sebastian, i Anders Heyden. "Covariance Propagation and Next Best View Planning for 3D Reconstruction". W Computer Vision – ECCV 2012, 545–56. Berlin, Heidelberg: Springer Berlin Heidelberg, 2012. http://dx.doi.org/10.1007/978-3-642-33709-3_39.
Pełny tekst źródłaTrummer, Michael, Christoph Munkelt i Joachim Denzler. "Combined GKLT Feature Tracking and Reconstruction for Next Best View Planning". W Lecture Notes in Computer Science, 161–70. Berlin, Heidelberg: Springer Berlin Heidelberg, 2009. http://dx.doi.org/10.1007/978-3-642-03798-6_17.
Pełny tekst źródłaVásquez, Juan Irving, i L. Enrique Sucar. "Next-Best-View Planning for 3D Object Reconstruction under Positioning Error". W Advances in Artificial Intelligence, 429–42. Berlin, Heidelberg: Springer Berlin Heidelberg, 2011. http://dx.doi.org/10.1007/978-3-642-25324-9_37.
Pełny tekst źródłaSoteropoulos, Aggelos. "Automated drivability and streetscape compatibility in the urban-rural continuum using the example of Greater Vienna". W AVENUE21. Planning and Policy Considerations for an Age of Automated Mobility, 41–73. Berlin, Heidelberg: Springer Berlin Heidelberg, 2023. http://dx.doi.org/10.1007/978-3-662-67004-0_5.
Pełny tekst źródłaDerichs, C., B. Deutsch, S. Wenhardt, H. Niemann i J. Denzler. "Information Theoretic Approaches for Next Best View Planning in Active Computer Vision". W Advances in Intelligent Information Processing, 55–83. WORLD SCIENTIFIC, 2008. http://dx.doi.org/10.1142/9789812818997_0004.
Pełny tekst źródłaStreszczenia konferencji na temat "Next-Best-View planning"
Koc, Cagatay, i Sanem Sariel. "Next Best View Planning in Table-top Scenarios". W 2020 28th Signal Processing and Communications Applications Conference (SIU). IEEE, 2020. http://dx.doi.org/10.1109/siu49456.2020.9302134.
Pełny tekst źródłaDunn, Enrique, i Jan-Michael Frahm. "Next best view planning for active model improvement". W British Machine Vision Conference 2009. British Machine Vision Association, 2009. http://dx.doi.org/10.5244/c.23.53.
Pełny tekst źródłaMorast, Embla, i Patric Jensfelt. "Towards Next Best View Planning for Time-Variant Scenes". W 2021 7th International Conference on Automation, Robotics and Applications (ICARA). IEEE, 2021. http://dx.doi.org/10.1109/icara51699.2021.9376559.
Pełny tekst źródłaDunn, Enrique, Jur van den Berg i Jan-Michael Frahm. "Developing visual sensing strategies through next best view planning". W 2009 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS 2009). IEEE, 2009. http://dx.doi.org/10.1109/iros.2009.5354179.
Pełny tekst źródłaLow, Kok-Lim, i Anselmo Lastra. "Efficient Constraint Evaluation Algorithms for Hierarchical Next-Best-View Planning". W Third International Symposium on 3D Data Processing, Visualization, and Transmission (3DPVT'06). IEEE, 2006. http://dx.doi.org/10.1109/3dpvt.2006.52.
Pełny tekst źródłaMonica, Riccardo, i Jacopo Aleotti. "A 3D Robot Self Filter for Next Best View Planning". W 2019 Third IEEE International Conference on Robotic Computing (IRC). IEEE, 2019. http://dx.doi.org/10.1109/irc.2019.00025.
Pełny tekst źródłaVasquez-Gomez, J. Irving, L. Enrique Sucar i Rafael Murrieta-Cid. "Hierarchical Ray Tracing for Fast Volumetric Next-Best-View Planning". W 2013 International Conference on Computer and Robot Vision (CRV). IEEE, 2013. http://dx.doi.org/10.1109/crv.2013.42.
Pełny tekst źródłaBreyer, Michel, Lionel Ott, Roland Siegwart i Jen Jen Chung. "Closed-Loop Next-Best-View Planning for Target-Driven Grasping". W 2022 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). IEEE, 2022. http://dx.doi.org/10.1109/iros47612.2022.9981472.
Pełny tekst źródłaELzaiady, Mohamed E., i Ashraf Elnagar. "Next-best-view planning for environment exploration and 3D model construction". W 2017 International Conference on Infocom Technologies and Unmanned Systems (Trends and Future Directions) (ICTUS). IEEE, 2017. http://dx.doi.org/10.1109/ictus.2017.8286106.
Pełny tekst źródłaZeng, Xiangyu, Tobias Zaenker i Maren Bennewitz. "Deep Reinforcement Learning for Next-Best-View Planning in Agricultural Applications". W 2022 IEEE International Conference on Robotics and Automation (ICRA). IEEE, 2022. http://dx.doi.org/10.1109/icra46639.2022.9811800.
Pełny tekst źródła