Auswahl der wissenschaftlichen Literatur zum Thema „Next-Best-View planning“
Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an
Inhaltsverzeichnis
Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "Next-Best-View planning" bekannt.
Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.
Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.
Zeitschriftenartikel zum Thema "Next-Best-View planning"
Monica, Riccardo, und Jacopo Aleotti. „Surfel-Based Next Best View Planning“. IEEE Robotics and Automation Letters 3, Nr. 4 (Oktober 2018): 3324–31. http://dx.doi.org/10.1109/lra.2018.2852778.
Der volle Inhalt der QuelleLauri, Mikko, Joni Pajarinen, Jan Peters und Simone Frintrop. „Multi-Sensor Next-Best-View Planning as Matroid-Constrained Submodular Maximization“. IEEE Robotics and Automation Letters 5, Nr. 4 (Oktober 2020): 5323–30. http://dx.doi.org/10.1109/lra.2020.3007445.
Der volle Inhalt der QuelleVasquez-Gomez, J. Irving, L. Enrique Sucar, Rafael Murrieta-Cid und Efrain Lopez-Damian. „Volumetric Next-best-view Planning for 3D Object Reconstruction with Positioning Error“. International Journal of Advanced Robotic Systems 11, Nr. 10 (03.10.2014): 159. http://dx.doi.org/10.5772/58759.
Der volle Inhalt der QuellePotapova, S. G., A. V. Artemov, S. V. Sviridov, D. A. Musatkina, D. N. Zorin und E. V. Burnaev. „Next Best View Planning via Reinforcement Learning for Scanning of Arbitrary 3D Shapes“. Journal of Communications Technology and Electronics 65, Nr. 12 (Dezember 2020): 1484–90. http://dx.doi.org/10.1134/s1064226920120141.
Der volle Inhalt der QuelleHardouin, Guillaume, Fabio Morbidi, Julien Moras, Julien Marzat und El Mustapha Mouaddib. „Surface-driven Next-Best-View planning for exploration of large-scale 3D environments“. IFAC-PapersOnLine 53, Nr. 2 (2020): 15501–7. http://dx.doi.org/10.1016/j.ifacol.2020.12.2376.
Der volle Inhalt der QuelleMonica, Riccardo, und Jacopo Aleotti. „Contour-based next-best view planning from point cloud segmentation of unknown objects“. Autonomous Robots 42, Nr. 2 (06.02.2017): 443–58. http://dx.doi.org/10.1007/s10514-017-9618-0.
Der volle Inhalt der QuelleWakisaka, Eisuke, Satoshi Kanai und Hiroaki Date. „Model-based next-best-view planning of terrestrial laser scanner for HVAC facility renovation“. Computer-Aided Design and Applications 15, Nr. 3 (21.12.2017): 353–66. http://dx.doi.org/10.1080/16864360.2017.1397886.
Der volle Inhalt der QuelleKong, Yanzi, Feng Zhu, Haibo Sun, Zhiyuan Lin und Qun Wang. „A Generic View Planning System Based on Formal Expression of Perception Tasks“. Entropy 24, Nr. 5 (20.04.2022): 578. http://dx.doi.org/10.3390/e24050578.
Der volle Inhalt der QuelleMoritani, R., S. Kanai, H. Date, Y. Niina und R. Honma. „PLAUSIBLE RECONSTRUCTION OF AN APPROXIMATED MESH MODEL FOR NEXT-BEST VIEW PLANNING OF SFM-MVS“. ISPRS - International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences XLIII-B2-2020 (12.08.2020): 465–71. http://dx.doi.org/10.5194/isprs-archives-xliii-b2-2020-465-2020.
Der volle Inhalt der QuelleGehrung, J., M. Hebel, M. Arens und U. Stilla. „EFFICIENT TOUR PLANNING FOR A MEASUREMENT VEHICLE BY COMBINING NEXT BEST VIEW AND TRAVELING SALESMAN“. International Archives of the Photogrammetry, Remote Sensing and Spatial Information Sciences XLIII-B2-2021 (28.06.2021): 729–36. http://dx.doi.org/10.5194/isprs-archives-xliii-b2-2021-729-2021.
Der volle Inhalt der QuelleDissertationen zum Thema "Next-Best-View planning"
Svensson, Martin. „Accelerated Volumetric Next-Best-View Planning in 3D Mapping“. Thesis, Linköpings universitet, Datorseende, 2014. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-111905.
Der volle Inhalt der QuelleMorast, Embla. „Towards Next Best View Planning for Observation of Time-Variant Scenes“. Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-291335.
Der volle Inhalt der QuelleMycket av forskningen inom robotik fokuserar på att applicera nya koncept och tekniker i isolerade statiska miljöer, även när det tilltänkta användnings-området är ofrånkomligen dynamiskt. För att föra fältet framåt kan det vara användbart att utforska hur dynamiska egenskaper kan utnyttjas och kompen-seras för. I det här arbetet undersöker vi hur planering av nästa bästa vy kan anpassas till dynamiska scener. För detta syfte genomförs en nogrann under-sökning av hur information bör representeras, baserat på tidigare slutsatser från det välstuderade statiska fallet. Vi finner att vyplanering inte kan direkt över-föras från statiska till dynamiska miljöer utan att hantera informationsbortfall och den partiskhet mot redan observerade regioner som uppstår. Resultatet av undersökningen är en ökad förståelse för det tidsvarianta planeringsproblemet som att välja nästa vy innebär.
Hardouin, Guillaume. „A centralized and distributed multi-robot system for 3D surface reconstruction of unknown environments“. Electronic Thesis or Diss., Amiens, 2022. http://www.theses.fr/2022AMIE0027.
Der volle Inhalt der QuelleIn archaeology and cultural heritage, the 3D modelling of large-scale structures using high-quality sensors, remains time-consuming, complex, and expansive process. In present age of robotics, a new generation of scanning systems based on mobile robots, could address this challenge, improving efficiency, flexibility and responsiveness. This PhD thesis considers the problem of 3D reconstruction of an unknown environment, with a team of cooperative vehicles. The robots equipped with forward-facing stereo cameras, explore the environment, uncover discrete Incomplete Surface Elements (ISEs) in the volumetric map, and generate candidate viewpoints to scan them. These areas of interest are greedily assigned to the robots using a Next-Best-View approach, where the visit is planned by iteratively solving a Traveling Salesman Problem. Then, a sampling-based planner is used to compute obstacle-free paths using the volumetric map. A single-robot architecture has been first designed, which leverages the 3D surface representation of volumetric map for planning. This architecture has been extended to a multi-robot system with a single base station, in order to accelerate the scanning process. Finally, a distributed architecture has been presented and discussed to increase the robustness of the multi-robot system. Extensive numerical and real-world experiments with multiple aerial and ground robots have been conducted to validate the prosposed architectures in challenging environments
Khalfaoui, Souhaiel. „Production automatique de modèles tridimensionnels par numérisation 3D“. Phd thesis, Université de Bourgogne, 2012. http://tel.archives-ouvertes.fr/tel-00841916.
Der volle Inhalt der QuelleFoix, Salmerón Sergi. „Task-oriented viewpoint planning for free-form objects“. Doctoral thesis, Universitat Politècnica de Catalunya, 2016. http://hdl.handle.net/10803/396623.
Der volle Inhalt der QuelleAquesta tesi aborda el tema de la percepció activa i el seu ús en tasques d'exploració en entorns reals tot considerant la ambigüitat en l'escena i la incertesa del sistema de percepció. Al contrari de la majoria d'algoritmes de percepció activa, on el modelatge d'objectes sol ser l'objectiu implícit, en aquesta tesi hem explorat noves estratègies per poder tractar tasques genèriques i de major complexitat. Tot sistema de percepció activa requereix un aparell sensorial amb la capacitat de variar els seus paràmetres de forma controlada, per poder, d'aquesta manera, recopilar nova informació per resoldre una tasca determinada. En tasques d'exploració, la posició i orientació del sensor són paràmetres claus per resoldre la tasca. En el nostre estudi hem fet ús d'un robot manipulador com a sistema de posicionament i d'una càmera de profunditat de temps de vol (ToF), adherida al seu efector final, com a sistema de percepció. Com a tasca final, ens hem concentrat en l'adquisició de mesures sobre fulles dins de l'àmbit del fenotipatge de les plantes. Les plantes son objectes molt complexos, amb fulles que canvien de textura, posició i mida al llarg del temps. Això comporta diverses dificultats. Per una banda, abans de dur a terme una mesura sobre un fulla s'ha d'explorar l'entorn i trobar una regió que ho permeti. A més a més, aquells punts de vista que han estat adequats per una determinada planta difícilment ho seran per una altra, tot i sent les dues de la mateixa espècie. Per un altra banda, en el moment de la mesura, certs instruments, tals com els mesuradors de clorofil·la o les eines d'extracció de mostres, requereixen ser posicionats amb molta precisió. És necessari, doncs, disposar d'un model detallat d'aquestes regions d'interès, i que inclogui no només l'espai ocupat sinó també el lliure. Gràcies a la modelització de l'espai lliure es pot dur a terme una bona evitació d'obstacles i un bon càlcul de la trajectòria d'aproximació de l'eina a la fulla. En aquest context, és fàcil veure que, en general, amb un sol punt de vista no n'hi ha prou per adquirir tota la informació necessària per prendre una mesura, i que l'ús de trajectòries predeterminades no garanteixen l'èxit. L'objectiu general d'aquesta tesi és resoldre tasques complexes de percepció activa mitjançant la codificació del seu objectiu d'exploració en un model geomètric prèviament estimat, fent servir el guany d'informació com a guia fonamental dins de la funció de cost. Les principals contribucions d'aquesta tesi es poden dividir en dos grups: primer, l'avaluació de les càmeres ToF i el seu calibratge per poder avaluar la incertesa de les seves mesures (presentat en la Part I); i en segon lloc, la proposta d'un sistema capaç de codificar la tasca mitjançant el modelatge de l'espai lliure i ocupat, i que té en compte la incertesa del sensor per millorar la selecció de les accions (presentat en la Part II). Aquesta tesi ha donat lloc a 14 publicacions, incloent 5 en revistes indexades, i els resultats obtinguts s'han fet servir en el projecte Europeu GARNICS. La funcionalitat del sistema complet està basada en els mètodes Next-Best-View (següent-millor-vista) i es pot desglossar en els següents passos principals. En primer lloc, s'obté una vista inicial de l'objecte (p. ex., una planta). A partir d'aquesta vista inicial i d'un conjunt de vistes candidates, s'estima, per cada una d'elles, el guany d'informació resultant, tant de moure la càmera com d'obtenir una nova mesura. És rellevant dir que aquest càlcul té en compte la incertesa de cada un dels píxels del sensor, l'estimació de la informació basada en el model de la tasca preestablerta i les possibles oclusions. Un cop seleccionada la vista més prometedora, el robot es mou a la nova posició, pren una nova imatge, integra aquesta informació en el model i torna a avaluar, un altre cop, el conjunt de punts de vista restants. Per últim, la tasca acaba en el moment que es recopila suficient informació.
Buchteile zum Thema "Next-Best-View planning"
Haner, Sebastian, und Anders Heyden. „Covariance Propagation and Next Best View Planning for 3D Reconstruction“. In Computer Vision – ECCV 2012, 545–56. Berlin, Heidelberg: Springer Berlin Heidelberg, 2012. http://dx.doi.org/10.1007/978-3-642-33709-3_39.
Der volle Inhalt der QuelleTrummer, Michael, Christoph Munkelt und Joachim Denzler. „Combined GKLT Feature Tracking and Reconstruction for Next Best View Planning“. In Lecture Notes in Computer Science, 161–70. Berlin, Heidelberg: Springer Berlin Heidelberg, 2009. http://dx.doi.org/10.1007/978-3-642-03798-6_17.
Der volle Inhalt der QuelleVásquez, Juan Irving, und L. Enrique Sucar. „Next-Best-View Planning for 3D Object Reconstruction under Positioning Error“. In Advances in Artificial Intelligence, 429–42. Berlin, Heidelberg: Springer Berlin Heidelberg, 2011. http://dx.doi.org/10.1007/978-3-642-25324-9_37.
Der volle Inhalt der QuelleSoteropoulos, Aggelos. „Automated drivability and streetscape compatibility in the urban-rural continuum using the example of Greater Vienna“. In AVENUE21. Planning and Policy Considerations for an Age of Automated Mobility, 41–73. Berlin, Heidelberg: Springer Berlin Heidelberg, 2023. http://dx.doi.org/10.1007/978-3-662-67004-0_5.
Der volle Inhalt der QuelleDerichs, C., B. Deutsch, S. Wenhardt, H. Niemann und J. Denzler. „Information Theoretic Approaches for Next Best View Planning in Active Computer Vision“. In Advances in Intelligent Information Processing, 55–83. WORLD SCIENTIFIC, 2008. http://dx.doi.org/10.1142/9789812818997_0004.
Der volle Inhalt der QuelleKonferenzberichte zum Thema "Next-Best-View planning"
Koc, Cagatay, und Sanem Sariel. „Next Best View Planning in Table-top Scenarios“. In 2020 28th Signal Processing and Communications Applications Conference (SIU). IEEE, 2020. http://dx.doi.org/10.1109/siu49456.2020.9302134.
Der volle Inhalt der QuelleDunn, Enrique, und Jan-Michael Frahm. „Next best view planning for active model improvement“. In British Machine Vision Conference 2009. British Machine Vision Association, 2009. http://dx.doi.org/10.5244/c.23.53.
Der volle Inhalt der QuelleMorast, Embla, und Patric Jensfelt. „Towards Next Best View Planning for Time-Variant Scenes“. In 2021 7th International Conference on Automation, Robotics and Applications (ICARA). IEEE, 2021. http://dx.doi.org/10.1109/icara51699.2021.9376559.
Der volle Inhalt der QuelleDunn, Enrique, Jur van den Berg und Jan-Michael Frahm. „Developing visual sensing strategies through next best view planning“. In 2009 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS 2009). IEEE, 2009. http://dx.doi.org/10.1109/iros.2009.5354179.
Der volle Inhalt der QuelleLow, Kok-Lim, und Anselmo Lastra. „Efficient Constraint Evaluation Algorithms for Hierarchical Next-Best-View Planning“. In Third International Symposium on 3D Data Processing, Visualization, and Transmission (3DPVT'06). IEEE, 2006. http://dx.doi.org/10.1109/3dpvt.2006.52.
Der volle Inhalt der QuelleMonica, Riccardo, und Jacopo Aleotti. „A 3D Robot Self Filter for Next Best View Planning“. In 2019 Third IEEE International Conference on Robotic Computing (IRC). IEEE, 2019. http://dx.doi.org/10.1109/irc.2019.00025.
Der volle Inhalt der QuelleVasquez-Gomez, J. Irving, L. Enrique Sucar und Rafael Murrieta-Cid. „Hierarchical Ray Tracing for Fast Volumetric Next-Best-View Planning“. In 2013 International Conference on Computer and Robot Vision (CRV). IEEE, 2013. http://dx.doi.org/10.1109/crv.2013.42.
Der volle Inhalt der QuelleBreyer, Michel, Lionel Ott, Roland Siegwart und Jen Jen Chung. „Closed-Loop Next-Best-View Planning for Target-Driven Grasping“. In 2022 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). IEEE, 2022. http://dx.doi.org/10.1109/iros47612.2022.9981472.
Der volle Inhalt der QuelleELzaiady, Mohamed E., und Ashraf Elnagar. „Next-best-view planning for environment exploration and 3D model construction“. In 2017 International Conference on Infocom Technologies and Unmanned Systems (Trends and Future Directions) (ICTUS). IEEE, 2017. http://dx.doi.org/10.1109/ictus.2017.8286106.
Der volle Inhalt der QuelleZeng, Xiangyu, Tobias Zaenker und Maren Bennewitz. „Deep Reinforcement Learning for Next-Best-View Planning in Agricultural Applications“. In 2022 IEEE International Conference on Robotics and Automation (ICRA). IEEE, 2022. http://dx.doi.org/10.1109/icra46639.2022.9811800.
Der volle Inhalt der Quelle