Littérature scientifique sur le sujet « Adaptative field of view »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Sommaire
Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « Adaptative field of view ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Articles de revues sur le sujet "Adaptative field of view"
Sansonetti, P. J. « Phagocytosis, a cell biology view ». Journal of Cell Science 113, no 19 (1 octobre 2000) : 3355–56. http://dx.doi.org/10.1242/jcs.113.19.3355.
Texte intégralGarofalo, Damiano, Dom Holdaway et Massimo Scaglioni. « Canned Television Going Global ». Canned TV Going Global 9, no 17 (31 août 2020) : 1. http://dx.doi.org/10.18146/view.257.
Texte intégralHerlihey, T., S. Rushton et C. Charron. « Adaptation of visual straight ahead requires an unrestricted field of view ». Journal of Vision 10, no 7 (13 août 2010) : 1048. http://dx.doi.org/10.1167/10.7.1048.
Texte intégralMa, Shining, Peter Hanselaer, Kees Teunissen et Kevin A. G. Smet. « Evaluation and modification of von Kries chromatic adaptation transform ». Color and Imaging Conference 2019, no 1 (21 octobre 2019) : 23–27. http://dx.doi.org/10.2352/issn.2169-2629.2019.27.6.
Texte intégralAhmad, Ola, et Freddy Lecue. « FisheyeHDK : Hyperbolic Deformable Kernel Learning for Ultra-Wide Field-of-View Image Recognition ». Proceedings of the AAAI Conference on Artificial Intelligence 36, no 6 (28 juin 2022) : 5968–75. http://dx.doi.org/10.1609/aaai.v36i6.20542.
Texte intégralEzcurdia, Iñigo, Adriana Arregui, Oscar Ardaiz, Amalia Ortiz et Asier Marzo. « Content Adaptation and Depth Perception in an Affordable Multi-View Display ». Applied Sciences 10, no 20 (21 octobre 2020) : 7357. http://dx.doi.org/10.3390/app10207357.
Texte intégralAUSLOOS, MARCEL. « ANOTHER ANALYTIC VIEW ABOUT QUANTIFYING SOCIAL FORCES ». Advances in Complex Systems 16, no 01 (mars 2013) : 1250088. http://dx.doi.org/10.1142/s0219525912500889.
Texte intégralAKULSHINA, Alla V., et Natalia N. USHKOVA. « VIEW TO INCLUSIVE EDUCATION IN THE LIGHT OF SOCIOLOGY : THE EUROPEAN EXPERIENCE ». PRIMO ASPECTU, no 1(45) (24 mars 2021) : 43–50. http://dx.doi.org/10.35211/2500-2635-2021-1-45-43-50.
Texte intégralEGGENREICH, U., et K. KRAL. « External Design and Field of View of the Compound Eyes in a Raptorial Neuropteran Insect, Mantispa Styriaca ». Journal of Experimental Biology 148, no 1 (1 janvier 1990) : 353–65. http://dx.doi.org/10.1242/jeb.148.1.353.
Texte intégralWhiting, Susan H., Daniel Abramson, Shang Yuan et Stevan Harrell. « A Long View of Resilience in the Chengdu Plain, China ». Journal of Asian Studies 78, no 2 (mai 2019) : 257–84. http://dx.doi.org/10.1017/s0021911819000111.
Texte intégralThèses sur le sujet "Adaptative field of view"
Ducrocq, Julien. « Vision catadioptrique pour favoriser la perception d'environnements hétérogènes ». Electronic Thesis or Diss., Amiens, 2022. http://www.theses.fr/2022AMIE0067.
Texte intégralThis thesis presents the conception methods of two catadioptric cameras capable of recording usable images of heterogeneous environments. These cameras belong to the adaptive vision field, which gathers the cameras of which the optics or sensor have heterogeneous properties which can vary across time. Adaptive cameras abilities include capturing heterogenous environments which physical or geometrical properties change across space. This thesis proposes a survey of the state of the art on adaptive cameras which are able to capture specific types of heterogenous environments. On the one hand, we consider the scenes characterized by a spatial variation of radiances, with a dynamic range around 120 decibels. These scenes put conventional cameras in difficulty, their images have some pixels saturated and others to dark, because of their low dynamic range. In both casses, these image regions does not carry any visual information about the scene, they are not usable. In order to capture the radiances corresponding to these bright and dark areas, the high dynamic range cameras (HDR) are used. Nonetheless, there is no available HDR panoramic camera yet. Therefore, the first contribution of this thesis is the conception of an HDR panoramic camera in order to improve robots navigation, with only visual perception, in outdoor scenes with various. Mounted on a mobile robot, this camera enlarges the convergence domain and the positioning accuracy of a robot by direct visual servoing, outdoors. On the other hand, we consider the scenes which have a non-uniform level of details across space : some scene elements carry more visual information than the others. To capture such heterogeneous environments, the second contribution of this thesis is an adaptive camera. This camera is based on a new deformable mirror of local curvatures allowing to enlarge or reduce the number of pixels occupied by scene regions in the image. This camera, nicknamed Visadapt, capture multi-résolution images which depend on scene content. From one scene to another, the shape of the mirror may be changed to optimise the resolution of the images captured to this new scene. The surface of the mirror is made of material both reflective and deformable, the mylar, and changes of shape thanks to a grid of linear actuators placed underneath. This mirror, plan as an initial state, is able to change shape to give to the scene regions captured by Visadapt the desired resolution in the image. The characteristics of Visadapt, particularly the dimensions, the materials of its different elements and the actuators pitch, have been defined thanks to a simulation study. A real prototype have been built to respect the parameters defined by the simulation. The experiments shown that this prototype is able to magnify up to four scene regions at once. This thesis ends with a conclusion presenting future works to upgrade the prototypes of the two cameras, in order to enhance their performances and the diversity of images they can capture. Furthermore, this conclusion proposes research tracks to improve even further these two cameras and even adaptive vision in general
Pace, Brian A. « Physiology, Photochemistry, and Fitness of Mexican Maize Landraces in the Field ». The Ohio State University, 2019. http://rave.ohiolink.edu/etdc/view?acc_num=osu1545421491370678.
Texte intégralIversen, Katarina. « Virtuella vägmarkeringar för att påverka hastighetsval vid bilkörning : Effekt och upplevelse hos bilförare med respektive utan ADHD ». Thesis, Linköpings universitet, Institutionen för datavetenskap, 2020. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-166321.
Texte intégralMateus, Forero Andrea D. « DESIGN IN ADAPTATION TO DROUGHTS AND HEAT WAVES CAUSED BY CLIMATECHANGE IN RICE FARMS IN LERIDA, TOLIMA, COLOMBIA ». Miami University / OhioLINK, 2017. http://rave.ohiolink.edu/etdc/view?acc_num=miami151213167340772.
Texte intégralSchrinner, Martin. « Mean-field view on geodynamo models ». Doctoral thesis, [S.l.] : [s.n.], 2005. http://webdoc.sub.gwdg.de/diss/2005/schrinner.
Texte intégralHansen, Jeremy Roger. « Wide field of view satellite tracking ». Thesis, National Library of Canada = Bibliothèque nationale du Canada, 2000. http://www.collectionscanada.ca/obj/s4/f2/dsk1/tape3/PQDD_0031/MQ65844.pdf.
Texte intégralCao, Shaohong. « Large field of view electron ptychography ». Thesis, University of Sheffield, 2017. http://etheses.whiterose.ac.uk/19405/.
Texte intégralHansen, Jeremy Roger. « Wide field of view satellite tracking ». Ottawa : National Library of Canada = Bibliothèque nationale du Canada, 2002. http://www.nlc-bnc.ca/obj/s4/f2/dsk1/tape3/PQDD%5F0031/MQ65844.pdf.
Texte intégralTakami, Kuya. « Non-Field-of-View Acoustic Target Estimation ». Diss., Virginia Tech, 2015. http://hdl.handle.net/10919/56892.
Texte intégralPh. D.
Chen, Xin. « Analytical Path to Improved RF Field Homogeneity for High Field MRI ». Cleveland, Ohio : Case Western Reserve University, 2009. http://rave.ohiolink.edu/etdc/view?acc_num=case1237482374.
Texte intégralLivres sur le sujet "Adaptative field of view"
Institute of Social Sciences (New Delhi, India), dir. The village community as a site of development : A field view versus a utopian view. New Delhi : Institute of Social Sciences, 2014.
Trouver le texte intégralWiekhorst, Linda A. Flight simulator : Field of view utilized in performing tactical maneuvers. Brooks Air Force Base, Tex : Air Force Human Resources Laboratory, Air Force Systems Command, 1986.
Trouver le texte intégralErskine-Cullen, Ethne. Preparing teachers for urban schools : A view from the field. Montreal, PQ : Canadian Society for Studies in Education, 1995.
Trouver le texte intégralBabuts, Nicolae. The dynamics of the metaphoric field : A cognitive view of literature. Newark : University of Delaware Press, 1992.
Trouver le texte intégralG, Curry David, et Air Force Human Resource Laboratory. Operations Training Division., dir. Weapons delivery training : Effects of scene content and field of view. Williams Air Force Base, Ariz : Operations Training Division, Air Force Human Resources Laboratory, 1990.
Trouver le texte intégral1937-, Jaffe Arthur, dir. Quantum physics : A functional integral point of view. 2e éd. New York : Springer-Verlag, 1987.
Trouver le texte intégralWalker, Jonathon. Older drivers and useful field of view in a part-task simulator. Washington : Transport Research Board, 1992.
Trouver le texte intégralSullivan, Joseph A. Helicopter terrain navigation training using a wide field of view desktop virtual environment. Monterey, Calif : Naval Postgraduate School, 1998.
Trouver le texte intégralJoint EOSAT/NASA SeaWiFS Working Group., Eosat, United States. National Aeronautics and Space Administration. Earth Science and Applications Division. et SeaWiFS Project (Goddard Space Flight Center), dir. System concept for wide-field-of-view observations of ocean phenomena from space. Washington, D.C : National Aeronautics and Space Administration, Earth Science and Applications Division, 1987.
Trouver le texte intégralKagaku Gijutsu Shinkō Kikō. Kenkyū Kaihatsu Senryaku Sentā. Nanotekunorojī Zairyō Yunitto. Nanotekunorojī, Zairyō bun'ya (2013-nen) : Panoramic view of the nanotechnology/materials field (2013). Tōkyō-to Chiyoda-ku : Kagaku Gijutsu Shinkō Kikō Kenkyū Kaihatsu Senryaku Sentā Nanotekunorojī Zairyō Yunitto, 2013.
Trouver le texte intégralChapitres de livres sur le sujet "Adaptative field of view"
Weik, Martin H. « view field ». Dans Computer Science and Communications Dictionary, 1893. Boston, MA : Springer US, 2000. http://dx.doi.org/10.1007/1-4020-0613-6_20802.
Texte intégralRamalingam, Srikumar. « Field of View ». Dans Computer Vision, 294–97. Boston, MA : Springer US, 2014. http://dx.doi.org/10.1007/978-0-387-31439-6_462.
Texte intégralRamalingam, Srikumar. « Field of View ». Dans Computer Vision, 470–73. Cham : Springer International Publishing, 2021. http://dx.doi.org/10.1007/978-3-030-63416-2_462.
Texte intégralBarau, Aliyu, et Aliyu Sani Wada. « Do-It-Yourself Flood Risk Adaptation Strategies in the Neighborhoods of Kano City, Nigeria ». Dans African Handbook of Climate Change Adaptation, 1–28. Cham : Springer International Publishing, 2021. http://dx.doi.org/10.1007/978-3-030-42091-8_190-1.
Texte intégralBarau, Aliyu, et Aliyu Sani Wada. « Do-It-Yourself Flood Risk Adaptation Strategies in the Neighborhoods of Kano City, Nigeria ». Dans African Handbook of Climate Change Adaptation, 1353–80. Cham : Springer International Publishing, 2021. http://dx.doi.org/10.1007/978-3-030-45106-6_190.
Texte intégralRunge, Val M., et Johannes T. Heverhagen. « Field of View (Overview) ». Dans The Physics of Clinical MR Taught Through Images, 54–55. Cham : Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-030-85413-3_24.
Texte intégralGe, Chenhong. « Moral Thought in the Field of Nature ». Dans View of Moralization, 29–79. Singapore : Springer Singapore, 2020. http://dx.doi.org/10.1007/978-981-15-3090-6_2.
Texte intégralGe, Chenhong. « Moral Thought in the Field of Man ». Dans View of Moralization, 81–128. Singapore : Springer Singapore, 2020. http://dx.doi.org/10.1007/978-981-15-3090-6_3.
Texte intégralGe, Chenhong. « Moral Thought in the Field of Society ». Dans View of Moralization, 129–78. Singapore : Springer Singapore, 2020. http://dx.doi.org/10.1007/978-981-15-3090-6_4.
Texte intégralO’Shea, Andrew, et Adam J. Woods. « Useful Field of View (UFOV) ». Dans Encyclopedia of Clinical Neuropsychology, 3544–45. Cham : Springer International Publishing, 2018. http://dx.doi.org/10.1007/978-3-319-57111-9_9133.
Texte intégralActes de conférences sur le sujet "Adaptative field of view"
O'Rourke, Sean M., et A. Lee Swindlehurst. « Limited field-of-view multimodal sensor adaptation for data association ». Dans 2012 IEEE 7th Sensor Array and Multichannel Signal Processing Workshop (SAM). IEEE, 2012. http://dx.doi.org/10.1109/sam.2012.6250478.
Texte intégralToomey, R. J., K. Curran, C. D'Helft, M. B. Joyce, J. Stowe, J. T. Ryan, M. F. McEntee, D. J. Manning et P. C. Brennan. « Visual adaptation : softcopy image contribution to the observer's field of view ». Dans Medical Imaging, sous la direction de Berkman Sahiner et David J. Manning. SPIE, 2008. http://dx.doi.org/10.1117/12.770305.
Texte intégralUrbin, Á. « OBSERVATION OF ADAPTED WHITE UNDER DIFFERENT STATES OF CHROMATIC ADAPTATION ». Dans CIE 2023 Conference. International Commission on Illumination, CIE, 2023. http://dx.doi.org/10.25039/x50.2023.po146.
Texte intégralОмельченко, Е. А. « On the issue of terminology in the field of education and adaptation of children from migrant families ». Dans Современное социально-гуманитарное образование : векторы развития в год науки и технологий : материалы VI международной конференции (г. Москва, МПГУ, 22–23 апреля 2021 г.). Crossref, 2021. http://dx.doi.org/10.37492/etno.2021.58.69.082.
Texte intégralQuek, Geraldine, Jan Wienold et Marilyne Andersen. « USER EVALUATIONS OF CONTRAST-DOMINANT DISCOMFORT GLARE IN DIM DAYLIT SCENARIOS : PRELIMINARY FINDINGS ». Dans CIE 2021 Conference. International Commission on Illumination, CIE, 2021. http://dx.doi.org/10.25039/x48.2021.op22.
Texte intégralQuek, G., C. Yuen, J. Wienold et M. Andersen. « INVESTIGATING MULTIPLE GLARE SOURCES IN DAYLIT CONDITIONS ». Dans CIE 2023 Conference. International Commission on Illumination, CIE, 2023. http://dx.doi.org/10.25039/x50.2023.op018.
Texte intégralHuang, W. « Phase-field Modeling of Brittle Fracture and its Adaptive Moving Mesh Solution ». Dans 10th International Conference on Adaptative Modeling and Simulation. CIMNE, 2021. http://dx.doi.org/10.23967/admos.2021.068.
Texte intégralVEVERA, Victor Adrian, et Sorin TOPOR. « THE COMMUNICATIONAL DIMENSION OF DIGITAL DIPLOMACY ». Dans SCIENTIFIC RESEARCH AND EDUCATION IN THE AIR FORCE. Publishing House of “Henri Coanda” Air Force Academy, 2022. http://dx.doi.org/10.19062/2247-3173.2021.22.12.
Texte intégralFreddi, F., et L. Mingazzi. « Energy Based Global-Local Strategies with Adaptive Mesh Refinement for the Phase-Field Approach to Brittle Fracture ». Dans 10th International Conference on Adaptative Modeling and Simulation. CIMNE, 2021. http://dx.doi.org/10.23967/admos.2021.040.
Texte intégralHug, L., S. Kollmannsberger, J. Kirschke, M. Potten, G. Stockinger, K. Thuro, Z. Yosibash et E. Rank. « Efficient Simulation of Crack Propagation in Complex Geometries using a Phase-Field Model and the Finite Cell Method ». Dans 10th International Conference on Adaptative Modeling and Simulation. CIMNE, 2021. http://dx.doi.org/10.23967/admos.2021.038.
Texte intégralRapports d'organisations sur le sujet "Adaptative field of view"
Chiu, C., A. Marshak, G. Hodges, JC Barnard et J. Schmelzer. Narrow Field of View Zenith Radiometer (NFOV) Handbook. Office of Scientific and Technical Information (OSTI), novembre 2008. http://dx.doi.org/10.2172/1020260.
Texte intégralLaRiviere, Patrick. High-Resolution Large-Field-of-View Ultrasound Breast Imager. Fort Belvoir, VA : Defense Technical Information Center, août 2014. http://dx.doi.org/10.21236/ada612043.
Texte intégralLa Riviere, Patrick J. High-Resolution Large-Field-of-View Ultrasound Breast Imager. Fort Belvoir, VA : Defense Technical Information Center, juin 2012. http://dx.doi.org/10.21236/ada566650.
Texte intégralNishiwaki, Yosuke, et Sadayuki Tsugawa. Optimization of the Field of View on Lane Detection. Warrendale, PA : SAE International, septembre 2005. http://dx.doi.org/10.4271/2005-08-0497.
Texte intégralLaRiviere, Patrick. High-Resolution Large-Field-of-View Ultrasound Breast Imager. Fort Belvoir, VA : Defense Technical Information Center, juin 2013. http://dx.doi.org/10.21236/ada592131.
Texte intégralMarasco, Peter L., et H. L. Task. Optical Characterization of Wide Field-of-View Night Vision Devices. Fort Belvoir, VA : Defense Technical Information Center, janvier 1999. http://dx.doi.org/10.21236/ada430272.
Texte intégralCapo-Aponte, Jose E., William McLean, Josue Sosa et Steve Martin. Methodology to Assess Field of View of Maxillofacial Protective Devices. Fort Belvoir, VA : Defense Technical Information Center, novembre 2012. http://dx.doi.org/10.21236/ada568432.
Texte intégralTai, A., M. Eismann et B. Neagle. Holographic Lens for Wide Field-of-View Laser Communication Receiver. Fort Belvoir, VA : Defense Technical Information Center, mars 1990. http://dx.doi.org/10.21236/ada231620.
Texte intégralMoore, Duncan. Study of Wide Field of View Optical Systems Based on Animal Eyes. Fort Belvoir, VA : Defense Technical Information Center, septembre 2008. http://dx.doi.org/10.21236/ada485592.
Texte intégralHavig, Paul R., John P. McIntire et Nicholas D. Lump. Effects of Resolution and Field of View on Various Digital Kneeboard Tasks. Fort Belvoir, VA : Defense Technical Information Center, septembre 2005. http://dx.doi.org/10.21236/ada445074.
Texte intégral