Добірка наукової літератури з теми "Image visible"
Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями
Ознайомтеся зі списками актуальних статей, книг, дисертацій, тез та інших наукових джерел на тему "Image visible".
Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.
Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.
Статті в журналах з теми "Image visible"
Uddin, Mohammad Shahab, Chiman Kwan, and Jiang Li. "MWIRGAN: Unsupervised Visible-to-MWIR Image Translation with Generative Adversarial Network." Electronics 12, no. 4 (February 20, 2023): 1039. http://dx.doi.org/10.3390/electronics12041039.
Повний текст джерелаDong, Yumin, Zhengquan Chen, Ziyi Li, and Feng Gao. "A Multi-Branch Multi-Scale Deep Learning Image Fusion Algorithm Based on DenseNet." Applied Sciences 12, no. 21 (October 30, 2022): 10989. http://dx.doi.org/10.3390/app122110989.
Повний текст джерелаZhang, Yongxin, Deguang Li, and WenPeng Zhu. "Infrared and Visible Image Fusion with Hybrid Image Filtering." Mathematical Problems in Engineering 2020 (July 29, 2020): 1–17. http://dx.doi.org/10.1155/2020/1757214.
Повний текст джерелаSon, Dong-Min, Hyuk-Ju Kwon, and Sung-Hak Lee. "Visible and Near Infrared Image Fusion Using Base Tone Compression and Detail Transform Fusion." Chemosensors 10, no. 4 (March 25, 2022): 124. http://dx.doi.org/10.3390/chemosensors10040124.
Повний текст джерелаLiu, Zheng, Su Mei Cui, He Yin, and Yu Chi Lin. "Comparative Analysis of Image Measurement Accuracy in High Temperature Based on Visible and Infrared Vision." Applied Mechanics and Materials 300-301 (February 2013): 1681–86. http://dx.doi.org/10.4028/www.scientific.net/amm.300-301.1681.
Повний текст джерелаHuang, Hui, Linlu Dong, Zhishuang Xue, Xiaofang Liu, and Caijian Hua. "Fusion algorithm of visible and infrared image based on anisotropic diffusion and image enhancement (capitalize only the first word in a title (or heading), the first word in a subtitle (or subheading), and any proper nouns)." PLOS ONE 16, no. 2 (February 19, 2021): e0245563. http://dx.doi.org/10.1371/journal.pone.0245563.
Повний текст джерелаXu, Dongdong, Yongcheng Wang, Shuyan Xu, Kaiguang Zhu, Ning Zhang, and Xin Zhang. "Infrared and Visible Image Fusion with a Generative Adversarial Network and a Residual Network." Applied Sciences 10, no. 2 (January 11, 2020): 554. http://dx.doi.org/10.3390/app10020554.
Повний текст джерелаNiu, Yifeng, Shengtao Xu, Lizhen Wu, and Weidong Hu. "Airborne Infrared and Visible Image Fusion for Target Perception Based on Target Region Segmentation and Discrete Wavelet Transform." Mathematical Problems in Engineering 2012 (2012): 1–10. http://dx.doi.org/10.1155/2012/275138.
Повний текст джерелаYang, Shihao, Min Sun, Xiayin Lou, Hanjun Yang, and Dong Liu. "Nighttime Thermal Infrared Image Translation Integrating Visible Images." Remote Sensing 16, no. 4 (February 13, 2024): 666. http://dx.doi.org/10.3390/rs16040666.
Повний текст джерелаBatchuluun, Ganbayar, Se Hyun Nam, and Kang Ryoung Park. "Deep Learning-Based Plant Classification Using Nonaligned Thermal and Visible Light Images." Mathematics 10, no. 21 (November 1, 2022): 4053. http://dx.doi.org/10.3390/math10214053.
Повний текст джерелаДисертації з теми "Image visible"
Salvador, Amaia. "Computer vision beyond the visible : image understanding through language." Doctoral thesis, Universitat Politècnica de Catalunya, 2019. http://hdl.handle.net/10803/667162.
Повний текст джерелаEn l'última dècada, les xarxes neuronals profundes han revolucionat el camp de la visió per computador. Els resultats favorables obtinguts amb arquitectures neuronals profundes entrenades per resoldre tasques de reconeixement visual han causat un canvi de paradigma cap al disseny de mètodes basats en representacions d'imatges apreses de manera automàtica, deixant enrere les tècniques tradicionals basades en l'enginyeria de representacions. Aquest canvi ha permès l'aparició de tècniques basades en l'aprenentatge d'extrem a extrem (end-to-end), capaces de resoldre de manera efectiva molts dels problemes tradicionals de la visió per computador (e.g. classificació d'imatges o detecció d'objectes), així com nous problemes emergents com la descripció textual d'imatges (image captioning). Donat el context de la ràpida evolució de la visió per computador en el qual aquesta tesi s'emmarca, presentem contribucions alineades amb tres dels canvis més importants que la visió per computador ha experimentat recentment: 1) la reutilització de representacions extretes de models neuronals pre-entrenades per a tasques auxiliars, 2) els avantatges de formular els problemes amb solucions end-to-end entrenades amb grans bases de dades, i 3) el creixent interès en utilitzar llenguatge natural en lloc de conjunts d'etiquetes categòriques pre-definits per descriure el contingut visual de les imatges, facilitant així l'extracció d'informació visual més enllà del reconeixement de l'escena i els elements que la composen La primera part de la tesi està dedicada al problema de la cerca d'imatges (image retrieval), centrada especialment en l'obtenció de representacions visuals significatives i discriminatòries que permetin la recuperació eficient i efectiva d'imatges donada una consulta formulada amb una imatge d'exemple. Les contribucions en aquesta part de la tesi inclouen la construcció de representacions Bag-of-Words a partir de descriptors locals obtinguts d'una xarxa neuronal entrenada per classificació, així com un estudi dels avantatges d'utilitzar xarxes neuronals per a detecció d'objectes entrenades utilitzant les imatges d'exemple, amb l'objectiu de millorar les capacitats discriminatòries de les representacions obtingudes. La segona part de la tesi presenta contribucions al problema de predicció de conjunts a partir d'imatges (image to set prediction), entès com la tasca de predir una col·lecció no ordenada d'elements de longitud variable donada una imatge d'entrada. En aquest context, presentem una anàlisi exhaustiva dels mètodes actuals per a la classificació multi-etiqueta d'imatges, que són capaços de resoldre la tasca de manera integral calculant simultàniament la distribució probabilística sobre etiquetes i la cardinalitat del conjunt. Seguidament, estenem l'anàlisi dels mètodes de predicció de conjunts a la segmentació d'instàncies semàntiques, presentant un model recurrent capaç de predir conjunts d'objectes (representats per màscares binàries i etiquetes categòriques) de manera seqüencial. Finalment, la tercera part de la tesi estén els coneixements apresos en les dues parts anteriors per presentar solucions d'aprenentatge profund per connectar imatges amb llenguatge natural en el context de receptes de cuina i imatges de plats cuinats. En primer lloc, proposem una solució basada en algoritmes de cerca, on la recepta escrita i la imatge es codifiquen amb representacions compactes que permeten la recuperació d'una donada l'altra. En segon lloc, com a alternativa a la solució basada en algoritmes de cerca, proposem un model generatiu capaç de predir receptes (compostes pels seus ingredients, predits com a conjunts, i instruccions) directament a partir d'imatges de menjar.
Font, Aragonès Xavier. "Visible, near infrared and thermal hand-based image biometric recognition." Doctoral thesis, Universitat Politècnica de Catalunya, 2013. http://hdl.handle.net/10803/117685.
Повний текст джерелаEl Reconeixement Biomètric fa referència a la identi cació automàtica de persones fent us d'alguna característica o modalitat anatòmica (empremta digital) o d'alguna característica de comportament (signatura). És un aspecte fonamental en qualsevol procés relacionat amb la seguretat, la compartició de recursos o les transaccions electròniques entre d'altres. És converteix en un pas imprescindible abans de concedir l'autorització. Aquesta autorització, s'entén que protegeix recursos clau, permeten així, que aquests siguin utilitzats pels usuaris que han estat autoritzats a utilitzar-los o a tenir-hi accés. Els sistemes biomètrics poden funcionar en veri cació, on es resol la pregunta: Soc jo qui dic que soc? O en identi cació on es resol la qüestió: Qui soc jo? La comunitat cientí ca ha incrementat els seus esforços per millorar el rendiment dels sistemes biomètrics. En funció de l'aplicació, diverses solucions s'adrecen a treballar amb múltiples modalitats o combinant diferents mètodes de classi cació. Donat que incrementar el número de modalitats, representa a la vegada problemes pels usuaris, moltes d'aquestes aproximacions no arriben mai al mercat. La tesis contribueix principalment en tres grans àrees, totes elles amb el denominador comú següent: Reconeixement biometric a través de les mans. i) La primera d'elles constitueix la base de qualsevol estudi, les dades. Per poder interpretar, i establir un sistema de reconeixement biomètric prou robust amb un clar enfocament a múltiples fonts d'informació, però amb el mínim esforç per part de l'usuari es construeix aquesta Base de Dades de mans multi espectral. Les bases de dades biomètriques constitueixen un recurs molt preuat per a la recerca; sobretot si ofereixen algun element nou com es el cas. Imatges de mans en diferents espectres electromagnètics: en visible (VIS), en infraroig (NIR) i en tèrmic (TIR). Amb un total de 100 usuaris, i 10 mostres per usuari, constitueix un bon punt de partida per estudiar i posar a prova sistemes multi biomètrics enfocats a les mans. ii) El segon bloc s'adreça a les dues aproximacions existents en la literatura per a tractar les dades en brut. Aquestes dues aproximacions, anomenades Holística (tracta la imatge com un tot) i Geomètrica (utilitza càlculs geomètrics) de neixen el focus alhora d'extreure el vector de característiques. Abans de tractar alguna d'aquestes dues aproximacions, però, és necessària l'aplicació de diferents tècniques de preprocessat digital de la imatge per obtenir les regions d'interès desitjades. Diferents problemes presents a les imatges s'han hagut de solucionar de forma original per a cadascuna de les tipologies de les imatges presents: VIS, NIR i TIR. VIS: imatges sobre exposades, anells, mànigues, braçalets. NIR: Ungles pintades, distorsió en forma de soroll en les imatges TIR: Dits freds La segona àrea presenta aspectes innovadors, ja que a part de segmentar la imatge de la ma, es segmenten tots i cadascun dels dits (feature-based approach). Així aconseguim contrastar la seva capacitat de reconeixement envers la ma de forma completa. Addicionalment es presenta un conjunt de procediments geomètrics amb la idea de comparar-los amb els provinents de l'extracció holística. La tercera i última àrea contrasta el procediment de classi cació anomenat Biometric Dispersion Matcher (BDM) amb diferents situacions. La primera relacionada amb l'efectivitat respecte d'altres mètode de reconeixement, com ara l'Anàlisi Lineal Discriminant (LDA) o bé mètodes com KNN o la regressió logística. Les altres situacions que s'analitzen tenen a veure amb múltiples fonts d'informació, quan s'apliquen tècniques de normalització i/o estratègies de combinació (fusió) per millorar els resultats. Els resultats obtinguts no deixen lloc per a la confusió, i són certament prometedors en el sentit que posen a la llum la importància de combinar informació complementària per obtenir rendiments superiors.
Yigit, Ahmet. "Thermal And Visible Band Image Fusion For Abandoned Object Detection." Master's thesis, METU, 2010. http://etd.lib.metu.edu.tr/upload/3/12611720/index.pdf.
Повний текст джерелаKarlsson, Jonas. "FPGA-Accelerated Dehazing by Visible and Near-infrared Image Fusion." Thesis, Mälardalens högskola, Akademin för innovation, design och teknik, 2015. http://urn.kb.se/resolve?urn=urn:nbn:se:mdh:diva-28322.
Повний текст джерелаALMEIDA, MARIA DA GLORIA DE SOUZA. "SEEING BEYOND THE VISIBLE: THE IMAGE OUT OF THE EYES." PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIRO, 2017. http://www.maxwell.vrac.puc-rio.br/Busca_etds.php?strSecao=resultado&nrSeq=30174@1.
Повний текст джерелаCOORDENAÇÃO DE APERFEIÇOAMENTO DO PESSOAL DE ENSINO SUPERIOR
PROGRAMA DE SUPORTE À PÓS-GRADUAÇÃO DE INSTS. DE ENSINO
A proposição da temática desta tese constitui-se no levantamento da discussão que trouxe à tona a possibilidade real de uma pessoa cega construir imagens mentais. Discutiu-se, pois, a viabilidade da construção dessas imagens a partir das próprias condições de que o indivíduo cego é dotado. Procurou-se demostrar como o corpo com seus sentidos e suas ilimitadas valências, converte-se em instrumental capaz de acionar recursos sensoriais que dão informações, passam dados, concretizam sensações e percepções, formulam conceitos. Sobre o tripé – conhecimento, cultura e artes –, fez-se uma pesquisa que, pela complexidade e abrangência do assunto, exigiu o cruzamento de diferentes disciplinas, de diversas linhas de pensamento, ainda que guardando diferenças pudessem estabelecer um diálogo que levasse a compreensão mais clara ao cerne da proposta feita. Recorreu-se a Zubiri, Bachelard e Durand para compor a base da leitura de três poetas cegas e da escritora Marina Colasanti, apontando a força expressiva das imagens em ambos os casos.
The proposition of the theme of this thesis is the discussion collection that highlights the real possibility of a blind person to construct mental images. The possibility of constructing these images was therefore discussed from the very conditions of which the blind individual is endowed. We sought to demonstrate how the body, with its senses and its unlimited valences, becomes an instrument capable of assessing sensory resources which give information, pass data, materialize sensations and perceptions, formulate concepts. On the tripod - knowledge, culture and the arts - a research was made that due to the complexity and comprehensiveness of the subject, required the crossing of different disciplines, of different lines of thought, even if keeping their differences it could establish a dialogue that would lead to understanding clearly the heart of the proposal. Zubiri, Bachelard and Durand were used to compose the basis of the reading of three blind poets and the writer Marina Colasanti, pointing out the expressive force of the images in both cases.
Nielsen, Casper Falkenberg. "A robust framework for medical image segmentation through adaptable class-specific representation." Thesis, Middlesex University, 2002. http://eprints.mdx.ac.uk/13507/.
Повний текст джерелаDi, Mercurio Francine. "Les images scéniques de Romeo Castellucci : expérience d'un théâtre plastique." Thesis, Aix-Marseille, 2016. http://www.theses.fr/2016AIXM3025.
Повний текст джерелаSome theatrical pieces from this 21st century seem to include in their esthetical project a question of the perceptive order by creating new ways of seeing, hearing and being affected. The drama ‒ as an action ‒ finds itself updated in a form addressing to the spectator’s perceptions through visual dramaturgy, even perceptive, based on a factory of scenic images. Our study offers to invest in the theater field a part of the research and thoughts about the image by putting into perspective the esthetical, philosophical, and even political questions that the notion of scenic image raise.The particular piece from the Italian director Romeo Castellucci is representative of the visual artist’s specificity who finds on the stage a new creating support for images, a particular way of involving body, space, shape, matter and where the text, although especially mute, is haunting the stage. This plastic theater questions the foundations of traditional theater (action, character, fiction), creates a properly figural drama and tries to move the spectator’s sight. In an oscillation between visual appearance and disappearance, representation and unspeakable, he offers to the spectator an experiential process in a laboratory where image plays against image, worries the sight and the accepted perceptions of reality.The displacement of the image’s theory in the theatrical field will allow us, through Romeo Castellucci’s singular approach, to make our contribution to the operating procedures analysis of his aesthetic’s efficiency, reception mechanism of the spectator and critical and political skates of the contemporary theater
Whitelegg, Andrew Jeremy. "The visible and the invisible : the production of image in Atlanta." Thesis, King's College London (University of London), 1992. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.265549.
Повний текст джерелаRAWAT, URVASHI. "INFRARED AND VISIBLE IMAGE FUSION USING HYBRID LWT AND PCA METHOD." Thesis, DELHI TECHNOLOGICAL UNIVERSITY, 2021. http://dspace.dtu.ac.in:8080/jspui/handle/repository/18907.
Повний текст джерелаHu, Lequn. "Development and evaluation of image registration and segmentation algorithms for long wavelength infrared and visible wavelength images." Master's thesis, Mississippi State : Mississippi State University, 2009. http://library.msstate.edu/etd/show.asp?etd=etd-07082009-171221.
Повний текст джерелаКниги з теми "Image visible"
Jones, Philippe. Image verbale, image visible. Châtelineau, Belgique: Le Taillis pré, 2013.
Знайти повний текст джерелаAhijado, Jorge Quijano. Autour du visible, l'image et la fuite. Paris: Editions L'Harmattan, 2014.
Знайти повний текст джерелаOlins, Wally. Corporate identity: Making business strategy visible through design. Boston, Mass: Harvard Business School Press, 1990.
Знайти повний текст джерелаOlins, Wally. Corporate identity: Making business strategy visible through design. London: Thames and Hudson, 1989.
Знайти повний текст джерелаVauday, Patrick. L'invention du visible: L'image à la lumière des arts. Paris: Hermann éditeurs, 2008.
Знайти повний текст джерелаH, Roosen-Runge Peter, Roosen-Runge Anna P, and Canadian Heritage Information Network, eds. The virtual display case: Making museum image assets safety visible. 3rd ed. Ottawa, Ont: Canadian Heritage Information Network, 2003.
Знайти повний текст джерелаAnne, Kerlan-Stephens, and Sakai Cécile, eds. Du visible au lisible: Texte et image en Chine et au Japon. Arles: Picquier, 2006.
Знайти повний текст джерелаBernd-Rüdiger, Hüppauf, and Wulf Christoph 1944-, eds. Dynamics and performativity of imagination: The image between the visible and the invisible. New York: Routledge, 2009.
Знайти повний текст джерелаFrancis M. Naumann Fine Art. The visible vagina: January 28 - March 20, 2010. New York: Francis M. Naumann Fine Art ; David Nolan Gallery, 2010.
Знайти повний текст джерелаCenter, Langley Research, ed. Modes of visual recognition and perceptually relevant sketch-based coding of images. Hampton, Va: National Aeronautics and Space Administration, Langley Research Center, 1991.
Знайти повний текст джерелаЧастини книг з теми "Image visible"
Magnenat-Thalmann, Nadia, and Daniel Thalmann. "Visible surface algorithms." In Image Synthesis, 84–107. Tokyo: Springer Japan, 1987. http://dx.doi.org/10.1007/978-4-431-68060-4_5.
Повний текст джерелаDurou, Jean-Denis, Laurent Mascarilla, and Didier Piau. "Non-visible deformations." In Image Analysis and Processing, 519–26. Berlin, Heidelberg: Springer Berlin Heidelberg, 1997. http://dx.doi.org/10.1007/3-540-63507-6_240.
Повний текст джерелаGorad, Ajinkya, Sakira Hassan, and Simo Särkkä. "Vessel Bearing Estimation Using Visible and Thermal Imaging." In Image Analysis, 373–81. Cham: Springer Nature Switzerland, 2023. http://dx.doi.org/10.1007/978-3-031-31438-4_25.
Повний текст джерелаKrishnan, Shoba, and Prathibha Sudhakaran. "Visible image and video watermarking." In Thinkquest~2010, 234–38. New Delhi: Springer India, 2011. http://dx.doi.org/10.1007/978-81-8489-989-4_43.
Повний текст джерелаSonka, Milan, Daniel R. Thedens, Boudewijn P. F. Lelieveldt, Steven C. Mitchell, Rob J. van der Geest, and Johan H. C. Reiber. "Cardiovascular MR Image Analysis." In Computer Vision Beyond the Visible Spectrum, 193–239. London: Springer London, 2005. http://dx.doi.org/10.1007/1-84628-065-6_7.
Повний текст джерелаKhuwuthyakorn, Pattaraporn, Antonio Robles-Kelly, and Jun Zhou. "Affine Invariant Hyperspectral Image Descriptors Based upon Harmonic Analysis." In Machine Vision Beyond Visible Spectrum, 179–99. Berlin, Heidelberg: Springer Berlin Heidelberg, 2011. http://dx.doi.org/10.1007/978-3-642-11568-4_8.
Повний текст джерелаZhang, Tong, Hui Xue, Shiqiang Wang, and Dongfang Zhang. "Fire Detection Method Based on Infrared Image and Visible Image." In Proceedings of International Conference on Image, Vision and Intelligent Systems 2022 (ICIVIS 2022), 505–18. Singapore: Springer Nature Singapore, 2023. http://dx.doi.org/10.1007/978-981-99-0923-0_51.
Повний текст джерелаSengupta, Madhumita, and J. K. Mandal. "Color Image Authentication through Visible Patterns (CAV)." In ICT and Critical Infrastructure: Proceedings of the 48th Annual Convention of Computer Society of India- Vol II, 617–25. Cham: Springer International Publishing, 2014. http://dx.doi.org/10.1007/978-3-319-03095-1_67.
Повний текст джерелаClark, Pamela Elizabeth, and Michael Lee Rilee. "Visible and Circumvisible Regions and Image Interpretation." In Remote Sensing Tools for Exploration, 53–113. New York, NY: Springer New York, 2010. http://dx.doi.org/10.1007/978-1-4419-6830-2_3.
Повний текст джерелаDrury, S. A. "Digital processing of images in the visible and near infrared." In Image Interpretation in Geology, 118–48. Dordrecht: Springer Netherlands, 1987. http://dx.doi.org/10.1007/978-94-010-9393-4_5.
Повний текст джерелаТези доповідей конференцій з теми "Image visible"
Qian, Shen. "Visible Light Communications with Image Sensors." In 2024 9th Optoelectronics Global Conference (OGC), 69–72. IEEE, 2024. http://dx.doi.org/10.1109/ogc62429.2024.10738741.
Повний текст джерелаChen, Qi, and Rui Feng. "Model Pruning for Infrared-Visible Image Fusion." In 2024 2nd International Conference on Machine Vision, Image Processing & Imaging Technology (MVIPIT), 172–76. IEEE, 2024. https://doi.org/10.1109/mvipit65697.2024.00038.
Повний текст джерелаGao, Xundong, Chengcheng Zhang, Hui Chen, and Yaning Yao. "Dual-Branch Infrared and Visible Image Fusion Framework." In 2024 6th International Conference on Frontier Technologies of Information and Computer (ICFTIC), 742–46. IEEE, 2024. https://doi.org/10.1109/icftic64248.2024.10913193.
Повний текст джерелаWu, Zhizhong, Jiajing Chen, Lianghao Tan, Hao Gong, Yuru Zhou, and Ge Shi. "A Lightweight GAN-Based Image Fusion Algorithm for Visible and Infrared Images." In 2024 4th International Conference on Computer Science and Blockchain (CCSB), 466–70. IEEE, 2024. http://dx.doi.org/10.1109/ccsb63463.2024.10735676.
Повний текст джерелаKibe, Michiya, Takeru Inoue, Junya Morioka, and Ryusuke Miyamoto. "Creation of Day-Night Visible-Thermal Paired Image Dataset via Image Registration." In 2024 Eighth IEEE International Conference on Robotic Computing (IRC), 190–93. IEEE, 2024. https://doi.org/10.1109/irc63610.2024.00021.
Повний текст джерелаCorda, Dijana Nazor, Jana Ziljak Grsic, and Helena Bacinger Skrlec. "CREATING AN ARTISTIC WOOL RUG WITH A DOUBLE IMAGE IN THE VISUAL AND NEAR-INFRARED SPECTRA." In 11th SWS International Scientific Conferences on ART and HUMANITIES - ISCAH 2024, 123–36. SGEM WORLD SCIENCE, 2024. https://doi.org/10.35603/sws.iscah.2024/vs10.19.
Повний текст джерелаKim, Gahyeon, An Gia Vien, Duong Hai Nguyen, and Chul Lee. "Feature Decomposition Transformers for Infrared and Visible Image Fusion." In 2024 IEEE International Conference on Image Processing (ICIP), 2662–68. IEEE, 2024. http://dx.doi.org/10.1109/icip51287.2024.10647365.
Повний текст джерелаLv, Guohua, Xinyue Fu, Chaoqun Sima, Yanlong Xu, Baodong Zhang, and Hanju Bao. "Illumination-Enhanced Infrared and Low-Light Visible Image Fusion." In 2024 IEEE International Conference on Image Processing (ICIP), 2634–40. IEEE, 2024. http://dx.doi.org/10.1109/icip51287.2024.10647292.
Повний текст джерелаZhao, Zixiang, Shuang Xu, Chunxia Zhang, Junmin Liu, Jiangshe Zhang, and Pengfei Li. "DIDFuse: Deep Image Decomposition for Infrared and Visible Image Fusion." In Twenty-Ninth International Joint Conference on Artificial Intelligence and Seventeenth Pacific Rim International Conference on Artificial Intelligence {IJCAI-PRICAI-20}. California: International Joint Conferences on Artificial Intelligence Organization, 2020. http://dx.doi.org/10.24963/ijcai.2020/135.
Повний текст джерелаChuang, Shang-Chih, Chun-Hsiang Huang, and Ja-Ling Wu. "Unseen Visible Watermarking." In 2007 IEEE International Conference on Image Processing. IEEE, 2007. http://dx.doi.org/10.1109/icip.2007.4379296.
Повний текст джерелаЗвіти організацій з теми "Image visible"
Boopalan, Santhana. Aerial Wildlife Image Repository. Mississippi State University, 2023. http://dx.doi.org/10.54718/wvgf3020.
Повний текст джерелаTopolski, John. The magnitude image from the 50% compressed PPH (R) shows an increased noise floor visible in the shadows. Office of Scientific and Technical Information (OSTI), May 2015. http://dx.doi.org/10.2172/1182685.
Повний текст джерелаHuang, Haohang, Jiayi Luo, Kelin Ding, Erol Tutumluer, John Hart, and Issam Qamhia. I-RIPRAP 3D Image Analysis Software: User Manual. Illinois Center for Transportation, June 2023. http://dx.doi.org/10.36501/0197-9191/23-008.
Повний текст джерелаBurks, Thomas F., Victor Alchanatis, and Warren Dixon. Enhancement of Sensing Technologies for Selective Tree Fruit Identification and Targeting in Robotic Harvesting Systems. United States Department of Agriculture, October 2009. http://dx.doi.org/10.32747/2009.7591739.bard.
Повний текст джерелаHuang, Haohang, Erol Tutumluer, Jiayi Luo, Kelin Ding, Issam Qamhia, and John Hart. 3D Image Analysis Using Deep Learning for Size and Shape Characterization of Stockpile Riprap Aggregates—Phase 2. Illinois Center for Transportation, September 2022. http://dx.doi.org/10.36501/0197-9191/22-017.
Повний текст джерелаAlexander, Serena, Bo Yang, Owen Hussey, and Derek Hicks. Examining the Externalities of Highway Capacity Expansions in California: An Analysis of Land Use and Land Cover (LULC) Using Remote Sensing Technology. Mineta Transportation Institute, November 2023. http://dx.doi.org/10.31979/mti.2023.2251.
Повний текст джерелаKulhandjian, Hovannes. AI-Based Bridge and Road Inspection Framework Using Drones. Mineta Transportation Institute, November 2023. http://dx.doi.org/10.31979/mti.2023.2226.
Повний текст джерелаPautet, P. D., J. Stegmman, C. M. Wrasse, K. Nielsen, H. Takahashi, M. J. Taylor, K. W. Hoppel, and S. D. Eckermann. Analysis of Gravity Waves Structures Visible in Noctilucent Cloud Images. Fort Belvoir, VA: Defense Technical Information Center, January 2010. http://dx.doi.org/10.21236/ada523106.
Повний текст джерелаMcDonald, T. E. Jr, D. M. Numkena, J. Payton, G. J. Yates, and P. Zagarino. Using optical parametric oscillators (OPO) for wavelength shifting IR images to visible spectrum. Office of Scientific and Technical Information (OSTI), December 1998. http://dx.doi.org/10.2172/334329.
Повний текст джерелаHartter, Joel, and Chris Colocousis. Environmental, economic, and social changes in rural America visible in survey data and satellite images. University of New Hampshire Libraries, 2011. http://dx.doi.org/10.34051/p/2020.130.
Повний текст джерела