Inhaltsverzeichnis
Auswahl der wissenschaftlichen Literatur zum Thema „Image visible“
Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an
Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "Image visible" bekannt.
Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.
Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.
Zeitschriftenartikel zum Thema "Image visible"
Uddin, Mohammad Shahab, Chiman Kwan und Jiang Li. „MWIRGAN: Unsupervised Visible-to-MWIR Image Translation with Generative Adversarial Network“. Electronics 12, Nr. 4 (20.02.2023): 1039. http://dx.doi.org/10.3390/electronics12041039.
Der volle Inhalt der QuelleDong, Yumin, Zhengquan Chen, Ziyi Li und Feng Gao. „A Multi-Branch Multi-Scale Deep Learning Image Fusion Algorithm Based on DenseNet“. Applied Sciences 12, Nr. 21 (30.10.2022): 10989. http://dx.doi.org/10.3390/app122110989.
Der volle Inhalt der QuelleZhang, Yongxin, Deguang Li und WenPeng Zhu. „Infrared and Visible Image Fusion with Hybrid Image Filtering“. Mathematical Problems in Engineering 2020 (29.07.2020): 1–17. http://dx.doi.org/10.1155/2020/1757214.
Der volle Inhalt der QuelleSon, Dong-Min, Hyuk-Ju Kwon und Sung-Hak Lee. „Visible and Near Infrared Image Fusion Using Base Tone Compression and Detail Transform Fusion“. Chemosensors 10, Nr. 4 (25.03.2022): 124. http://dx.doi.org/10.3390/chemosensors10040124.
Der volle Inhalt der QuelleLiu, Zheng, Su Mei Cui, He Yin und Yu Chi Lin. „Comparative Analysis of Image Measurement Accuracy in High Temperature Based on Visible and Infrared Vision“. Applied Mechanics and Materials 300-301 (Februar 2013): 1681–86. http://dx.doi.org/10.4028/www.scientific.net/amm.300-301.1681.
Der volle Inhalt der QuelleHuang, Hui, Linlu Dong, Zhishuang Xue, Xiaofang Liu und Caijian Hua. „Fusion algorithm of visible and infrared image based on anisotropic diffusion and image enhancement (capitalize only the first word in a title (or heading), the first word in a subtitle (or subheading), and any proper nouns)“. PLOS ONE 16, Nr. 2 (19.02.2021): e0245563. http://dx.doi.org/10.1371/journal.pone.0245563.
Der volle Inhalt der QuelleXu, Dongdong, Yongcheng Wang, Shuyan Xu, Kaiguang Zhu, Ning Zhang und Xin Zhang. „Infrared and Visible Image Fusion with a Generative Adversarial Network and a Residual Network“. Applied Sciences 10, Nr. 2 (11.01.2020): 554. http://dx.doi.org/10.3390/app10020554.
Der volle Inhalt der QuelleNiu, Yifeng, Shengtao Xu, Lizhen Wu und Weidong Hu. „Airborne Infrared and Visible Image Fusion for Target Perception Based on Target Region Segmentation and Discrete Wavelet Transform“. Mathematical Problems in Engineering 2012 (2012): 1–10. http://dx.doi.org/10.1155/2012/275138.
Der volle Inhalt der QuelleYang, Shihao, Min Sun, Xiayin Lou, Hanjun Yang und Dong Liu. „Nighttime Thermal Infrared Image Translation Integrating Visible Images“. Remote Sensing 16, Nr. 4 (13.02.2024): 666. http://dx.doi.org/10.3390/rs16040666.
Der volle Inhalt der QuelleBatchuluun, Ganbayar, Se Hyun Nam und Kang Ryoung Park. „Deep Learning-Based Plant Classification Using Nonaligned Thermal and Visible Light Images“. Mathematics 10, Nr. 21 (01.11.2022): 4053. http://dx.doi.org/10.3390/math10214053.
Der volle Inhalt der QuelleDissertationen zum Thema "Image visible"
Salvador, Amaia. „Computer vision beyond the visible : image understanding through language“. Doctoral thesis, Universitat Politècnica de Catalunya, 2019. http://hdl.handle.net/10803/667162.
Der volle Inhalt der QuelleEn l'última dècada, les xarxes neuronals profundes han revolucionat el camp de la visió per computador. Els resultats favorables obtinguts amb arquitectures neuronals profundes entrenades per resoldre tasques de reconeixement visual han causat un canvi de paradigma cap al disseny de mètodes basats en representacions d'imatges apreses de manera automàtica, deixant enrere les tècniques tradicionals basades en l'enginyeria de representacions. Aquest canvi ha permès l'aparició de tècniques basades en l'aprenentatge d'extrem a extrem (end-to-end), capaces de resoldre de manera efectiva molts dels problemes tradicionals de la visió per computador (e.g. classificació d'imatges o detecció d'objectes), així com nous problemes emergents com la descripció textual d'imatges (image captioning). Donat el context de la ràpida evolució de la visió per computador en el qual aquesta tesi s'emmarca, presentem contribucions alineades amb tres dels canvis més importants que la visió per computador ha experimentat recentment: 1) la reutilització de representacions extretes de models neuronals pre-entrenades per a tasques auxiliars, 2) els avantatges de formular els problemes amb solucions end-to-end entrenades amb grans bases de dades, i 3) el creixent interès en utilitzar llenguatge natural en lloc de conjunts d'etiquetes categòriques pre-definits per descriure el contingut visual de les imatges, facilitant així l'extracció d'informació visual més enllà del reconeixement de l'escena i els elements que la composen La primera part de la tesi està dedicada al problema de la cerca d'imatges (image retrieval), centrada especialment en l'obtenció de representacions visuals significatives i discriminatòries que permetin la recuperació eficient i efectiva d'imatges donada una consulta formulada amb una imatge d'exemple. Les contribucions en aquesta part de la tesi inclouen la construcció de representacions Bag-of-Words a partir de descriptors locals obtinguts d'una xarxa neuronal entrenada per classificació, així com un estudi dels avantatges d'utilitzar xarxes neuronals per a detecció d'objectes entrenades utilitzant les imatges d'exemple, amb l'objectiu de millorar les capacitats discriminatòries de les representacions obtingudes. La segona part de la tesi presenta contribucions al problema de predicció de conjunts a partir d'imatges (image to set prediction), entès com la tasca de predir una col·lecció no ordenada d'elements de longitud variable donada una imatge d'entrada. En aquest context, presentem una anàlisi exhaustiva dels mètodes actuals per a la classificació multi-etiqueta d'imatges, que són capaços de resoldre la tasca de manera integral calculant simultàniament la distribució probabilística sobre etiquetes i la cardinalitat del conjunt. Seguidament, estenem l'anàlisi dels mètodes de predicció de conjunts a la segmentació d'instàncies semàntiques, presentant un model recurrent capaç de predir conjunts d'objectes (representats per màscares binàries i etiquetes categòriques) de manera seqüencial. Finalment, la tercera part de la tesi estén els coneixements apresos en les dues parts anteriors per presentar solucions d'aprenentatge profund per connectar imatges amb llenguatge natural en el context de receptes de cuina i imatges de plats cuinats. En primer lloc, proposem una solució basada en algoritmes de cerca, on la recepta escrita i la imatge es codifiquen amb representacions compactes que permeten la recuperació d'una donada l'altra. En segon lloc, com a alternativa a la solució basada en algoritmes de cerca, proposem un model generatiu capaç de predir receptes (compostes pels seus ingredients, predits com a conjunts, i instruccions) directament a partir d'imatges de menjar.
Font, Aragonès Xavier. „Visible, near infrared and thermal hand-based image biometric recognition“. Doctoral thesis, Universitat Politècnica de Catalunya, 2013. http://hdl.handle.net/10803/117685.
Der volle Inhalt der QuelleEl Reconeixement Biomètric fa referència a la identi cació automàtica de persones fent us d'alguna característica o modalitat anatòmica (empremta digital) o d'alguna característica de comportament (signatura). És un aspecte fonamental en qualsevol procés relacionat amb la seguretat, la compartició de recursos o les transaccions electròniques entre d'altres. És converteix en un pas imprescindible abans de concedir l'autorització. Aquesta autorització, s'entén que protegeix recursos clau, permeten així, que aquests siguin utilitzats pels usuaris que han estat autoritzats a utilitzar-los o a tenir-hi accés. Els sistemes biomètrics poden funcionar en veri cació, on es resol la pregunta: Soc jo qui dic que soc? O en identi cació on es resol la qüestió: Qui soc jo? La comunitat cientí ca ha incrementat els seus esforços per millorar el rendiment dels sistemes biomètrics. En funció de l'aplicació, diverses solucions s'adrecen a treballar amb múltiples modalitats o combinant diferents mètodes de classi cació. Donat que incrementar el número de modalitats, representa a la vegada problemes pels usuaris, moltes d'aquestes aproximacions no arriben mai al mercat. La tesis contribueix principalment en tres grans àrees, totes elles amb el denominador comú següent: Reconeixement biometric a través de les mans. i) La primera d'elles constitueix la base de qualsevol estudi, les dades. Per poder interpretar, i establir un sistema de reconeixement biomètric prou robust amb un clar enfocament a múltiples fonts d'informació, però amb el mínim esforç per part de l'usuari es construeix aquesta Base de Dades de mans multi espectral. Les bases de dades biomètriques constitueixen un recurs molt preuat per a la recerca; sobretot si ofereixen algun element nou com es el cas. Imatges de mans en diferents espectres electromagnètics: en visible (VIS), en infraroig (NIR) i en tèrmic (TIR). Amb un total de 100 usuaris, i 10 mostres per usuari, constitueix un bon punt de partida per estudiar i posar a prova sistemes multi biomètrics enfocats a les mans. ii) El segon bloc s'adreça a les dues aproximacions existents en la literatura per a tractar les dades en brut. Aquestes dues aproximacions, anomenades Holística (tracta la imatge com un tot) i Geomètrica (utilitza càlculs geomètrics) de neixen el focus alhora d'extreure el vector de característiques. Abans de tractar alguna d'aquestes dues aproximacions, però, és necessària l'aplicació de diferents tècniques de preprocessat digital de la imatge per obtenir les regions d'interès desitjades. Diferents problemes presents a les imatges s'han hagut de solucionar de forma original per a cadascuna de les tipologies de les imatges presents: VIS, NIR i TIR. VIS: imatges sobre exposades, anells, mànigues, braçalets. NIR: Ungles pintades, distorsió en forma de soroll en les imatges TIR: Dits freds La segona àrea presenta aspectes innovadors, ja que a part de segmentar la imatge de la ma, es segmenten tots i cadascun dels dits (feature-based approach). Així aconseguim contrastar la seva capacitat de reconeixement envers la ma de forma completa. Addicionalment es presenta un conjunt de procediments geomètrics amb la idea de comparar-los amb els provinents de l'extracció holística. La tercera i última àrea contrasta el procediment de classi cació anomenat Biometric Dispersion Matcher (BDM) amb diferents situacions. La primera relacionada amb l'efectivitat respecte d'altres mètode de reconeixement, com ara l'Anàlisi Lineal Discriminant (LDA) o bé mètodes com KNN o la regressió logística. Les altres situacions que s'analitzen tenen a veure amb múltiples fonts d'informació, quan s'apliquen tècniques de normalització i/o estratègies de combinació (fusió) per millorar els resultats. Els resultats obtinguts no deixen lloc per a la confusió, i són certament prometedors en el sentit que posen a la llum la importància de combinar informació complementària per obtenir rendiments superiors.
Yigit, Ahmet. „Thermal And Visible Band Image Fusion For Abandoned Object Detection“. Master's thesis, METU, 2010. http://etd.lib.metu.edu.tr/upload/3/12611720/index.pdf.
Der volle Inhalt der QuelleKarlsson, Jonas. „FPGA-Accelerated Dehazing by Visible and Near-infrared Image Fusion“. Thesis, Mälardalens högskola, Akademin för innovation, design och teknik, 2015. http://urn.kb.se/resolve?urn=urn:nbn:se:mdh:diva-28322.
Der volle Inhalt der QuelleALMEIDA, MARIA DA GLORIA DE SOUZA. „SEEING BEYOND THE VISIBLE: THE IMAGE OUT OF THE EYES“. PONTIFÍCIA UNIVERSIDADE CATÓLICA DO RIO DE JANEIRO, 2017. http://www.maxwell.vrac.puc-rio.br/Busca_etds.php?strSecao=resultado&nrSeq=30174@1.
Der volle Inhalt der QuelleCOORDENAÇÃO DE APERFEIÇOAMENTO DO PESSOAL DE ENSINO SUPERIOR
PROGRAMA DE SUPORTE À PÓS-GRADUAÇÃO DE INSTS. DE ENSINO
A proposição da temática desta tese constitui-se no levantamento da discussão que trouxe à tona a possibilidade real de uma pessoa cega construir imagens mentais. Discutiu-se, pois, a viabilidade da construção dessas imagens a partir das próprias condições de que o indivíduo cego é dotado. Procurou-se demostrar como o corpo com seus sentidos e suas ilimitadas valências, converte-se em instrumental capaz de acionar recursos sensoriais que dão informações, passam dados, concretizam sensações e percepções, formulam conceitos. Sobre o tripé – conhecimento, cultura e artes –, fez-se uma pesquisa que, pela complexidade e abrangência do assunto, exigiu o cruzamento de diferentes disciplinas, de diversas linhas de pensamento, ainda que guardando diferenças pudessem estabelecer um diálogo que levasse a compreensão mais clara ao cerne da proposta feita. Recorreu-se a Zubiri, Bachelard e Durand para compor a base da leitura de três poetas cegas e da escritora Marina Colasanti, apontando a força expressiva das imagens em ambos os casos.
The proposition of the theme of this thesis is the discussion collection that highlights the real possibility of a blind person to construct mental images. The possibility of constructing these images was therefore discussed from the very conditions of which the blind individual is endowed. We sought to demonstrate how the body, with its senses and its unlimited valences, becomes an instrument capable of assessing sensory resources which give information, pass data, materialize sensations and perceptions, formulate concepts. On the tripod - knowledge, culture and the arts - a research was made that due to the complexity and comprehensiveness of the subject, required the crossing of different disciplines, of different lines of thought, even if keeping their differences it could establish a dialogue that would lead to understanding clearly the heart of the proposal. Zubiri, Bachelard and Durand were used to compose the basis of the reading of three blind poets and the writer Marina Colasanti, pointing out the expressive force of the images in both cases.
Nielsen, Casper Falkenberg. „A robust framework for medical image segmentation through adaptable class-specific representation“. Thesis, Middlesex University, 2002. http://eprints.mdx.ac.uk/13507/.
Der volle Inhalt der QuelleDi, Mercurio Francine. „Les images scéniques de Romeo Castellucci : expérience d'un théâtre plastique“. Thesis, Aix-Marseille, 2016. http://www.theses.fr/2016AIXM3025.
Der volle Inhalt der QuelleSome theatrical pieces from this 21st century seem to include in their esthetical project a question of the perceptive order by creating new ways of seeing, hearing and being affected. The drama ‒ as an action ‒ finds itself updated in a form addressing to the spectator’s perceptions through visual dramaturgy, even perceptive, based on a factory of scenic images. Our study offers to invest in the theater field a part of the research and thoughts about the image by putting into perspective the esthetical, philosophical, and even political questions that the notion of scenic image raise.The particular piece from the Italian director Romeo Castellucci is representative of the visual artist’s specificity who finds on the stage a new creating support for images, a particular way of involving body, space, shape, matter and where the text, although especially mute, is haunting the stage. This plastic theater questions the foundations of traditional theater (action, character, fiction), creates a properly figural drama and tries to move the spectator’s sight. In an oscillation between visual appearance and disappearance, representation and unspeakable, he offers to the spectator an experiential process in a laboratory where image plays against image, worries the sight and the accepted perceptions of reality.The displacement of the image’s theory in the theatrical field will allow us, through Romeo Castellucci’s singular approach, to make our contribution to the operating procedures analysis of his aesthetic’s efficiency, reception mechanism of the spectator and critical and political skates of the contemporary theater
Whitelegg, Andrew Jeremy. „The visible and the invisible : the production of image in Atlanta“. Thesis, King's College London (University of London), 1992. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.265549.
Der volle Inhalt der QuelleRAWAT, URVASHI. „INFRARED AND VISIBLE IMAGE FUSION USING HYBRID LWT AND PCA METHOD“. Thesis, DELHI TECHNOLOGICAL UNIVERSITY, 2021. http://dspace.dtu.ac.in:8080/jspui/handle/repository/18907.
Der volle Inhalt der QuelleHu, Lequn. „Development and evaluation of image registration and segmentation algorithms for long wavelength infrared and visible wavelength images“. Master's thesis, Mississippi State : Mississippi State University, 2009. http://library.msstate.edu/etd/show.asp?etd=etd-07082009-171221.
Der volle Inhalt der QuelleBücher zum Thema "Image visible"
Jones, Philippe. Image verbale, image visible. Châtelineau, Belgique: Le Taillis pré, 2013.
Den vollen Inhalt der Quelle findenAhijado, Jorge Quijano. Autour du visible, l'image et la fuite. Paris: Editions L'Harmattan, 2014.
Den vollen Inhalt der Quelle findenOlins, Wally. Corporate identity: Making business strategy visible through design. Boston, Mass: Harvard Business School Press, 1990.
Den vollen Inhalt der Quelle findenOlins, Wally. Corporate identity: Making business strategy visible through design. London: Thames and Hudson, 1989.
Den vollen Inhalt der Quelle findenVauday, Patrick. L'invention du visible: L'image à la lumière des arts. Paris: Hermann éditeurs, 2008.
Den vollen Inhalt der Quelle findenH, Roosen-Runge Peter, Roosen-Runge Anna P und Canadian Heritage Information Network, Hrsg. The virtual display case: Making museum image assets safety visible. 3. Aufl. Ottawa, Ont: Canadian Heritage Information Network, 2003.
Den vollen Inhalt der Quelle findenAnne, Kerlan-Stephens, und Sakai Cécile, Hrsg. Du visible au lisible: Texte et image en Chine et au Japon. Arles: Picquier, 2006.
Den vollen Inhalt der Quelle findenBernd-Rüdiger, Hüppauf, und Wulf Christoph 1944-, Hrsg. Dynamics and performativity of imagination: The image between the visible and the invisible. New York: Routledge, 2009.
Den vollen Inhalt der Quelle findenFrancis M. Naumann Fine Art. The visible vagina: January 28 - March 20, 2010. New York: Francis M. Naumann Fine Art ; David Nolan Gallery, 2010.
Den vollen Inhalt der Quelle findenCenter, Langley Research, Hrsg. Modes of visual recognition and perceptually relevant sketch-based coding of images. Hampton, Va: National Aeronautics and Space Administration, Langley Research Center, 1991.
Den vollen Inhalt der Quelle findenBuchteile zum Thema "Image visible"
Magnenat-Thalmann, Nadia, und Daniel Thalmann. „Visible surface algorithms“. In Image Synthesis, 84–107. Tokyo: Springer Japan, 1987. http://dx.doi.org/10.1007/978-4-431-68060-4_5.
Der volle Inhalt der QuelleDurou, Jean-Denis, Laurent Mascarilla und Didier Piau. „Non-visible deformations“. In Image Analysis and Processing, 519–26. Berlin, Heidelberg: Springer Berlin Heidelberg, 1997. http://dx.doi.org/10.1007/3-540-63507-6_240.
Der volle Inhalt der QuelleGorad, Ajinkya, Sakira Hassan und Simo Särkkä. „Vessel Bearing Estimation Using Visible and Thermal Imaging“. In Image Analysis, 373–81. Cham: Springer Nature Switzerland, 2023. http://dx.doi.org/10.1007/978-3-031-31438-4_25.
Der volle Inhalt der QuelleKrishnan, Shoba, und Prathibha Sudhakaran. „Visible image and video watermarking“. In Thinkquest~2010, 234–38. New Delhi: Springer India, 2011. http://dx.doi.org/10.1007/978-81-8489-989-4_43.
Der volle Inhalt der QuelleSonka, Milan, Daniel R. Thedens, Boudewijn P. F. Lelieveldt, Steven C. Mitchell, Rob J. van der Geest und Johan H. C. Reiber. „Cardiovascular MR Image Analysis“. In Computer Vision Beyond the Visible Spectrum, 193–239. London: Springer London, 2005. http://dx.doi.org/10.1007/1-84628-065-6_7.
Der volle Inhalt der QuelleKhuwuthyakorn, Pattaraporn, Antonio Robles-Kelly und Jun Zhou. „Affine Invariant Hyperspectral Image Descriptors Based upon Harmonic Analysis“. In Machine Vision Beyond Visible Spectrum, 179–99. Berlin, Heidelberg: Springer Berlin Heidelberg, 2011. http://dx.doi.org/10.1007/978-3-642-11568-4_8.
Der volle Inhalt der QuelleZhang, Tong, Hui Xue, Shiqiang Wang und Dongfang Zhang. „Fire Detection Method Based on Infrared Image and Visible Image“. In Proceedings of International Conference on Image, Vision and Intelligent Systems 2022 (ICIVIS 2022), 505–18. Singapore: Springer Nature Singapore, 2023. http://dx.doi.org/10.1007/978-981-99-0923-0_51.
Der volle Inhalt der QuelleSengupta, Madhumita, und J. K. Mandal. „Color Image Authentication through Visible Patterns (CAV)“. In ICT and Critical Infrastructure: Proceedings of the 48th Annual Convention of Computer Society of India- Vol II, 617–25. Cham: Springer International Publishing, 2014. http://dx.doi.org/10.1007/978-3-319-03095-1_67.
Der volle Inhalt der QuelleClark, Pamela Elizabeth, und Michael Lee Rilee. „Visible and Circumvisible Regions and Image Interpretation“. In Remote Sensing Tools for Exploration, 53–113. New York, NY: Springer New York, 2010. http://dx.doi.org/10.1007/978-1-4419-6830-2_3.
Der volle Inhalt der QuelleDrury, S. A. „Digital processing of images in the visible and near infrared“. In Image Interpretation in Geology, 118–48. Dordrecht: Springer Netherlands, 1987. http://dx.doi.org/10.1007/978-94-010-9393-4_5.
Der volle Inhalt der QuelleKonferenzberichte zum Thema "Image visible"
Qian, Shen. „Visible Light Communications with Image Sensors“. In 2024 9th Optoelectronics Global Conference (OGC), 69–72. IEEE, 2024. http://dx.doi.org/10.1109/ogc62429.2024.10738741.
Der volle Inhalt der QuelleChen, Qi, und Rui Feng. „Model Pruning for Infrared-Visible Image Fusion“. In 2024 2nd International Conference on Machine Vision, Image Processing & Imaging Technology (MVIPIT), 172–76. IEEE, 2024. https://doi.org/10.1109/mvipit65697.2024.00038.
Der volle Inhalt der QuelleGao, Xundong, Chengcheng Zhang, Hui Chen und Yaning Yao. „Dual-Branch Infrared and Visible Image Fusion Framework“. In 2024 6th International Conference on Frontier Technologies of Information and Computer (ICFTIC), 742–46. IEEE, 2024. https://doi.org/10.1109/icftic64248.2024.10913193.
Der volle Inhalt der QuelleWu, Zhizhong, Jiajing Chen, Lianghao Tan, Hao Gong, Yuru Zhou und Ge Shi. „A Lightweight GAN-Based Image Fusion Algorithm for Visible and Infrared Images“. In 2024 4th International Conference on Computer Science and Blockchain (CCSB), 466–70. IEEE, 2024. http://dx.doi.org/10.1109/ccsb63463.2024.10735676.
Der volle Inhalt der QuelleKibe, Michiya, Takeru Inoue, Junya Morioka und Ryusuke Miyamoto. „Creation of Day-Night Visible-Thermal Paired Image Dataset via Image Registration“. In 2024 Eighth IEEE International Conference on Robotic Computing (IRC), 190–93. IEEE, 2024. https://doi.org/10.1109/irc63610.2024.00021.
Der volle Inhalt der QuelleCorda, Dijana Nazor, Jana Ziljak Grsic und Helena Bacinger Skrlec. „CREATING AN ARTISTIC WOOL RUG WITH A DOUBLE IMAGE IN THE VISUAL AND NEAR-INFRARED SPECTRA“. In 11th SWS International Scientific Conferences on ART and HUMANITIES - ISCAH 2024, 123–36. SGEM WORLD SCIENCE, 2024. https://doi.org/10.35603/sws.iscah.2024/vs10.19.
Der volle Inhalt der QuelleKim, Gahyeon, An Gia Vien, Duong Hai Nguyen und Chul Lee. „Feature Decomposition Transformers for Infrared and Visible Image Fusion“. In 2024 IEEE International Conference on Image Processing (ICIP), 2662–68. IEEE, 2024. http://dx.doi.org/10.1109/icip51287.2024.10647365.
Der volle Inhalt der QuelleLv, Guohua, Xinyue Fu, Chaoqun Sima, Yanlong Xu, Baodong Zhang und Hanju Bao. „Illumination-Enhanced Infrared and Low-Light Visible Image Fusion“. In 2024 IEEE International Conference on Image Processing (ICIP), 2634–40. IEEE, 2024. http://dx.doi.org/10.1109/icip51287.2024.10647292.
Der volle Inhalt der QuelleZhao, Zixiang, Shuang Xu, Chunxia Zhang, Junmin Liu, Jiangshe Zhang und Pengfei Li. „DIDFuse: Deep Image Decomposition for Infrared and Visible Image Fusion“. In Twenty-Ninth International Joint Conference on Artificial Intelligence and Seventeenth Pacific Rim International Conference on Artificial Intelligence {IJCAI-PRICAI-20}. California: International Joint Conferences on Artificial Intelligence Organization, 2020. http://dx.doi.org/10.24963/ijcai.2020/135.
Der volle Inhalt der QuelleChuang, Shang-Chih, Chun-Hsiang Huang und Ja-Ling Wu. „Unseen Visible Watermarking“. In 2007 IEEE International Conference on Image Processing. IEEE, 2007. http://dx.doi.org/10.1109/icip.2007.4379296.
Der volle Inhalt der QuelleBerichte der Organisationen zum Thema "Image visible"
Boopalan, Santhana. Aerial Wildlife Image Repository. Mississippi State University, 2023. http://dx.doi.org/10.54718/wvgf3020.
Der volle Inhalt der QuelleTopolski, John. The magnitude image from the 50% compressed PPH (R) shows an increased noise floor visible in the shadows. Office of Scientific and Technical Information (OSTI), Mai 2015. http://dx.doi.org/10.2172/1182685.
Der volle Inhalt der QuelleHuang, Haohang, Jiayi Luo, Kelin Ding, Erol Tutumluer, John Hart und Issam Qamhia. I-RIPRAP 3D Image Analysis Software: User Manual. Illinois Center for Transportation, Juni 2023. http://dx.doi.org/10.36501/0197-9191/23-008.
Der volle Inhalt der QuelleBurks, Thomas F., Victor Alchanatis und Warren Dixon. Enhancement of Sensing Technologies for Selective Tree Fruit Identification and Targeting in Robotic Harvesting Systems. United States Department of Agriculture, Oktober 2009. http://dx.doi.org/10.32747/2009.7591739.bard.
Der volle Inhalt der QuelleHuang, Haohang, Erol Tutumluer, Jiayi Luo, Kelin Ding, Issam Qamhia und John Hart. 3D Image Analysis Using Deep Learning for Size and Shape Characterization of Stockpile Riprap Aggregates—Phase 2. Illinois Center for Transportation, September 2022. http://dx.doi.org/10.36501/0197-9191/22-017.
Der volle Inhalt der QuelleAlexander, Serena, Bo Yang, Owen Hussey und Derek Hicks. Examining the Externalities of Highway Capacity Expansions in California: An Analysis of Land Use and Land Cover (LULC) Using Remote Sensing Technology. Mineta Transportation Institute, November 2023. http://dx.doi.org/10.31979/mti.2023.2251.
Der volle Inhalt der QuelleKulhandjian, Hovannes. AI-Based Bridge and Road Inspection Framework Using Drones. Mineta Transportation Institute, November 2023. http://dx.doi.org/10.31979/mti.2023.2226.
Der volle Inhalt der QuellePautet, P. D., J. Stegmman, C. M. Wrasse, K. Nielsen, H. Takahashi, M. J. Taylor, K. W. Hoppel und S. D. Eckermann. Analysis of Gravity Waves Structures Visible in Noctilucent Cloud Images. Fort Belvoir, VA: Defense Technical Information Center, Januar 2010. http://dx.doi.org/10.21236/ada523106.
Der volle Inhalt der QuelleMcDonald, T. E. Jr, D. M. Numkena, J. Payton, G. J. Yates und P. Zagarino. Using optical parametric oscillators (OPO) for wavelength shifting IR images to visible spectrum. Office of Scientific and Technical Information (OSTI), Dezember 1998. http://dx.doi.org/10.2172/334329.
Der volle Inhalt der QuelleHartter, Joel, und Chris Colocousis. Environmental, economic, and social changes in rural America visible in survey data and satellite images. University of New Hampshire Libraries, 2011. http://dx.doi.org/10.34051/p/2020.130.
Der volle Inhalt der Quelle