Добірка наукової літератури з теми "Cross-view Learning"
Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями
Ознайомтеся зі списками актуальних статей, книг, дисертацій, тез та інших наукових джерел на тему "Cross-view Learning".
Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.
Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.
Статті в журналах з теми "Cross-view Learning"
Nie, Weizhi, Anan Liu, Wenhui Li, and Yuting Su. "Cross-view action recognition by cross-domain learning." Image and Vision Computing 55 (November 2016): 109–18. http://dx.doi.org/10.1016/j.imavis.2016.04.011.
Повний текст джерелаWang, Xiuhui, and Wei Qi Yan. "Cross-view gait recognition through ensemble learning." Neural Computing and Applications 32, no. 11 (May 16, 2019): 7275–87. http://dx.doi.org/10.1007/s00521-019-04256-z.
Повний текст джерелаZhang, Chengkun, Huicheng Zheng, and Jianhuang Lai. "Cross-View Action Recognition Based on Hierarchical View-Shared Dictionary Learning." IEEE Access 6 (2018): 16855–68. http://dx.doi.org/10.1109/access.2018.2815611.
Повний текст джерелаZhang, Yuqi, Yongzhen Huang, Shiqi Yu, and Liang Wang. "Cross-View Gait Recognition by Discriminative Feature Learning." IEEE Transactions on Image Processing 29 (2020): 1001–15. http://dx.doi.org/10.1109/tip.2019.2926208.
Повний текст джерелаZheng, Jingjing, Zhuolin Jiang, and Rama Chellappa. "Cross-View Action Recognition via Transferable Dictionary Learning." IEEE Transactions on Image Processing 25, no. 6 (June 2016): 2542–56. http://dx.doi.org/10.1109/tip.2016.2548242.
Повний текст джерелаZALL, R., and M. R. KEYVANPOUR. "Semi-Supervised Multi-View Ensemble Learning Based On Extracting Cross-View Correlation." Advances in Electrical and Computer Engineering 16, no. 2 (2016): 111–24. http://dx.doi.org/10.4316/aece.2016.02015.
Повний текст джерелаDing, Zhengming, and Yun Fu. "Dual Low-Rank Decompositions for Robust Cross-View Learning." IEEE Transactions on Image Processing 28, no. 1 (January 2019): 194–204. http://dx.doi.org/10.1109/tip.2018.2865885.
Повний текст джерелаBorgia, Alessandro, Yang Hua, Elyor Kodirov, and Neil M. Robertson. "Cross-View Discriminative Feature Learning for Person Re-Identification." IEEE Transactions on Image Processing 27, no. 11 (November 2018): 5338–49. http://dx.doi.org/10.1109/tip.2018.2851098.
Повний текст джерелаDai, Ju, Ying Zhang, Huchuan Lu, and Hongyu Wang. "Cross-view semantic projection learning for person re-identification." Pattern Recognition 75 (March 2018): 63–76. http://dx.doi.org/10.1016/j.patcog.2017.04.022.
Повний текст джерелаCHEN, Xue, Chunheng WANG, Baihua XIAO, and Song GAO. "Learning Convolutional Domain-Robust Representations for Cross-View Face Recognition." IEICE Transactions on Information and Systems E97.D, no. 12 (2014): 3239–43. http://dx.doi.org/10.1587/transinf.2014edl8095.
Повний текст джерелаДисертації з теми "Cross-view Learning"
Zhang, Li. "Cross-view learning." Thesis, Queen Mary, University of London, 2018. http://qmro.qmul.ac.uk/xmlui/handle/123456789/43185.
Повний текст джерелаGupta, Parth Alokkumar. "Cross-view Embeddings for Information Retrieval." Doctoral thesis, Universitat Politècnica de València, 2017. http://hdl.handle.net/10251/78457.
Повний текст джерелаEn esta disertación estudiamos problemas de vistas-múltiples relacionados con la recuperación de información utilizando técnicas de representación en espacios de baja dimensionalidad. Estudiamos las técnicas existentes y proponemos nuevas técnicas para solventar algunas de las limitaciones existentes. Presentamos formalmente el concepto de recuperación de información con escritura mixta, el cual trata las dificultades de los sistemas de recuperación de información cuando los textos contienen escrituras en distintos alfabetos debido a razones tecnológicas y socioculturales. Las palabras en escritura mixta son representadas en un espacio de características finito y reducido, compuesto por n-gramas de caracteres. Proponemos los auto-codificadores de vistas-múltiples (CAE, por sus siglas en inglés) para modelar dichas palabras en un espacio abstracto, y esta técnica produce resultados de vanguardia. En este sentido, estudiamos varios modelos para la recuperación de información entre lenguas diferentes (CLIR, por sus siglas en inglés) y proponemos un modelo basado en redes neuronales composicionales (XCNN, por sus siglas en inglés), el cual supera las limitaciones de los métodos existentes. El método de XCNN propuesto produce mejores resultados en diferentes tareas de CLIR tales como la recuperación de información ad-hoc, la identificación de oraciones equivalentes en lenguas distintas y la detección de plagio entre lenguas diferentes. Para tal efecto, realizamos pruebas experimentales para dichas tareas sobre conjuntos de datos disponibles públicamente, presentando los resultados y análisis correspondientes. En esta disertación, también exploramos un método eficiente para utilizar similitud semántica de contextos en el proceso de selección léxica en traducción automática. Específicamente, proponemos características extraídas de los contextos disponibles en las oraciones fuentes mediante el uso de auto-codificadores. El uso de las características propuestas demuestra mejoras estadísticamente significativas sobre sistemas de traducción robustos para las tareas de traducción entre inglés y español, e inglés e hindú. Finalmente, exploramos métodos para evaluar la calidad de las representaciones de datos de texto generadas por los auto-codificadores, a la vez que analizamos las propiedades de sus arquitecturas. Como resultado, proponemos dos nuevas métricas para cuantificar la calidad de las reconstrucciones generadas por los auto-codificadores: el índice de preservación de estructura (SPI, por sus siglas en inglés) y el índice de acumulación de similitud (SAI, por sus siglas en inglés). También presentamos el concepto de dimensión crítica de cuello de botella (CBD, por sus siglas en inglés), por debajo de la cual la información estructural se deteriora. Mostramos que, interesantemente, la CBD está relacionada con la perplejidad de la lengua.
En aquesta dissertació estudiem els problemes de vistes-múltiples relacionats amb la recuperació d'informació utilitzant tècniques de representació en espais de baixa dimensionalitat. Estudiem les tècniques existents i en proposem unes de noves per solucionar algunes de les limitacions existents. Presentem formalment el concepte de recuperació d'informació amb escriptura mixta, el qual tracta les dificultats dels sistemes de recuperació d'informació quan els textos contenen escriptures en diferents alfabets per motius tecnològics i socioculturals. Les paraules en escriptura mixta són representades en un espai de característiques finit i reduït, composat per n-grames de caràcters. Proposem els auto-codificadors de vistes-múltiples (CAE, per les seves sigles en anglès) per modelar aquestes paraules en un espai abstracte, i aquesta tècnica produeix resultats d'avantguarda. En aquest sentit, estudiem diversos models per a la recuperació d'informació entre llengües diferents (CLIR , per les sevas sigles en anglès) i proposem un model basat en xarxes neuronals composicionals (XCNN, per les sevas sigles en anglès), el qual supera les limitacions dels mètodes existents. El mètode de XCNN proposat produeix millors resultats en diferents tasques de CLIR com ara la recuperació d'informació ad-hoc, la identificació d'oracions equivalents en llengües diferents, i la detecció de plagi entre llengües diferents. Per a tal efecte, realitzem proves experimentals per aquestes tasques sobre conjunts de dades disponibles públicament, presentant els resultats i anàlisis corresponents. En aquesta dissertació, també explorem un mètode eficient per utilitzar similitud semàntica de contextos en el procés de selecció lèxica en traducció automàtica. Específicament, proposem característiques extretes dels contextos disponibles a les oracions fonts mitjançant l'ús d'auto-codificadors. L'ús de les característiques proposades demostra millores estadísticament significatives sobre sistemes de traducció robustos per a les tasques de traducció entre anglès i espanyol, i anglès i hindú. Finalment, explorem mètodes per avaluar la qualitat de les representacions de dades de text generades pels auto-codificadors, alhora que analitzem les propietats de les seves arquitectures. Com a resultat, proposem dues noves mètriques per quantificar la qualitat de les reconstruccions generades pels auto-codificadors: l'índex de preservació d'estructura (SCI, per les seves sigles en anglès) i l'índex d'acumulació de similitud (SAI, per les seves sigles en anglès). També presentem el concepte de dimensió crítica de coll d'ampolla (CBD, per les seves sigles en anglès), per sota de la qual la informació estructural es deteriora. Mostrem que, de manera interessant, la CBD està relacionada amb la perplexitat de la llengua.
Gupta, PA. (2017). Cross-view Embeddings for Information Retrieval [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/78457
TESIS
Rohlén, Andreas. "UAV geolocalization in Swedish fields and forests using Deep Learning." Thesis, KTH, Skolan för elektroteknik och datavetenskap (EECS), 2021. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-300390.
Повний текст джерелаObemannade autonoma luftburna fordons (UAV) förmåga att lokaliera sig själva är fundamental för att de ska fungera, även om de inte har tillgång till globala positioneringssystem. Med den nyliga framgången hos djupinlärning applicerat på visuella problem har det kommit metoder för absolut geolokalisering med visuell djupinlärning med satellit- och UAV-bilder. De flesta av dessa metoder har bara blivit testade i stadsmiljöer, vilket leder till frågan: Hur väl fungerar dessa metoder i icke-urbana områden som fält och skogar? En av nackdelarna med djupinlärning är att dessa modeller ofta ses som svarta lådor eftersom det är svårt att veta varför modellerna gör de gissningar de gör, alltså vilken information som är viktig och används för gissningen. För att lösa detta har flera metoder för att tolka neurala nätverk utvecklats. Dessa metoder ger förklaringar så att vi kan förstå dessa modeller bättre. Denna uppsats undersöker lokaliseringsprecisionen hos en geolokaliseringsmetod i både urbana och icke-urbana miljöer och applicerar även en tolkningsmetod för neurala nätverk för att se ifall den kan förklara den potentialla skillnaden i precision hos metoden i dessa olika miljöer. Resultaten visar att metoden fungerar bäst i urbana miljöer där den får ett genomsnittligt absolut horisontellt lokaliseringsfel på 38.30m och ett genomsnittligt absolut vertikalt fel på 16.77m medan den presterade signifikant sämre i icke-urbana miljöer där den fick ett genomsnittligt absolut horisontellt lokaliseringsfel på 68.11m och ett genomsnittligt absolut vertikalt fel på 22.83m. Vidare visar resultaten att om satellitbilderna och UAV-bilderna är tagna från olika årstider blir lokaliseringsprecisionen ännu sämre, där metoden får genomsnittligt absolut horisontellt lokaliseringsfel på 86.91m och ett genomsnittligt absolut vertikalt fel på 23.05m. Tolkningsmetoden hjälpte inte i att förklara varför metoden fungerar sämre i icke-urbana miljöer och är inte passande att använda för denna sortens problem.
Harahap, Faisal R. "Essays on Emerging Multinational Enterprises' Acquisitions in Developed Economies." FIU Digital Commons, 2017. https://digitalcommons.fiu.edu/etd/3540.
Повний текст джерелаWeatherholtz, Kodi. "Perceptual learning of systemic cross-category vowel variation." The Ohio State University, 2015. http://rave.ohiolink.edu/etdc/view?acc_num=osu1429782580.
Повний текст джерелаTurner, Marianne. "Adult South Sudanese students in Australia : a systemic approach to the investigation of participation in cross-cultural learning /." Murdoch University Digital Theses Program, 2008. http://wwwlib.murdoch.edu.au/adt/browse/view/adt-MU20090902.11321.
Повний текст джерелаAwad, Ghada M. "MOTIVATION, PERSISTENCE, AND CROSS-CULTURAL AWARENESS: A STUDY OF COLLEGE STUDENTS LEARNING FOREIGN LANGUAGES." University of Akron / OhioLINK, 2018. http://rave.ohiolink.edu/etdc/view?acc_num=akron1542036826465842.
Повний текст джерелаJewett, Andrea L. "Effects of cross-age reciprocal peer tutoring on math fact acquisition with learning disabled students." The Ohio State University, 1988. http://rave.ohiolink.edu/etdc/view?acc_num=osu1399890459.
Повний текст джерелаKajasiche, Diana Tadala. "The impact of unplanned online learning due to Covid-19 on cross-cultural experiences and expectations on international African graduate students in the US." Bowling Green State University / OhioLINK, 2021. http://rave.ohiolink.edu/etdc/view?acc_num=bgsu162687000181805.
Повний текст джерелаAinapure, Abhijeet Narhar. "Application and Performance Enhancement of Intelligent Cross-Domain Fault Diagnosis in Rotating Machinery." University of Cincinnati / OhioLINK, 2021. http://rave.ohiolink.edu/etdc/view?acc_num=ucin1623164772153736.
Повний текст джерелаКниги з теми "Cross-view Learning"
Pennington, Martha C. English on the world stage: A cross-language view of code correspondencies and their effect on language contact and language learning. Hong Kong: City Polytechnic of Hong Kong, 1994.
Знайти повний текст джерелаSchmidt-Lauff, Sabine. Adult education and lifelong learning: A European view as perceived by participants in an exchange programme. Hamburg: Kovac, 2003.
Знайти повний текст джерелаBier, Ada. La motivazione nell’insegnamento in CLIL. Venice: Edizioni Ca' Foscari, 2018. http://dx.doi.org/10.30687/978-88-6969-213-0.
Повний текст джерелаBryson, Jane. Disciplinary Perspectives on Skill. Edited by John Buchanan, David Finegold, Ken Mayhew, and Chris Warhurst. Oxford University Press, 2017. http://dx.doi.org/10.1093/oxfordhb/9780199655366.013.1.
Повний текст джерелаMillie, Andrew, ed. Criminology and Public Theology. Policy Press, 2020. http://dx.doi.org/10.1332/policypress/9781529207392.001.0001.
Повний текст джерелаSteinberg, Claudia, and Benjamin Bonn, eds. Digitalisierung und Sportwissenschaft. Academia – ein Verlag in der Nomos Verlagsgesellschaft, 2021. http://dx.doi.org/10.5771/9783985720033.
Повний текст джерелаHolmes, Robyn M. Cultural Psychology. Oxford University Press, 2020. http://dx.doi.org/10.1093/oso/9780199343805.001.0001.
Повний текст джерелаЧастини книг з теми "Cross-view Learning"
Bharti, Jyoti, and Lalit Lohiya. "Cross-View Gait Recognition Using Deep Learning Approach." In IOT with Smart Systems, 45–54. Singapore: Springer Singapore, 2022. http://dx.doi.org/10.1007/978-981-16-3945-6_6.
Повний текст джерелаYao, Zhenjun, Zhaoxiang Zhang, Maodi Hu, and Yunhong Wang. "Cross-View Gait-Based Gender Classification by Transfer Learning." In Lecture Notes in Computer Science, 79–87. Cham: Springer International Publishing, 2013. http://dx.doi.org/10.1007/978-3-319-03731-8_8.
Повний текст джерелаCapponi, Cécile, and Sokol Koço. "Learning from Imbalanced Datasets with Cross-View Cooperation-Based Ensemble Methods." In Unsupervised and Semi-Supervised Learning, 161–82. Cham: Springer International Publishing, 2018. http://dx.doi.org/10.1007/978-3-030-01872-6_7.
Повний текст джерелаZhang, Xiaohui, Huifang Ma, Fanyi Yang, Zhixin Li, and Liang Chang. "Cross-View Contrastive Learning for Knowledge-Aware Session-Based Recommendation." In Lecture Notes in Computer Science, 60–73. Cham: Springer Nature Switzerland, 2022. http://dx.doi.org/10.1007/978-3-031-20868-3_5.
Повний текст джерелаCao, Rui, Jiasong Zhu, Qing Li, Qian Zhang, Qingquan Li, Bozhi Liu, and Guoping Qiu. "Learning Spatial-Aware Cross-View Embeddings for Ground-to-Aerial Geolocalization." In Lecture Notes in Computer Science, 57–67. Cham: Springer International Publishing, 2019. http://dx.doi.org/10.1007/978-3-030-34120-6_5.
Повний текст джерелаZhou, Qing, Ronggang Zhu, Yuelei Xu, and Zhaoxiang Zhang. "Cross-View Images Matching and Registration Technology Based on Deep Learning." In Lecture Notes in Computer Science, 725–34. Cham: Springer International Publishing, 2021. http://dx.doi.org/10.1007/978-3-030-87355-4_60.
Повний текст джерелаJones, Alison, and Kuni Jenkins. "Cross-cultural Engagement in Higher Education Classrooms: a Critical View of Dialogue." In Learning and Teaching Across Cultures in Higher Education, 133–52. London: Palgrave Macmillan UK, 2007. http://dx.doi.org/10.1057/9780230590427_8.
Повний текст джерелаLi, Tong, Kai Xuan, Zhong Xue, Lei Chen, Lichi Zhang, and Dahong Qian. "Cross-View Label Transfer in Knee MR Segmentation Using Iterative Context Learning." In Domain Adaptation and Representation Transfer, and Distributed and Collaborative Learning, 96–105. Cham: Springer International Publishing, 2020. http://dx.doi.org/10.1007/978-3-030-60548-3_10.
Повний текст джерелаKhurshid, Numan, Talha Hanif, Mohbat Tharani, and Murtaza Taj. "Cross-View Image Retrieval - Ground to Aerial Image Retrieval Through Deep Learning." In Neural Information Processing, 210–21. Cham: Springer International Publishing, 2019. http://dx.doi.org/10.1007/978-3-030-36711-4_19.
Повний текст джерелаZhang, Zhaoxiang, Jun Tang, Yuhang Zhao, Yunhong Wang, and Jianyun Liu. "Active Learning for Transferrable Object Classification in Cross-View Traffic Scene Surveillance." In Advances in Multimedia Information Processing – PCM 2012, 369–77. Berlin, Heidelberg: Springer Berlin Heidelberg, 2012. http://dx.doi.org/10.1007/978-3-642-34778-8_34.
Повний текст джерелаТези доповідей конференцій з теми "Cross-view Learning"
Liu, Liu, and Hairong Qi. "Discriminative Cross-View Binary Representation Learning." In 2018 IEEE Winter Conference on Applications of Computer Vision (WACV). IEEE, 2018. http://dx.doi.org/10.1109/wacv.2018.00193.
Повний текст джерелаZheng, Liangfeng, Yongzhi Li, and Yadong Mu. "Learning Factorized Cross-View Fusion for Multi-View Crowd Counting." In 2021 IEEE International Conference on Multimedia and Expo (ICME). IEEE, 2021. http://dx.doi.org/10.1109/icme51207.2021.9428284.
Повний текст джерелаZheng, Jingjing, and Zhuolin Jiang. "Learning View-Invariant Sparse Representations for Cross-View Action Recognition." In 2013 IEEE International Conference on Computer Vision (ICCV). IEEE, 2013. http://dx.doi.org/10.1109/iccv.2013.394.
Повний текст джерелаWang, Jiang, Xiaohan Nie, Yin Xia, Ying Wu, and Song-Chun Zhu. "Cross-View Action Modeling, Learning, and Recognition." In 2014 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2014. http://dx.doi.org/10.1109/cvpr.2014.339.
Повний текст джерелаLi, Ang, Huiyi Hu, Piotr Mirowski, and Mehrdad Farajtabar. "Cross-View Policy Learning for Street Navigation." In 2019 IEEE/CVF International Conference on Computer Vision (ICCV). IEEE, 2019. http://dx.doi.org/10.1109/iccv.2019.00819.
Повний текст джерелаLee, Chun-Chieh, Chi-Hung Chuang, Fanzi Wu, Luo-Wei Tsai, and Kuo-Chin Fan. "Cross view gait recognition by metric learning." In 2014 IEEE International Conference on Consumer Electronics - Taiwan (ICCE-TW). IEEE, 2014. http://dx.doi.org/10.1109/icce-tw.2014.6904112.
Повний текст джерелаTong, Suibing, Hefei Ling, Yuzhuo Fu, and Dan Wang. "Cross-View Gait Identification with Embedded Learning." In the. New York, New York, USA: ACM Press, 2017. http://dx.doi.org/10.1145/3126686.3126753.
Повний текст джерелаChen, Shin-Yu, Jun-Wei Hsieh, and Duan-Yu Chen. "Cross-view object identification using principal color transformation." In 2010 International Conference on Machine Learning and Cybernetics (ICMLC). IEEE, 2010. http://dx.doi.org/10.1109/icmlc.2010.5580787.
Повний текст джерелаJing, Longlong, Ling Zhang, and Yingli Tian. "Self-supervised Feature Learning by Cross-modality and Cross-view Correspondences." In 2021 IEEE/CVF Conference on Computer Vision and Pattern Recognition Workshops (CVPRW). IEEE, 2021. http://dx.doi.org/10.1109/cvprw53098.2021.00174.
Повний текст джерелаHuang, Lang, Shan You, Mingkai Zheng, Fei Wang, Chen Qian, and Toshihiko Yamasaki. "Learning Where to Learn in Cross-View Self-Supervised Learning." In 2022 IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2022. http://dx.doi.org/10.1109/cvpr52688.2022.01405.
Повний текст джерела