Academic literature on the topic 'Egocentric'
Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles
Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Egocentric.'
Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.
You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.
Journal articles on the topic "Egocentric"
Urzha, A. V. "EGOCENTRIC UNITS WITH EPISTEMIC MEANING: CLASSIFICATION, PRAGMATICS, FUNCTIONING (ON THE MATERIAL OF ORIGINAL AND TRANSLATED NARRATIVES IN RUSSIAN)." Bulletin of Udmurt University. Series History and Philology 30, no. 5 (October 27, 2020): 765–73. http://dx.doi.org/10.35634/2412-9534-2020-30-5-765-773.
Full textUrzha, A. V. "Combining Linguistic Methods of Studying Egocentric Units in Russian Translated Narratives." Bulletin of Kemerovo State University 22, no. 3 (October 29, 2020): 879–88. http://dx.doi.org/10.21603/2078-8975-2020-22-3-879-888.
Full textHayashi, Yugo. "Facilitating Perspective Taking in Groups." International Journal of Software Science and Computational Intelligence 5, no. 1 (January 2013): 1–14. http://dx.doi.org/10.4018/ijssci.2013010101.
Full textSmith, Joel. "Egocentric Space." International Journal of Philosophical Studies 22, no. 3 (May 27, 2014): 409–33. http://dx.doi.org/10.1080/09672559.2014.913888.
Full textField, Hartry. "Egocentric Content." Noûs 51, no. 3 (April 13, 2016): 521–46. http://dx.doi.org/10.1111/nous.12141.
Full textEpley, Nicholas, and Eugene M. Caruso. "Egocentric Ethics." Social Justice Research 17, no. 2 (June 2004): 171–87. http://dx.doi.org/10.1023/b:sore.0000027408.72713.45.
Full textElgharib, Mohamed, Mohit Mendiratta, Justus Thies, Matthias Niessner, Hans-Peter Seidel, Ayush Tewari, Vladislav Golyanik, and Christian Theobalt. "Egocentric videoconferencing." ACM Transactions on Graphics 39, no. 6 (November 26, 2020): 1–16. http://dx.doi.org/10.1145/3414685.3417808.
Full textNakashima, Ryoichi, and Takatsune Kumada. "Peripersonal versus extrapersonal visual scene information for egocentric direction and position perception." Quarterly Journal of Experimental Psychology 71, no. 5 (January 1, 2018): 1090–99. http://dx.doi.org/10.1080/17470218.2017.1310267.
Full textColuccia, Emanuele, Irene C. Mammarella, and Cesare Cornoldi. "Centred Egocentric, Decentred Egocentric, and Allocentric Spatial Representations in the Peripersonal Space of Congenital Total Blindness." Perception 38, no. 5 (January 1, 2009): 679–93. http://dx.doi.org/10.1068/p5942.
Full textRácz, Anna. "Measuring egocentric networks." Magyar Pszichológiai Szemle 69, no. 3 (September 1, 2014): 567–93. http://dx.doi.org/10.1556/mpszle.69.2014.3.6.
Full textDissertations / Theses on the topic "Egocentric"
Surie, Dipak. "Egocentric interaction for ambient intelligence." Doctoral thesis, Umeå universitet, Institutionen för datavetenskap, 2012. http://urn.kb.se/resolve?urn=urn:nbn:se:umu:diva-50822.
Full texteasy ADL project
Ostell, Carol. "Individual differences in egocentric orientation." Thesis, University of York, 2000. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.325649.
Full textHipiny, Irwandi. "Egocentric activity recognition using gaze." Thesis, University of Bristol, 2013. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.682564.
Full textSundaram, Sudeep. "Egocentric activity recognition on the move." Thesis, University of Bristol, 2012. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.617591.
Full textHerlihey, Tracey A. "Optic flow, egocentric direction and walking." Thesis, Cardiff University, 2010. http://orca.cf.ac.uk/54390/.
Full textAghaei, Maedeh. "Social Signal Processing from Egocentric Photo-Streams." Doctoral thesis, Universitat de Barcelona, 2018. http://hdl.handle.net/10803/650918.
Full textLas cámaras portables ofrecen una forma de capturar imágenes de experiencias diarias vividas por el usuario, desde su propia perspectiva y sin la intervención de éste, sin la necesidad de interrumpir la grabación debido a la batería del dispositivo o las limitaciones de almacenamiento. Este conjunto de imágenes, conocidas como secuencias de fotos egocéntricas, contiene datos visuales importantes sobre la vida del usuario, donde entre ellos los eventos sociales son de especial interés. Las interacciones sociales han demostrado ser clave para la longevidad, el tener pocas interacciones equivale al mismo factor de riesgo que fumar regularmente. Teniendo en cuenta la importancia del asunto, no es de extrañar que el análisis automático de las interacciones sociales atraiga en gran medida el interés de la comunidad científica. Sin embargo, el análisis de secuencias de fotos impone nuevos desafíos al problema del procesamiento de las señales sociales con respecto a los videos convencionales. Debido al movimiento libre de la cámara y a su baja resolución temporal, los cambios abruptos en el campo de visión, en la iluminación y en la ubicación del objeto son frecuentes. Además, dado que las imágenes se adquieren en condiciones reales, las oclusiones ocurren con regularidad y la apariencia de las personas varía de un evento a otro. Dado que un individuo usa una cámara fotográfica durante un período determinado, esta tesis, impulsada por el paradigma del procesamiento de señales sociales, presenta un marco para la caracterización integral del patrón social de dicho individuo. En el procesamiento de señales sociales, el segundo paso después de grabar la escena es rastrear la apariencia de varias personas involucradas en los eventos sociales. Por lo tanto, nuestra propuesta comienza con la introducción de un seguimiento de multiples caras que posee ciertas características para hacer frente a los desafíos impuestos por las secuencias de fotos egocéntricas. El siguiente paso en el procesamiento de señales sociales es extraer las señales sociales de las personas bajo análisis. En este paso, adema´s de las señales sociales estudiadas convencionalmente, en esta tesis se propone la vestimenta como una nueva señal social para estudios posteriores dentro del procesamiento de señales sociales. Finalmente, el último paso es el análisis de señales sociales. En esta tesis, el análisis de señales sociales se define esencialmente como la comprensión de los patrones sociales de un usuario de cámara portable, mediante la revisión de fotos capturadas por la cámara llevada durante un período de tiempo. Nuestra propuesta para el análisis de señales sociales se compone de diferentes pasos. En primer lugar, detectar las interacciones sociales del usuario donde se explora el impacto de varias señales sociales en la tarea. Los eventos sociales detectados se inspeccionan en el segundo paso para la categorización en diferentes reuniones sociales. El último paso de la propuesta es caracterizar los patrones sociales del usuario. Nuestro objetivo es cuantificar la duración, la diversidad y la frecuencia de las relaciones sociales del usuario en diversas situaciones sociales. Este objetivo se logra mediante el descubrimiento de apariciones recurrentes de personas en todo el conjunto de eventos sociales relacionados con el usuario. Cada paso de nuestro método propuesto se valida sobre conjuntos de datos relevantes, y los resultados obtenidos se evalúan cuantitativa y cualitativamente. Cada etapa del modelo se compara con los trabajos relacionados más recientes. También, se presenta una sección de discusión sobre los resultados obtenidos, que se centra en resaltar las ventajas, limitaciones y diferencias de los modelos propuestos, y de estos con respecto al estado del arte.
Cartas, Ayala Alejandro. "Recognizing Action and Activities from Egocentric Images." Doctoral thesis, Universitat de Barcelona, 2020. http://hdl.handle.net/10803/670752.
Full textEl reconeixement d’accions egocèntriques consisteix a determinar què fa un usuari de càmera egocèntrica des de la seva perspectiva. La característica fonamental que defineix aquesta tasca és que la persona mateixa només és parcialment visible: a les imatges només veurem les seves mans. Com a resultat, el reconeixement d’accions pot dependre únicament de les interaccions dels usuaris amb objectes, altres persones i l’escena mitjançant les seves mans. El reconeixement d’acció egocèntrica té nombroses aplicacions tecnològiques d’assistència, en particular en el camp de la rehabilitació i la medicina preventiva. El tipus de càmera egocèntrica determina les activitats o les accions que es poden predir. Hi ha, grosso modo, dos tipus: registre de vida i càmeres de vídeo. Les càmeres de registre de vida poden prendre fotografies cada 20-30 segons de manera continuada durant tot el dia. Les seqüències d'imatges produïdes per aquestes s'anomenen visual lifelogs o photo-streams. En comparació amb el vídeo, manquen de moviment, el qual normalment es fa servir per desambiguar les accions. Presentem múltiples propostes per a reconeixement d’acció egocèntrica en ambdós contextos. Primer introduïm una proposta per classificar les imatges fixes dels registres de vida combinant una xarxa convolucional i un random forest. Com que els registres de vida mostren coherència temporal en imatges consecutives, també presentem dues arquitectures basades en una xarxa de long short-term memory (LSTM). Per mesurar a fons el seu rendiment de generalització, presentem la base de dades més gran de seqüències de fotos per al reconeixement d’activitats. Aquestes proves no només tenen en compte els dies ocults i diversos usuaris, sinó també l’efecte de les fronteres temporals dels diferents esdeveniments. Finalment presentem estratègies d’adaptació de dominis per tractar imatges de domini desconegut en un escenari del món real. El nostre treball sobre el reconeixement d’accions egocèntriques a partir de vídeos se centra principalment en les interaccions amb objectes. Presentem una xarxa profunda que en el primer nivell modela les interaccions entre persona i objecte i en el segon nivell modela les seqüències d’accions com a part d’una única activitat. La relació espacial entre mans i objectes es modela mitjançant una xarxa basada en regions, mentre que les accions i activitats es modelen mitjançant una xarxa LSTM jeràrquica. La nostra darrera proposta explora la importància de l'àudio produït per les manipulacions egocèntriques d'objectes. Combina una estratègia de mostreig temporal escassa amb una fusió tardana d’àudio, RGB i fluxos temporals. Els resultats experimentals sobre la base de dades EPIC-Kitchen mostren que la integració multimodal resulta en un millor rendiment que els plantejaments unimodals.
Tamir, Diana Ilse. "A Social Neuroscience Perspective on Egocentric Influence." Thesis, Harvard University, 2014. http://dissertations.umi.com/gsas.harvard:11523.
Full textPsychology
Spera, Emiliano. "Egocentric Vision Based Localization of Shopping Cart." Doctoral thesis, Università di Catania, 2019. http://hdl.handle.net/10761/4139.
Full textBoutaleb, Mohamed Yasser. "Egocentric Hand Activity Recognition : The principal components of an egocentric hand activity recognition framework, exploitable for augmented reality user assistance." Electronic Thesis or Diss., CentraleSupélec, 2022. http://www.theses.fr/2022CSUP0007.
Full textHumans use their hands for various tasks in daily life and industry, making research in this area a recent focus of significant interest. Moreover, analyzing and interpreting human behavior using visual signals is one of the most animated and explored areas of computer vision. With the advent of new augmented reality technologies, researchers are increasingly interested in hand activity understanding from a first-person perspective exploring its suitability for human guidance and assistance. Our work is based on machine learning technology to contribute to this research area. Recently, deep neural networks have proven their outstanding effectiveness in many research areas, allowing researchers to jump significantly in efficiency and robustness.This thesis's main objective is to propose a user's activity recognition framework including four key components, which can be used to assist users during their activities oriented towards specific objectives: industry 4.0 (e.g., assisted assembly, maintenance) and teaching. Thus, the system observes the user's hands and the manipulated objects from the user's viewpoint to recognize his performed hand activity. The desired framework must robustly recognize the user's usual activities. Nevertheless, it must detect unusual ones to feedback and prevent him from performing wrong maneuvers, a fundamental requirement for user assistance. This thesis, therefore, combines techniques from the research fields of computer vision and machine learning to propose comprehensive hand activity recognition components essential for a complete assistance tool
Books on the topic "Egocentric"
Kecskes, Istvan, and Jacob Mey, eds. Intention, Common Ground and the Egocentric Speaker-Hearer. Berlin, New York: Mouton de Gruyter, 2008. http://dx.doi.org/10.1515/9783110211474.
Full textFoley, Richard. Working without a net: Study of egocentric epistemology. New York: Oxford University Press, 1993.
Find full textIstván, Kecskés, and Mey Jacob, eds. Intention, common ground and the egocentric speaker-hearer. Berlin: Mouton de Gruyter, 2008.
Find full textReason and morality: A defense of the egocentric perspective. Ithaca: Cornell University Press, 1990.
Find full textWorking without a net: A study of egocentric epistemology. New York: Oxford University Press, 1993.
Find full textWeiss, Liad. Egocentric Categorization: Self as a Reference Category in Product Judgment and Consumer Choice. [New York, N.Y.?]: [publisher not identified], 2013.
Find full textHibbs, Douglas A. Solidarity or egoism?: The economics of sociotropic and egocentric influences on political behavior : Denmark in international and theoretical perspective. Aarhus, Denmark: Aarhus University Press, 1993.
Find full textFree: The end of the human condition : the biological reason why humans have had to be individual, competitive, egocentric, and aggressive. Sydney, Australia: Centre for Humanity's Adulthood, 1988.
Find full textJosephson, Erland. Självporträtt: En egocentrisk dialog. [Stockholm]: Bromberg, 1993.
Find full textSocio-egocentrism: Theory, research, and practice. San Francisco: International Scholars Publications, 1997.
Find full textBook chapters on the topic "Egocentric"
Ellenbroek, Bart, Alfonso Abizaid, Shimon Amir, Martina de Zwaan, Sarah Parylak, Pietro Cottone, Eric P. Zorrilla, et al. "Egocentric." In Encyclopedia of Psychopharmacology, 457. Berlin, Heidelberg: Springer Berlin Heidelberg, 2010. http://dx.doi.org/10.1007/978-3-540-68706-1_1637.
Full textWalker, Steven M., and Daryl V. Watkins. "Egocentric Cases." In Toxic Leadership, 87–95. New York: Routledge, 2022. http://dx.doi.org/10.4324/9781003202462-10.
Full textFiset, Sylvain. "Egocentric Frame." In Encyclopedia of Animal Cognition and Behavior, 1–3. Cham: Springer International Publishing, 2017. http://dx.doi.org/10.1007/978-3-319-47829-6_1094-1.
Full textFiset, Sylvain. "Egocentric Frame." In Encyclopedia of Animal Cognition and Behavior, 2226–29. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-319-55065-7_1094.
Full textTalavera, Estefania, Petia Radeva, and Nicolai Petkov. "Towards Egocentric Sentiment Analysis." In Computer Aided Systems Theory – EUROCAST 2017, 297–305. Cham: Springer International Publishing, 2018. http://dx.doi.org/10.1007/978-3-319-74727-9_35.
Full textRushton, Simon K. "Egocentric Direction and Locomotion." In Optic Flow and Beyond, 339–62. Dordrecht: Springer Netherlands, 2004. http://dx.doi.org/10.1007/978-1-4020-2092-6_15.
Full textCohen, David. "Egocentric or social animals?" In How the child's mind develops, 56–67. Third Edition. | New York : Routledge, [2018] | Revised edition of the author’s How the child’s mind develops, 2013.: Routledge, 2017. http://dx.doi.org/10.4324/9781315201375-4.
Full textSeah, Vincent Pei-wen, and Jeff S. Shamma. "Multiagent Cooperation through Egocentric Modeling." In Cooperative Control of Distributed Multi-Agent Systems, 213–29. Chichester, UK: John Wiley & Sons, Ltd, 2007. http://dx.doi.org/10.1002/9780470724200.ch9.
Full textYeap, Wai Kiang. "On Egocentric and Allocentric Maps." In Spatial Cognition IX, 62–75. Cham: Springer International Publishing, 2014. http://dx.doi.org/10.1007/978-3-319-11215-2_5.
Full textJain, Samriddhi, Renu M. Rameshan, and Aditya Nigam. "Object Triggered Egocentric Video Summarization." In Computer Analysis of Images and Patterns, 428–39. Cham: Springer International Publishing, 2017. http://dx.doi.org/10.1007/978-3-319-64698-5_36.
Full textConference papers on the topic "Egocentric"
Lucia, William, and Elena Ferrari. "EgoCentric." In CIKM '14: 2014 ACM Conference on Information and Knowledge Management. New York, NY, USA: ACM, 2014. http://dx.doi.org/10.1145/2661829.2661990.
Full textPark, Hyun Soo, Jyh-Jing Hwang, Yedong Niu, and Jianbo Shi. "Egocentric Future Localization." In 2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2016. http://dx.doi.org/10.1109/cvpr.2016.508.
Full textZhang, Mengmi, Keng Teck Ma, Shih-Cheng Yen, Joo Hwee Lim, Qi Zhao, and Jiashi Feng. "Egocentric Spatial Memory." In 2018 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS). IEEE, 2018. http://dx.doi.org/10.1109/iros.2018.8593435.
Full textFinocchiaro, Jessica, Aisha Urooj Khan, and Ali Borji. "Egocentric Height Estimation." In 2017 IEEE Winter Conference on Applications of Computer Vision (WACV). IEEE, 2017. http://dx.doi.org/10.1109/wacv.2017.132.
Full textFathi, Alireza, Ali Farhadi, and James M. Rehg. "Understanding egocentric activities." In 2011 IEEE International Conference on Computer Vision (ICCV). IEEE, 2011. http://dx.doi.org/10.1109/iccv.2011.6126269.
Full textThapar, Daksh, Aditya Nigam, and Chetan Arora. "Anonymizing Egocentric Videos." In 2021 IEEE/CVF International Conference on Computer Vision (ICCV). IEEE, 2021. http://dx.doi.org/10.1109/iccv48922.2021.00232.
Full textZhang, Tianyu, Weiqing Min, Jiahao Yang, Tao Liu, Shuqiang Jiang, and Yong Rui. "What If We Could Not See? Counterfactual Analysis for Egocentric Action Anticipation." In Thirtieth International Joint Conference on Artificial Intelligence {IJCAI-21}. California: International Joint Conferences on Artificial Intelligence Organization, 2021. http://dx.doi.org/10.24963/ijcai.2021/182.
Full textLi, Yin, Zhefan Ye, and James M. Rehg. "Delving into egocentric actions." In 2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). IEEE, 2015. http://dx.doi.org/10.1109/cvpr.2015.7298625.
Full textCorujeira, José G. P., and Ian Oakley. "Stereoscopic egocentric distance perception." In SAP' 13: ACM Symposium on Applied Perception 2013. New York, NY, USA: ACM, 2013. http://dx.doi.org/10.1145/2492494.2492509.
Full textSpera, Emiliano, Antonino Furnari, Sebastiano Battiato, and Giovanni Maria Farinella. "Egocentric Shopping Cart Localization." In 2018 24th International Conference on Pattern Recognition (ICPR). IEEE, 2018. http://dx.doi.org/10.1109/icpr.2018.8545516.
Full textReports on the topic "Egocentric"
Liu, Feng, and Miguel Figliozzi. Utilizing Egocentric Video and Sensors to Conduct Naturalistic Bicycling Studies. Portland State University, August 2016. http://dx.doi.org/10.15760/trec.154.
Full textSong, So Young, and Youn-Kyung Kim. Altercentric versus Egocentric 'Green Jeans' Advertising: Impact on Dual Emotional Warmth. Ames: Iowa State University, Digital Repository, November 2015. http://dx.doi.org/10.31274/itaa_proceedings-180814-171.
Full textJerome, Christian J., and Bob G. Witmer. The Perception and Estimation of Egocentric Distance in Real and Augmented Reality Environments. Fort Belvoir, VA: Defense Technical Information Center, May 2008. http://dx.doi.org/10.21236/ada493544.
Full text