Auswahl der wissenschaftlichen Literatur zum Thema „VoxSRC“

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit den Listen der aktuellen Artikel, Bücher, Dissertationen, Berichten und anderer wissenschaftlichen Quellen zum Thema "VoxSRC" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Zeitschriftenartikel zum Thema "VoxSRC"

1

Teichrieb, Veronica, Francisco Simões, Lucas Figueiredo, João Paulo Lima, João Marcelo Teixeira, Rafael Roberto, Alana Da Gama, Thiago Chaves, Arlindo Gomes und Maria de Lourdes Euzébio. „Voxar Labs“. Comunicações em Informática 4, Nr. 2 (09.11.2020): 43–46. http://dx.doi.org/10.22478/ufpb.2595-0622.2020v4n2.54447.

Der volle Inhalt der Quelle
Annotation:
Voxar Labs is a research group focused in augmenting experiences through research, innovation and collaboration with academia and industry. It develops cutting-edge multi-disciplinary research in the large area of Spatial Computing, tackling the inner areas of Extended Reality, Computer Vision and Natural Interaction. The laboratory aims to create impact through R&D&I, technology transfer, scientific publications, patents and human-resources formation. It is one of the most productive Augmented Reality research groups in the Latin America, also being recognized with seven best papers and ten first-place competitions’ prizes over the nine years of its existence. Voxar Labs is part of the Informatics Center of the Federal University of Pernambuco, located in Recife – Pernambuco, Brazil.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Teichrieb, Veronica, und The VOXAR Labs Team. „VOXAR Labs - augmenting experiences for a better life“. Journal on Interactive Systems 2, Nr. 2 (16.11.2011): 1. http://dx.doi.org/10.5753/jis.2011.589.

Der volle Inhalt der Quelle
Annotation:
The VOXAR Labs is a research group with the mission of developing people by augmenting experiences. It develops and transfers technology related to visualization, tracking and natural interaction techniques focusing augmented reality in multi-disciplinary application domains. The laboratory has several ongoing projects including an international cooperation, projects with the industry, involving energy and military ones, as well as research and academic projects. VOXAR Labs is part of the Informatics Center of the Federal University of Pernambuco, located in Recife – Pernambuco, Brazil.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Green, Tim. „Voxer: a Digital Messaging Tool“. TechTrends 60, Nr. 3 (28.03.2016): 299–302. http://dx.doi.org/10.1007/s11528-016-0062-3.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Pitot, P. „The Voxar project (parallel ray-tracing)“. IEEE Computer Graphics and Applications 13, Nr. 1 (Januar 1993): 27–33. http://dx.doi.org/10.1109/38.180114.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Karambakhsh, Ahmad, Bin Sheng, Ping Li, Po Yang, Younhyun Jung und David Dagan Feng. „VoxRec: Hybrid Convolutional Neural Network for Active 3D Object Recognition“. IEEE Access 8 (2020): 70969–80. http://dx.doi.org/10.1109/access.2020.2987177.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Pitot, P., B. Moisan, Y. Duthen und R. Caubet. „A transputer based implementation of the VOXAR project“. Microprocessing and Microprogramming 30, Nr. 1-5 (August 1990): 347–53. http://dx.doi.org/10.1016/0165-6074(90)90265-b.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Makoś-Chełstowska, Patrycja, Edyta Słupek und Jacek Gębicki. „Deep eutectic solvent-based green absorbents for the effective removal of volatile organochlorine compounds from biogas“. Green Chemistry 23, Nr. 13 (2021): 4814–27. http://dx.doi.org/10.1039/d1gc01735g.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Yang, Weimin, Yubo Tao und Hai Lin. „Voxer—a platform for creating, customizing, and sharing scientific visualizations“. Journal of Visualization 22, Nr. 6 (03.09.2019): 1161–76. http://dx.doi.org/10.1007/s12650-019-00595-0.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

van der Heyden, Brent, Lotte E. J. R. Schyns, Mark Podesta, Ana Vaniqui, Isabel P. Almeida, Guillaume Landry und Frank Verhaegen. „VOXSI: A voxelized single- and dual-energy CT scenario generator for quantitative imaging“. Physics and Imaging in Radiation Oncology 6 (April 2018): 47–52. http://dx.doi.org/10.1016/j.phro.2018.05.004.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Carpenter, Jeffrey Paul, und Tim D. Green. „Mobile instant messaging for professional learning: Educators' perspectives on and uses of Voxer“. Teaching and Teacher Education 68 (November 2017): 53–67. http://dx.doi.org/10.1016/j.tate.2017.08.008.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Dissertationen zum Thema "VoxSRC"

1

Lukáč, Peter. „Verifikace osob podle hlasu bez extrakce příznaků“. Master's thesis, Vysoké učení technické v Brně. Fakulta informačních technologií, 2021. http://www.nusl.cz/ntk/nusl-445531.

Der volle Inhalt der Quelle
Annotation:
Verifikácia osôb je oblasť, ktorá sa stále modernizuje, zlepšuje a snaží sa vyhovieť požiadavkám, ktoré sa na ňu kladú vo oblastiach využitia ako sú autorizačné systmémy, forenzné analýzy, atď. Vylepšenia sa uskutočňujú vďaka pokrom v hlbokom učení, tvorením nových trénovacích a testovacích dátovych sad a rôznych súťaží vo verifikácií osôb a workshopov. V tejto práci preskúmame modely pre verifikáciu osôb bez extrakcie príznakov. Používanie nespracovaných zvukových stôp ako vstupy modelov zjednodušuje spracovávanie vstpu a teda znižujú sa výpočetné a pamäťové požiadavky a redukuje sa počet hyperparametrov potrebných pre tvorbu príznakov z nahrávok, ktoré ovplivňujú výsledky. Momentálne modely bez extrakcie príznakov nedosahujú výsledky modelov s extrakciou príznakov. Na základných modeloch budeme experimentovať s modernými technikamy a budeme sa snažiť zlepšiť presnosť modelov. Experimenty s modernými technikamy značne zlepšili výsledky základných modelov ale stále sme nedosiahli výsledky vylepšeného modelu s extrakciou príznakov. Zlepšenie je ale dostatočné nato aby sme vytovrili fúziu so s týmto modelom. Záverom diskutujeme dosiahnuté výsledky a navrhujeme zlepšenia na základe týchto výsledkov.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Cipres, de Cacqueray Pascale. „La génération d'objets texturés : application à la machine VOXAR“. Toulouse 3, 1990. http://www.theses.fr/1990TOU30084.

Der volle Inhalt der Quelle
Annotation:
Pour obtenir des images realistes en synthese d'images, il faut prendre en compte la texture des objets, leur representation visuelle. Les etudes comparatives des differents modeles de texture, des methodes de projection ou pavage d'un motif de texture sur les objets et des techniques de filtrage de l'image pour combattre l'aliassage ont abouti a la realisation de modeles de textures solides, plus adaptes a la geometrie tridimensionnelle des objets. Nous presentons une solution optimale dans le cas de l'animation de scenes et des applications sur les machines a parallelisme objet en integrant l'information de texture lors de l'etape de modelisation de l'objet. L'objet est alors discretise et constitue par un ensemble de particules de matiere, ou atomes dans le sens de la definition propre de la texture. Ainsi, les temps de calcul entre une image sans texture et une image dont les objets sont textures sont identiques. L'implementation realisee sur la machine multiprocesseurs voxar, orientee objet et dediee a l'algorithme de lancer de rayons valide cette methode
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Pitot, Paul. „Conception et réalisation d'une machine parallèle dédiée aux images de synthèse réalistes : la machine Voxar“. Toulouse 3, 1991. http://www.theses.fr/1991TOU30011.

Der volle Inhalt der Quelle
Annotation:
Utile à la conception d'objets, interface de haut niveau entre la machine et l'homme, l'image de synthèse nous permettra demain d'utiliser pleinement notre vue. Le réalisme d'une image dépend de la complexité du modèle d'éclairage utilisé. Le lancer de rayons, utilisé dans les modèles les plus réalistes, est encore trop couteux pour les machines actuellement disponibles. Les méthodes de subdivision spatiales permettent de réduire fortement la complexité initiale du lancer de rayons, mais elles apparaissent inadaptées aux super-calculateurs commerciaux. C'est pourquoi de nombreuses recherches ont visé à leur implantation sur des réseaux multiprocesseurs. L'ambition du projet Voxar est d'exploiter le parallélisme naturel d'une scène dont les éléments de matière échangent des sollicitations (rayons) via l'espace. La scène, découpée en voxels, est enroulée autour d'un réseau de processeurs connectés en tore de dimension 3. Cette association entre l'espace et les processeurs répartit les données en conservant les propriétés topologiques de l'espace à travers les connexions du réseau. Une maquette composée de 36 transputers a été réalisée ; des scènes complexes peuvent être chargées, animées et visualisées par lancer de rayon. Le rendement du réseau est compris entre 25 et 76 pour cents selon la scène et l'image calculée. Les meilleures performances apparaissent lorsque les scènes et les images calculées sont complexes. C'est la répartition des données, qui n'est pas toujours bonne, qui semble surtout limiter les performances du modèle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Gaildrat, Véronique. „Contribution à l'étude et à la conception d'une machine parallèle pour la production rapide d'images de synthèse la machine VOXAR : conception de l'application synthèse d'images réalistes /“. Grenoble 2 : ANRT, 1988. http://catalogue.bnf.fr/ark:/12148/cb376137398.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Gaildrat, Véronique. „Contribution a l'etude et a la conception d'une machine parallele pour la production rapide d'images de synthese : la machine voxar, conception de l'application synthese d'images realistes“. Toulouse 3, 1988. http://www.theses.fr/1988TOU30199.

Der volle Inhalt der Quelle
Annotation:
L'objectif est de reduire les temps d'obtention d'images de synthese realistes par la technique du lancer de rayon. Un logiciel de synthese d'images, applique a des objets modelises par composition de primitives geometriques, est propose. Afin d'exploiter le parallelisme d'ecran et la coherence spatiale d'une scene, une architecture parallele a ete introduite
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Buchteile zum Thema "VoxSRC"

1

Caubet, R., Y. Duthen und V. Gaildrat. „VOXAR: A Tridimensional Architecture for Fast Realistic Image Synthesis“. In New Trends in Computer Graphics, 135–49. Berlin, Heidelberg: Springer Berlin Heidelberg, 1988. http://dx.doi.org/10.1007/978-3-642-83492-9_13.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Carpenter, Jeffrey P., und Tim D. Green. „Self-directed Professional Learning and Educator Self-Efficacy: The Case of Voxer“. In Self-Efficacy in Instructional Technology Contexts, 163–81. Cham: Springer International Publishing, 2018. http://dx.doi.org/10.1007/978-3-319-99858-9_10.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Shi, Zenglin, Guodong Zeng, Le Zhang, Xiahai Zhuang, Lei Li, Guang Yang und Guoyan Zheng. „Bayesian VoxDRN: A Probabilistic Deep Voxelwise Dilated Residual Network for Whole Heart Segmentation from 3D MR Images“. In Medical Image Computing and Computer Assisted Intervention – MICCAI 2018, 569–77. Cham: Springer International Publishing, 2018. http://dx.doi.org/10.1007/978-3-030-00937-3_65.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen

Konferenzberichte zum Thema "VoxSRC"

1

Garcia-Romero, Daniel, Alan McCree, David Snyder und Gregory Sell. „Jhu-HLTCOE System for the Voxsrc Speaker Recognition Challenge“. In ICASSP 2020 - 2020 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). IEEE, 2020. http://dx.doi.org/10.1109/icassp40776.2020.9053209.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Kwon, Yoohwan, Hee-Soo Heo, Bong-Jin Lee und Joon Son Chung. „The ins and outs of speaker recognition: lessons from VoxSRC 2020“. In ICASSP 2021 - 2021 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). IEEE, 2021. http://dx.doi.org/10.1109/icassp39728.2021.9413948.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Thienpondt, Jenthe, Brecht Desplanques und Kris Demuynck. „The Idlab Voxsrc-20 Submission: Large Margin Fine-Tuning and Quality-Aware Score Calibration in DNN Based Speaker Verification“. In ICASSP 2021 - 2021 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP). IEEE, 2021. http://dx.doi.org/10.1109/icassp39728.2021.9414600.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Xie, Yusheng, Daniel Honbo, Alok Choudhary, Kunpeng Zhang, Yu Cheng und Ankit Agrawal. „VOXSUP“. In the 18th ACM SIGKDD international conference. New York, New York, USA: ACM Press, 2012. http://dx.doi.org/10.1145/2339530.2339779.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Teichrieb, Veronica, Francisco Simões, Lucas Figueiredo, João Paulo Lima, João Marcelo Teixeira, Rafael Roberto, Alana Da Gama, Thiago Chaves, Arlindo Gomes und Maria Euzébio. „Voxar Labs“. In Anais Estendidos do Simpósio de Realidade Virtual e Aumentada. Sociedade Brasileira de Computação, 2020. http://dx.doi.org/10.5753/svr_estendido.2020.12974.

Der volle Inhalt der Quelle
Annotation:
Voxar Labs is a research group focused in augmenting experiences through research, innovation and collaboration with academia and industry. It develops cutting-edge multi-disciplinary research in the large area of Spatial Computing, tackling the inner areas of Extended Reality, Computer Vision and Natural Interaction. The laboratory aims to create impact through R&D&I, technology transfer, scientific publications, patents and human-resources formation. It is one of the most productive Augmented Reality research groups in the Latin America, also being recognized with seven best papers and ten first-place competitions’ prizes over the nine years of its existence. Voxar Labs is part of the Informatics Center of the Federal University of Pernambuco, located in Recife – Pernambuco, Brazil.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Fadzli, Fazliaty Edora, und Ajune Wanis Ismail. „VoxAR: 3D Modelling Editor Using Real Hands Gesture for Augmented Reality“. In 2019 IEEE 7th Conference on Systems, Process and Control (ICSPC). IEEE, 2019. http://dx.doi.org/10.1109/icspc47137.2019.9067992.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Roberto, Rafael A., Manoela M. O. da Silva, Daniel Q. Freitas, Yvonne C. C. A. Lima, Vinicius E. M. Silva, Cristiano C. Araujo, Joao Marcelo X. N. Teixeira und Veronica Teichrieb. „Voxar puzzle motion: an innovative ar application proposed using design techniques“. In 2016 IEEE Virtual Reality Workshop on K-12 Embodied Learning through Virtual & Augmented Reality (KELVAR). IEEE, 2016. http://dx.doi.org/10.1109/kelvar.2016.7563676.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Silva, Vinicius Emanuel, Caio Lins, Andre Silva, Rafael Roberto, Cristiano Araujo und Veronica Teichrieb. „Voxar Puzzle: An Innovative Hardware/Software Computer Vision Game for Children Development“. In 2015 XVII Symposium on Virtual and Augmented Reality (SVR). IEEE, 2015. http://dx.doi.org/10.1109/svr.2015.29.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie