Gotowa bibliografia na temat „VOICE SIGNALS”
Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych
Zobacz listy aktualnych artykułów, książek, rozpraw, streszczeń i innych źródeł naukowych na temat „VOICE SIGNALS”.
Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.
Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.
Artykuły w czasopismach na temat "VOICE SIGNALS"
Ahamed, Mohamed Rasmi Ashfaq, Mohammad Hossein Babini i Hamidreza Namazi. "Complexity-based decoding of the relation between human voice and brain activity". Technology and Health Care 28, nr 6 (17.11.2020): 665–74. http://dx.doi.org/10.3233/thc-192105.
Pełny tekst źródłaMittal, Vikas, i R. K. Sharma. "Classification of Pathological Voices Using Glottal Signal Parameters". Journal of Computational and Theoretical Nanoscience 16, nr 9 (1.09.2019): 3999–4002. http://dx.doi.org/10.1166/jctn.2019.8284.
Pełny tekst źródłaSilva, Augusto Felix Tavares, Samuel R. de Abreu, Silvana Cunha Costa i Suzete Elida Nobrega Correia. "Classificação de sinais de voz através da aplicação da transformada Wavelet Packet e redes neurais artificiais". Revista Principia - Divulgação Científica e Tecnológica do IFPB 1, nr 37 (21.12.2017): 34. http://dx.doi.org/10.18265/1517-03062015v1n37p34-41.
Pełny tekst źródłaChoi, Hee-Jin, i Ji-Yeoun Lee. "Comparative Study between Healthy Young and Elderly Subjects: Higher-Order Statistical Parameters as Indices of Vocal Aging and Sex". Applied Sciences 11, nr 15 (28.07.2021): 6966. http://dx.doi.org/10.3390/app11156966.
Pełny tekst źródłaSwanborough, Huw, Matthias Staib i Sascha Frühholz. "Neurocognitive dynamics of near-threshold voice signal detection and affective voice evaluation". Science Advances 6, nr 50 (grudzień 2020): eabb3884. http://dx.doi.org/10.1126/sciadv.abb3884.
Pełny tekst źródłaLiu, Boquan, Evan Polce i Jack Jiang. "Application of Local Intrinsic Dimension for Acoustical Analysis of Voice Signal Components". Annals of Otology, Rhinology & Laryngology 127, nr 9 (17.06.2018): 588–97. http://dx.doi.org/10.1177/0003489418780439.
Pełny tekst źródłaMartin, David P., i Virginia I. Wolfe. "Effects of Perceptual Training Based upon Synthesized Voice Signals". Perceptual and Motor Skills 83, nr 3_suppl (grudzień 1996): 1291–98. http://dx.doi.org/10.2466/pms.1996.83.3f.1291.
Pełny tekst źródłaZhu, Xin-Cheng, Deng-Huang Zhao, Yi-Hua Zhang, Xiao-Jun Zhang i Zhi Tao. "Multi-Scale Recurrence Quantification Measurements for Voice Disorder Detection". Applied Sciences 12, nr 18 (14.09.2022): 9196. http://dx.doi.org/10.3390/app12189196.
Pełny tekst źródłaBartusiak, Emily R., i Edward J. Delp. "Frequency Domain-Based Detection of Generated Audio". Electronic Imaging 2021, nr 4 (18.01.2021): 273–1. http://dx.doi.org/10.2352/issn.2470-1173.2021.4.mwsf-273.
Pełny tekst źródłaLiu, Boquan, Evan Polce, Julien C. Sprott i Jack J. Jiang. "Applied Chaos Level Test for Validation of Signal Conditions Underlying Optimal Performance of Voice Classification Methods". Journal of Speech, Language, and Hearing Research 61, nr 5 (17.05.2018): 1130–39. http://dx.doi.org/10.1044/2018_jslhr-s-17-0250.
Pełny tekst źródłaRozprawy doktorskie na temat "VOICE SIGNALS"
Wu, Cheng. "A typology for voice and music signals". Thesis, University of Ottawa (Canada), 2005. http://hdl.handle.net/10393/27082.
Pełny tekst źródłaAnskaitis, Aurimas. "Analysis of Quality of Coded Voice Signals". Doctoral thesis, Lithuanian Academic Libraries Network (LABT), 2010. http://vddb.laba.lt/obj/LT-eLABa-0001:E.02~2009~D_20100303_142141-66509.
Pełny tekst źródłaDisertacijoje nagrin jama koduoto balso kokybės vertinimo problematika. Pagrindinis dėmesys skiriamas balso kokybės tyrimams, kai perduodama koduota šneka ir prarandami balso paketai. Darbo tikslas yra patobulinti koduoto balso kokybės vertinimo algoritmus. Darbo uždaviniai yra šie: • sukurti matavimo priemonę trumpų balso signalo atkarpų kokybei vertinti; • apibrėžti koduoto balso segmentų vertės sampratą ir parinkti vertės metrikas; • išmatuoti bendrinės šnekos balso segmentų verčių skirstinius; • nustatyti skirtingų koderių sukuriamų iškraipymų ribas; • ištirti paplitusių koderių inertiškumą, nustatyti kiek laiko pastebima prarastų paketų įtaka sekantiems segmentams. Disertaciją sudaro įvadas, keturi tiriamieji skyriai ir bendrosios išvados. Įvade pristatomas darbo naujumas, aktualumas, aptariamas autoriaus indėlis, formuluojami darbo tikslai. Pirmas skyrius yra apžvalginis – analizuojami balso kokybės vertinimo metodai, jų privalumai ir trūkumai. Kaip savarankiška dalis čia pristatyti autoriaus sudaryti sąrašai lietuviškų žodžių, skirtų šnekos suprantamumo tyrimams. Antrame skyriuje parodoma, kaip galima išplėsti kokybės vertinimo PESQ (angl. Perceptual Evaluation of Speech Quality) algoritmo taikymo ribas. Čia įvedama koduoto balso paketo vertės sąvoka, nustatomi statistiniai paketų vertės skirstiniai. Trečiame skyriuje nagrinėjami specifiniai koduotos šnekos iškraipymai ir kodavimo parametrų įtaka... [toliau žr. visą tekstą]
Strange, John. "VOICE AUTHENTICATIONA STUDY OF POLYNOMIAL REPRESENTATION OF SPEECH SIGNALS". Master's thesis, University of Central Florida, 2005. http://digital.library.ucf.edu/cdm/ref/collection/ETD/id/4015.
Pełny tekst źródłaM.S.
Department of Mathematics
Arts and Sciences
Mathematics
BHATT, HARSHIT. "SPEAKER IDENTIFICATION FROM VOICE SIGNALS USING HYBRID NEURAL NETWORK". Thesis, DELHI TECHNOLOGICAL UNIVERSITY, 2021. http://dspace.dtu.ac.in:8080/jspui/handle/repository/18865.
Pełny tekst źródłaChandna, Pritish. "Neural networks for singing voice extraction in monaural polyphonic music signals". Doctoral thesis, Universitat Pompeu Fabra, 2021. http://hdl.handle.net/10803/673414.
Pełny tekst źródłaAquesta tesi se centra en l’extracció de veu cantada a partir de senyals musicals polifònics. En particular, ens centrem en dos casos; música popular contemporània, que normalment té una veu cantada processada amb acompanyament instrumental, i cant coral, que consisteix en diversos cantants cantant en harmonia i a l’uníson. Durant l’última dècada, s’han proposat diversos models basats en l’aprenentatge profund per separar la veu de l’acompanyament instrumental en una mescla musical. La majoria d’aquests models assumeixen que la mescla és una suma lineal de les fonts individuals i estimen les màscares temps-freqüència per filtrar les fonts de la mescla d’entrada. Tot i que aquesta assumpció no sempre es compleix, els models basats en l’aprenentatge profund han demostrat una capacitat notable per modelar les fonts en una mescla. En aquesta tesi, proposem un mètode alternatiu per l’extracció de la veu cantada. Aquesta metodologia assumeix que el contingut lingüístic i melòdic que percebem d’un senyal de veu cantada es manté fins i tot quan es tracta d’una mescla no lineal. Per a això, explorem representacions del contingut lingüístic independents de l’idioma en un senyal de veu, així com metodologies generatives per a la síntesi de veu. Utilitzant-les, proposem una metodologia per sintetitzar un senyal de veu cantada a partir del contingut lingüístic i melòdic subjacent d’un senyal de veu processat en una mescla musical. A més, adaptem i avaluem metodologies de separació de fonts d’última generació per separar les parts de soprano, contralt, tenor i baix dels enregistraments corals. També utilitzem la metodologia proposada per a l’extracció mitjançant síntesi juntament amb altres models basats en l’aprenentatge profund per analitzar el cant a l’uníson dins dels enregistraments corals.
Esta disertación doctoral se centra en la extracción de voz cantada a partir de señales musicales polifónicas de audio. En particular, analizamos dos casos; música popular contemporánea, que normalmente contiene voz cantada procesada y acompañada de instrumentación, y canto coral, que involucra a varios coristas cantando en armonía y al unísono. Durante la última década, se han propuesto varios modelos basados en aprendizaje profundo para separar la voz cantada del acompañamiento instrumental en una mezcla musical. La mayoría de estos modelos asumen que la mezcla musical es una suma lineal de fuentes individuales y estiman máscaras de tiempo-frecuencia para extraerlas de la mezcla. Si bien esta suposición no siempre se cumple, los modelos basados en aprendizaje profundo han demostrado tener una gran capacidad para modelar las fuentes de la mezcla. En esta tesis proponemos un método alternativo para extraer voz cantada. Esta técnica asume que el contenido lingüístico y melódico que se percibe en la voz cantada se retiene incluso cuando la señal es sometida a un proceso de mezcla no lineal. Con este fin, exploramos representaciones del contenido lingüístico independientes del lenguaje en la señal de voz, así como metodos generativos para síntesis de voz. Utilizando estas técnicas, proponemos la base para una metodología de síntesis de voz cantada limpia a partir del contenido lingüístico y melódico subyacente de la señal de voz procesada en una mezcla musical. Además, adaptamos y evaluamos metodologías de separación de fuentes de última generación para separar las voces soprano, alto, tenor y bajo de grabaciones corales. También utilizamos la metodología propuesta para extracción mediante síntesis junto con otros modelos basados en aprendizaje profundo para analizar canto al unísono dentro de grabaciones corales.
Johansson, Dennis. "Real-time analysis, in SuperCollider, of spectral features of electroglottographic signals". Thesis, KTH, Skolan för datavetenskap och kommunikation (CSC), 2016. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-188498.
Pełny tekst źródłaDenna rapport presenterar verktyg och komponenter som är nödvändiga för att vidareutveckla en implementation av en metod. Metoden försöker att använda en icke invasiv elektroglottografisk signal för att hitta snabba övergångar mellan röstregister. Det presenteras implementationer för sampelentropi och den diskreta fourier transformen för programspråket SuperCollider samt verktyg som behövs för att utvärdera metoden och presentera resultaten i realtid. Då olika algoritmer har använts för både klustring och cykelseparation så har även en jämförelse mellan algoritmer för dessa steg gjorts.
Mészáros, Tomáš. "Speech Analysis for Processing of Musical Signals". Master's thesis, Vysoké učení technické v Brně. Fakulta informačních technologií, 2015. http://www.nusl.cz/ntk/nusl-234974.
Pełny tekst źródłaBorowiak, Kamila. "Brain Mechanisms for the Perception of Visual and Auditory Communication Signals – Insights from Autism Spectrum Disorder". Doctoral thesis, Humboldt-Universität zu Berlin, 2020. http://dx.doi.org/10.18452/21634.
Pełny tekst źródłaCommunication is ubiquitous in our everyday life. Yet, individuals with autism spectrum disorder (ASD) have difficulties in social interactions and to recognize socially relevant signals from the face and the voice. Such impairments can vastly affect the quality of life - a profound understanding of the mechanisms behind these difficulties is thus strongly required. In the current dissertation, I focused on sensory brain mechanisms that underlie the perception of emotionally neutral communication signals that so far have gained little attention in ASD research. I studied the malleability of voice-identity processing using intranasal administration of oxytocin, and thus the potential to alleviate voice-identity recognition impairments in ASD. Furthermore, I investigated brain mechanisms that underlie recognition difficulties for visual speech in ASD, as until now evidence on visual-speech recognition in ASD was limited to behavioral findings. I applied methods of functional magnetic resonance imaging, eye tracking, and behavioral testing. The contribution of the present dissertation is twofold. First, the findings corroborate the view that atypical sensory perception is a critical cornerstone for understanding of social difficulties in ASD. Dysfunction of visual and auditory sensory brain regions might contribute to difficulties in processing aspects of communication signals in ASD and modulate the efficacy of interventions for improving the behavioral deficits. Second, the findings deliver empirical support for a recent theoretical model of how the typically developing brain perceives dynamic faces. This improved our current knowledge about brain processing of visual communication signals in the typically developing population. Advanced scientific knowledge about human communication, as provided in the current dissertation, propels further empirical research and development of clinical interventions that aim to promote communication abilities in affected individuals.
Mokhtari, Mehdi. "The puzzle of non verbal communication: Towards a new aspect of leadership". Thesis, Linnéuniversitetet, Institutionen för organisation och entreprenörskap (OE), 2013. http://urn.kb.se/resolve?urn=urn:nbn:se:lnu:diva-26248.
Pełny tekst źródłaDzhambazov, Georgi. "Knowledge-based probabilistic modeling for tracking lyrics in music audio signals". Doctoral thesis, Universitat Pompeu Fabra, 2017. http://hdl.handle.net/10803/404681.
Pełny tekst źródłaLa tesi aquí presentada proposa metodologies d’aprenentatge automàtic i processament de senyal per alinear automàticament el text d’una cançó amb el seu corresponent enregistrament d’àudio. La recerca duta a terme s’engloba en l’ampli camp de l’extracció d’informació musical (Music Information Retrieval o MIR). Dins aquest context la tesi pretén millorar algunes de les metodologies d’última generació del camp introduint coneixement específic de l’àmbit. L’objectiu d’aquest treball és dissenyar models que siguin capaços de detectar en la senyal d’àudio l’aspecte seqüencial d’un element particular dels textos musicals; els fonemes. Podem entendre la música com la composició de diversos elements entre els quals podem trobar el text. Els models que construïm tenen en compte el context complementari del text. El context són tots aquells aspectes musicals que complementen el text, dels quals hem utilitzat en aquest tesi: la estructura de la composició musical, la estructura de les frases melòdiques i els accents rítmics. Des d’aquesta prespectiva analitzem no només les característiques acústiques de baix nivell, que representen el timbre musical dels fonemes, sinó també les característiques d’alt nivell en les quals es fa patent el context complementari. En aquest treball proposem models probabilístics específics que representen com les transicions entre fonemes consecutius de veu cantanda es veuen afectats per diversos aspectes del context complementari. El context complementari que tractem aquí es desenvolupa en el temps en funció de les característiques particulars de cada tradició musical. Per tal de modelar aquestes característiques hem creat corpus i conjunts de dades de dues tradicions musicals que presenten una gran riquesa en aquest aspectes; la música de l’opera de Beijing i la música makam turc-otomana. Les dades són de diversos tipus; enregistraments d’àudio, partitures musicals i metadades. Des d’aquesta prespectiva els models proposats poden aprofitar-se tant de les dades en si mateixes com del coneixement específic de la tradició musical per a millorar els resultats de referència actuals. Com a resultat de referència prenem un reconeixedor de fonemes basat en models ocults de Markov (Hidden Markov Models o HMM), una metodologia abastament emprada per a detectar fonemes tant en la veu cantada com en la parlada. Presentem millores en els processos comuns dels reconeixedors de fonemes actuals, ajustant-los a les característiques de les tradicions musicals estudiades. A més de millorar els resultats de referència també dissenyem models probabilistics basats en xarxes dinàmiques de Bayes (Dynamic Bayesian Networks o DBN) que respresenten la relació entre la transició dels fonemes i el context complementari. Hem creat dos models diferents per dos aspectes del context complementari; la estructura de la frase melòdica (alt nivell) i la estructura mètrica (nivell subtil). En un dels models explotem el fet que la duració de les síl·labes depén de la seva posició en la frase melòdica. Obtenim aquesta informació sobre les frases musical de la partitura i del coneixement específic de la tradició musical. En l’altre model analitzem com els atacs de les notes vocals, estimats directament dels enregistraments d’àudio, influencien les transicions entre vocals i consonants consecutives. A més també proposem com detectar les posicions temporals dels atacs de les notes en les frases melòdiques a base de localitzar simultàniament els accents en un cicle mètric musical. Per tal d’evaluar el potencial dels mètodes proposats utlitzem la tasca específica d’alineament de text amb àudio. Cada model proposat millora la precisió de l’alineament en comparació als resultats de referència, que es basen exclusivament en les característiques acústiques tímbriques dels fonemes. D’aquesta manera validem la nostra hipòtesi de que el coneixement del context complementari ajuda a la detecció automàtica de text musical, especialment en el cas de veu cantada amb acompanyament instrumental. Els resultats d’aquest treball no consisteixen només en metodologies teòriques i dades, sinó també en eines programàtiques específiques que han sigut integrades a Dunya, un paquet d’eines creat en el context del projecte de recerca CompMusic, l’objectiu del qual és promoure l’anàlisi computacional de les músiques del món. Gràcies a aquestes eines demostrem també que les metodologies desenvolupades es poden fer servir per a altres aplicacions en el context de la educació musical o la escolta musical enriquida.
Książki na temat "VOICE SIGNALS"
Manfredi, Claudia, red. Models and analysis of vocal emissions for biomedical applications: 5th International Workshop: December 13-15, 2007, Firenze, Italy. Florence: Firenze University Press, 2007. http://dx.doi.org/10.36253/978-88-5518-027-6.
Pełny tekst źródłaVoIP voice and fax signal processing. Hoboken, NJ: Wiley, 2008.
Znajdź pełny tekst źródłaManfredi, Claudia, red. Models and Analysis of Vocal Emissions for Biomedical Applications. Florence: Firenze University Press, 2013. http://dx.doi.org/10.36253/978-88-6655-470-7.
Pełny tekst źródłaManfredi, Claudia, red. Models and Analysis of Vocal Emissions for Biomedical Applications. Florence: Firenze University Press, 2009. http://dx.doi.org/10.36253/978-88-6453-096-3.
Pełny tekst źródłaManfredi, Claudia, red. Models and Analysis of Vocal Emissions for Biomedical Applications. Florence: Firenze University Press, 2011. http://dx.doi.org/10.36253/978-88-6655-011-2.
Pełny tekst źródłaJuang, Jer-Nan. Signal prediction with input identification. Hampton, Va: National Aeronautics and Space Administration, Langley Research Center, 1999.
Znajdź pełny tekst źródłaMartin, Ann. VOICE - a spectrogram computer display package. Woods Hole, Mass: Woods Hole Oceanographic Institution, 1990.
Znajdź pełny tekst źródła1954-, Lawlor Leonard, red. Voice and phenomenon: Introduction to the problem of the sign in Husserl's phenomenology. Evanston, Ill: Northwestern University Press, 2011.
Znajdź pełny tekst źródłaSacks, Oliver W. Seeing voices: A journey into the world of the deaf. Berkeley: University of California Press, 1989.
Znajdź pełny tekst źródłaSacks, Oliver W. Seeing voices: A journey into the world of the deaf. New York: Vintage Books, 2000.
Znajdź pełny tekst źródłaCzęści książek na temat "VOICE SIGNALS"
Bäckström, Tom. "Voice Activity Detection". W Signals and Communication Technology, 185–203. Cham: Springer International Publishing, 2017. http://dx.doi.org/10.1007/978-3-319-50204-5_13.
Pełny tekst źródłaHerzel, Hanspeter, Joachim Holzfuss, Zbigniew J. Kowalik, Bernd Pompe i Robert Reuter. "Detecting Bifurcations in Voice Signals". W Nonlinear Analysis of Physiological Data, 325–44. Berlin, Heidelberg: Springer Berlin Heidelberg, 1998. http://dx.doi.org/10.1007/978-3-642-71949-3_19.
Pełny tekst źródłaSondhi, M. Mohan. "Adaptive Echo Cancelation for Voice Signals". W Springer Handbook of Speech Processing, 903–28. Berlin, Heidelberg: Springer Berlin Heidelberg, 2008. http://dx.doi.org/10.1007/978-3-540-49127-9_45.
Pełny tekst źródłaKanas, V. G., I. Mporas, H. L. Benz, N. Huang, N. V. Thakor, K. Sgarbas, A. Bezerianos i N. E. Crone. "Voice Activity Detection from Electrocorticographic Signals". W IFMBE Proceedings, 1643–46. Cham: Springer International Publishing, 2014. http://dx.doi.org/10.1007/978-3-319-00846-2_405.
Pełny tekst źródłaChaloupka, Josef, Jan Nouza, Jindrich Zdansky, Petr Cerva, Jan Silovsky i Martin Kroul. "Voice Technology Applied for Building a Prototype Smart Room". W Multimodal Signals: Cognitive and Algorithmic Issues, 104–11. Berlin, Heidelberg: Springer Berlin Heidelberg, 2009. http://dx.doi.org/10.1007/978-3-642-00525-1_10.
Pełny tekst źródłaIcaza, Daniel, Juan-Carlos Cobos-Torres, Geovanny Genaro Reivan-Ortiz i Federico Córdova Gonzalez. "Processing of Voice Signals in Telecommunications Systems Using MATLAB". W Artificial Intelligence, Computer and Software Engineering Advances, 177–90. Cham: Springer International Publishing, 2021. http://dx.doi.org/10.1007/978-3-030-68080-0_13.
Pełny tekst źródłaMourad, Talbi. "Arabic Speech Recognition by Stationary Bionic Wavelet Transform and MFCC Using a Multi-layer Perceptron for Voice Control". W Signals and Communication Technology, 69–81. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-030-93405-7_4.
Pełny tekst źródłaTorres, D., i C. A. Ferrery. "Correcting HNR Estimation in Voice Signals Based on Periodicity Detection". W V Latin American Congress on Biomedical Engineering CLAIB 2011 May 16-21, 2011, Habana, Cuba, 1190–93. Berlin, Heidelberg: Springer Berlin Heidelberg, 2013. http://dx.doi.org/10.1007/978-3-642-21198-0_302.
Pełny tekst źródłaKang, Sangki, i Yongserk Kim. "A Dissonant Frequency Filtering for Enhanced Clarity of Husky Voice Signals". W Text, Speech and Dialogue, 517–22. Berlin, Heidelberg: Springer Berlin Heidelberg, 2006. http://dx.doi.org/10.1007/11846406_65.
Pełny tekst źródłaVárallyay, György. "SSM – A Novel Method to Recognize the Fundamental Frequency in Voice Signals". W Lecture Notes in Computer Science, 88–95. Berlin, Heidelberg: Springer Berlin Heidelberg, 2007. http://dx.doi.org/10.1007/978-3-540-76725-1_10.
Pełny tekst źródłaStreszczenia konferencji na temat "VOICE SIGNALS"
Herzel, Hanspeter, i Robert Reuter. "Biphonation in voice signals". W Chaotic, fractal, and nonlinear signal processing. AIP, 1996. http://dx.doi.org/10.1063/1.51002.
Pełny tekst źródłaBerdibaeva, Gulmira K., Oleg N. Bodin, Valery V. Kozlov, Dmitry I. Nefed'ev, Kasymbek A. Ozhikenov i Yaroslav A. Pizhonkov. "Pre-processing voice signals for voice recognition systems". W 2017 18th International Conference of Young Specialists on Micro/Nanotechnologies and Electron Devices (EDM). IEEE, 2017. http://dx.doi.org/10.1109/edm.2017.7981748.
Pełny tekst źródłaKolchenko, Liliia V., i Rustem B. Sinitsyn. "Nonparametric filter for voice signals". W Photonics Applications in Astronomy, Communications, Industry, and High-Energy Physics Experiments 2011, redaktor Ryszard S. Romaniuk. SPIE, 2011. http://dx.doi.org/10.1117/12.905174.
Pełny tekst źródła"VOICE SIGNALS CHARACTERIZATION THROUGH ENTROPY MEASURES". W International Conference on Bio-inspired Systems and Signal Processing. SciTePress - Science and and Technology Publications, 2008. http://dx.doi.org/10.5220/0001065401630170.
Pełny tekst źródłaRosinova, Marianna, Martin Lojka, Jan Stas i Jozef Juhar. "Voice command recognition using EEG signals". W 2017 International Symposium ELMAR. IEEE, 2017. http://dx.doi.org/10.23919/elmar.2017.8124457.
Pełny tekst źródłaSetubal, Phabio J., Sidnei N. Filho i Rui Seara. "Segmentation of singing voice within music signals". W Optics East, redaktorzy John R. Smith, Tong Zhang i Sethuraman Panchanathan. SPIE, 2004. http://dx.doi.org/10.1117/12.571280.
Pełny tekst źródłaMartin, Jose Francisco, Raquel Fernandez-Ramos, Jorge Romero-Sanchez i Francisco Rios. "Signals voice biofeedback for speech fluency disorders". W Microtechnologies for the New Millennium 2003, redaktorzy Angel Rodriguez-Vazquez, Derek Abbott i Ricardo Carmona. SPIE, 2003. http://dx.doi.org/10.1117/12.499047.
Pełny tekst źródłaSalma, Chekili, Belhaj Asma i Bouzid Aicha. "Organic voice pathology classification". W 2017 14th International Multi-Conference on Systems, Signals & Devices (SSD). IEEE, 2017. http://dx.doi.org/10.1109/ssd.2017.8166981.
Pełny tekst źródłaJaramillo, Juan Sebastian Hurtado, Diego Guarin i Alvaro Angel Orozco. "Pseudo-periodic surrogate data method on voice signals". W 2012 11th International Conference on Information Sciences, Signal Processing and their Applications (ISSPA). IEEE, 2012. http://dx.doi.org/10.1109/isspa.2012.6310604.
Pełny tekst źródłaZouhir, Youssef, i Kais Ouni. "Parameterization of speech signals for robust voice recognition". W 2014 International Conference on Electrical Sciences and Technologies in Maghreb (CISTEM). IEEE, 2014. http://dx.doi.org/10.1109/cistem.2014.7076915.
Pełny tekst źródłaRaporty organizacyjne na temat "VOICE SIGNALS"
Herrnstein, A. Start/End Delays of Voiced and Unvoiced Speech Signals. Office of Scientific and Technical Information (OSTI), wrzesień 1999. http://dx.doi.org/10.2172/15006006.
Pełny tekst źródłaARMY SIGNAL CENTER AND FORT GORDON GA. Army Communicator. Voice of the Signal Regiment. Volume 33, Number 2, Spring 2008. Fort Belvoir, VA: Defense Technical Information Center, styczeń 2008. http://dx.doi.org/10.21236/ada494974.
Pełny tekst źródłaHrynick, Tabitha, i Megan Schmidt-Sane. Note d’Orientation sur l’Engagement Communautaire Concernant la Riposte Contre la Flambée Epidémique de Choléra dans la Région Afrique de l’Est et Australe. Institute of Development Studies, maj 2023. http://dx.doi.org/10.19088/sshap.2023.008.
Pełny tekst źródła