Добірка наукової літератури з теми "VOICE SIGNALS"
Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями
Ознайомтеся зі списками актуальних статей, книг, дисертацій, тез та інших наукових джерел на тему "VOICE SIGNALS".
Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.
Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.
Статті в журналах з теми "VOICE SIGNALS"
Ahamed, Mohamed Rasmi Ashfaq, Mohammad Hossein Babini, and Hamidreza Namazi. "Complexity-based decoding of the relation between human voice and brain activity." Technology and Health Care 28, no. 6 (November 17, 2020): 665–74. http://dx.doi.org/10.3233/thc-192105.
Повний текст джерелаMittal, Vikas, and R. K. Sharma. "Classification of Pathological Voices Using Glottal Signal Parameters." Journal of Computational and Theoretical Nanoscience 16, no. 9 (September 1, 2019): 3999–4002. http://dx.doi.org/10.1166/jctn.2019.8284.
Повний текст джерелаSilva, Augusto Felix Tavares, Samuel R. de Abreu, Silvana Cunha Costa, and Suzete Elida Nobrega Correia. "Classificação de sinais de voz através da aplicação da transformada Wavelet Packet e redes neurais artificiais." Revista Principia - Divulgação Científica e Tecnológica do IFPB 1, no. 37 (December 21, 2017): 34. http://dx.doi.org/10.18265/1517-03062015v1n37p34-41.
Повний текст джерелаChoi, Hee-Jin, and Ji-Yeoun Lee. "Comparative Study between Healthy Young and Elderly Subjects: Higher-Order Statistical Parameters as Indices of Vocal Aging and Sex." Applied Sciences 11, no. 15 (July 28, 2021): 6966. http://dx.doi.org/10.3390/app11156966.
Повний текст джерелаSwanborough, Huw, Matthias Staib, and Sascha Frühholz. "Neurocognitive dynamics of near-threshold voice signal detection and affective voice evaluation." Science Advances 6, no. 50 (December 2020): eabb3884. http://dx.doi.org/10.1126/sciadv.abb3884.
Повний текст джерелаLiu, Boquan, Evan Polce, and Jack Jiang. "Application of Local Intrinsic Dimension for Acoustical Analysis of Voice Signal Components." Annals of Otology, Rhinology & Laryngology 127, no. 9 (June 17, 2018): 588–97. http://dx.doi.org/10.1177/0003489418780439.
Повний текст джерелаMartin, David P., and Virginia I. Wolfe. "Effects of Perceptual Training Based upon Synthesized Voice Signals." Perceptual and Motor Skills 83, no. 3_suppl (December 1996): 1291–98. http://dx.doi.org/10.2466/pms.1996.83.3f.1291.
Повний текст джерелаZhu, Xin-Cheng, Deng-Huang Zhao, Yi-Hua Zhang, Xiao-Jun Zhang, and Zhi Tao. "Multi-Scale Recurrence Quantification Measurements for Voice Disorder Detection." Applied Sciences 12, no. 18 (September 14, 2022): 9196. http://dx.doi.org/10.3390/app12189196.
Повний текст джерелаBartusiak, Emily R., and Edward J. Delp. "Frequency Domain-Based Detection of Generated Audio." Electronic Imaging 2021, no. 4 (January 18, 2021): 273–1. http://dx.doi.org/10.2352/issn.2470-1173.2021.4.mwsf-273.
Повний текст джерелаLiu, Boquan, Evan Polce, Julien C. Sprott, and Jack J. Jiang. "Applied Chaos Level Test for Validation of Signal Conditions Underlying Optimal Performance of Voice Classification Methods." Journal of Speech, Language, and Hearing Research 61, no. 5 (May 17, 2018): 1130–39. http://dx.doi.org/10.1044/2018_jslhr-s-17-0250.
Повний текст джерелаДисертації з теми "VOICE SIGNALS"
Wu, Cheng. "A typology for voice and music signals." Thesis, University of Ottawa (Canada), 2005. http://hdl.handle.net/10393/27082.
Повний текст джерелаAnskaitis, Aurimas. "Analysis of Quality of Coded Voice Signals." Doctoral thesis, Lithuanian Academic Libraries Network (LABT), 2010. http://vddb.laba.lt/obj/LT-eLABa-0001:E.02~2009~D_20100303_142141-66509.
Повний текст джерелаDisertacijoje nagrin jama koduoto balso kokybės vertinimo problematika. Pagrindinis dėmesys skiriamas balso kokybės tyrimams, kai perduodama koduota šneka ir prarandami balso paketai. Darbo tikslas yra patobulinti koduoto balso kokybės vertinimo algoritmus. Darbo uždaviniai yra šie: • sukurti matavimo priemonę trumpų balso signalo atkarpų kokybei vertinti; • apibrėžti koduoto balso segmentų vertės sampratą ir parinkti vertės metrikas; • išmatuoti bendrinės šnekos balso segmentų verčių skirstinius; • nustatyti skirtingų koderių sukuriamų iškraipymų ribas; • ištirti paplitusių koderių inertiškumą, nustatyti kiek laiko pastebima prarastų paketų įtaka sekantiems segmentams. Disertaciją sudaro įvadas, keturi tiriamieji skyriai ir bendrosios išvados. Įvade pristatomas darbo naujumas, aktualumas, aptariamas autoriaus indėlis, formuluojami darbo tikslai. Pirmas skyrius yra apžvalginis – analizuojami balso kokybės vertinimo metodai, jų privalumai ir trūkumai. Kaip savarankiška dalis čia pristatyti autoriaus sudaryti sąrašai lietuviškų žodžių, skirtų šnekos suprantamumo tyrimams. Antrame skyriuje parodoma, kaip galima išplėsti kokybės vertinimo PESQ (angl. Perceptual Evaluation of Speech Quality) algoritmo taikymo ribas. Čia įvedama koduoto balso paketo vertės sąvoka, nustatomi statistiniai paketų vertės skirstiniai. Trečiame skyriuje nagrinėjami specifiniai koduotos šnekos iškraipymai ir kodavimo parametrų įtaka... [toliau žr. visą tekstą]
Strange, John. "VOICE AUTHENTICATIONA STUDY OF POLYNOMIAL REPRESENTATION OF SPEECH SIGNALS." Master's thesis, University of Central Florida, 2005. http://digital.library.ucf.edu/cdm/ref/collection/ETD/id/4015.
Повний текст джерелаM.S.
Department of Mathematics
Arts and Sciences
Mathematics
BHATT, HARSHIT. "SPEAKER IDENTIFICATION FROM VOICE SIGNALS USING HYBRID NEURAL NETWORK." Thesis, DELHI TECHNOLOGICAL UNIVERSITY, 2021. http://dspace.dtu.ac.in:8080/jspui/handle/repository/18865.
Повний текст джерелаChandna, Pritish. "Neural networks for singing voice extraction in monaural polyphonic music signals." Doctoral thesis, Universitat Pompeu Fabra, 2021. http://hdl.handle.net/10803/673414.
Повний текст джерелаAquesta tesi se centra en l’extracció de veu cantada a partir de senyals musicals polifònics. En particular, ens centrem en dos casos; música popular contemporània, que normalment té una veu cantada processada amb acompanyament instrumental, i cant coral, que consisteix en diversos cantants cantant en harmonia i a l’uníson. Durant l’última dècada, s’han proposat diversos models basats en l’aprenentatge profund per separar la veu de l’acompanyament instrumental en una mescla musical. La majoria d’aquests models assumeixen que la mescla és una suma lineal de les fonts individuals i estimen les màscares temps-freqüència per filtrar les fonts de la mescla d’entrada. Tot i que aquesta assumpció no sempre es compleix, els models basats en l’aprenentatge profund han demostrat una capacitat notable per modelar les fonts en una mescla. En aquesta tesi, proposem un mètode alternatiu per l’extracció de la veu cantada. Aquesta metodologia assumeix que el contingut lingüístic i melòdic que percebem d’un senyal de veu cantada es manté fins i tot quan es tracta d’una mescla no lineal. Per a això, explorem representacions del contingut lingüístic independents de l’idioma en un senyal de veu, així com metodologies generatives per a la síntesi de veu. Utilitzant-les, proposem una metodologia per sintetitzar un senyal de veu cantada a partir del contingut lingüístic i melòdic subjacent d’un senyal de veu processat en una mescla musical. A més, adaptem i avaluem metodologies de separació de fonts d’última generació per separar les parts de soprano, contralt, tenor i baix dels enregistraments corals. També utilitzem la metodologia proposada per a l’extracció mitjançant síntesi juntament amb altres models basats en l’aprenentatge profund per analitzar el cant a l’uníson dins dels enregistraments corals.
Esta disertación doctoral se centra en la extracción de voz cantada a partir de señales musicales polifónicas de audio. En particular, analizamos dos casos; música popular contemporánea, que normalmente contiene voz cantada procesada y acompañada de instrumentación, y canto coral, que involucra a varios coristas cantando en armonía y al unísono. Durante la última década, se han propuesto varios modelos basados en aprendizaje profundo para separar la voz cantada del acompañamiento instrumental en una mezcla musical. La mayoría de estos modelos asumen que la mezcla musical es una suma lineal de fuentes individuales y estiman máscaras de tiempo-frecuencia para extraerlas de la mezcla. Si bien esta suposición no siempre se cumple, los modelos basados en aprendizaje profundo han demostrado tener una gran capacidad para modelar las fuentes de la mezcla. En esta tesis proponemos un método alternativo para extraer voz cantada. Esta técnica asume que el contenido lingüístico y melódico que se percibe en la voz cantada se retiene incluso cuando la señal es sometida a un proceso de mezcla no lineal. Con este fin, exploramos representaciones del contenido lingüístico independientes del lenguaje en la señal de voz, así como metodos generativos para síntesis de voz. Utilizando estas técnicas, proponemos la base para una metodología de síntesis de voz cantada limpia a partir del contenido lingüístico y melódico subyacente de la señal de voz procesada en una mezcla musical. Además, adaptamos y evaluamos metodologías de separación de fuentes de última generación para separar las voces soprano, alto, tenor y bajo de grabaciones corales. También utilizamos la metodología propuesta para extracción mediante síntesis junto con otros modelos basados en aprendizaje profundo para analizar canto al unísono dentro de grabaciones corales.
Johansson, Dennis. "Real-time analysis, in SuperCollider, of spectral features of electroglottographic signals." Thesis, KTH, Skolan för datavetenskap och kommunikation (CSC), 2016. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-188498.
Повний текст джерелаDenna rapport presenterar verktyg och komponenter som är nödvändiga för att vidareutveckla en implementation av en metod. Metoden försöker att använda en icke invasiv elektroglottografisk signal för att hitta snabba övergångar mellan röstregister. Det presenteras implementationer för sampelentropi och den diskreta fourier transformen för programspråket SuperCollider samt verktyg som behövs för att utvärdera metoden och presentera resultaten i realtid. Då olika algoritmer har använts för både klustring och cykelseparation så har även en jämförelse mellan algoritmer för dessa steg gjorts.
Mészáros, Tomáš. "Speech Analysis for Processing of Musical Signals." Master's thesis, Vysoké učení technické v Brně. Fakulta informačních technologií, 2015. http://www.nusl.cz/ntk/nusl-234974.
Повний текст джерелаBorowiak, Kamila. "Brain Mechanisms for the Perception of Visual and Auditory Communication Signals – Insights from Autism Spectrum Disorder." Doctoral thesis, Humboldt-Universität zu Berlin, 2020. http://dx.doi.org/10.18452/21634.
Повний текст джерелаCommunication is ubiquitous in our everyday life. Yet, individuals with autism spectrum disorder (ASD) have difficulties in social interactions and to recognize socially relevant signals from the face and the voice. Such impairments can vastly affect the quality of life - a profound understanding of the mechanisms behind these difficulties is thus strongly required. In the current dissertation, I focused on sensory brain mechanisms that underlie the perception of emotionally neutral communication signals that so far have gained little attention in ASD research. I studied the malleability of voice-identity processing using intranasal administration of oxytocin, and thus the potential to alleviate voice-identity recognition impairments in ASD. Furthermore, I investigated brain mechanisms that underlie recognition difficulties for visual speech in ASD, as until now evidence on visual-speech recognition in ASD was limited to behavioral findings. I applied methods of functional magnetic resonance imaging, eye tracking, and behavioral testing. The contribution of the present dissertation is twofold. First, the findings corroborate the view that atypical sensory perception is a critical cornerstone for understanding of social difficulties in ASD. Dysfunction of visual and auditory sensory brain regions might contribute to difficulties in processing aspects of communication signals in ASD and modulate the efficacy of interventions for improving the behavioral deficits. Second, the findings deliver empirical support for a recent theoretical model of how the typically developing brain perceives dynamic faces. This improved our current knowledge about brain processing of visual communication signals in the typically developing population. Advanced scientific knowledge about human communication, as provided in the current dissertation, propels further empirical research and development of clinical interventions that aim to promote communication abilities in affected individuals.
Mokhtari, Mehdi. "The puzzle of non verbal communication: Towards a new aspect of leadership." Thesis, Linnéuniversitetet, Institutionen för organisation och entreprenörskap (OE), 2013. http://urn.kb.se/resolve?urn=urn:nbn:se:lnu:diva-26248.
Повний текст джерелаDzhambazov, Georgi. "Knowledge-based probabilistic modeling for tracking lyrics in music audio signals." Doctoral thesis, Universitat Pompeu Fabra, 2017. http://hdl.handle.net/10803/404681.
Повний текст джерелаLa tesi aquí presentada proposa metodologies d’aprenentatge automàtic i processament de senyal per alinear automàticament el text d’una cançó amb el seu corresponent enregistrament d’àudio. La recerca duta a terme s’engloba en l’ampli camp de l’extracció d’informació musical (Music Information Retrieval o MIR). Dins aquest context la tesi pretén millorar algunes de les metodologies d’última generació del camp introduint coneixement específic de l’àmbit. L’objectiu d’aquest treball és dissenyar models que siguin capaços de detectar en la senyal d’àudio l’aspecte seqüencial d’un element particular dels textos musicals; els fonemes. Podem entendre la música com la composició de diversos elements entre els quals podem trobar el text. Els models que construïm tenen en compte el context complementari del text. El context són tots aquells aspectes musicals que complementen el text, dels quals hem utilitzat en aquest tesi: la estructura de la composició musical, la estructura de les frases melòdiques i els accents rítmics. Des d’aquesta prespectiva analitzem no només les característiques acústiques de baix nivell, que representen el timbre musical dels fonemes, sinó també les característiques d’alt nivell en les quals es fa patent el context complementari. En aquest treball proposem models probabilístics específics que representen com les transicions entre fonemes consecutius de veu cantanda es veuen afectats per diversos aspectes del context complementari. El context complementari que tractem aquí es desenvolupa en el temps en funció de les característiques particulars de cada tradició musical. Per tal de modelar aquestes característiques hem creat corpus i conjunts de dades de dues tradicions musicals que presenten una gran riquesa en aquest aspectes; la música de l’opera de Beijing i la música makam turc-otomana. Les dades són de diversos tipus; enregistraments d’àudio, partitures musicals i metadades. Des d’aquesta prespectiva els models proposats poden aprofitar-se tant de les dades en si mateixes com del coneixement específic de la tradició musical per a millorar els resultats de referència actuals. Com a resultat de referència prenem un reconeixedor de fonemes basat en models ocults de Markov (Hidden Markov Models o HMM), una metodologia abastament emprada per a detectar fonemes tant en la veu cantada com en la parlada. Presentem millores en els processos comuns dels reconeixedors de fonemes actuals, ajustant-los a les característiques de les tradicions musicals estudiades. A més de millorar els resultats de referència també dissenyem models probabilistics basats en xarxes dinàmiques de Bayes (Dynamic Bayesian Networks o DBN) que respresenten la relació entre la transició dels fonemes i el context complementari. Hem creat dos models diferents per dos aspectes del context complementari; la estructura de la frase melòdica (alt nivell) i la estructura mètrica (nivell subtil). En un dels models explotem el fet que la duració de les síl·labes depén de la seva posició en la frase melòdica. Obtenim aquesta informació sobre les frases musical de la partitura i del coneixement específic de la tradició musical. En l’altre model analitzem com els atacs de les notes vocals, estimats directament dels enregistraments d’àudio, influencien les transicions entre vocals i consonants consecutives. A més també proposem com detectar les posicions temporals dels atacs de les notes en les frases melòdiques a base de localitzar simultàniament els accents en un cicle mètric musical. Per tal d’evaluar el potencial dels mètodes proposats utlitzem la tasca específica d’alineament de text amb àudio. Cada model proposat millora la precisió de l’alineament en comparació als resultats de referència, que es basen exclusivament en les característiques acústiques tímbriques dels fonemes. D’aquesta manera validem la nostra hipòtesi de que el coneixement del context complementari ajuda a la detecció automàtica de text musical, especialment en el cas de veu cantada amb acompanyament instrumental. Els resultats d’aquest treball no consisteixen només en metodologies teòriques i dades, sinó també en eines programàtiques específiques que han sigut integrades a Dunya, un paquet d’eines creat en el context del projecte de recerca CompMusic, l’objectiu del qual és promoure l’anàlisi computacional de les músiques del món. Gràcies a aquestes eines demostrem també que les metodologies desenvolupades es poden fer servir per a altres aplicacions en el context de la educació musical o la escolta musical enriquida.
Книги з теми "VOICE SIGNALS"
Manfredi, Claudia, ed. Models and analysis of vocal emissions for biomedical applications: 5th International Workshop: December 13-15, 2007, Firenze, Italy. Florence: Firenze University Press, 2007. http://dx.doi.org/10.36253/978-88-5518-027-6.
Повний текст джерелаVoIP voice and fax signal processing. Hoboken, NJ: Wiley, 2008.
Знайти повний текст джерелаManfredi, Claudia, ed. Models and Analysis of Vocal Emissions for Biomedical Applications. Florence: Firenze University Press, 2013. http://dx.doi.org/10.36253/978-88-6655-470-7.
Повний текст джерелаManfredi, Claudia, ed. Models and Analysis of Vocal Emissions for Biomedical Applications. Florence: Firenze University Press, 2009. http://dx.doi.org/10.36253/978-88-6453-096-3.
Повний текст джерелаManfredi, Claudia, ed. Models and Analysis of Vocal Emissions for Biomedical Applications. Florence: Firenze University Press, 2011. http://dx.doi.org/10.36253/978-88-6655-011-2.
Повний текст джерелаJuang, Jer-Nan. Signal prediction with input identification. Hampton, Va: National Aeronautics and Space Administration, Langley Research Center, 1999.
Знайти повний текст джерелаMartin, Ann. VOICE - a spectrogram computer display package. Woods Hole, Mass: Woods Hole Oceanographic Institution, 1990.
Знайти повний текст джерела1954-, Lawlor Leonard, ed. Voice and phenomenon: Introduction to the problem of the sign in Husserl's phenomenology. Evanston, Ill: Northwestern University Press, 2011.
Знайти повний текст джерелаSacks, Oliver W. Seeing voices: A journey into the world of the deaf. Berkeley: University of California Press, 1989.
Знайти повний текст джерелаSacks, Oliver W. Seeing voices: A journey into the world of the deaf. New York: Vintage Books, 2000.
Знайти повний текст джерелаЧастини книг з теми "VOICE SIGNALS"
Bäckström, Tom. "Voice Activity Detection." In Signals and Communication Technology, 185–203. Cham: Springer International Publishing, 2017. http://dx.doi.org/10.1007/978-3-319-50204-5_13.
Повний текст джерелаHerzel, Hanspeter, Joachim Holzfuss, Zbigniew J. Kowalik, Bernd Pompe, and Robert Reuter. "Detecting Bifurcations in Voice Signals." In Nonlinear Analysis of Physiological Data, 325–44. Berlin, Heidelberg: Springer Berlin Heidelberg, 1998. http://dx.doi.org/10.1007/978-3-642-71949-3_19.
Повний текст джерелаSondhi, M. Mohan. "Adaptive Echo Cancelation for Voice Signals." In Springer Handbook of Speech Processing, 903–28. Berlin, Heidelberg: Springer Berlin Heidelberg, 2008. http://dx.doi.org/10.1007/978-3-540-49127-9_45.
Повний текст джерелаKanas, V. G., I. Mporas, H. L. Benz, N. Huang, N. V. Thakor, K. Sgarbas, A. Bezerianos, and N. E. Crone. "Voice Activity Detection from Electrocorticographic Signals." In IFMBE Proceedings, 1643–46. Cham: Springer International Publishing, 2014. http://dx.doi.org/10.1007/978-3-319-00846-2_405.
Повний текст джерелаChaloupka, Josef, Jan Nouza, Jindrich Zdansky, Petr Cerva, Jan Silovsky, and Martin Kroul. "Voice Technology Applied for Building a Prototype Smart Room." In Multimodal Signals: Cognitive and Algorithmic Issues, 104–11. Berlin, Heidelberg: Springer Berlin Heidelberg, 2009. http://dx.doi.org/10.1007/978-3-642-00525-1_10.
Повний текст джерелаIcaza, Daniel, Juan-Carlos Cobos-Torres, Geovanny Genaro Reivan-Ortiz, and Federico Córdova Gonzalez. "Processing of Voice Signals in Telecommunications Systems Using MATLAB." In Artificial Intelligence, Computer and Software Engineering Advances, 177–90. Cham: Springer International Publishing, 2021. http://dx.doi.org/10.1007/978-3-030-68080-0_13.
Повний текст джерелаMourad, Talbi. "Arabic Speech Recognition by Stationary Bionic Wavelet Transform and MFCC Using a Multi-layer Perceptron for Voice Control." In Signals and Communication Technology, 69–81. Cham: Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-030-93405-7_4.
Повний текст джерелаTorres, D., and C. A. Ferrery. "Correcting HNR Estimation in Voice Signals Based on Periodicity Detection." In V Latin American Congress on Biomedical Engineering CLAIB 2011 May 16-21, 2011, Habana, Cuba, 1190–93. Berlin, Heidelberg: Springer Berlin Heidelberg, 2013. http://dx.doi.org/10.1007/978-3-642-21198-0_302.
Повний текст джерелаKang, Sangki, and Yongserk Kim. "A Dissonant Frequency Filtering for Enhanced Clarity of Husky Voice Signals." In Text, Speech and Dialogue, 517–22. Berlin, Heidelberg: Springer Berlin Heidelberg, 2006. http://dx.doi.org/10.1007/11846406_65.
Повний текст джерелаVárallyay, György. "SSM – A Novel Method to Recognize the Fundamental Frequency in Voice Signals." In Lecture Notes in Computer Science, 88–95. Berlin, Heidelberg: Springer Berlin Heidelberg, 2007. http://dx.doi.org/10.1007/978-3-540-76725-1_10.
Повний текст джерелаТези доповідей конференцій з теми "VOICE SIGNALS"
Herzel, Hanspeter, and Robert Reuter. "Biphonation in voice signals." In Chaotic, fractal, and nonlinear signal processing. AIP, 1996. http://dx.doi.org/10.1063/1.51002.
Повний текст джерелаBerdibaeva, Gulmira K., Oleg N. Bodin, Valery V. Kozlov, Dmitry I. Nefed'ev, Kasymbek A. Ozhikenov, and Yaroslav A. Pizhonkov. "Pre-processing voice signals for voice recognition systems." In 2017 18th International Conference of Young Specialists on Micro/Nanotechnologies and Electron Devices (EDM). IEEE, 2017. http://dx.doi.org/10.1109/edm.2017.7981748.
Повний текст джерелаKolchenko, Liliia V., and Rustem B. Sinitsyn. "Nonparametric filter for voice signals." In Photonics Applications in Astronomy, Communications, Industry, and High-Energy Physics Experiments 2011, edited by Ryszard S. Romaniuk. SPIE, 2011. http://dx.doi.org/10.1117/12.905174.
Повний текст джерела"VOICE SIGNALS CHARACTERIZATION THROUGH ENTROPY MEASURES." In International Conference on Bio-inspired Systems and Signal Processing. SciTePress - Science and and Technology Publications, 2008. http://dx.doi.org/10.5220/0001065401630170.
Повний текст джерелаRosinova, Marianna, Martin Lojka, Jan Stas, and Jozef Juhar. "Voice command recognition using EEG signals." In 2017 International Symposium ELMAR. IEEE, 2017. http://dx.doi.org/10.23919/elmar.2017.8124457.
Повний текст джерелаSetubal, Phabio J., Sidnei N. Filho, and Rui Seara. "Segmentation of singing voice within music signals." In Optics East, edited by John R. Smith, Tong Zhang, and Sethuraman Panchanathan. SPIE, 2004. http://dx.doi.org/10.1117/12.571280.
Повний текст джерелаMartin, Jose Francisco, Raquel Fernandez-Ramos, Jorge Romero-Sanchez, and Francisco Rios. "Signals voice biofeedback for speech fluency disorders." In Microtechnologies for the New Millennium 2003, edited by Angel Rodriguez-Vazquez, Derek Abbott, and Ricardo Carmona. SPIE, 2003. http://dx.doi.org/10.1117/12.499047.
Повний текст джерелаSalma, Chekili, Belhaj Asma, and Bouzid Aicha. "Organic voice pathology classification." In 2017 14th International Multi-Conference on Systems, Signals & Devices (SSD). IEEE, 2017. http://dx.doi.org/10.1109/ssd.2017.8166981.
Повний текст джерелаJaramillo, Juan Sebastian Hurtado, Diego Guarin, and Alvaro Angel Orozco. "Pseudo-periodic surrogate data method on voice signals." In 2012 11th International Conference on Information Sciences, Signal Processing and their Applications (ISSPA). IEEE, 2012. http://dx.doi.org/10.1109/isspa.2012.6310604.
Повний текст джерелаZouhir, Youssef, and Kais Ouni. "Parameterization of speech signals for robust voice recognition." In 2014 International Conference on Electrical Sciences and Technologies in Maghreb (CISTEM). IEEE, 2014. http://dx.doi.org/10.1109/cistem.2014.7076915.
Повний текст джерелаЗвіти організацій з теми "VOICE SIGNALS"
Herrnstein, A. Start/End Delays of Voiced and Unvoiced Speech Signals. Office of Scientific and Technical Information (OSTI), September 1999. http://dx.doi.org/10.2172/15006006.
Повний текст джерелаARMY SIGNAL CENTER AND FORT GORDON GA. Army Communicator. Voice of the Signal Regiment. Volume 33, Number 2, Spring 2008. Fort Belvoir, VA: Defense Technical Information Center, January 2008. http://dx.doi.org/10.21236/ada494974.
Повний текст джерелаHrynick, Tabitha, and Megan Schmidt-Sane. Note d’Orientation sur l’Engagement Communautaire Concernant la Riposte Contre la Flambée Epidémique de Choléra dans la Région Afrique de l’Est et Australe. Institute of Development Studies, May 2023. http://dx.doi.org/10.19088/sshap.2023.008.
Повний текст джерела