Littérature scientifique sur le sujet « VOICE SIGNALS »
Créez une référence correcte selon les styles APA, MLA, Chicago, Harvard et plusieurs autres
Sommaire
Consultez les listes thématiques d’articles de revues, de livres, de thèses, de rapports de conférences et d’autres sources académiques sur le sujet « VOICE SIGNALS ».
À côté de chaque source dans la liste de références il y a un bouton « Ajouter à la bibliographie ». Cliquez sur ce bouton, et nous générerons automatiquement la référence bibliographique pour la source choisie selon votre style de citation préféré : APA, MLA, Harvard, Vancouver, Chicago, etc.
Vous pouvez aussi télécharger le texte intégral de la publication scolaire au format pdf et consulter son résumé en ligne lorsque ces informations sont inclues dans les métadonnées.
Articles de revues sur le sujet "VOICE SIGNALS"
Ahamed, Mohamed Rasmi Ashfaq, Mohammad Hossein Babini et Hamidreza Namazi. « Complexity-based decoding of the relation between human voice and brain activity ». Technology and Health Care 28, no 6 (17 novembre 2020) : 665–74. http://dx.doi.org/10.3233/thc-192105.
Texte intégralMittal, Vikas, et R. K. Sharma. « Classification of Pathological Voices Using Glottal Signal Parameters ». Journal of Computational and Theoretical Nanoscience 16, no 9 (1 septembre 2019) : 3999–4002. http://dx.doi.org/10.1166/jctn.2019.8284.
Texte intégralSilva, Augusto Felix Tavares, Samuel R. de Abreu, Silvana Cunha Costa et Suzete Elida Nobrega Correia. « Classificação de sinais de voz através da aplicação da transformada Wavelet Packet e redes neurais artificiais ». Revista Principia - Divulgação Científica e Tecnológica do IFPB 1, no 37 (21 décembre 2017) : 34. http://dx.doi.org/10.18265/1517-03062015v1n37p34-41.
Texte intégralChoi, Hee-Jin, et Ji-Yeoun Lee. « Comparative Study between Healthy Young and Elderly Subjects : Higher-Order Statistical Parameters as Indices of Vocal Aging and Sex ». Applied Sciences 11, no 15 (28 juillet 2021) : 6966. http://dx.doi.org/10.3390/app11156966.
Texte intégralSwanborough, Huw, Matthias Staib et Sascha Frühholz. « Neurocognitive dynamics of near-threshold voice signal detection and affective voice evaluation ». Science Advances 6, no 50 (décembre 2020) : eabb3884. http://dx.doi.org/10.1126/sciadv.abb3884.
Texte intégralLiu, Boquan, Evan Polce et Jack Jiang. « Application of Local Intrinsic Dimension for Acoustical Analysis of Voice Signal Components ». Annals of Otology, Rhinology & ; Laryngology 127, no 9 (17 juin 2018) : 588–97. http://dx.doi.org/10.1177/0003489418780439.
Texte intégralMartin, David P., et Virginia I. Wolfe. « Effects of Perceptual Training Based upon Synthesized Voice Signals ». Perceptual and Motor Skills 83, no 3_suppl (décembre 1996) : 1291–98. http://dx.doi.org/10.2466/pms.1996.83.3f.1291.
Texte intégralZhu, Xin-Cheng, Deng-Huang Zhao, Yi-Hua Zhang, Xiao-Jun Zhang et Zhi Tao. « Multi-Scale Recurrence Quantification Measurements for Voice Disorder Detection ». Applied Sciences 12, no 18 (14 septembre 2022) : 9196. http://dx.doi.org/10.3390/app12189196.
Texte intégralBartusiak, Emily R., et Edward J. Delp. « Frequency Domain-Based Detection of Generated Audio ». Electronic Imaging 2021, no 4 (18 janvier 2021) : 273–1. http://dx.doi.org/10.2352/issn.2470-1173.2021.4.mwsf-273.
Texte intégralLiu, Boquan, Evan Polce, Julien C. Sprott et Jack J. Jiang. « Applied Chaos Level Test for Validation of Signal Conditions Underlying Optimal Performance of Voice Classification Methods ». Journal of Speech, Language, and Hearing Research 61, no 5 (17 mai 2018) : 1130–39. http://dx.doi.org/10.1044/2018_jslhr-s-17-0250.
Texte intégralThèses sur le sujet "VOICE SIGNALS"
Wu, Cheng. « A typology for voice and music signals ». Thesis, University of Ottawa (Canada), 2005. http://hdl.handle.net/10393/27082.
Texte intégralAnskaitis, Aurimas. « Analysis of Quality of Coded Voice Signals ». Doctoral thesis, Lithuanian Academic Libraries Network (LABT), 2010. http://vddb.laba.lt/obj/LT-eLABa-0001:E.02~2009~D_20100303_142141-66509.
Texte intégralDisertacijoje nagrin jama koduoto balso kokybės vertinimo problematika. Pagrindinis dėmesys skiriamas balso kokybės tyrimams, kai perduodama koduota šneka ir prarandami balso paketai. Darbo tikslas yra patobulinti koduoto balso kokybės vertinimo algoritmus. Darbo uždaviniai yra šie: • sukurti matavimo priemonę trumpų balso signalo atkarpų kokybei vertinti; • apibrėžti koduoto balso segmentų vertės sampratą ir parinkti vertės metrikas; • išmatuoti bendrinės šnekos balso segmentų verčių skirstinius; • nustatyti skirtingų koderių sukuriamų iškraipymų ribas; • ištirti paplitusių koderių inertiškumą, nustatyti kiek laiko pastebima prarastų paketų įtaka sekantiems segmentams. Disertaciją sudaro įvadas, keturi tiriamieji skyriai ir bendrosios išvados. Įvade pristatomas darbo naujumas, aktualumas, aptariamas autoriaus indėlis, formuluojami darbo tikslai. Pirmas skyrius yra apžvalginis – analizuojami balso kokybės vertinimo metodai, jų privalumai ir trūkumai. Kaip savarankiška dalis čia pristatyti autoriaus sudaryti sąrašai lietuviškų žodžių, skirtų šnekos suprantamumo tyrimams. Antrame skyriuje parodoma, kaip galima išplėsti kokybės vertinimo PESQ (angl. Perceptual Evaluation of Speech Quality) algoritmo taikymo ribas. Čia įvedama koduoto balso paketo vertės sąvoka, nustatomi statistiniai paketų vertės skirstiniai. Trečiame skyriuje nagrinėjami specifiniai koduotos šnekos iškraipymai ir kodavimo parametrų įtaka... [toliau žr. visą tekstą]
Strange, John. « VOICE AUTHENTICATIONA STUDY OF POLYNOMIAL REPRESENTATION OF SPEECH SIGNALS ». Master's thesis, University of Central Florida, 2005. http://digital.library.ucf.edu/cdm/ref/collection/ETD/id/4015.
Texte intégralM.S.
Department of Mathematics
Arts and Sciences
Mathematics
BHATT, HARSHIT. « SPEAKER IDENTIFICATION FROM VOICE SIGNALS USING HYBRID NEURAL NETWORK ». Thesis, DELHI TECHNOLOGICAL UNIVERSITY, 2021. http://dspace.dtu.ac.in:8080/jspui/handle/repository/18865.
Texte intégralChandna, Pritish. « Neural networks for singing voice extraction in monaural polyphonic music signals ». Doctoral thesis, Universitat Pompeu Fabra, 2021. http://hdl.handle.net/10803/673414.
Texte intégralAquesta tesi se centra en l’extracció de veu cantada a partir de senyals musicals polifònics. En particular, ens centrem en dos casos; música popular contemporània, que normalment té una veu cantada processada amb acompanyament instrumental, i cant coral, que consisteix en diversos cantants cantant en harmonia i a l’uníson. Durant l’última dècada, s’han proposat diversos models basats en l’aprenentatge profund per separar la veu de l’acompanyament instrumental en una mescla musical. La majoria d’aquests models assumeixen que la mescla és una suma lineal de les fonts individuals i estimen les màscares temps-freqüència per filtrar les fonts de la mescla d’entrada. Tot i que aquesta assumpció no sempre es compleix, els models basats en l’aprenentatge profund han demostrat una capacitat notable per modelar les fonts en una mescla. En aquesta tesi, proposem un mètode alternatiu per l’extracció de la veu cantada. Aquesta metodologia assumeix que el contingut lingüístic i melòdic que percebem d’un senyal de veu cantada es manté fins i tot quan es tracta d’una mescla no lineal. Per a això, explorem representacions del contingut lingüístic independents de l’idioma en un senyal de veu, així com metodologies generatives per a la síntesi de veu. Utilitzant-les, proposem una metodologia per sintetitzar un senyal de veu cantada a partir del contingut lingüístic i melòdic subjacent d’un senyal de veu processat en una mescla musical. A més, adaptem i avaluem metodologies de separació de fonts d’última generació per separar les parts de soprano, contralt, tenor i baix dels enregistraments corals. També utilitzem la metodologia proposada per a l’extracció mitjançant síntesi juntament amb altres models basats en l’aprenentatge profund per analitzar el cant a l’uníson dins dels enregistraments corals.
Esta disertación doctoral se centra en la extracción de voz cantada a partir de señales musicales polifónicas de audio. En particular, analizamos dos casos; música popular contemporánea, que normalmente contiene voz cantada procesada y acompañada de instrumentación, y canto coral, que involucra a varios coristas cantando en armonía y al unísono. Durante la última década, se han propuesto varios modelos basados en aprendizaje profundo para separar la voz cantada del acompañamiento instrumental en una mezcla musical. La mayoría de estos modelos asumen que la mezcla musical es una suma lineal de fuentes individuales y estiman máscaras de tiempo-frecuencia para extraerlas de la mezcla. Si bien esta suposición no siempre se cumple, los modelos basados en aprendizaje profundo han demostrado tener una gran capacidad para modelar las fuentes de la mezcla. En esta tesis proponemos un método alternativo para extraer voz cantada. Esta técnica asume que el contenido lingüístico y melódico que se percibe en la voz cantada se retiene incluso cuando la señal es sometida a un proceso de mezcla no lineal. Con este fin, exploramos representaciones del contenido lingüístico independientes del lenguaje en la señal de voz, así como metodos generativos para síntesis de voz. Utilizando estas técnicas, proponemos la base para una metodología de síntesis de voz cantada limpia a partir del contenido lingüístico y melódico subyacente de la señal de voz procesada en una mezcla musical. Además, adaptamos y evaluamos metodologías de separación de fuentes de última generación para separar las voces soprano, alto, tenor y bajo de grabaciones corales. También utilizamos la metodología propuesta para extracción mediante síntesis junto con otros modelos basados en aprendizaje profundo para analizar canto al unísono dentro de grabaciones corales.
Johansson, Dennis. « Real-time analysis, in SuperCollider, of spectral features of electroglottographic signals ». Thesis, KTH, Skolan för datavetenskap och kommunikation (CSC), 2016. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-188498.
Texte intégralDenna rapport presenterar verktyg och komponenter som är nödvändiga för att vidareutveckla en implementation av en metod. Metoden försöker att använda en icke invasiv elektroglottografisk signal för att hitta snabba övergångar mellan röstregister. Det presenteras implementationer för sampelentropi och den diskreta fourier transformen för programspråket SuperCollider samt verktyg som behövs för att utvärdera metoden och presentera resultaten i realtid. Då olika algoritmer har använts för både klustring och cykelseparation så har även en jämförelse mellan algoritmer för dessa steg gjorts.
Mészáros, Tomáš. « Speech Analysis for Processing of Musical Signals ». Master's thesis, Vysoké učení technické v Brně. Fakulta informačních technologií, 2015. http://www.nusl.cz/ntk/nusl-234974.
Texte intégralBorowiak, Kamila. « Brain Mechanisms for the Perception of Visual and Auditory Communication Signals – Insights from Autism Spectrum Disorder ». Doctoral thesis, Humboldt-Universität zu Berlin, 2020. http://dx.doi.org/10.18452/21634.
Texte intégralCommunication is ubiquitous in our everyday life. Yet, individuals with autism spectrum disorder (ASD) have difficulties in social interactions and to recognize socially relevant signals from the face and the voice. Such impairments can vastly affect the quality of life - a profound understanding of the mechanisms behind these difficulties is thus strongly required. In the current dissertation, I focused on sensory brain mechanisms that underlie the perception of emotionally neutral communication signals that so far have gained little attention in ASD research. I studied the malleability of voice-identity processing using intranasal administration of oxytocin, and thus the potential to alleviate voice-identity recognition impairments in ASD. Furthermore, I investigated brain mechanisms that underlie recognition difficulties for visual speech in ASD, as until now evidence on visual-speech recognition in ASD was limited to behavioral findings. I applied methods of functional magnetic resonance imaging, eye tracking, and behavioral testing. The contribution of the present dissertation is twofold. First, the findings corroborate the view that atypical sensory perception is a critical cornerstone for understanding of social difficulties in ASD. Dysfunction of visual and auditory sensory brain regions might contribute to difficulties in processing aspects of communication signals in ASD and modulate the efficacy of interventions for improving the behavioral deficits. Second, the findings deliver empirical support for a recent theoretical model of how the typically developing brain perceives dynamic faces. This improved our current knowledge about brain processing of visual communication signals in the typically developing population. Advanced scientific knowledge about human communication, as provided in the current dissertation, propels further empirical research and development of clinical interventions that aim to promote communication abilities in affected individuals.
Mokhtari, Mehdi. « The puzzle of non verbal communication : Towards a new aspect of leadership ». Thesis, Linnéuniversitetet, Institutionen för organisation och entreprenörskap (OE), 2013. http://urn.kb.se/resolve?urn=urn:nbn:se:lnu:diva-26248.
Texte intégralDzhambazov, Georgi. « Knowledge-based probabilistic modeling for tracking lyrics in music audio signals ». Doctoral thesis, Universitat Pompeu Fabra, 2017. http://hdl.handle.net/10803/404681.
Texte intégralLa tesi aquí presentada proposa metodologies d’aprenentatge automàtic i processament de senyal per alinear automàticament el text d’una cançó amb el seu corresponent enregistrament d’àudio. La recerca duta a terme s’engloba en l’ampli camp de l’extracció d’informació musical (Music Information Retrieval o MIR). Dins aquest context la tesi pretén millorar algunes de les metodologies d’última generació del camp introduint coneixement específic de l’àmbit. L’objectiu d’aquest treball és dissenyar models que siguin capaços de detectar en la senyal d’àudio l’aspecte seqüencial d’un element particular dels textos musicals; els fonemes. Podem entendre la música com la composició de diversos elements entre els quals podem trobar el text. Els models que construïm tenen en compte el context complementari del text. El context són tots aquells aspectes musicals que complementen el text, dels quals hem utilitzat en aquest tesi: la estructura de la composició musical, la estructura de les frases melòdiques i els accents rítmics. Des d’aquesta prespectiva analitzem no només les característiques acústiques de baix nivell, que representen el timbre musical dels fonemes, sinó també les característiques d’alt nivell en les quals es fa patent el context complementari. En aquest treball proposem models probabilístics específics que representen com les transicions entre fonemes consecutius de veu cantanda es veuen afectats per diversos aspectes del context complementari. El context complementari que tractem aquí es desenvolupa en el temps en funció de les característiques particulars de cada tradició musical. Per tal de modelar aquestes característiques hem creat corpus i conjunts de dades de dues tradicions musicals que presenten una gran riquesa en aquest aspectes; la música de l’opera de Beijing i la música makam turc-otomana. Les dades són de diversos tipus; enregistraments d’àudio, partitures musicals i metadades. Des d’aquesta prespectiva els models proposats poden aprofitar-se tant de les dades en si mateixes com del coneixement específic de la tradició musical per a millorar els resultats de referència actuals. Com a resultat de referència prenem un reconeixedor de fonemes basat en models ocults de Markov (Hidden Markov Models o HMM), una metodologia abastament emprada per a detectar fonemes tant en la veu cantada com en la parlada. Presentem millores en els processos comuns dels reconeixedors de fonemes actuals, ajustant-los a les característiques de les tradicions musicals estudiades. A més de millorar els resultats de referència també dissenyem models probabilistics basats en xarxes dinàmiques de Bayes (Dynamic Bayesian Networks o DBN) que respresenten la relació entre la transició dels fonemes i el context complementari. Hem creat dos models diferents per dos aspectes del context complementari; la estructura de la frase melòdica (alt nivell) i la estructura mètrica (nivell subtil). En un dels models explotem el fet que la duració de les síl·labes depén de la seva posició en la frase melòdica. Obtenim aquesta informació sobre les frases musical de la partitura i del coneixement específic de la tradició musical. En l’altre model analitzem com els atacs de les notes vocals, estimats directament dels enregistraments d’àudio, influencien les transicions entre vocals i consonants consecutives. A més també proposem com detectar les posicions temporals dels atacs de les notes en les frases melòdiques a base de localitzar simultàniament els accents en un cicle mètric musical. Per tal d’evaluar el potencial dels mètodes proposats utlitzem la tasca específica d’alineament de text amb àudio. Cada model proposat millora la precisió de l’alineament en comparació als resultats de referència, que es basen exclusivament en les característiques acústiques tímbriques dels fonemes. D’aquesta manera validem la nostra hipòtesi de que el coneixement del context complementari ajuda a la detecció automàtica de text musical, especialment en el cas de veu cantada amb acompanyament instrumental. Els resultats d’aquest treball no consisteixen només en metodologies teòriques i dades, sinó també en eines programàtiques específiques que han sigut integrades a Dunya, un paquet d’eines creat en el context del projecte de recerca CompMusic, l’objectiu del qual és promoure l’anàlisi computacional de les músiques del món. Gràcies a aquestes eines demostrem també que les metodologies desenvolupades es poden fer servir per a altres aplicacions en el context de la educació musical o la escolta musical enriquida.
Livres sur le sujet "VOICE SIGNALS"
Manfredi, Claudia, dir. Models and analysis of vocal emissions for biomedical applications : 5th International Workshop : December 13-15, 2007, Firenze, Italy. Florence : Firenze University Press, 2007. http://dx.doi.org/10.36253/978-88-5518-027-6.
Texte intégralVoIP voice and fax signal processing. Hoboken, NJ : Wiley, 2008.
Trouver le texte intégralManfredi, Claudia, dir. Models and Analysis of Vocal Emissions for Biomedical Applications. Florence : Firenze University Press, 2013. http://dx.doi.org/10.36253/978-88-6655-470-7.
Texte intégralManfredi, Claudia, dir. Models and Analysis of Vocal Emissions for Biomedical Applications. Florence : Firenze University Press, 2009. http://dx.doi.org/10.36253/978-88-6453-096-3.
Texte intégralManfredi, Claudia, dir. Models and Analysis of Vocal Emissions for Biomedical Applications. Florence : Firenze University Press, 2011. http://dx.doi.org/10.36253/978-88-6655-011-2.
Texte intégralJuang, Jer-Nan. Signal prediction with input identification. Hampton, Va : National Aeronautics and Space Administration, Langley Research Center, 1999.
Trouver le texte intégralMartin, Ann. VOICE - a spectrogram computer display package. Woods Hole, Mass : Woods Hole Oceanographic Institution, 1990.
Trouver le texte intégral1954-, Lawlor Leonard, dir. Voice and phenomenon : Introduction to the problem of the sign in Husserl's phenomenology. Evanston, Ill : Northwestern University Press, 2011.
Trouver le texte intégralSacks, Oliver W. Seeing voices : A journey into the world of the deaf. Berkeley : University of California Press, 1989.
Trouver le texte intégralSacks, Oliver W. Seeing voices : A journey into the world of the deaf. New York : Vintage Books, 2000.
Trouver le texte intégralChapitres de livres sur le sujet "VOICE SIGNALS"
Bäckström, Tom. « Voice Activity Detection ». Dans Signals and Communication Technology, 185–203. Cham : Springer International Publishing, 2017. http://dx.doi.org/10.1007/978-3-319-50204-5_13.
Texte intégralHerzel, Hanspeter, Joachim Holzfuss, Zbigniew J. Kowalik, Bernd Pompe et Robert Reuter. « Detecting Bifurcations in Voice Signals ». Dans Nonlinear Analysis of Physiological Data, 325–44. Berlin, Heidelberg : Springer Berlin Heidelberg, 1998. http://dx.doi.org/10.1007/978-3-642-71949-3_19.
Texte intégralSondhi, M. Mohan. « Adaptive Echo Cancelation for Voice Signals ». Dans Springer Handbook of Speech Processing, 903–28. Berlin, Heidelberg : Springer Berlin Heidelberg, 2008. http://dx.doi.org/10.1007/978-3-540-49127-9_45.
Texte intégralKanas, V. G., I. Mporas, H. L. Benz, N. Huang, N. V. Thakor, K. Sgarbas, A. Bezerianos et N. E. Crone. « Voice Activity Detection from Electrocorticographic Signals ». Dans IFMBE Proceedings, 1643–46. Cham : Springer International Publishing, 2014. http://dx.doi.org/10.1007/978-3-319-00846-2_405.
Texte intégralChaloupka, Josef, Jan Nouza, Jindrich Zdansky, Petr Cerva, Jan Silovsky et Martin Kroul. « Voice Technology Applied for Building a Prototype Smart Room ». Dans Multimodal Signals : Cognitive and Algorithmic Issues, 104–11. Berlin, Heidelberg : Springer Berlin Heidelberg, 2009. http://dx.doi.org/10.1007/978-3-642-00525-1_10.
Texte intégralIcaza, Daniel, Juan-Carlos Cobos-Torres, Geovanny Genaro Reivan-Ortiz et Federico Córdova Gonzalez. « Processing of Voice Signals in Telecommunications Systems Using MATLAB ». Dans Artificial Intelligence, Computer and Software Engineering Advances, 177–90. Cham : Springer International Publishing, 2021. http://dx.doi.org/10.1007/978-3-030-68080-0_13.
Texte intégralMourad, Talbi. « Arabic Speech Recognition by Stationary Bionic Wavelet Transform and MFCC Using a Multi-layer Perceptron for Voice Control ». Dans Signals and Communication Technology, 69–81. Cham : Springer International Publishing, 2022. http://dx.doi.org/10.1007/978-3-030-93405-7_4.
Texte intégralTorres, D., et C. A. Ferrery. « Correcting HNR Estimation in Voice Signals Based on Periodicity Detection ». Dans V Latin American Congress on Biomedical Engineering CLAIB 2011 May 16-21, 2011, Habana, Cuba, 1190–93. Berlin, Heidelberg : Springer Berlin Heidelberg, 2013. http://dx.doi.org/10.1007/978-3-642-21198-0_302.
Texte intégralKang, Sangki, et Yongserk Kim. « A Dissonant Frequency Filtering for Enhanced Clarity of Husky Voice Signals ». Dans Text, Speech and Dialogue, 517–22. Berlin, Heidelberg : Springer Berlin Heidelberg, 2006. http://dx.doi.org/10.1007/11846406_65.
Texte intégralVárallyay, György. « SSM – A Novel Method to Recognize the Fundamental Frequency in Voice Signals ». Dans Lecture Notes in Computer Science, 88–95. Berlin, Heidelberg : Springer Berlin Heidelberg, 2007. http://dx.doi.org/10.1007/978-3-540-76725-1_10.
Texte intégralActes de conférences sur le sujet "VOICE SIGNALS"
Herzel, Hanspeter, et Robert Reuter. « Biphonation in voice signals ». Dans Chaotic, fractal, and nonlinear signal processing. AIP, 1996. http://dx.doi.org/10.1063/1.51002.
Texte intégralBerdibaeva, Gulmira K., Oleg N. Bodin, Valery V. Kozlov, Dmitry I. Nefed'ev, Kasymbek A. Ozhikenov et Yaroslav A. Pizhonkov. « Pre-processing voice signals for voice recognition systems ». Dans 2017 18th International Conference of Young Specialists on Micro/Nanotechnologies and Electron Devices (EDM). IEEE, 2017. http://dx.doi.org/10.1109/edm.2017.7981748.
Texte intégralKolchenko, Liliia V., et Rustem B. Sinitsyn. « Nonparametric filter for voice signals ». Dans Photonics Applications in Astronomy, Communications, Industry, and High-Energy Physics Experiments 2011, sous la direction de Ryszard S. Romaniuk. SPIE, 2011. http://dx.doi.org/10.1117/12.905174.
Texte intégral« VOICE SIGNALS CHARACTERIZATION THROUGH ENTROPY MEASURES ». Dans International Conference on Bio-inspired Systems and Signal Processing. SciTePress - Science and and Technology Publications, 2008. http://dx.doi.org/10.5220/0001065401630170.
Texte intégralRosinova, Marianna, Martin Lojka, Jan Stas et Jozef Juhar. « Voice command recognition using EEG signals ». Dans 2017 International Symposium ELMAR. IEEE, 2017. http://dx.doi.org/10.23919/elmar.2017.8124457.
Texte intégralSetubal, Phabio J., Sidnei N. Filho et Rui Seara. « Segmentation of singing voice within music signals ». Dans Optics East, sous la direction de John R. Smith, Tong Zhang et Sethuraman Panchanathan. SPIE, 2004. http://dx.doi.org/10.1117/12.571280.
Texte intégralMartin, Jose Francisco, Raquel Fernandez-Ramos, Jorge Romero-Sanchez et Francisco Rios. « Signals voice biofeedback for speech fluency disorders ». Dans Microtechnologies for the New Millennium 2003, sous la direction de Angel Rodriguez-Vazquez, Derek Abbott et Ricardo Carmona. SPIE, 2003. http://dx.doi.org/10.1117/12.499047.
Texte intégralSalma, Chekili, Belhaj Asma et Bouzid Aicha. « Organic voice pathology classification ». Dans 2017 14th International Multi-Conference on Systems, Signals & Devices (SSD). IEEE, 2017. http://dx.doi.org/10.1109/ssd.2017.8166981.
Texte intégralJaramillo, Juan Sebastian Hurtado, Diego Guarin et Alvaro Angel Orozco. « Pseudo-periodic surrogate data method on voice signals ». Dans 2012 11th International Conference on Information Sciences, Signal Processing and their Applications (ISSPA). IEEE, 2012. http://dx.doi.org/10.1109/isspa.2012.6310604.
Texte intégralZouhir, Youssef, et Kais Ouni. « Parameterization of speech signals for robust voice recognition ». Dans 2014 International Conference on Electrical Sciences and Technologies in Maghreb (CISTEM). IEEE, 2014. http://dx.doi.org/10.1109/cistem.2014.7076915.
Texte intégralRapports d'organisations sur le sujet "VOICE SIGNALS"
Herrnstein, A. Start/End Delays of Voiced and Unvoiced Speech Signals. Office of Scientific and Technical Information (OSTI), septembre 1999. http://dx.doi.org/10.2172/15006006.
Texte intégralARMY SIGNAL CENTER AND FORT GORDON GA. Army Communicator. Voice of the Signal Regiment. Volume 33, Number 2, Spring 2008. Fort Belvoir, VA : Defense Technical Information Center, janvier 2008. http://dx.doi.org/10.21236/ada494974.
Texte intégralHrynick, Tabitha, et Megan Schmidt-Sane. Note d’Orientation sur l’Engagement Communautaire Concernant la Riposte Contre la Flambée Epidémique de Choléra dans la Région Afrique de l’Est et Australe. Institute of Development Studies, mai 2023. http://dx.doi.org/10.19088/sshap.2023.008.
Texte intégral