Gotowa bibliografia na temat „Analyse de signaux musicaux”
Utwórz poprawne odniesienie w stylach APA, MLA, Chicago, Harvard i wielu innych
Spis treści
Zobacz listy aktualnych artykułów, książek, rozpraw, streszczeń i innych źródeł naukowych na temat „Analyse de signaux musicaux”.
Przycisk „Dodaj do bibliografii” jest dostępny obok każdej pracy w bibliografii. Użyj go – a my automatycznie utworzymy odniesienie bibliograficzne do wybranej pracy w stylu cytowania, którego potrzebujesz: APA, MLA, Harvard, Chicago, Vancouver itp.
Możesz również pobrać pełny tekst publikacji naukowej w formacie „.pdf” i przeczytać adnotację do pracy online, jeśli odpowiednie parametry są dostępne w metadanych.
Artykuły w czasopismach na temat "Analyse de signaux musicaux"
Vinet, Hugues. "Le projet SemanticHIFI : manipulation par le contenu d’enregistrements musicaux". Circuit 16, nr 3 (29.01.2010): 65–74. http://dx.doi.org/10.7202/902413ar.
Pełny tekst źródłaCouturier, Jean-Louis. "Céleustique. L’origine des sonneries de trompette de la Cavalerie". Revue Historique des Armées 274, nr 1 (1.01.2014): 65–77. http://dx.doi.org/10.3917/rha.274.0065.
Pełny tekst źródłaGIBIAT, V., i P. JARDIN. "SUIVI DU FONDAMENTAL DE SIGNAUX MUSICAUX À HAUTE RÉSOLUTION TEMPORELLE". Le Journal de Physique IV 02, nr C1 (kwiecień 1992): C1–97—C1–100. http://dx.doi.org/10.1051/jp4:1992117.
Pełny tekst źródła-ARAMAKI, M. "Synthèse des sons musicaux : des modèles mécaniques aux modèles de signaux". Revue de l'Electricité et de l'Electronique -, nr 02 (2001): 59. http://dx.doi.org/10.3845/ree.2001.021.
Pełny tekst źródłaAUREGAN, Y., C. DEPOLLIER, J. L. RACINEUX i N. MESLIER. "ANALYSE DES SIGNAUX DE RONFLEMENT". Le Journal de Physique Colloques 51, nr C2 (luty 1990): C2–789—C2–792. http://dx.doi.org/10.1051/jphyscol:19902184.
Pełny tekst źródła-TRIA, Assia. "Analyse par signaux cachés : SPA/DPA". Revue de l'Electricité et de l'Electronique -, nr 06 (2004): 71. http://dx.doi.org/10.3845/ree.2004.061.
Pełny tekst źródłaChekkar, Rahma, i Sophie Renault. "Musique et crowdfunding". Revue Française de Gestion 47, nr 294 (styczeń 2021): 135–55. http://dx.doi.org/10.3166/rfg.2021.00506.
Pełny tekst źródłaBoukatem, Virginie. "Analyse descriptive des choix musicaux dans les exercices individuels". Les Cahiers de l'INSEP 18, nr 1 (1997): 83–89. http://dx.doi.org/10.3406/insep.1997.1252.
Pełny tekst źródłaWeill, Frédéric. "Veille prospective dans les territoires : analyse des signaux faibles". Futuribles N° 457, nr 6 (23.10.2023): 63–72. http://dx.doi.org/10.3917/futur.457.0063.
Pełny tekst źródłaChemillier, Marc, Jean Pouchelon, Julien André i Jérôme Nika. "La contramétricité dans les musiques traditionnelles africaines et son rapport au jazz". Anthropologie et Sociétés 38, nr 1 (10.07.2014): 105–37. http://dx.doi.org/10.7202/1025811ar.
Pełny tekst źródłaRozprawy doktorskie na temat "Analyse de signaux musicaux"
Bonnet, Laurent. "Analyse de signaux musicaux multipitch". Mémoire, Sherbrooke : Université de Sherbrooke, 2003. http://savoirs.usherbrooke.ca/handle/11143/1200.
Pełny tekst źródłaFuentes, Benoit. "L'analyse probabiliste en composantes latentes et ses adaptations aux signaux musicaux : application à la transcription automatique de musique et à la séparation de sources". Electronic Thesis or Diss., Paris, ENST, 2013. http://www.theses.fr/2013ENST0011.
Pełny tekst źródłaAutomatic music transcription consists in automatically estimating the notes in a recording, through three attributes: onset time, duration and pitch. To address this problem, there is a class of methods which is based on the modeling of a signal as a sum of basic elements, carrying symbolic information. Among these analysis techniques, one can find the probabilistic latent component analysis (PLCA). The purpose of this thesis is to propose variants and improvements of the PLCA, so that it can better adapt to musical signals and th us better address the problem of transcription. To this aim, a first approach is to put forward new models of signals, instead of the inherent model 0 PLCA, expressive enough so they can adapt to musical notes having variations of both pitch and spectral envelope over time. A second aspect of this work is to provide tools to help the parameters estimation algorithm to converge towards meaningful solutions through the incorporation of prior knowledge about the signals to be analyzed, as weil as a new dynamic model. Ali the devised algorithms are applie to the task of automatic transcription. They can also be directly used for source separation, which consists in separating several sources from a mixture, and Iwo applications are put forward in this direction
Fuentes, Benoît. "L'analyse probabiliste en composantes latentes et ses adaptations aux signaux musicaux : application à la transcription automatique de musique et à la séparation de sources". Thesis, Paris, ENST, 2013. http://www.theses.fr/2013ENST0011/document.
Pełny tekst źródłaAutomatic music transcription consists in automatically estimating the notes in a recording, through three attributes: onset time, duration and pitch. To address this problem, there is a class of methods which is based on the modeling of a signal as a sum of basic elements, carrying symbolic information. Among these analysis techniques, one can find the probabilistic latent component analysis (PLCA). The purpose of this thesis is to propose variants and improvements of the PLCA, so that it can better adapt to musical signals and th us better address the problem of transcription. To this aim, a first approach is to put forward new models of signals, instead of the inherent model 0 PLCA, expressive enough so they can adapt to musical notes having variations of both pitch and spectral envelope over time. A second aspect of this work is to provide tools to help the parameters estimation algorithm to converge towards meaningful solutions through the incorporation of prior knowledge about the signals to be analyzed, as weil as a new dynamic model. Ali the devised algorithms are applie to the task of automatic transcription. They can also be directly used for source separation, which consists in separating several sources from a mixture, and Iwo applications are put forward in this direction
Nistal, Hurlé Javier. "Exploring generative adversarial networks for controllable musical audio synthesis". Electronic Thesis or Diss., Institut polytechnique de Paris, 2022. http://www.theses.fr/2022IPPAT009.
Pełny tekst źródłaAudio synthesizers are electronic musical instruments that generate artificial sounds under some parametric control. While synthesizers have evolved since they were popularized in the 70s, two fundamental challenges are still unresolved: 1) the development of synthesis systems responding to semantically intuitive parameters; 2) the design of "universal," source-agnostic synthesis techniques. This thesis researches the use of Generative Adversarial Networks (GAN) towards building such systems. The main goal is to research and develop novel tools for music production that afford intuitive and expressive means of sound manipulation, e.g., by controlling parameters that respond to perceptual properties of the sound and other high-level features. Our first work studies the performance of GANs when trained on various common audio signal representations (e.g., waveform, time-frequency representations). These experiments compare different forms of audio data in the context of tonal sound synthesis. Results show that the Magnitude and Instantaneous Frequency of the phase and the complex-valued Short-Time Fourier Transform achieve the best results. Building on this, our following work presents DrumGAN, a controllable adversarial audio synthesizer of percussive sounds. By conditioning the model on perceptual features describing high-level timbre properties, we demonstrate that intuitive control can be gained over the generation process. This work results in the development of a VST plugin generating full-resolution audio and compatible with any Digital Audio Workstation (DAW). We show extensive musical material produced by professional artists from Sony ATV using DrumGAN. The scarcity of annotations in musical audio datasets challenges the application of supervised methods to conditional generation settings. Our third contribution employs a knowledge distillation approach to extract such annotations from a pre-trained audio tagging system. DarkGAN is an adversarial synthesizer of tonal sounds that employs the output probabilities of such a system (so-called “soft labels”) as conditional information. Results show that DarkGAN can respond moderately to many intuitive attributes, even with out-of-distribution input conditioning. Applications of GANs to audio synthesis typically learn from fixed-size two-dimensional spectrogram data analogously to the "image data" in computer vision; thus, they cannot generate sounds with variable duration. In our fourth paper, we address this limitation by exploiting a self-supervised method for learning discrete features from sequential data. Such features are used as conditional input to provide step-wise time-dependent information to the model. Global consistency is ensured by fixing the input noise z (characteristic in adversarial settings). Results show that, while models trained on a fixed-size scheme obtain better audio quality and diversity, ours can competently generate audio of any duration. One interesting direction for research is the generation of audio conditioned on preexisting musical material, e.g., the generation of some drum pattern given the recording of a bass line. Our fifth paper explores a simple pretext task tailored at learning such types of complex musical relationships. Concretely, we study whether a GAN generator, conditioned on highly compressed MP3 musical audio signals, can generate outputs resembling the original uncompressed audio. Results show that the GAN can improve the quality of the audio signals over the MP3 versions for very high compression rates (16 and 32 kbit/s). As a direct consequence of applying artificial intelligence techniques in musical contexts, we ask how AI-based technology can foster innovation in musical practice. Therefore, we conclude this thesis by providing a broad perspective on the development of AI tools for music production, informed by theoretical considerations and reports from real-world AI tool usage by professional artists
Rossignol, Stéphane. "Segmentation et indexation des signaux sonores musicaux". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2000. http://tel.archives-ouvertes.fr/tel-00010732.
Pełny tekst źródła1) Le premier niveau de segmentation, appelé << sources >>, concerne la distinction entre la parole et la musique. Les sons considérés peuvent provenir par exemple de bandes-son de films ou d'émissions radiophoniques.
Des fonctions d'observation sont étudiées, qui ont pour objectif de mettre en évidence les propriétés différentes du signal de parole et du signal de musique. Plusieurs méthodes de classification ont été étudiées. Les performances du système avec des signaux réels sont discutées.
2) Le deuxième niveau de segmentation, appelé << caractéristiques >>, concerne ce type d'index : silence/son, voisé/non voisé, harmonique/inharmonique, monophonique/polyphonique, avec vibrato/sans vibrato, avec trémolo/sans trémolo. La plupart de ces caractéristiques donnent lieu à des fonctions d'observation utilisées par le troisième niveau de segmentation.
La détection du vibrato, l'estimation de ses paramètres (fréquence et amplitude) et sa suppression du trajet de la fondamentale ont été particulièrement étudiées. Un ensemble de techniques sont décrites. Les performances de ces techniques avec des sons réels sont discutées.
Le vibrato est supprimé du trajet de la fondamentale original afin d'obtenir une ligne mélodique << lissée >>. Alors, ce nouveau trajet de la fondamentale peut être utilisé pour la segmentation en notes (troisième niveau de segmentation) des extraits musicaux, et peut aussi être utilisé pour des modifications de ces sons.
La détection du vibrato est opérée seulement si, lors du premier niveau de segmentation, c'est la source << musique >> qui a été détectée.
3) Le troisième niveau de segmentation concerne la segmentation en << notes ou en phones ou plus généralement en parties stables >>, suivant la nature du son considéré : instrumental, voix chantée, parole, son percussif...
L'analyse est composée de quatre étapes. La première consiste à extraire un grand nombre de fonctions d'observation. Une fonction d'observation est d'autant plus appropriée qu'elle présente des pics grands et fins quand des transitions surviennent et que sa moyenne et sa variance restent petites pendant les zones stables. Trois types de transitions existent : celles en fréquence fondamentale, celles en énergie et celles en contenu spectral. En deuxième lieu, chaque fonction d'observation est automatiquement seuillée. En troisième lieu, une fonction de décision finale, correspondant aux marques de segmentation, est construite à partir des fonctions d'observation seuillées. Finalement, pour les sons monophoniques et harmoniques, la transcription automatique est effectuée. Les performances du système avec des sons réels sont discutées.
Les données obtenues pour un certain niveau de segmentation sont utilisées par les niveaux de segmentation de numéro d'ordre supérieurs afin d'améliorer leurs performances.
La longueur des segments donnés par le niveau de segmentation en << sources >> peut être de quelques minutes. La longueur des segments donnés par le niveau de segmentation en << caractéristiques >> est communément plus petite : elle est disons de l'ordre de quelques dizaines de secondes. La longueur des segments donnés par le niveau de segmentation en << zones stables >> est le plus souvent inférieure à une seconde.
Gillet, Olivier. "Transcription des signaux percussifs : application à l'analyse de scènes musicales audiovisuelles". Phd thesis, Télécom ParisTech, 2007. http://pastel.archives-ouvertes.fr/pastel-00002805.
Pełny tekst źródłaCont, Arshia. "Traitement et programmation temps-réel des signaux musicaux". Habilitation à diriger des recherches, Université Pierre et Marie Curie - Paris VI, 2013. http://tel.archives-ouvertes.fr/tel-00829771.
Pełny tekst źródłaTremblay-Boucher, Vincent. "FLCAA : système de codage parcimonieux et d'analyse perceptuelle des signaux sonores en temps réel". Mémoire, Université de Sherbrooke, 2013. http://hdl.handle.net/11143/6215.
Pełny tekst źródłaHennequin, Romain. "Décomposition de spectrogrammes musicaux informée par des modèles de synthèse spectrale : modélisation des variations temporelles dans les éléments sonores". Phd thesis, Télécom ParisTech, 2011. http://pastel.archives-ouvertes.fr/pastel-00648997.
Pełny tekst źródłaOlivero, Anaik. "Les multiplicateurs temps-fréquence : Applications à l’analyse et la synthèse de signaux sonores et musicaux". Thesis, Aix-Marseille, 2012. http://www.theses.fr/2012AIXM4788/document.
Pełny tekst źródłaAnalysis/Transformation/Synthesis is a generalparadigm in signal processing, that aims at manipulating or generating signalsfor practical applications. This thesis deals with time-frequencyrepresentations obtained with Gabor atoms. In this context, the complexity of a soundtransformation can be modeled by a Gabor multiplier. Gabormultipliers are linear diagonal operators acting on signals, andare characterized by a time-frequency transfer function of complex values, called theGabor mask. Gabor multipliers allows to formalize the conceptof filtering in the time-frequency domain. As they act by multiplying in the time-frequencydomain, they are "a priori'' well adapted to producesound transformations like timbre transformations. In a first part, this work proposes to model theproblem of Gabor mask estimation between two given signals,and provides algorithms to solve it. The Gabor multiplier between two signals is not uniquely defined and the proposed estimationstrategies are able to generate Gabor multipliers that produce signalswith a satisfied sound quality. In a second part, we show that a Gabor maskcontain a relevant information, as it can be viewed asa time-frequency representation of the difference oftimbre between two given sounds. By averaging the energy contained in a Gabor mask, we obtain a measure of this difference that allows to discriminate different musical instrumentsounds. We also propose strategies to automaticallylocalize the time-frequency regions responsible for such a timbre dissimilarity between musicalinstrument classes. Finally, we show that the Gabor multipliers can beused to construct a lot of sounds morphing trajectories,and propose an extension
Książki na temat "Analyse de signaux musicaux"
Jean-François, Pautex, i Schweitzer Patrick, red. Analyse et traitement des signaux: Méthodes et applications au son et à l'image : cours et exercices corrigés. Wyd. 2. Paris: Dunod, 2008.
Znajdź pełny tekst źródłaMarcel, Mesnage, red. Formalismes et modèles musicaux: Un recueil de textes, 1963-1998. Paris: Ircam-Centre Pompidou, 2006.
Znajdź pełny tekst źródłaNumbers & notes: An introduction to musical signal processing. Portland, Ore: PSI Press, 2012.
Znajdź pełny tekst źródłaLes emprunts du créole haïtien à l'anglais et à l'espagnol: Et une analyse de mots créoles formés à partir du suffixe anglais -mann et de la présence de l'anglais dans la nomination des ensembles musicaux. Paris: L'Harmattan, 2014.
Znajdź pełny tekst źródłaBaumard, Philippe. Analyse strategique: Mouvements, signaux concurrentiels et interdependance. Dunod, 2000.
Znajdź pełny tekst źródłaTraité des objets musicaux. Seuil, 2002.
Znajdź pełny tekst źródłaCemgil, A. Taylan, Simon Godsill, Paul Peeling i Nick Whiteley. Bayesian statistical methods for audio and music processing. Redaktorzy Anthony O'Hagan i Mike West. Oxford University Press, 2018. http://dx.doi.org/10.1093/oxfordhb/9780198703174.013.25.
Pełny tekst źródła(Editor), Anssi Klapuri, i Manuel Davy (Editor), red. Signal Processing Methods for Music Transcription. Springer, 2006.
Znajdź pełny tekst źródłaKlapuri, Anssi, i Manuel Davy. Signal Processing Methods for Music Transcription. Springer London, Limited, 2007.
Znajdź pełny tekst źródłaAnalysis, Synthesis, and Perception of Musical Sounds: The Sound of Music (Modern Acoustics and Signal Processing). Springer, 2006.
Znajdź pełny tekst źródłaCzęści książek na temat "Analyse de signaux musicaux"
Datta, Asoke Kumar, Ranjan Sengupta, Kaushik Banerjee i Dipak Ghosh. "Evaluation of Musical Quality of Tanpura by Non Linear Analysis". W Signals and Communication Technology, 133–49. Singapore: Springer Singapore, 2018. http://dx.doi.org/10.1007/978-981-13-2610-3_9.
Pełny tekst źródłaDurrieu, Jean-Louis, i Jean-Philippe Thiran. "Musical Audio Source Separation Based on User-Selected F0 Track". W Latent Variable Analysis and Signal Separation, 438–45. Berlin, Heidelberg: Springer Berlin Heidelberg, 2012. http://dx.doi.org/10.1007/978-3-642-28551-6_54.
Pełny tekst źródłaRoma, Gerard, Owen Green i Pierre Alexandre Tremblay. "Improving Single-Network Single-Channel Separation of Musical Audio with Convolutional Layers". W Latent Variable Analysis and Signal Separation, 306–15. Cham: Springer International Publishing, 2018. http://dx.doi.org/10.1007/978-3-319-93764-9_29.
Pełny tekst źródłaSimpson, Andrew J. R., Gerard Roma i Mark D. Plumbley. "Deep Karaoke: Extracting Vocals from Musical Mixtures Using a Convolutional Deep Neural Network". W Latent Variable Analysis and Signal Separation, 429–36. Cham: Springer International Publishing, 2015. http://dx.doi.org/10.1007/978-3-319-22482-4_50.
Pełny tekst źródłaSimmermacher, Christian, Da Deng i Stephen Cranefield. "Feature Analysis and Classification of Classical Musical Instruments: An Empirical Study". W Advances in Data Mining. Applications in Medicine, Web Mining, Marketing, Image and Signal Mining, 444–58. Berlin, Heidelberg: Springer Berlin Heidelberg, 2006. http://dx.doi.org/10.1007/11790853_35.
Pełny tekst źródłaPeeters, Geoffroy. "Deriving Musical Structures from Signal Analysis for Music Audio Summary Generation: “Sequence” and “State” Approach". W Computer Music Modeling and Retrieval, 143–66. Berlin, Heidelberg: Springer Berlin Heidelberg, 2004. http://dx.doi.org/10.1007/978-3-540-39900-1_14.
Pełny tekst źródła"Bibliographie". W Analyse et traitement des signaux, 311–12. Dunod, 2009. http://dx.doi.org/10.3917/dunod.tisse.2009.01.0311.
Pełny tekst źródła"V Applications : Approximations asymptotiques et analyse de signaux modulés en amplitude et en fréquence". W Analyse continue par ondelettes, 81–118. EDP Sciences, 1995. http://dx.doi.org/10.1051/978-2-7598-0264-7.c006.
Pełny tekst źródła"Analysis of Musical Audio Signals". W Computational Auditory Scene Analysis. IEEE, 2011. http://dx.doi.org/10.1109/9780470043387.ch8.
Pełny tekst źródłaDavy, Manuel, i Simon J. Godsill. "Bayesian Harmonic Models for Musical Signal Analysis". W Bayesian Statistics 7, 105–24. Oxford University PressOxford, 2003. http://dx.doi.org/10.1093/oso/9780198526155.003.0006.
Pełny tekst źródłaStreszczenia konferencji na temat "Analyse de signaux musicaux"
Crouzet, Olivier, Agnieszka Duniec i Elisabeth Delais-Roussarie. "Analyse Factorielle de signaux musicaux : comparaison avec les données de parole dans la perspective de l'hypothèse de codage efficace." W XXXIVe Journées d'Études sur la Parole -- JEP 2022. ISCA: ISCA, 2022. http://dx.doi.org/10.21437/jep.2022-75.
Pełny tekst źródłaPereira, Renato Santos, i Rodrigo Varejão Andreão. "Electric guitar distortion effects unit using a Raspberry Pi". W Simpósio Brasileiro de Computação Musical. Sociedade Brasileira de Computação - SBC, 2021. http://dx.doi.org/10.5753/sbcm.2021.19436.
Pełny tekst źródłaLoureiro, Maurício, Tairone Magalhaes, Davi Mota, Thiago Campolina i Aluizio Oliveira. "A retrospective of the research on musical expression conducted at CEGeME". W Simpósio Brasileiro de Computação Musical. Sociedade Brasileira de Computação - SBC, 2019. http://dx.doi.org/10.5753/sbcm.2019.10440.
Pełny tekst źródłaPerez, Mauricio, Rodolfo Coelho De Souza i Regis Rossi Alves Faria. "Digital Design of Audio Signal Processing Using Time Delay". W Simpósio Brasileiro de Computação Musical. Sociedade Brasileira de Computação - SBC, 2019. http://dx.doi.org/10.5753/sbcm.2019.10449.
Pełny tekst źródłaCoop, Allan D. "Sonification, Musification, and Synthesis of Absolute Program Music". W The 22nd International Conference on Auditory Display. Arlington, Virginia: The International Community for Auditory Display, 2016. http://dx.doi.org/10.21785/icad2016.030.
Pełny tekst źródłaIshibashi, Satoru, Norimasa Kudoh, Hiroyuki Kamaya i Yoshiaki Tadokoro. "Analyses of Kagura musical signals using LMS-based Fourier Analyzer". W TENCON 2016 - 2016 IEEE Region 10 Conference. IEEE, 2016. http://dx.doi.org/10.1109/tencon.2016.7848066.
Pełny tekst źródłaMuthumari, A. "Classification Analysis for Musical Instrument Signal". W International Conference for Phoenixes on Emerging Current Trends in Engineering and Management (PECTEAM 2018). Paris, France: Atlantis Press, 2018. http://dx.doi.org/10.2991/pecteam-18.2018.2.
Pełny tekst źródłaGOUYON, F., i P. HERRERA. "A BEAT INDUCTION METHOD FOR MUSICAL AUDIO SIGNALS". W Proceedings of the 4th European Workshop on Image Analysis for Multimedia Interactive Services. WORLD SCIENTIFIC, 2003. http://dx.doi.org/10.1142/9789812704337_0051.
Pełny tekst źródłaOliveira Neto, Aluizio. "Iterative Meditations: The use of audio feature extraction tools on acousmatic composition". W Simpósio Brasileiro de Computação Musical. Sociedade Brasileira de Computação - SBC, 2019. http://dx.doi.org/10.5753/sbcm.2019.10460.
Pełny tekst źródłaDixon, Simon. "Analysis of musical expression in audio signals". W Electronic Imaging 2003, redaktorzy Minerva M. Yeung, Rainer W. Lienhart i Chung-Sheng Li. SPIE, 2003. http://dx.doi.org/10.1117/12.476314.
Pełny tekst źródła