Letteratura scientifica selezionata sul tema "Analyse de signaux musicaux"

Cita una fonte nei formati APA, MLA, Chicago, Harvard e in molti altri stili

Scegli il tipo di fonte:

Consulta la lista di attuali articoli, libri, tesi, atti di convegni e altre fonti scientifiche attinenti al tema "Analyse de signaux musicaux".

Accanto a ogni fonte nell'elenco di riferimenti c'è un pulsante "Aggiungi alla bibliografia". Premilo e genereremo automaticamente la citazione bibliografica dell'opera scelta nello stile citazionale di cui hai bisogno: APA, MLA, Harvard, Chicago, Vancouver ecc.

Puoi anche scaricare il testo completo della pubblicazione scientifica nel formato .pdf e leggere online l'abstract (il sommario) dell'opera se è presente nei metadati.

Articoli di riviste sul tema "Analyse de signaux musicaux":

1

Vinet, Hugues. "Le projet SemanticHIFI : manipulation par le contenu d’enregistrements musicaux". Circuit 16, n. 3 (29 gennaio 2010): 65–74. http://dx.doi.org/10.7202/902413ar.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Le projet européen SemanticHIFI vise la préfiguration des chaînes hi-fi de demain, proposant aux mélomanes des fonctions inédites de gestion et de manipulation par le contenu des enregistrements musicaux. Les limites des équipements existants sont liées à celles des formats de diffusion de la musique qui, se présentant depuis plusieurs décennies sous la forme de signaux d’enregistrements stéréophoniques, n’autorisent que des modes de manipulation élémentaires. L’extension des supports d’information musicale à des représentations plus riches, issues soit directement de processus de production renouvelés ou d’outils d’indexation personnalisés, rend possible la réalisation de fonctions innovantes : classification personnalisée, navigation par le contenu, spatialisation sonore, composition, partage sur les réseaux préservant les droits liés aux oeuvres, etc. Ces fonctions sont le résultat d’activités de recherche menées dans le cadre du projet et se situant à la pointe de plusieurs disciplines : analyse et traitement des signaux audionumériques, ingénierie des connaissances musicales, interfaces homme-machine, architectures de réseaux distribuées. Le projet prévoit également une phase d’intégration, visant la réalisation de prototypes d’application, permettant de valider l’ensemble de ces fonctions dans un environnement technique unifié et compatible avec les contraintes du marché de l’électronique grand public. L’auteur propose une vue d’ensemble du projet, dont il assure la direction.
2

Couturier, Jean-Louis. "Céleustique. L’origine des sonneries de trompette de la Cavalerie". Revue Historique des Armées 274, n. 1 (1 gennaio 2014): 65–77. http://dx.doi.org/10.3917/rha.274.0065.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
L’identification de signaux sonores instrumentaux propres aux armées remonte à la période de la Renaissance. Apparus tout d’abord en Italie, puis en France, les appels en sonneries se sont ensuite propagés aux différents pays d’Europe. L’emploi d’instruments de musique rudimentaires avait initialement pour but d’effrayer l’ennemi. Dès le XV ème siècle, fifres et tambours accompagnent les mouvements des armées, en égayant l’humeur de la troupe. Depuis, musique et art militaire n’ont jamais cessé de cohabiter. Parmi les instruments à vent employés dès l’Antiquité, la trompette est l’instrument privilégié qui se distingue naturellement par son caractère à la fois sacré et guerrier. De ce fait, elle tient une place prépondérante au sein des anciennes Nations. Des premiers « bruits de guerre » connus, aux sonneries réglementaires « officielles », la transmission des signaux sonores, qui correspondent chacun à un message bien particulier, s’est opérée - jusqu’à une période relativement récente - principalement de manière orale. Quand bien même semble t’il difficile d’identifier, en France comme ailleurs, le ou les auteurs des premières sonneries militaires, les quelques textes musicaux publiés au fil des siècles, permettent en revanche une analyse mettant en exergue bon nombre d’informations relatives à une mémoire musicale vive, relativement ancienne, qui trouve naturellement sa place au sein de l’ethnomusicologie.
3

GIBIAT, V., e P. JARDIN. "SUIVI DU FONDAMENTAL DE SIGNAUX MUSICAUX À HAUTE RÉSOLUTION TEMPORELLE". Le Journal de Physique IV 02, n. C1 (aprile 1992): C1–97—C1–100. http://dx.doi.org/10.1051/jp4:1992117.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
4

-ARAMAKI, M. "Synthèse des sons musicaux : des modèles mécaniques aux modèles de signaux". Revue de l'Electricité et de l'Electronique -, n. 02 (2001): 59. http://dx.doi.org/10.3845/ree.2001.021.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
5

AUREGAN, Y., C. DEPOLLIER, J. L. RACINEUX e N. MESLIER. "ANALYSE DES SIGNAUX DE RONFLEMENT". Le Journal de Physique Colloques 51, n. C2 (febbraio 1990): C2–789—C2–792. http://dx.doi.org/10.1051/jphyscol:19902184.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
6

-TRIA, Assia. "Analyse par signaux cachés : SPA/DPA". Revue de l'Electricité et de l'Electronique -, n. 06 (2004): 71. http://dx.doi.org/10.3845/ree.2004.061.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
7

Chekkar, Rahma, e Sophie Renault. "Musique et crowdfunding". Revue Française de Gestion 47, n. 294 (gennaio 2021): 135–55. http://dx.doi.org/10.3166/rfg.2021.00506.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La recherche présentée dans cet article vise à comprendre comment sont construites les échelles de contreparties dans le cadre de campagnes de crowdfunding portant sur des projets musicaux. Les auteures se basent sur les données issues de 24 campagnes lancées sur la plateforme Ulule par 20 porteurs de projets. À partir d’une analyse des paliers proposés et contreparties associées, des recommandations sont formulées à destination des entrepreneurs musicaux désireux de mener une campagne fructueuse.
8

Boukatem, Virginie. "Analyse descriptive des choix musicaux dans les exercices individuels". Les Cahiers de l'INSEP 18, n. 1 (1997): 83–89. http://dx.doi.org/10.3406/insep.1997.1252.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
9

Weill, Frédéric. "Veille prospective dans les territoires : analyse des signaux faibles". Futuribles N° 457, n. 6 (23 ottobre 2023): 63–72. http://dx.doi.org/10.3917/futur.457.0063.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Depuis sa création dans les années 1960, l’association Futuribles International propose à ses membres différents services et activités destinés à les accompagner et les outiller dans leur pratique de la prospective. Pluridisciplinaire, elle opère dans de multiples domaines économiques, sociaux, scientifiques…, et auprès de tous types d’acteurs, avec comme préoccupation récurrente de mutualiser les savoirs, compétences et pratiques permettant de mieux comprendre les enjeux d’avenir et de se préparer à y faire face. Depuis 2016, pour répondre aux besoins spécifiques exprimés par différents acteurs locaux (à l’échelle régionale, départementale, des villes…), l’association a mis en place un Forum prospectif des territoires, qui rassemble des éclairages prospectifs et des travaux collaboratifs sur l’avenir des territoires. L’idée est de permettre à ses membres de partager leurs savoirs et pratiques en matière de prospective territoriale, afin de les aider à anticiper et faire face aux transformations à l’œuvre à leur échelle. Parmi les différents ateliers et chantiers proposés, le Forum prospectif des territoires a lancé un outil de travail mutualisé consistant à élaborer un « tableau permanent des signaux faibles », qui associe la veille (pour détecter des signes de transformation sur le terrain) et l’analyse (pour mettre en perspective et décrypter ces signaux). Frédéric Weill, qui coordonne les travaux de ce Forum, nous livre ici un bref aperçu de ces signaux faibles. S.D.
10

Chemillier, Marc, Jean Pouchelon, Julien André e Jérôme Nika. "La contramétricité dans les musiques traditionnelles africaines et son rapport au jazz". Anthropologie et Sociétés 38, n. 1 (10 luglio 2014): 105–37. http://dx.doi.org/10.7202/1025811ar.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La mise en mouvement du corps à travers la danse, la présence d’une pulsation régulière qui rythme ces mouvements et le fait de contrecarrer cette pulsation par des événements musicaux placés à côté, ce qu’on appelle la « contramétricité », sont des points communs à la plupart des musiques africaines traditionnelles. Ils témoignent à la fois d’une disposition universelle du système cognitif (capacité du corps humain de se synchroniser avec des signaux sonores périodiques) et d’une dimension profondément culturelle dans la mesure où la contramétricité s’est développée dans ces musiques beaucoup plus qu’ailleurs. On montrera comment cet aspect contramétrique contredit les théories de la perception du rythme inspirées des hypothèses de Lerdahl et Jackendoff. On comparera également ces musiques avec le jazz, car celui-ci a une particularité qui le distingue des musiques africaines, à savoir l’existence de niveaux hiérarchiques dans l’organisation métrique, dont on montrera qu’elle n’est pas aussi discriminante que ce qui est généralement admis.

Tesi sul tema "Analyse de signaux musicaux":

1

Bonnet, Laurent. "Analyse de signaux musicaux multipitch". Mémoire, Sherbrooke : Université de Sherbrooke, 2003. http://savoirs.usherbrooke.ca/handle/11143/1200.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Fuentes, Benoit. "L'analyse probabiliste en composantes latentes et ses adaptations aux signaux musicaux : application à la transcription automatique de musique et à la séparation de sources". Electronic Thesis or Diss., Paris, ENST, 2013. http://www.theses.fr/2013ENST0011.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La transcription automatique de musique polyphonique consiste à estimer automatiquernent les notes présentes dans un enregistrement via trois de leurs attributs : temps d'attaque, durée et hauteur. Pour traiter ce problème, il existe une classe de méthodes dont le principe est de modéliser un signal comme une somme d'éléments de base, porteurs d'informations symboliques. Parmi ces techniques d'analyse, on trouve l'analyse probabiliste en composantes latentes (PLCA). L'objet de cette thèse est de proposer des variantes et des améliorations de la PLCA afin qu'elle puisse mieux s'adapter aux signaux musicaux et ainsi mieux traiter le problème de la transcription. Pour cela, un premier angle d'approche est de proposer de nouveaux modèles de signaux, en lieu et place du modèle inhérent à la PLCA, suffisamment expressifs pour pouvoir s'adapter aux notes de musique possédant simultanément des variations temporelles de fréquence fondamentale et d'enveloppe spectrale. Un deuxième aspect du travail effectué est de proposer des outils permettant d'aider l'algorithme d'estimation des paramètres à converger vers des solutions significatives via l'incorporation de connaissances a priori sur les signaux à analyser, ainsi que d'un nouveau modèle dynamique. Tous les algorithmes ainsi imaginés sont appliqués à la tâche de transcription automatique. Nous voyons également qu'ils peuvent être directement utilisés pour la séparation de sources, qui consiste à séparer plusieurs sources d'un mélange, et nous proposons deux applications dans ce sens
Automatic music transcription consists in automatically estimating the notes in a recording, through three attributes: onset time, duration and pitch. To address this problem, there is a class of methods which is based on the modeling of a signal as a sum of basic elements, carrying symbolic information. Among these analysis techniques, one can find the probabilistic latent component analysis (PLCA). The purpose of this thesis is to propose variants and improvements of the PLCA, so that it can better adapt to musical signals and th us better address the problem of transcription. To this aim, a first approach is to put forward new models of signals, instead of the inherent model 0 PLCA, expressive enough so they can adapt to musical notes having variations of both pitch and spectral envelope over time. A second aspect of this work is to provide tools to help the parameters estimation algorithm to converge towards meaningful solutions through the incorporation of prior knowledge about the signals to be analyzed, as weil as a new dynamic model. Ali the devised algorithms are applie to the task of automatic transcription. They can also be directly used for source separation, which consists in separating several sources from a mixture, and Iwo applications are put forward in this direction
3

Fuentes, Benoît. "L'analyse probabiliste en composantes latentes et ses adaptations aux signaux musicaux : application à la transcription automatique de musique et à la séparation de sources". Thesis, Paris, ENST, 2013. http://www.theses.fr/2013ENST0011/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
La transcription automatique de musique polyphonique consiste à estimer automatiquernent les notes présentes dans un enregistrement via trois de leurs attributs : temps d'attaque, durée et hauteur. Pour traiter ce problème, il existe une classe de méthodes dont le principe est de modéliser un signal comme une somme d'éléments de base, porteurs d'informations symboliques. Parmi ces techniques d'analyse, on trouve l'analyse probabiliste en composantes latentes (PLCA). L'objet de cette thèse est de proposer des variantes et des améliorations de la PLCA afin qu'elle puisse mieux s'adapter aux signaux musicaux et ainsi mieux traiter le problème de la transcription. Pour cela, un premier angle d'approche est de proposer de nouveaux modèles de signaux, en lieu et place du modèle inhérent à la PLCA, suffisamment expressifs pour pouvoir s'adapter aux notes de musique possédant simultanément des variations temporelles de fréquence fondamentale et d'enveloppe spectrale. Un deuxième aspect du travail effectué est de proposer des outils permettant d'aider l'algorithme d'estimation des paramètres à converger vers des solutions significatives via l'incorporation de connaissances a priori sur les signaux à analyser, ainsi que d'un nouveau modèle dynamique. Tous les algorithmes ainsi imaginés sont appliqués à la tâche de transcription automatique. Nous voyons également qu'ils peuvent être directement utilisés pour la séparation de sources, qui consiste à séparer plusieurs sources d'un mélange, et nous proposons deux applications dans ce sens
Automatic music transcription consists in automatically estimating the notes in a recording, through three attributes: onset time, duration and pitch. To address this problem, there is a class of methods which is based on the modeling of a signal as a sum of basic elements, carrying symbolic information. Among these analysis techniques, one can find the probabilistic latent component analysis (PLCA). The purpose of this thesis is to propose variants and improvements of the PLCA, so that it can better adapt to musical signals and th us better address the problem of transcription. To this aim, a first approach is to put forward new models of signals, instead of the inherent model 0 PLCA, expressive enough so they can adapt to musical notes having variations of both pitch and spectral envelope over time. A second aspect of this work is to provide tools to help the parameters estimation algorithm to converge towards meaningful solutions through the incorporation of prior knowledge about the signals to be analyzed, as weil as a new dynamic model. Ali the devised algorithms are applie to the task of automatic transcription. They can also be directly used for source separation, which consists in separating several sources from a mixture, and Iwo applications are put forward in this direction
4

Nistal, Hurlé Javier. "Exploring generative adversarial networks for controllable musical audio synthesis". Electronic Thesis or Diss., Institut polytechnique de Paris, 2022. http://www.theses.fr/2022IPPAT009.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Les synthétiseurs audio sont des instruments de musique électroniques qui génèrent des sons artificiels sous un certain contrôle paramétrique. Alors que les synthétiseurs ont évolué depuis leur popularisation dans les années 70, deux défis fondamentaux restent encore non résolus: 1) le développement de systèmes de synthèse répondant à des paramètres sémantiquement intuitifs; 2) la conception de techniques de synthèse «universelles», indépendantes de la source à modéliser. Cette thèse étudie l’utilisation des réseaux adversariaux génératifs (ou GAN) pour construire de tels systèmes. L’objectif principal est de rechercher et de développer de nouveaux outils pour la production musicale, qui offrent des moyens intuitifs de manipulation du son, par exemple en contrôlant des paramètres qui répondent aux propriétés perceptives du son et à d’autres caractéristiques. Notre premier travail étudie les performances des GAN lorsqu’ils sont entraînés sur diverses représentations de signaux audio. Ces expériences comparent différentes formes de données audio dans le contexte de la synthèse sonore tonale. Les résultats montrent que la représentation magnitude-fréquence instantanée et la transformée de Fourier à valeur complexe obtiennent les meilleurs résultats. En s’appuyant sur ce résultat, notre travail suivant présente DrumGAN, un synthétiseur audio de sons percussifs. En conditionnant le modèle sur des caractéristiques perceptives décrivant des propriétés timbrales de haut niveau, nous démontrons qu’un contrôle intuitif peut être obtenu sur le processus de génération. Ce travail aboutit au développement d’un plugin VST générant de l’audio haute résolution. La rareté des annotations dans les ensembles de données audio musicales remet en cause l’application de méthodes supervisées pour la génération conditionnelle. On utilise une approche de distillation des connaissances pour extraire de telles annotations à partir d’un système d’étiquetage audio préentraîné. DarkGAN est un synthétiseur de sons tonaux qui utilise les probabilités de sortie d’un tel système (appelées « étiquettes souples ») comme informations conditionnelles. Les résultats montrent que DarkGAN peut répondre modérément à de nombreux attributs intuitifs, même avec un conditionnement d’entrée hors distribution. Les applications des GAN à la synthèse audio apprennent généralement à partir de données de spectrogramme de taille fixe. Nous abordons cette limitation en exploitant une méthode auto-supervisée pour l’apprentissage de caractéristiques discrètes à partir de données séquentielles. De telles caractéristiques sont utilisées comme entrée conditionnelle pour fournir au modèle des informations dépendant du temps par étapes. La cohérence globale est assurée en fixant le bruit d’entrée z (caractéristique en GANs). Les résultats montrent que, tandis que les modèles entraînés sur un schéma de taille fixe obtiennent une meilleure qualité et diversité audio, les nôtres peuvent générer avec compétence un son de n’importe quelle durée. Une direction de recherche intéressante est la génération d’audio conditionnée par du matériel musical préexistant. Nous étudions si un générateur GAN, conditionné sur des signaux audio musicaux hautement compressés, peut générer des sorties ressemblant à l’audio non compressé d’origine. Les résultats montrent que le GAN peut améliorer la qualité des signaux audio par rapport aux versions MP3 pour des taux de compression très élevés (16 et 32 kbit/s). En conséquence directe de l’application de techniques d’intelligence artificielle dans des contextes musicaux, nous nous demandons comment la technologie basée sur l’IA peut favoriser l’innovation dans la pratique musicale. Par conséquent, nous concluons cette thèse en offrant une large perspective sur le développement d’outils d’IA pour la production musicale, éclairée par des considérations théoriques et des rapports d’utilisation d’outils d’IA dans le monde réel par des artistes professionnels
Audio synthesizers are electronic musical instruments that generate artificial sounds under some parametric control. While synthesizers have evolved since they were popularized in the 70s, two fundamental challenges are still unresolved: 1) the development of synthesis systems responding to semantically intuitive parameters; 2) the design of "universal," source-agnostic synthesis techniques. This thesis researches the use of Generative Adversarial Networks (GAN) towards building such systems. The main goal is to research and develop novel tools for music production that afford intuitive and expressive means of sound manipulation, e.g., by controlling parameters that respond to perceptual properties of the sound and other high-level features. Our first work studies the performance of GANs when trained on various common audio signal representations (e.g., waveform, time-frequency representations). These experiments compare different forms of audio data in the context of tonal sound synthesis. Results show that the Magnitude and Instantaneous Frequency of the phase and the complex-valued Short-Time Fourier Transform achieve the best results. Building on this, our following work presents DrumGAN, a controllable adversarial audio synthesizer of percussive sounds. By conditioning the model on perceptual features describing high-level timbre properties, we demonstrate that intuitive control can be gained over the generation process. This work results in the development of a VST plugin generating full-resolution audio and compatible with any Digital Audio Workstation (DAW). We show extensive musical material produced by professional artists from Sony ATV using DrumGAN. The scarcity of annotations in musical audio datasets challenges the application of supervised methods to conditional generation settings. Our third contribution employs a knowledge distillation approach to extract such annotations from a pre-trained audio tagging system. DarkGAN is an adversarial synthesizer of tonal sounds that employs the output probabilities of such a system (so-called “soft labels”) as conditional information. Results show that DarkGAN can respond moderately to many intuitive attributes, even with out-of-distribution input conditioning. Applications of GANs to audio synthesis typically learn from fixed-size two-dimensional spectrogram data analogously to the "image data" in computer vision; thus, they cannot generate sounds with variable duration. In our fourth paper, we address this limitation by exploiting a self-supervised method for learning discrete features from sequential data. Such features are used as conditional input to provide step-wise time-dependent information to the model. Global consistency is ensured by fixing the input noise z (characteristic in adversarial settings). Results show that, while models trained on a fixed-size scheme obtain better audio quality and diversity, ours can competently generate audio of any duration. One interesting direction for research is the generation of audio conditioned on preexisting musical material, e.g., the generation of some drum pattern given the recording of a bass line. Our fifth paper explores a simple pretext task tailored at learning such types of complex musical relationships. Concretely, we study whether a GAN generator, conditioned on highly compressed MP3 musical audio signals, can generate outputs resembling the original uncompressed audio. Results show that the GAN can improve the quality of the audio signals over the MP3 versions for very high compression rates (16 and 32 kbit/s). As a direct consequence of applying artificial intelligence techniques in musical contexts, we ask how AI-based technology can foster innovation in musical practice. Therefore, we conclude this thesis by providing a broad perspective on the development of AI tools for music production, informed by theoretical considerations and reports from real-world AI tool usage by professional artists
5

Rossignol, Stéphane. "Segmentation et indexation des signaux sonores musicaux". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2000. http://tel.archives-ouvertes.fr/tel-00010732.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce travail concerne la segmentation et l'indexation des signaux sonores musicaux. Trois niveaux de segmentation interdépendants sont définis, correspondant chacun à un niveau de description du son différent.


1) Le premier niveau de segmentation, appelé << sources >>, concerne la distinction entre la parole et la musique. Les sons considérés peuvent provenir par exemple de bandes-son de films ou d'émissions radiophoniques.

Des fonctions d'observation sont étudiées, qui ont pour objectif de mettre en évidence les propriétés différentes du signal de parole et du signal de musique. Plusieurs méthodes de classification ont été étudiées. Les performances du système avec des signaux réels sont discutées.


2) Le deuxième niveau de segmentation, appelé << caractéristiques >>, concerne ce type d'index : silence/son, voisé/non voisé, harmonique/inharmonique, monophonique/polyphonique, avec vibrato/sans vibrato, avec trémolo/sans trémolo. La plupart de ces caractéristiques donnent lieu à des fonctions d'observation utilisées par le troisième niveau de segmentation.

La détection du vibrato, l'estimation de ses paramètres (fréquence et amplitude) et sa suppression du trajet de la fondamentale ont été particulièrement étudiées. Un ensemble de techniques sont décrites. Les performances de ces techniques avec des sons réels sont discutées.

Le vibrato est supprimé du trajet de la fondamentale original afin d'obtenir une ligne mélodique << lissée >>. Alors, ce nouveau trajet de la fondamentale peut être utilisé pour la segmentation en notes (troisième niveau de segmentation) des extraits musicaux, et peut aussi être utilisé pour des modifications de ces sons.

La détection du vibrato est opérée seulement si, lors du premier niveau de segmentation, c'est la source << musique >> qui a été détectée.


3) Le troisième niveau de segmentation concerne la segmentation en << notes ou en phones ou plus généralement en parties stables >>, suivant la nature du son considéré : instrumental, voix chantée, parole, son percussif...

L'analyse est composée de quatre étapes. La première consiste à extraire un grand nombre de fonctions d'observation. Une fonction d'observation est d'autant plus appropriée qu'elle présente des pics grands et fins quand des transitions surviennent et que sa moyenne et sa variance restent petites pendant les zones stables. Trois types de transitions existent : celles en fréquence fondamentale, celles en énergie et celles en contenu spectral. En deuxième lieu, chaque fonction d'observation est automatiquement seuillée. En troisième lieu, une fonction de décision finale, correspondant aux marques de segmentation, est construite à partir des fonctions d'observation seuillées. Finalement, pour les sons monophoniques et harmoniques, la transcription automatique est effectuée. Les performances du système avec des sons réels sont discutées.


Les données obtenues pour un certain niveau de segmentation sont utilisées par les niveaux de segmentation de numéro d'ordre supérieurs afin d'améliorer leurs performances.

La longueur des segments donnés par le niveau de segmentation en << sources >> peut être de quelques minutes. La longueur des segments donnés par le niveau de segmentation en << caractéristiques >> est communément plus petite : elle est disons de l'ordre de quelques dizaines de secondes. La longueur des segments donnés par le niveau de segmentation en << zones stables >> est le plus souvent inférieure à une seconde.
6

Gillet, Olivier. "Transcription des signaux percussifs : application à l'analyse de scènes musicales audiovisuelles". Phd thesis, Télécom ParisTech, 2007. http://pastel.archives-ouvertes.fr/pastel-00002805.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse tisse des liens entre les domaines de l'indexation audio et de l'analyse de séquences d'images, à travers le problème de l'analyse de l'accompagnement rythmique des signaux de musique. Nous étudions d'abord le problème de la transcription de la piste de batterie d'enregistrements musicaux à partir de la modalité audio seule. Après avoir présenté des pré-traitements permettant d'accentuer cette piste, nous utilisons des techniques d'apprentissage statistique sur une large gamme d'attributs pour réaliser la transcription. Nous introduisons également des approches supervisées et non supervisées pour améliorer la reconnaissance en exploitant la régularité des motifs rythmiques. Nous incorporons ensuite à ce système de transcription l'information visuelle provenant de caméras filmant le batteur. Différentes approches sont présentées pour détecter la position des éléments de la batterie dans la scène et pour associer les régions extraites à des catégories sonores. Des descripteurs d'intensité de mouvement sont ensuite utilisés pour la détection des frappes. Les résultats démontrent la capacité d'une approche multimodale à résoudre certaines des ambiguïtés propres à la transcription audio. Nous étendons enfin nos travaux aux clips vidéos, en tentant de mesurer de quelle manière la musique peut être illustrée par des images. Après avoir présenté ou introduit de nouvelles méthodes de structuration automatique des flux audio et vidéo à différents niveaux, nous définissons des mesures de synchronie sur les structures obtenues. Ces mesures, qui s'avèrent dépendantes du type de document musical, permettent des applications de recherche de musique par l'image.
7

Cont, Arshia. "Traitement et programmation temps-réel des signaux musicaux". Habilitation à diriger des recherches, Université Pierre et Marie Curie - Paris VI, 2013. http://tel.archives-ouvertes.fr/tel-00829771.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Mes activités de recherche et d'encadrement, depuis ma soutenance de thèse en octobre 2008, gravitent à la confluence de deux problématiques souvent considérées comme distinctes dont le couplage est plus qu'évident en informatique musicale : l'écoute artificielle et la programmation synchrone des signaux musicaux en temps réel. Le but est d'enrichir chaque domaine respectivement et de fournir des outils nécessaires aux artistes pour étendre leurs capacités de création musicale sur ordinateur (à celui de leurs homologues humains). Le premier aspect de tout système de musique interactive est l'acte de l'écoute ou formellement parlant, l'extraction d'informations musicaux en temps réel. J'ai concentré mes efforts sur les approches axées sur les applications telles que la détection de pitch polyphonique et les techniques d'alignement en temps réel d'une part. Puis, d'autre part, j'ai abordé des problèmes fondamentaux liés à la représentation des signaux. Pour le premier volet, nous avons proposé deux approches reconnues comme l'état de l'art et renommées par leur utilisation par la communauté artistique et leur reconnaissance au sein de la communauté MIR. Le deuxième volet théorique porte sur le problème fondamental de la quantification et la qualification du contenu de l'information arrivant progressivement dans un système en utilisant des méthodes de la géométrie de l'information. Le deuxième et plus récent aspect de mon travail se concentre sur la programmation synchrone réactive de la musique, couplée à des systèmes d'écoute (ou la formalisation de réactions dans les systèmes interactifs aux perceptions artificielles en temps réel). Notre approche est motivée par les pratiques actuelles en art numérique et les exigences d'évaluation en temps réel qu'elles demandent. L'incarnation majeure de cette approche est le système Antescofo doté d'une machine d'écoute et d'un langage dynamique et qui s'est imposé dans le monde entier dans le répertoire de la musique mixte, reconnu du public depuis 2009. L'écriture du temps, l'interaction et la tentative d'assurer leur exécution correcte en temps réel posent des problèmes difficiles pour l'informatique et les concepteurs de systèmes. Ce couplage fort fera l'objet de mon travail dans les années à venir sous la bannière des systèmes de musique Cyber-physique. Le couplage entre la machine d'écoute et des langages temps réel nécessite d'augmenter les approches actuelles avec des modèles formels de temps, dépassant les approches fonctionnelles qui dominent pour développer une formalisation des exigences de réaction et d'exécution. Il faudra en conséquence repenser nos méthodes usuelles de traitement audio multiforme et leurs modèles de calculs sous-jacents en ce qui concerne le temps.
8

Tremblay-Boucher, Vincent. "FLCAA : système de codage parcimonieux et d'analyse perceptuelle des signaux sonores en temps réel". Mémoire, Université de Sherbrooke, 2013. http://hdl.handle.net/11143/6215.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Ce mémoire débute par un survol de l'état de l’art des méthodes de compositions musicales assistées par ordinateur (MCMAO). À l’aide d'un ensembles critères permettant l’évaluation des méthodes de compositions musicales assistées par ordinateur, on identifie une technique particulièrement prometteuse. Il s’agit d ’un compositeur statistique, présenté par Hoffman et al. en 2008, utilisant les "mel-frquecy cepstral coefficients" (MFCC), un prétraitement inspiré des techniques en reconnaissance de parole. Toutefois, cette technique présente diverses limitations, comme la qualité de reconstruction des signaux, qui l’empêche d'être utilisée pour composer de la musique utilisable professionnellement. Ainsi, ce mémoire tente de bonifier la méthode de composition musicale assistée par ordinateur de Hoffman et al. en remplaçant la technique MFCC d'analyse/synthèse du signal par une technique novatrice d'analyse/synthèse des signaux sonores nommée "Fast Locally competitive algorithm for audio" (FLCAA). Celle-ci permet une analyse perceptuelle parcimonieuse, en temps réel, ayant une bonne résolution fréquencielle et une bonne résolution temporelle. De plus le FLCAA permet une reconstruction robuste de bonne qualité également en temps réel. L’analyse est constituée de deux parties distinctes. La première consiste à utiliser un prétraitement inspiré de l’audition pour transformer le signal sonore afin d'obtenir une représentation cochléaire. Concrètement, la transformation d'analyse est accomplie à l’aide d'un filtrage par banc de filtres cochléaires combiné à un mécanisme de fenêtre coulissante. Le banc de filtres utilisé est composé de filtres cochléaires passe-bande à réponse impulsionnelle finie, de type "rounded exponential" (RoExp). La deuxième étape consiste à coder la représentation cochléaire de manière parcimonieuse afin d'augmenter la résolution spatiale et temporelle pour mettre en évidence certaines caractéristiques du signal comme les fréquences fondamentales, l’information contenue dans les basses fréquences et les signaux transitoires. Cela est fait, en intégrant un réseau de neurones (nommé LCA) utilisant les mécanismes d'inhibition latérale et de seuillage. À partir des coefficients de la représentation perceptuelle, il est possible d'effectuer la transformation de synthèse en utilisant une technique de reconstruction novatrice qui est expliqué en détail dans ce mémoire.
9

Hennequin, Romain. "Décomposition de spectrogrammes musicaux informée par des modèles de synthèse spectrale : modélisation des variations temporelles dans les éléments sonores". Phd thesis, Télécom ParisTech, 2011. http://pastel.archives-ouvertes.fr/pastel-00648997.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse propose de nouvelles méthodes de décomposition automatique de spectrogrammes de signaux musicaux. Les décompositions proposées sont issues de la factorisation en matrices non-négatives (NMF), puissante technique de réduction de rang réputée pour fournir une décomposition sur un petit nombre de motifs fréquentiels automatiquement extraits des données ayant généralement un sens perceptif. La NMF ne permet cependant pas de modéliser de façon efficace certaines variations temporelles d'éléments sonores non-stationnaires communément rencontrées dans la musique. Cette thèse propose donc d'introduire dans la NMF des modèles génératifs de spectrogrammes musicaux basés sur des modèles classiques de synthèse sonore afin de pouvoir prendre en compte deux types de variations courantes : les variations d'enveloppe spectrale (sons d'instruments à cordes métalliques libres...) et les variations de fréquence fondamentale (vibrato, prosodie...). L'introduction de modèles de synthèse simples dans la NMF permet de proposer des décompositions capables de prendre en compte ces variations : l'utilisation d'un modèle de synthèse source/ filtre permet de modéliser les variations spectrales de certains objets musicaux au cours du temps. L'utilisation d'un modèle d'atomes harmoniques paramétriques inspiré de la synthèse additive ou bien l'utilisation d'un modèle inspiré de la synthèse par table d'onde qui utilise des transformations d'un unique atome de base afin de recréer toute la tessiture de chaque instrument permettent de modéliser les variations de fréquence fondamentale. Une application de séparation de sources et une de transformation sélective du son sont également présentées.
10

Olivero, Anaik. "Les multiplicateurs temps-fréquence : Applications à l’analyse et la synthèse de signaux sonores et musicaux". Thesis, Aix-Marseille, 2012. http://www.theses.fr/2012AIXM4788/document.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Cette thèse s'inscrit dans le contexte de l'analyse/transformation/synthèse des signaux audio utilisant des représentations temps-fréquence, de type transformation de Gabor. Dans ce contexte, la complexité des transformations permettant de relier des sons peut être modélisée au moyen de multiplicateurs de Gabor, opérateurs de signaux linéaires caractérisés par une fonction de transfert temps-fréquence, à valeurs complexes, que l'on appelle masque de Gabor. Les multiplicateurs de Gabor permettent deformaliser le concept de filtrage dans le plan temps-fréquence. En agissant de façon multiplicative dans le plan temps-fréquence, ils sont a priori bien adaptés pour réaliser des transformations sonores telles que des modifications de timbre des sons. Dans un premier temps, ce travail de thèses intéresse à la modélisation du problème d'estimation d'un masque de Gabor entre deux signaux donnés et la mise en place de méthodes de calculs efficaces permettant de résoudre le problème. Le multiplicateur de Gabor entre deux signaux n'est pas défini de manière unique et les techniques d'estimation proposées de construire des multiplicateurs produisant des signaux sonores de qualité satisfaisante. Dans un second temps, nous montrons que les masques de Gabor contiennent une information pertinente capable d'établir une classification des signaux,et proposons des stratégies permettant de localiser automatiquement les régions temps-fréquence impliquées dans la différentiation de deux classes de signaux. Enfin, nous montrons que les multiplicateurs de Gabor constituent tout un panel de transformations sonores entre deux sons, qui, dans certaines situations, peuvent être guidées par des descripteurs de timbre
Analysis/Transformation/Synthesis is a generalparadigm in signal processing, that aims at manipulating or generating signalsfor practical applications. This thesis deals with time-frequencyrepresentations obtained with Gabor atoms. In this context, the complexity of a soundtransformation can be modeled by a Gabor multiplier. Gabormultipliers are linear diagonal operators acting on signals, andare characterized by a time-frequency transfer function of complex values, called theGabor mask. Gabor multipliers allows to formalize the conceptof filtering in the time-frequency domain. As they act by multiplying in the time-frequencydomain, they are "a priori'' well adapted to producesound transformations like timbre transformations. In a first part, this work proposes to model theproblem of Gabor mask estimation between two given signals,and provides algorithms to solve it. The Gabor multiplier between two signals is not uniquely defined and the proposed estimationstrategies are able to generate Gabor multipliers that produce signalswith a satisfied sound quality. In a second part, we show that a Gabor maskcontain a relevant information, as it can be viewed asa time-frequency representation of the difference oftimbre between two given sounds. By averaging the energy contained in a Gabor mask, we obtain a measure of this difference that allows to discriminate different musical instrumentsounds. We also propose strategies to automaticallylocalize the time-frequency regions responsible for such a timbre dissimilarity between musicalinstrument classes. Finally, we show that the Gabor multipliers can beused to construct a lot of sounds morphing trajectories,and propose an extension

Libri sul tema "Analyse de signaux musicaux":

1

Tisserand, Étienne. Analyse et traitement des signaux: Méthodes et applications au son et à l'image : cours et exercices corrigés. 2a ed. Paris: Dunod, 2008.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Riotte, André. Formalismes et modèles musicaux: Un recueil de textes, 1963-1998. Paris: Ircam-Centre Pompidou, 2006.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Collecchia, Regina. Numbers & notes: An introduction to musical signal processing. Portland, Ore: PSI Press, 2012.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Govain, Renauld. Les emprunts du créole haïtien à l'anglais et à l'espagnol: Et une analyse de mots créoles formés à partir du suffixe anglais -mann et de la présence de l'anglais dans la nomination des ensembles musicaux. Paris: L'Harmattan, 2014.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
5

Baumard, Philippe. Analyse strategique: Mouvements, signaux concurrentiels et interdependance. Dunod, 2000.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
6

Schaeffer, Pierre. Traité des objets musicaux. Seuil, 2002.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
7

Cemgil, A. Taylan, Simon Godsill, Paul Peeling e Nick Whiteley. Bayesian statistical methods for audio and music processing. A cura di Anthony O'Hagan e Mike West. Oxford University Press, 2018. http://dx.doi.org/10.1093/oxfordhb/9780198703174.013.25.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
This article focuses on the use of Bayesian statistical methods in audio and music processing in the context of an application to multipitch audio and determining a musical ‘score’ representation that includes pitch and time duration summary for a musical extract (the so-called ‘piano-roll’ representation of music). It first provides an overview of mainstream applications of audio signal processing, the properties of musical audio, superposition and how to address it using the Bayesian approach, and the principal challenges facing audio processing. It then considers the fundamental audio processing tasks before discussing a range of Bayesian hierarchical models involving both time and frequency domain dynamic models. It shows that Bayesian analysis is applicable in audio signal processing in real environments where acoustical conditions and sound sources are highly variable, yet audio signals possess strong statistical structure.
8

(Editor), Anssi Klapuri, e Manuel Davy (Editor), a cura di. Signal Processing Methods for Music Transcription. Springer, 2006.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
9

Klapuri, Anssi, e Manuel Davy. Signal Processing Methods for Music Transcription. Springer London, Limited, 2007.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
10

Beauchamp, James. Analysis, Synthesis, and Perception of Musical Sounds: The Sound of Music (Modern Acoustics and Signal Processing). Springer, 2006.

Cerca il testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri

Capitoli di libri sul tema "Analyse de signaux musicaux":

1

Datta, Asoke Kumar, Ranjan Sengupta, Kaushik Banerjee e Dipak Ghosh. "Evaluation of Musical Quality of Tanpura by Non Linear Analysis". In Signals and Communication Technology, 133–49. Singapore: Springer Singapore, 2018. http://dx.doi.org/10.1007/978-981-13-2610-3_9.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Durrieu, Jean-Louis, e Jean-Philippe Thiran. "Musical Audio Source Separation Based on User-Selected F0 Track". In Latent Variable Analysis and Signal Separation, 438–45. Berlin, Heidelberg: Springer Berlin Heidelberg, 2012. http://dx.doi.org/10.1007/978-3-642-28551-6_54.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
3

Roma, Gerard, Owen Green e Pierre Alexandre Tremblay. "Improving Single-Network Single-Channel Separation of Musical Audio with Convolutional Layers". In Latent Variable Analysis and Signal Separation, 306–15. Cham: Springer International Publishing, 2018. http://dx.doi.org/10.1007/978-3-319-93764-9_29.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
4

Simpson, Andrew J. R., Gerard Roma e Mark D. Plumbley. "Deep Karaoke: Extracting Vocals from Musical Mixtures Using a Convolutional Deep Neural Network". In Latent Variable Analysis and Signal Separation, 429–36. Cham: Springer International Publishing, 2015. http://dx.doi.org/10.1007/978-3-319-22482-4_50.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
5

Simmermacher, Christian, Da Deng e Stephen Cranefield. "Feature Analysis and Classification of Classical Musical Instruments: An Empirical Study". In Advances in Data Mining. Applications in Medicine, Web Mining, Marketing, Image and Signal Mining, 444–58. Berlin, Heidelberg: Springer Berlin Heidelberg, 2006. http://dx.doi.org/10.1007/11790853_35.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
6

Peeters, Geoffroy. "Deriving Musical Structures from Signal Analysis for Music Audio Summary Generation: “Sequence” and “State” Approach". In Computer Music Modeling and Retrieval, 143–66. Berlin, Heidelberg: Springer Berlin Heidelberg, 2004. http://dx.doi.org/10.1007/978-3-540-39900-1_14.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
7

"Bibliographie". In Analyse et traitement des signaux, 311–12. Dunod, 2009. http://dx.doi.org/10.3917/dunod.tisse.2009.01.0311.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
8

"V Applications : Approximations asymptotiques et analyse de signaux modulés en amplitude et en fréquence". In Analyse continue par ondelettes, 81–118. EDP Sciences, 1995. http://dx.doi.org/10.1051/978-2-7598-0264-7.c006.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
9

"Analysis of Musical Audio Signals". In Computational Auditory Scene Analysis. IEEE, 2011. http://dx.doi.org/10.1109/9780470043387.ch8.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
10

Davy, Manuel, e Simon J. Godsill. "Bayesian Harmonic Models for Musical Signal Analysis". In Bayesian Statistics 7, 105–24. Oxford University PressOxford, 2003. http://dx.doi.org/10.1093/oso/9780198526155.003.0006.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
Abstract This paper is concerned with the Bayesian analysis of musical signals. The ultimate aim is to use Bayesian hierarchical structures in order to infer quantities at the highest level, including such things as musical pitch, dynamics, timbre, instrument identity, etc. Analysis of real musical signals is complicated by many things, including the presence of transient sounds, noises, and the complex structure of musical pitches in the frequency domain. The problem is truly Bayesian in that there is a wealth of (often subjective) prior knowledge about how musical signals are constructed, which can be exploited in order to achieve more accurate inference about the musical structure. Here we propose developments to an earlier Bayesian model that describes each component “note” at a given time in terms of a fundamental frequency, partials (“harmonics”), and amplitude. This basic model is modified for greater realism to include non-white residuals, time-varying amplitudes and partials “detuned” from the natural linear relationship. The unknown parameters of the new model are simulated using a variable dimension MCMC algorithm, leading to a highly sophisticated analysis tool. We discuss how the models and algorithms can be applied for feature extraction, polyphonic music transcription, source separation, and restoration of musical sources.

Atti di convegni sul tema "Analyse de signaux musicaux":

1

Crouzet, Olivier, Agnieszka Duniec e Elisabeth Delais-Roussarie. "Analyse Factorielle de signaux musicaux : comparaison avec les données de parole dans la perspective de l'hypothèse de codage efficace." In XXXIVe Journées d'Études sur la Parole -- JEP 2022. ISCA: ISCA, 2022. http://dx.doi.org/10.21437/jep.2022-75.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
2

Pereira, Renato Santos, e Rodrigo Varejão Andreão. "Electric guitar distortion effects unit using a Raspberry Pi". In Simpósio Brasileiro de Computação Musical. Sociedade Brasileira de Computação - SBC, 2021. http://dx.doi.org/10.5753/sbcm.2021.19436.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
With the advance of electronics, techniques and algorithms for digital signal processing, digital equipment has been gaining more and more space in the music scene. Micro-processed tools now generate several effects such as modulation, echo, and distortion of sounds generated by musical instruments, previously obtained only by analog units. In this context, this study aimed to develop aprototype of distortion effects unit using a Raspberry Pi (a low-cost small single-board computer) and affordable electronic components. Therefore, five nonlinear functionswere used, four of which are present in the literature andone of them was originally developed by the authors. These functions model the behavior of an active element (suchas transistors, valves, and operational amplifiers), which when they exceed their amplification thresholds produce distortions in the audio signals. Throughout this article, all the steps in the development of the analog circuits for signal acquisition and output will be presented, as well as the simulation and implementation of the functions in the microcontroller. At the end, with the finished prototype, the frequency response analysis is performed and the sound results achieved by the algorithms is compared with each other and with other distortion units.
3

Loureiro, Maurício, Tairone Magalhaes, Davi Mota, Thiago Campolina e Aluizio Oliveira. "A retrospective of the research on musical expression conducted at CEGeME". In Simpósio Brasileiro de Computação Musical. Sociedade Brasileira de Computação - SBC, 2019. http://dx.doi.org/10.5753/sbcm.2019.10440.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
CEGeME - Center for Research on Musical Gesture and Expression is affiliated to the Graduate Program in Music of the Universidade Federal de Minas Gerais (UFMG), hosted by the School of Music, Belo Horizonte, Brazil, since 2008. Focused on the empirical investigation of music performance, research at CEGeME departs from musical content information extracted from audio signals and three-dimensional spatial position of musicians, recorded during a music performance. Our laboratories are properly equipped for the acquisition of such data. Aiming at establishing a musicological approach to different aspects of musical expressiveness, we investigate causal relations between the expressive intention of musicians and the way they manipulate the acoustic material and how they move while playing a piece of music. The methodology seeks support on knowledge such as computational modeling, statistical analysis, and digital signal processing, which adds to traditional musicology skills. The group has attracted study postulants from different specialties, such as Computer Science, Engineering, Physics, Phonoaudiology and Music Therapy, as well as collaborations from professional musicians instigated by specific inquiries on the performance on their instruments. This paper presents a brief retrospective of the different research projects conducted at CEGeME.
4

Perez, Mauricio, Rodolfo Coelho De Souza e Regis Rossi Alves Faria. "Digital Design of Audio Signal Processing Using Time Delay". In Simpósio Brasileiro de Computação Musical. Sociedade Brasileira de Computação - SBC, 2019. http://dx.doi.org/10.5753/sbcm.2019.10449.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
This poster describes the design in PureData of some audio signals processes in real time like delay, echo, reverb, chorus, flanger e phaser. We analyze the technical characteristics of each process and the psychoacoustic effects produced by them in human perception and audio applications. A deeper comprehension of the consequences of sound processes based on delay lines helps the decision-making in professional audio applications such as the audio recording, mixing, besides music composition that employs sound effects in preprocessed or real-time.
5

Coop, Allan D. "Sonification, Musification, and Synthesis of Absolute Program Music". In The 22nd International Conference on Auditory Display. Arlington, Virginia: The International Community for Auditory Display, 2016. http://dx.doi.org/10.21785/icad2016.030.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
When understood as a communication system, a musical work can be interpreted as data existing within three domains. In this interpretation an absolute domain is interposed as a communication channel between two programatic domains that act respectively as source and receiver. As a source, a programatic domain creates, evolves, organizes, and represents a musical work. When acting as a receiver it re-constitutes acoustic signals into unique auditory experience. The absolute domain transmits physical vibrations ranging from the stochastic structures of noise to the periodic waveforms of organized sound. Analysis of acoustic signals suggest recognition as a musical work requires signal periodicity to exceed some minimum. A methodological framework that satisfies recent definitions of sonification is outlined. This framework is proposed to extend to musification through incorporation of data features that represent more traditional elements of a musical work such as melody, harmony, and rhythm.
6

Ishibashi, Satoru, Norimasa Kudoh, Hiroyuki Kamaya e Yoshiaki Tadokoro. "Analyses of Kagura musical signals using LMS-based Fourier Analyzer". In TENCON 2016 - 2016 IEEE Region 10 Conference. IEEE, 2016. http://dx.doi.org/10.1109/tencon.2016.7848066.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
7

Muthumari, A. "Classification Analysis for Musical Instrument Signal". In International Conference for Phoenixes on Emerging Current Trends in Engineering and Management (PECTEAM 2018). Paris, France: Atlantis Press, 2018. http://dx.doi.org/10.2991/pecteam-18.2018.2.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
8

GOUYON, F., e P. HERRERA. "A BEAT INDUCTION METHOD FOR MUSICAL AUDIO SIGNALS". In Proceedings of the 4th European Workshop on Image Analysis for Multimedia Interactive Services. WORLD SCIENTIFIC, 2003. http://dx.doi.org/10.1142/9789812704337_0051.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
9

Oliveira Neto, Aluizio. "Iterative Meditations: The use of audio feature extraction tools on acousmatic composition". In Simpósio Brasileiro de Computação Musical. Sociedade Brasileira de Computação - SBC, 2019. http://dx.doi.org/10.5753/sbcm.2019.10460.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri
Abstract (sommario):
This piece explores some possibilities of using Music Information Retrieval and Signal Processing techniques to extract acoustic features from recorded material and use this data to inform the decision making process that is intrinsic to music composition. By trying to identify or create sound descriptors that correlate to the composer’s subjective sensations of listening it was possible to compare and manipulate samples on the basis of this information, bridging the gap between the imagined acoustic targets and the actions required to achieve it. “Iterative Meditations” was created through an iterative process of listening, analyzing, acting and refining the analysis techniques used, having as end product the musical piece itself as well as gathering a collection of tools for writing music.
10

Dixon, Simon. "Analysis of musical expression in audio signals". In Electronic Imaging 2003, a cura di Minerva M. Yeung, Rainer W. Lienhart e Chung-Sheng Li. SPIE, 2003. http://dx.doi.org/10.1117/12.476314.

Testo completo
Gli stili APA, Harvard, Vancouver, ISO e altri

Vai alla bibliografia