Добірка наукової літератури з теми "Perception spatiale auditive"

Оформте джерело за APA, MLA, Chicago, Harvard та іншими стилями

Оберіть тип джерела:

Ознайомтеся зі списками актуальних статей, книг, дисертацій, тез та інших наукових джерел на тему "Perception spatiale auditive".

Біля кожної праці в переліку літератури доступна кнопка «Додати до бібліографії». Скористайтеся нею – і ми автоматично оформимо бібліографічне посилання на обрану працю в потрібному вам стилі цитування: APA, MLA, «Гарвард», «Чикаго», «Ванкувер» тощо.

Також ви можете завантажити повний текст наукової публікації у форматі «.pdf» та прочитати онлайн анотацію до роботи, якщо відповідні параметри наявні в метаданих.

Статті в журналах з теми "Perception spatiale auditive":

1

de Vos, Jeroen. "Listen to the Absent: Binaural Inquiry in Auditive Spatial Perception." Leonardo Music Journal 26 (December 2016): 7–9. http://dx.doi.org/10.1162/lmj_a_00958.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
If space can be perceived through sound, then recording and playback techniques allow capturing a unique spatial moment for later retrieval. The notion of spectrality as the invisible visible can be used to explain the embodiment of an auditive momentum in a space that is ultimately absent. This empirical study presents the results of five structured interviews in which interviewees are confronted with three binaural spatial recordings to reflect on the perception of dwelling in a spectral space: a space that is not there.
2

Recanzone, Gregg H. "Auditory Influences on Visual Temporal Rate Perception." Journal of Neurophysiology 89, no. 2 (February 1, 2003): 1078–93. http://dx.doi.org/10.1152/jn.00706.2002.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Visual stimuli are known to influence the perception of auditory stimuli in spatial tasks, giving rise to the ventriloquism effect. These influences can persist in the absence of visual input following a period of exposure to spatially disparate auditory and visual stimuli, a phenomenon termed the ventriloquism aftereffect. It has been speculated that the visual dominance over audition in spatial tasks is due to the superior spatial acuity of vision compared with audition. If that is the case, then the auditory system should dominate visual perception in a manner analogous to the ventriloquism effect and aftereffect if one uses a task in which the auditory system has superior acuity. To test this prediction, the interactions of visual and auditory stimuli were measured in a temporally based task in normal human subjects. The results show that the auditory system has a pronounced influence on visual temporal rate perception. This influence was independent of the spatial location, spectral bandwidth, and intensity of the auditory stimulus. The influence was, however, strongly dependent on the disparity in temporal rate between the two stimulus modalities. Further, aftereffects were observed following approximately 20 min of exposure to temporally disparate auditory and visual stimuli. These results show that the auditory system can strongly influence visual perception and are consistent with the idea that bimodal sensory conflicts are dominated by the sensory system with the greater acuity for the stimulus parameter being discriminated.
3

Keough, Megan, Donald Derrick, and Bryan Gick. "Cross-Modal Effects in Speech Perception." Annual Review of Linguistics 5, no. 1 (January 14, 2019): 49–66. http://dx.doi.org/10.1146/annurev-linguistics-011718-012353.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Speech research during recent years has moved progressively away from its traditional focus on audition toward a more multisensory approach. In addition to audition and vision, many somatosenses including proprioception, pressure, vibration, and aerotactile sensation are all highly relevant modalities for experiencing and/or conveying speech. In this article, we review both long-standing cross-modal effects stemming from decades of audiovisual speech research and new findings related to somatosensory effects. Cross-modal effects in speech perception to date have been found to be constrained by temporal congruence and signal relevance, but appear to be unconstrained by spatial congruence. The literature reveals that, far from taking place in a one-, two-, or even three-dimensional space, speech occupies a highly multidimensional sensory space. We argue that future research in cross-modal effects should expand to consider each of these modalities both separately and in combination with other modalities in speech.
4

Bertonati, Giorgia, Maria Bianca Amadeo, Claudio Campus, and Monica Gori. "Auditory speed processing in sighted and blind individuals." PLOS ONE 16, no. 9 (September 22, 2021): e0257676. http://dx.doi.org/10.1371/journal.pone.0257676.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Multisensory experience is crucial for developing a coherent perception of the world. In this context, vision and audition are essential tools to scaffold spatial and temporal representations, respectively. Since speed encompasses both space and time, investigating this dimension in blindness allows deepening the relationship between sensory modalities and the two representation domains. In the present study, we hypothesized that visual deprivation influences the use of spatial and temporal cues underlying acoustic speed perception. To this end, ten early blind and ten blindfolded sighted participants performed a speed discrimination task in which spatial, temporal, or both cues were available to infer moving sounds’ velocity. The results indicated that both sighted and early blind participants preferentially relied on temporal cues to determine stimuli speed, by following an assumption that identified as faster those sounds with a shorter duration. However, in some cases, this temporal assumption produces a misperception of the stimulus speed that negatively affected participants’ performance. Interestingly, early blind participants were more influenced by this misleading temporal assumption than sighted controls, resulting in a stronger impairment in the speed discrimination performance. These findings demonstrate that the absence of visual experience in early life increases the auditory system’s preference for the time domain and, consequentially, affects the perception of speed through audition.
5

Cui, Qi N., Babak Razavi, William E. O'Neill, and Gary D. Paige. "Perception of Auditory, Visual, and Egocentric Spatial Alignment Adapts Differently to Changes in Eye Position." Journal of Neurophysiology 103, no. 2 (February 2010): 1020–35. http://dx.doi.org/10.1152/jn.00500.2009.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Vision and audition represent the outside world in spatial synergy that is crucial for guiding natural activities. Input conveying eye-in-head position is needed to maintain spatial congruence because the eyes move in the head while the ears remain head-fixed. Recently, we reported that the human perception of auditory space shifts with changes in eye position. In this study, we examined whether this phenomenon is 1) dependent on a visual fixation reference, 2) selective for frequency bands (high-pass and low-pass noise) related to specific auditory spatial channels, 3) matched by a shift in the perceived straight-ahead (PSA), and 4) accompanied by a spatial shift for visual and/or bimodal (visual and auditory) targets. Subjects were tested in a dark echo-attenuated chamber with their heads fixed facing a cylindrical screen, behind which a mobile speaker/LED presented targets across the frontal field. Subjects fixated alternating reference spots (0, ±20°) horizontally or vertically while either localizing targets or indicating PSA using a laser pointer. Results showed that the spatial shift induced by ocular eccentricity is 1) preserved for auditory targets without a visual fixation reference, 2) generalized for all frequency bands, and thus all auditory spatial channels, 3) paralleled by a shift in PSA, and 4) restricted to auditory space. Findings are consistent with a set-point control strategy by which eye position governs multimodal spatial alignment. The phenomenon is robust for auditory space and egocentric perception, and highlights the importance of controlling for eye position in the examination of spatial perception and behavior.
6

Radić-Šestić, Marina, Mia Šešum, and Ljubica Isaković. "The phenomenon of signed music in Deaf culture." Specijalna edukacija i rehabilitacija 20, no. 4 (2021): 259–71. http://dx.doi.org/10.5937/specedreh20-34296.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Introduction. Music in the Deaf community is a socio-cultural phenomenon that depicts a specific identity and way of experiencing the world, which is just as diverse, rich and meaningful as that of members of any other culture. Objective. The aim of this paper was to point out the historical and socio-cultural frameworks, complexity, richness, specific elements, types and forms of musical expression of members of the Deaf community. Methods. The applied methods included comparative analysis, evaluation, and deduction and induction system. Results. Due to limitations or a lack of auditive component, the members of Deaf culture use different communication tools, such as speech, pantomime, facial expressions and sign language. Signed music, as a phenomenon, is the artistic form which does not have long history. However, since the nineties of the past century and with technological development, it has been gaining greater interest and acknowledgement within the Deaf community and among the hearing audience. Signed music uses specific visuo-spatial-kinaesthetic and auditive elements in expression, such as rhythm, dynamism, rhyme, expressiveness, iconicity, intensity of the musical perception and the combination of the role of the performer. Conclusion. Signed music as a phenomenon is an art form that incorporates sign poetic characteristics (lyrical contents), visual musical elements and dance.
7

Tian, Yapeng. "Towards Unified, Explainable, and Robust Multisensory Perception." Proceedings of the AAAI Conference on Artificial Intelligence 37, no. 13 (June 26, 2023): 15456. http://dx.doi.org/10.1609/aaai.v37i13.26823.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Humans perceive surrounding scenes through multiple senses with multisensory integration. For example, hearing helps capture the spatial location of a racing car behind us; seeing peoples' talking faces can strengthen our perception of their speech. However, today's state-of-the-art scene understanding systems are usually designed to rely on a single audio or visual modality. Ignoring multisensory cooperation has become one of the key bottlenecks in creating intelligent systems with human-level perception capability, which impedes the real-world applications of existing scene understanding models. To address this limitation, my research has pioneered marrying computer vision with computer audition to create multimodal systems that can learn to understand audio and visual data. In particular, my current research focuses on asking and solving fundamental problems in a fresh research area: audio-visual scene understanding and strives to develop unified, explainable, and robust multisensory perception machines. The three themes are distinct yet interconnected, and all of them are essential for designing powerful and trustworthy perception systems. In my talk, I will give a brief overview about this new research area and then introduce my works in the three research thrusts.
8

Plaza, Paula, Isabel Cuevas, Cécile Grandin, Anne G. De Volder, and Laurent Renier. "Looking into Task-Specific Activation Using a Prosthesis Substituting Vision with Audition." ISRN Rehabilitation 2012 (February 6, 2012): 1–15. http://dx.doi.org/10.5402/2012/490950.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
A visual-to-auditory sensory substitution device initially developed for the blind is known to allow visual-like perception through sequential exploratory strategies. Here we used functional magnetic resonance imaging (fMRI) to test whether processing the location versus the orientation of simple (elementary) “visual” stimuli encoded into sounds using the device modulates the brain activity within the dorsal visual stream in the absence of sequential exploration of these stimuli. Location and orientation detection with the device induced a similar recruitment of frontoparietal brain areas in blindfolded sighted subjects as the corresponding tasks using the same stimuli in the same subjects in vision. We observed a similar preference of the right superior parietal lobule for spatial localization over orientation processing in both sensory modalities. This provides evidence that the parietal cortex activation during the use of the prosthesis is task related and further indicates the multisensory recruitment of the dorsal visual pathway in spatial processing.
9

Bueti, Domenica, and Vincent Walsh. "The parietal cortex and the representation of time, space, number and other magnitudes." Philosophical Transactions of the Royal Society B: Biological Sciences 364, no. 1525 (July 12, 2009): 1831–40. http://dx.doi.org/10.1098/rstb.2009.0028.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
The development of sub-disciplines within cognitive neuroscience follows common sense categories such as language, audition, action, memory, emotion and perception among others. There are also well-established research programmes into temporal perception, spatial perception and mathematical cognition that also reflect the subjective impression of how experience is constructed. There is of course no reason why the brain should respect these common sense, text book divisions and, here, we discuss the contention that generalized magnitude processing is a more accurate conceptual description of how the brain deals with information about time, space, number and other dimensions. The roots of the case for linking magnitudes are based on the use to which magnitude information is put (action), the way in which we learn about magnitudes (ontogeny), shared properties and locations of magnitude processing neurons, the effects of brain lesions and behavioural interference studies. Here, we assess this idea in the context of a theory of magnitude, which proposed common processing mechanisms of time, space, number and other dimensions.
10

Hong, Fangfang, Stephanie Badde, and Michael S. Landy. "Causal inference regulates audiovisual spatial recalibration via its influence on audiovisual perception." PLOS Computational Biology 17, no. 11 (November 15, 2021): e1008877. http://dx.doi.org/10.1371/journal.pcbi.1008877.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
To obtain a coherent perception of the world, our senses need to be in alignment. When we encounter misaligned cues from two sensory modalities, the brain must infer which cue is faulty and recalibrate the corresponding sense. We examined whether and how the brain uses cue reliability to identify the miscalibrated sense by measuring the audiovisual ventriloquism aftereffect for stimuli of varying visual reliability. To adjust for modality-specific biases, visual stimulus locations were chosen based on perceived alignment with auditory stimulus locations for each participant. During an audiovisual recalibration phase, participants were presented with bimodal stimuli with a fixed perceptual spatial discrepancy; they localized one modality, cued after stimulus presentation. Unimodal auditory and visual localization was measured before and after the audiovisual recalibration phase. We compared participants’ behavior to the predictions of three models of recalibration: (a) Reliability-based: each modality is recalibrated based on its relative reliability—less reliable cues are recalibrated more; (b) Fixed-ratio: the degree of recalibration for each modality is fixed; (c) Causal-inference: recalibration is directly determined by the discrepancy between a cue and its estimate, which in turn depends on the reliability of both cues, and inference about how likely the two cues derive from a common source. Vision was hardly recalibrated by audition. Auditory recalibration by vision changed idiosyncratically as visual reliability decreased: the extent of auditory recalibration either decreased monotonically, peaked at medium visual reliability, or increased monotonically. The latter two patterns cannot be explained by either the reliability-based or fixed-ratio models. Only the causal-inference model of recalibration captures the idiosyncratic influences of cue reliability on recalibration. We conclude that cue reliability, causal inference, and modality-specific biases guide cross-modal recalibration indirectly by determining the perception of audiovisual stimuli.

Дисертації з теми "Perception spatiale auditive":

1

Hartnagel, David. "La perception de l'espace multisensoriel appréhendée par l'étude de la fusion visuo-auditive : les effets de la dissociation des référentiels spatiaux." Paris 8, 2007. http://octaviana.fr/document/135521491#?c=0&m=0&s=0&cv=0.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les effets de la dissociation des référentiels spatiaux sur la perception de l'espace multimodal sont évalués au moyen d'une tâche de fusion Visuo-Auditive (VA). Une étude princeps de fusion VA (Godfroy et al. , 2003) révèle une organisation symétrique de l'espace par rapport au plan sagittal médian. Les systèmes sensoriels visuel et auditif codent l’information spatiale dans des référentiels différents, oculo-centré pour la vision et céphalo-centré pour l'audition. Une première expérimentation montre que la dissociation des référentiels unimodaux, engendrée par une fixation visuelle latérale provoque un décalage de l'espace de fusion VA dont l'axe de symétrie s'établit en position intermédiaire entre l'orientation de la tête et du regard. Cet effet est reproduit dans une 2e expérimentation effectuée dans l’obscurité. Ce résultat conduit à proposer une prise en compte simultanée de la position de la tête et des yeux pour la présentation d'information VA. Pour contourner cette contrainte de conception, une 3e expérimentation analyse l'influence d'indices visuels structurant l'espace allocentré sur la fusion VA. L'effet de dissociation des référentiels spatiaux égocentrés sur la fusion VA est retrouvé, il est robuste et régulier, peu dépendant de l'environnement. La nature intégrative du processus de fusion VA est confirmée, sa résultante perceptive dépend du codage spatial de chacune des modalités. Le référentiel VA n'apparait pas comme le fruit d'une transformation incomplète d'une représentation crânio-centré vers une représentation oculocentrée mais, comme le suggèrent les données de l'électrophysiologie (Snyder, 2005), comme une représentation idiosyncratique de l’espace
Frames of reference dissociation effect on the multisensory space is estimated in a Visual-Auditory (VA) fusion task. Godfroy et al. (2003), showed that there is a symmetrical organization of the VA space relative to the mid sagittal plane. Spatial information is coded differently in visual and auditory sensory systems, eye-centred for vision, head-centred for audition. A first experiment shows a reference frame dissociation effect, VA fusion space is symmetrically organized relative to an intermediary axis inbetween head and eye position when fixation cross is laterally shifted. In a 2nd experiment in total darkness, this effect is also found. Hence, head and eye position for VA information displays need to be accounted for. To bypass this eye position effect, a third experiment investigates allocentric visual cues influence. Again, multisensory space perception still depends on the eye-in-head position. The dissociation of egocentric reference frames effect on VA fusion is robust and regular, visual cues provided by the environment are not so relevant. These results confirm that VA fusion is an integrative phenomenon; it depends on the spatial coding of each sensory modality. VA reference frame seems not to reflect an intermediate stage in a reference frame transformation from head-centred to eye-centred, but rather as electrophysiological data proposed (Snyder, 2005), an idiosyncratic representation of space
2

Després, Olivier. "Mécanismes de localisation spatiale chez l'homme : interaction entre le système visuel et le système auditif." Strasbourg 1, 2004. https://publication-theses.unistra.fr/public/theses_doctorat/2004/DESPRES_Olivier_2004.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Notre perception du monde résulte de traitements des signaux environnementaux, se présentant sous des formes d'énergie variées (e. G. , énergie électromagnétique pour la lumière; énergie mécanique pour le son). Ces traitements impliquent des mécanismes de transduction, de codage et de propagation du message, spécifiques à chaque système sensoriel, et aboutissent à des expériences perceptives qualitativement distinctes les unes des autres. Malgré la spécificité de chaque système sensoriel, la perception des événements est unifiée grâce à des liens étroits entre les différentes modalités sensorielles. Cette hypothèse est aujourd'hui communément admise grâce aux résultats de nombreux travaux au niveau neurophysiologique et comportemental. En effet, l'existence de convergence de signaux provenant de différentes modalités sensorielles, vers certaines structures cérébrales, ainsi que la mise en évidence de mécanismes d'interaction multimodale, tant au niveau neuronal que comportemental, semble montrer que ces signaux sont intégrés dans des processus communs de la perception. Au niveau perceptif, l'interaction multimodale se traduit par la modification de la perception d'un événement pour une modalité sensorielle donnée, lorsqu'une stimulation, d'une ou plusieurs autres modalités sensorielles, est émise simultanément. De nombreux travaux ont notamment mis en évidence des processus d'interaction entre le système visuel et le système auditif, grâce à l'étude de certaines illusions perceptives. Par exemple, dans un environnement bruyant, nous pouvons aisément suivre le discours d'une personne, si nous regardons les mouvements de ses lèvres (Cherry, 1953). D'autres observations montrent que la localisation d'un stimulus auditif peut être déplacée en direction d'un stimulus visuel présenté simultanément (Radeau and Bertelson, 1974). Par exemple, lorsque nous regardons un film au cinéma, nous avons l'impression que les voix des acteurs proviennent de l'écran, alors qu'elles sont en fait émises par des haut-parleurs situés de part et d'autre de l'écran. Si ces effets semblent mettre en évidence une influence du système visuel sur le traitement spatial des signaux auditifs, l'effet inverse n'est pas observé. Il semblerait ainsi que le flux des informations visuelles domine celui des informations auditives dans le traitement spatial d'événements audiovisuels et que la vision joue un rôle prépondérant dans notre perception de l'espace. Afin de préciser le rôle joué par le système visuel dans le développement des aptitudes spatiales auditives, certains chercheurs ont étudié les performances de personnes aveugles dans des tâches de localisation auditive. Les premiers résultats montraient que les performances de sujets aveugles de naissance, à localiser des cibles auditives, sont inférieures, d'une part, à celles de sujets aveugles ayant eu une expérience visuelle, et, d'autre part, à celles de sujets normaux, privés au cours de la tâche de toute stimulation visuelle (Fisher, 1964; Warren, Anooshian et al. , 1973). De ce constat, Fisher (1964) conclut que le développement d'aptitudes spatiales auditives nécessite une expérience visuelle. Le système visuel n'étant pas fonctionnel dès la naissance chez les aveugles congénitaux, leurs aptitudes spatiales auditives seraient considérablement altérées. Cependant, d'autres observations contredisent fortement cette hypothèse en mettant en évidence le développement de compensations spatiales auditives suite à une cécité congénitale. D'une part, les aveugles de naissance développent des capacités leur permettant de détecter, de localiser et d'identifier un objet dans leur environnement, par l'analyse des signaux acoustiques se réverbérant sur cet objet (Hausfeld, Power et al. , 1982; Kellogg, 1962; Rice, 1967, 1969; Rice, Feinstein et al. , 1965). D'autre part, les aveugles ont de meilleures performances de localisation de cibles auditives que les voyants, lorsque les stimuli auditifs sont émis à partir de régions spatiales périphériques, c'est-à-dire situées en dehors du champs visuel des voyants (Ashmead, Wall et al, 1998; Lessard, Pare et al. , 1998; Röder, Teder-Salejarvi et al. , 1999). Un déficit total du système a donc pour conséquence la mise en place d'une compensation auditive dans les processus spatiaux. Cependant, nous ne pouvons déterminer à partir de ces seules observations, le rôle joué par la vision dans le développement d'aptitudes spatiales auditives, lorsque le système visuel est fonctionnel. La question de l'influence de l'expérience visuelle sur l'élaboration d'une représentation de l'espace acoustique constitue le cadre général du présent travail.
3

Pires, Isabel Maria Antunes. "La notion d'espace dans la création musicale : idées, concepts et attributions : une réflexion à propos d'"espaces" intentionnellement perçus ou composés de l'"entité sonore"." Paris 8, 2007. http://octaviana.fr/document/133290859#?c=0&m=0&s=0&cv=0.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Notre étude présente une réflexion à propos de espaces musicaux composables. Cette réflexion inclue l'usage intentionnel des qualités sonores perçues dans la construction de sons et donc dans la composition musicale. Nos recherches se trouvent à l'intersection entre le son, comme phénomène physique qui se propage dans un espace, les sensations spatiales qui peuvent être engendrées par la perception auditive de certaines caractéristiques du son, et la pratique de la composition musicale d'espaces de sons dans les œuvres. Nous développons l'idée d'une entité sonore composable dès sa microstructure. Nous la concevons par analogie avec les objets du monde visible et palpable. Nous utilisons les idées de volume, forme et matière ainsi que celles de position et de mouvement des objets matériels, comme métaphore pour concevoir des entités sonores et des espaces musicaux composés dans lesquels elles seront intégrées. Cette entité sonore constituée d'un ensemble d'éléments disparates, permet le développement de réseaux opératoires manipulables dans la pratique par les compositeurs
Our research presents some ideas about composing musical spaces. This study includes the intentional use of the perceived sound qualities in sound construction, and, by the consequence, in musical composition. Our research is in the intersection between the sound as a physical phenomenon, the spatial sensations created by the auditory perception of some sound proprieties, and the musical composition of sound spaces. We develop the idea of a sound entity that we can compose from its microstructure to the macrostructure. We conceive it by means of an analogical thinking about the tangible world objects and the auditory sound sensations. We consider the ideas of volume, form and matter, positions and movements of the material objects. We used these ideas as metaphor to conceive sound entities integrated into and musical composed spaces. The conception of the sound entity as a group of heteroclite elements ; il make possible the conception of operational networks. The composer can use these networks for sound manipulations in his compositional work
4

Pires, Isabel Maria Antunes Vaggione Horacio. "La notion d'espace dans la création musicale." Saint-Denis : Université de Paris 8, 2009. http://www.bu.univ-paris8.fr/web/collections/theses/AntunesPiresThese.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Gandemer, Lennie. "Son et posture : le rôle de la perception auditive spatiale dans le maintien de l'équilibre postural." Thesis, Aix-Marseille, 2016. http://www.theses.fr/2016AIXM4749/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Le maintien de la stabilité posturale est généralement décrit comme le résultat de l’intégration de plusieurs modalités sensorielles : vision, proprioception, tactile plantaire et système vestibulaire. Bien qu’étant une source riche d’informations spatiales, l’audition a été très peut étudiée dans ce cadre. Dans cette thèse, nous nous sommes intéressés à l’influence spécifique du son sur la posture.La première partie de ces travaux concerne la mise en place et la caractérisation perceptive d’un système de spatialisation ambisonique d’ordre 5. Ce système permet de générer et de déplacer des sons dans tout l’espace 3D entourant l’auditeur, ainsi que de synthétiser des espaces sonores immersifs et réalistes.Ensuite, ce système a été utilisé comme un outil pour la génération de stimuli adaptés à l’étude de l’influence du son sur la posture. Ainsi, la posture debout statique de sujets jeunes et en bonne santé a été étudiée dans un ensemble de cinq expériences posturales. Les résultats de ces différentes études montrent que l’information auditive spatiale peut être intégrée dans le système de régulation posturale, et permettre aux sujets d’atteindre une meilleure stabilité posturale.Deux pistes sont évoquées pour interpréter cette stabilisation : d’un côté, l’utilisation des indices acoustiques pour construire une carte spatiale de l’espace environnant, représentation par rapport à laquelle les sujets peuvent se stabiliser ; de l’autre, des phénomènes d’intégration multi-sensorielle, où la modalité auditive permettrait de potentialiser l’intégration des différentes informations fournies par les autres modalités impliquées dans le contrôle postural
Postural control is known to be the result of the integration by the central nervous system of several sensory modalities. In the literature, visual, proprioceptive, plantar touch and vestibular inputs are generally mentioned, and the role of audition is often neglected, even though sound is a rich and broad source of information on the whole surroundind 3D space. In the frame of this PhD, we focused on the specific role of sound on posture. The first part of this work is related to the design, the set-up and the perceptual evaluation of a fifth order ambisonics sound spatialization system. This system makes it possible to generate and move sound sources in the 3D space surrounding the listener and also to synthesize immersive and realistic sound environments. Then, this sound spatialization system was used as a tool to generate sound stimuli used in five different postural tests. In these tests, we studied the static upright stance of young and healthy subjects. The results of these studies show that the spatial auditory information can be integrated in the postural control system, allowing the subjects to reach a better stability.Two complementary trails are proposed to explain these stabilizing effects. Firstly, the spatial acoustic cues can contribute to the building of a mental representation of the surrounding environment; given this representation, the subjects could improve their stability. Secondly, we introduce multisensory integration phenomena: the auditory component could facilitate the integration of the other modalities implied in the postural control system
6

Fekih, Kabil. "Le parcours sonore : de la construction urbaine aux constructions mentales." Grenoble 2, 2006. http://www.theses.fr/2006GRE29063.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Dans ce travail de recherche, au croisement de 1 'urbanisme, de la géographie, de la sociologie, de la psycho-acoustique et de la psychologie cognitive, nous traitons la question du parcours sonore urbain. Notre dessein est de construire et d'élaborer des éléments de réponse à notre principale question : qu'est-ce que la mémoire sonore du parcours urbain ? Notre tâche serait alors de mettre en lumière les modes de construction et de constitution de la carte mentale sonore moyennant l'examen du parcours dans la ville. Pour mettre en valeur la synergie qui s'installe entre l'urbain et le chemin, entre le parcours et la sédimentabilité des évènements sonores. Après la réalisation et l'analyse des enquêtes effectuées à Grenoble, Strasbourg, Québec et Sousse (Tunisie), nous arrivons à la présentation et la définition de cinq nouvelles notions fondamentales dans le traitement de la carte mentale sonore à savoir, le Système sonore, le Coefficient Mnésique Sonore, la Synaptogénèse urbaine, le Spectre mental urbain et la Fractalité sonore. Ces notions sont élaborées à partir de l'étude de toutes les données théoriques et méthodologiques que nous avons abordées tout au long de notre réflexion. Elles nous permettent de comprendre le fonctionnement de la mémoire sonore du parcours urbain et de préciser ses caractéristiques et les modalités de son fonctionnement.
7

Hartnagel, David Roumes Corinne. "La perception de l'espace multisensoriel appréhendée par l'étude de la fusion visuo-auditive les effets de la dissociation des référentiels spatiaux /." Saint-Denis : Université de Paris 8, 2009. http://www.bu.univ-paris8.fr/consult.php?url_these=theses/HartnagelThese.pdf.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Bordeau, Camille. "Développement d’un dispositif de substitution sensorielle vision-vers-audition : étude des performances de localisation et comparaison de schémas d’encodage." Electronic Thesis or Diss., Bourgogne Franche-Comté, 2023. https://nuxeo.u-bourgogne.fr/nuxeo/site/esupversions/32b91892-b42f-4d42-bf10-0ad744828698.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Les dispositifs de substitution sensorielle vision-vers-audition convertissent des informations visuelles en un paysage sonore dans le but de permettre de percevoir l’environnement à travers la modalité auditive lorsque la modalité visuelle est altérée. Ils constituent une solution prometteuse pour améliorer l’autonomie des personnes déficientes visuelles lors de leurs déplacements pédestres. Ce travail de thèse avait pour objectif principal de déterminer et d’évaluer un schéma d’encodage pour la substitution sensorielle permettant la perception spatiale 3-dimensionnelle en proposant des protocoles de familiarisation et d’évaluation dans des environnements virtuels plus ou moins complexes. Le premier objectif était de déterminer si la reproduction d’indices acoustiques pour la perception spatiale auditive était plus efficace que l’utilisation d’autres indices acoustiques impliqués dans des interactions audio-visuelles. La première étude a mis en évidence que la modulation de la hauteur tonale dans le schéma d’encodage permettait de compenser en partie les limites perceptives de la spatialisation pour la dimension de l’élévation. La deuxième étude a mis en évidence que la modification de l’enveloppe sonore pouvait permettre de compenser la perception compressée de la distance. Le deuxième objectif de ce travail de thèse était de déterminer dans quelle mesure le schéma d’encodage utilisé préservait les capacités de perception spatiale dans un environnement complexe composé de plusieurs objets. La troisième étude a mis en évidence que les capacités de ségrégation d'une scène visuelle complexe à travers le paysage sonore associé dépendaient de la signature spectrale spécifique des objets la composant lorsque la modulation de la hauteur tonale est utilisée comme indice acoustique dans le schéma d'encodage. Les travaux de cette thèse ont des implications pratiques pour l’amélioration des dispositifs de substitution concernant, d’une part, la possibilité de compenser les limites perceptives spatiales avec des indices acoustiques non-spatiaux dans le schéma d’encodage, et d’une autre part, la nécessité de réduire le flux d’informations auditives pour préserver les capacités de ségrégation du paysage sonore. Les protocoles de familiarisation et d’évaluation en environnement virtuel ayant été développés de sorte à être adaptés à la population déficiente visuelle, les travaux de cette thèse soulignent le potentiel des environnements virtuels pour évaluer précisément les capacités d’utilisation de dispositifs de substitution dans un contexte contrôlé et sécurisé
Visual-to-auditory sensory substitution devices convert visual information into soundscapes for the purpose of allowing the perception of the environment with the auditory modality when the visual modality is impaired. They constitute a promising solution for improving the autonomy of visually impaired people when traveling on foot. The main objective of this thesis work was to determine an encoding scheme for sensory substitution allowing 3-dimensional spatial perception by proposing familiarization and evaluation protocols in virtual environments with different complexities. The first aim was to determine whether the reproduction of acoustic cues for auditory spatial perception was more effective than the use of acoustic cues involved in audio-visual interactions. The first study demonstrated that the modulation of pitch in the encoding scheme could partly compensate for the perceptual limits of spatialization for the dimension of elevation. The second study showed that the modification of the sound envelope could partly compensate for the compressed perception of distance. The second objective was to determine to what extent the determined encoding scheme preserved spatial perception abilities in a complex environment where several objects were present. The third study demonstrated that the segregation capabilities of a complex visual scene through the soundscape depend on the specific spectral signature of the objects composing it when pitch modulation is used as an acoustic cue in the encoding scheme. The work of this thesis has practical implications for the improvement of substitution devices concerning, on the one hand, the possibility of compensating spatial perceptual limits with non-spatial acoustic cues in the encoding scheme, and on the other hand, the need to reduce the amount of auditory information to preserve the segregation abilities of the soundscape. The familiarization and evaluation protocols in a virtual environment having been developed to be adapted to the visually impaired population, the work of this thesis highlights the potential of virtual environments to precisely evaluate the abilities to use sensory substitution devices in a secure context
9

Masson, Damien. "La perception embarquée : analyse sensible des voyages urbains." Phd thesis, Grenoble 2, 2009. http://tel.archives-ouvertes.fr/tel-00441955.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Cette recherche pose la question du lien entre expérience du mouvement et compréhension sensible de l'espace urbain. Située dans le champ des ambiances architecturales et urbaines, et placée dans le sillon épistémologique et théorique des travaux de sociologie des mobilités issus de l'Université de Lancaster, cette recherche part de l'hypothèse suivante : la compréhension de la perception en mouvement de l'espace urbain est un moyen de relier les échelles disparates du sensible – corporel et contextualisé – et de l'espace à une grande échelle. Des paroles de voyageurs ont été recueillies dans le métro de Paris et à bord d'un train à Lyon, à l'aide d'une adaptation de la méthode des parcours commentés ; des enregistrements sonores ont également été réalisés à bord de transports collectifs ferroviaires (métro, tramway, train) dans cinq villes du monde. De ce corpus empirique émerge une analyse de l'expérience sensible des transports organisée autour de différents registres à l'interface des sensibilités, du moyen de transport et de l'espace traversé. Deux résultats principaux émergent de cette démarche. Premièrement, le développement d'une métholodologie spécifique, capable de rendre compte à la fois de la perception en transports motorisés ainsi que de l'espace urbain à l'épreuve du mouvement. Secondement, des modalités d'analyse originales permettant la construction théorique compréhensive de l'espace urbain « inter-échelles ». L'objectif final de cette mise en confrontation consiste à avancer théoriquement sur la notion d'ambiance à une échelle urbaine.
10

Hendrickx, Etienne. "Influence de la stéréoscopie sur la perception du son : cas de mixages sonores pour le cinéma en relief." Thesis, Brest, 2015. http://www.theses.fr/2015BRES0078/document.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
Peu d'études ont été menées sur l'influence de la stéréoscopie sur la perception d'un mixage audio au cinéma. Les témoignages de mixeurs ou les articles scientifiques montrent pourtant une grande diversité d'opinions à ce sujet. Certains estiment que cette influence est négligeable, d'autres affirment qu'il faut totalement revoir notre conception de la bande-son, aussi bien au niveau du mixage que de la diffusion. Une première série d'expériences s'est intéressée à la perception des sons d'ambiance. 8 séquences, dans leurs versions stéréoscopiques (3D-s) et non-stéréoscopiques (2D), ont été diffusées dans un cinéma à des sujets avec plusieurs mixages différents. Pour chaque présentation, les sujets devaient évaluer à quel point le mixage proposé leur paraissait trop frontal ou au contraire trop « surround », le but étant de mettre en évidence une éventuelle influence de la stéréoscopie sur la perception de la balance frontal/surround d'un mixage audio. Les résultats obtenus ont rejoint ceux d'une expérience préliminaire menée dans un auditorium de mixage, où les sujets se trouvaient en situation de mixeur et devaient eux-mêmes régler la balance frontal/surround : l'influence de la stéréoscopie était faible et n'apparaissait que pour quelques séquences. Des études ont ensuite été menées sur la perception des objets sonores tels que dialogues et effets. Une quatrième expérience s'est intéressée à l'effet ventriloque en élévation : lorsque l'on présente à un sujet des stimuli audio et visuel temporellement coïncidents mais spatialement disparates, les sujets perçoivent parfois le stimulus sonore au même endroit que le stimulus visuel. On appelle ce phénomène l’effet ventriloque car il rappelle l'illusion créée par le ventriloque lorsque sa voix semble plutôt provenir de sa marionnette que de sa propre bouche. Ce phénomène a été très largement étudié dans le plan horizontal, et dans une moindre mesure en distance. Par contre, très peu d'études se sont intéressées à l'élévation. Dans cette expérience, nous avons présenté à des sujets des séquences audiovisuelles montrant un homme en train de parler. Sa voix pouvait être reproduite sur différents haut-parleurs, qui créaient des disparités plus ou moins grandes en azimut et en élévation entre le son et l'image. Pour chaque présentation, les sujets devaient indiquer si la voix semblait ou non provenir de la même direction que la bouche de l'acteur. Les résultats ont montré que l'effet ventriloque était très efficace en élévation, ce qui suggère qu'il n'est peut-être pas nécessaire de rechercher la cohérence audiovisuelle en élévation au cinéma
Few psychoacoustic studies have been carried out about the influence of stereoscopy on the sound mixing of movies. Yet very different opinions can be found in the cinema industry and in scientific papers. Some argue that sound needs to be mixed differently for stereoscopic movies while others pretend that this influence is negligible.A first set of experiments was conducted, which focused on the perception of ambience. Eight sequences - in their stereoscopic (s-3D) and non-stereoscopic (2D) versions, with several different sound mixes - were presented to subjects. For each presentation, subjects had to judge to what extent the mix sounded frontal or “surround.” The goal was to verify whether stereoscopy had an influence on the perception of the front/surround balance of ambience. Results showed that this influence was weak, which was consistent with a preliminary experiment conducted in a mixing auditorium where subjects had to mix the front/surround balance of several sequences themselves.Studies were then conducted on the perception of sound objects such as dialogs or on-screen effects. A fourth experiment focused on ventriloquism in elevation: when presented with a spatially discordant auditory-visual stimulus, subjects sometimes perceive the sound and the visual stimuli as coming from the same location. Such a phenomenon is often referred to as ventriloquism, because it evokes the illusion created by a ventriloquist when his voice seems to emanate from his puppet rather than from his mouth. While this effect has been extensively examined in the horizontal plane and to a lesser extent in distance, few psychoacoustic studies have focused on elevation. In this experiment, sequences of a man talking were presented to subjects. His voice could be reproduced on different loudspeakers, which created disparities in both azimuth and elevation between the sound and the visual stimuli. For each presentation, subjects had to indicate whether or not the voice seemed to emanate from the mouth of the actor. Ventriloquism was found to be highly effective in elevation, which suggests that audiovisual coherence in elevation might be unnecessary in theaters

Книги з теми "Perception spatiale auditive":

1

H, Gilkey Robert, and Anderson Timothy R, eds. Binaural and spatial hearing in real and virtual environments. Mahwah, N.J: Lawrence Erlbaum Associates, 1997.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
2

Blauert, Jens. Spatial hearing: The psychophysics of human sound localization. Cambridge, Mass: MIT Press, 1997.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
3

Anderson, Timothy R., and Robert Gilkey. Binaural and Spatial Hearing in Real and Virtual Environments. Taylor & Francis Group, 2014.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
4

Anderson, Timothy R., and Robert Gilkey. Binaural and Spatial Hearing in Real and Virtual Environments. Taylor & Francis Group, 2014.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
5

Anderson, Timothy R., and Robert Gilkey. Binaural and Spatial Hearing in Real and Virtual Environments. Taylor & Francis Group, 2014.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
6

Anderson, Timothy R., and Robert Gilkey. Binaural and Spatial Hearing in Real and Virtual Environments. Taylor & Francis Group, 2014.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
7

Anderson, Timothy R., and Robert H. Gilkey. Binaural and Spatial Hearing in Real and Virtual Environments. Taylor & Francis Group, 2015.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
8

Berenbaum, Sheri A. Gonadal Hormones and Sex Differences in Behavior: A Special Issue of Developmental Neuropsychology. Taylor & Francis Group, 2014.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
9

Berenbaum, Sheri A. Gonadal Hormones and Sex Differences in Behavior: A Special Issue of Developmental Neuropsychology. Taylor & Francis Group, 2014.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
10

Berenbaum, Sheri A. Gonadal Hormones and Sex Differences in Behavior: A Special Issue of Developmental Neuropsychology. Taylor & Francis Group, 2014.

Знайти повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.

Частини книг з теми "Perception spatiale auditive":

1

Mandrigin, Alisa, and Matthew Nudds. "Sameness of place and the senses." In The World at Our Fingertips, 215–30. Oxford University Press, 2021. http://dx.doi.org/10.1093/oso/9780198851738.003.0012.

Повний текст джерела
Стилі APA, Harvard, Vancouver, ISO та ін.
Анотація:
When we watch a film at the cinema, we typically experience the speech we hear as coming from the mouths of the actors depicted on the screen, rather than from the loudspeakers. This is an everyday example of the spatial ventriloquism effect. In this chapter, we are interested in what it is for things that we are aware of through different senses to appear to be in a single space, or even—as in spatial ventriloquism—at the same place. The answer may seem trivial: all that is required is that we pick out places in the different senses in the same way. However, as Millikan (1991, 2000) has argued, representing a single location in the same way is not the same as representing sameness of location. What we need, either instead of, or as well as, sameness of reference frame, is for sameness of place to be a part of the content of experience. Empirical evidence suggests that there exist peripersonal representations that encode multisensory information about the region of space that immediately surrounds the body. Their existence generates a puzzle for accounts of perception—namely, what is the relation between peripersonal representations that figure in empirical discussions and our everyday perceptual experience of ourselves and the world? Here we examine whether peripersonal space representations might play a role in our conscious awareness of the spatial relations between entities experienced in vision, audition, and touch.

До бібліографії