Dissertations / Theses on the topic 'Auditory display'
Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles
Consult the top 50 dissertations / theses for your research on the topic 'Auditory display.'
Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.
You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.
Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.
King, Robert A. "Determinants of auditory display usage." Thesis, Georgia Institute of Technology, 1993. http://hdl.handle.net/1853/29422.
Full textKing, Lisa Charmayne. "Auditory ambience as an information display." Diss., Georgia Institute of Technology, 1994. http://hdl.handle.net/1853/28829.
Full textKazem, Mandana Louise Nejad. "Situation awareness, pilots and auditory display design." Thesis, University of Bristol, 2004. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.440257.
Full textStewart, Rebecca. "Spatial auditory display for acoustics and music collections." Thesis, Queen Mary, University of London, 2010. http://qmro.qmul.ac.uk/xmlui/handle/123456789/413.
Full textCherston, Juliana Mae. "Auditory display for maximizing engagement and attentive capacity." Thesis, Massachusetts Institute of Technology, 2016. http://hdl.handle.net/1721.1/111556.
Full textCataloged from PDF version of thesis.
Includes bibliographical references (pages 112-118).
Two projects in scientific data sonification are presented. 'Quantizer' is a platform that enables composers to develop artistic sonification schemes using real-time data from the ATLAS detector at CERN. Three sample audio streams are available for real-time consumption by the public and the public engagement potential for the project is studied. 'Rotator' uses sonification as a practical tool for analysis of high dimensional data Users can swipe data between their auditory and visual channels in order to best perceive the structure of a dataset. A dual audio-visual presentation mode is found to be a promising alternative to use of a purely visual display mode.
by Juliana Mae Cherston.
S.M.
Pauletto, Sandra. "Interactive non-speech auditory display of multivariate data." Thesis, University of York, 2007. http://etheses.whiterose.ac.uk/14192/.
Full textNees, Michael A. "Data Density and Trend Reversals in Auditory Graphs: Effects on Point Estimation and Trend Identification Tasks." Thesis, Available online, Georgia Institute of Technology, 2007, 2007. http://etd.gatech.edu/theses/available/etd-02262007-105538/.
Full textBallora, Mark. "Data analysis through auditory display : applications in heart rate variability." Thesis, McGill University, 2000. http://digitool.Library.McGill.CA:80/R/?func=dbin-jump-full&object_id=35463.
Full textFrauenberger, Chris. "Auditory display design : an investigation of a design pattern approach." Thesis, Queen Mary, University of London, 2009. http://qmro.qmul.ac.uk/xmlui/handle/123456789/7685.
Full textParente, Peter Bishop Gary. "Clique perceptually based, task oriented auditory display for GUI applications /." Chapel Hill, N.C. : University of North Carolina at Chapel Hill, 2008. http://dc.lib.unc.edu/u?/etd,1983.
Full textTitle from electronic title page (viewed Dec. 11, 2008). "... in partial fulfillment of the requirements for the degree of Doctor of Philosophy in the Department of Computer Science." Discipline: Computer Science; Department/School: Computer Science.
Fitch, Gregory M. "Drivers' Ability to Localize Auditory and Haptic Alarms in Terms of Speed and Accuracy." Thesis, Virginia Tech, 2004. http://hdl.handle.net/10919/34320.
Full textMaster of Science
Fain, W. Bradley. "An investigation of attention in a consistently mapped auditory detection task." Diss., Georgia Institute of Technology, 2002. http://hdl.handle.net/1853/30873.
Full textLauret, David T. "The Auditory Display in Interactive Courseware: Moving Human Factors into Computer Education." NSUWorks, 1998. http://nsuworks.nova.edu/gscis_etd/658.
Full textBarrass, Stephen, and stephen barrass@cmis csiro au. "Auditory Information Design." The Australian National University. Computer Science, 1998. http://thesis.anu.edu.au./public/adt-ANU20010702.150218.
Full textRöber, Niklas. "Interaction with sound explorations beyond the frontiers of 3D virtual auditory environments." München Verl. Dr. Hut, 2009. http://d-nb.info/994105509/04.
Full textDeschamps, Marie-Lys, Penelope Sanderson, Kelly Hinckfuss, Caitlin Browning, Robert G. Loeb, Helen Liley, and David Liu. "Improving the detectability of oxygen saturation level targets for preterm neonates: A laboratory test of tremolo and beacon sonifications." ELSEVIER SCI LTD, 2016. http://hdl.handle.net/10150/617179.
Full textHolmes, Jason. "Measuring the accuracy of four attributes of sound for conveying changes in a large data set." Thesis, University of North Texas, 2003. https://digital.library.unt.edu/ark:/67531/metadc4154/.
Full textSong, Hong Jun. "Evaluation of the effects of spatial separation and timbral differences on the identifiability of features of concurrent auditory streams." Thesis, The University of Sydney, 2010. http://hdl.handle.net/2123/7213.
Full textMacDonald, Doon. "The development and evaluation of an approach to auditory display design based on soundtrack composition." Thesis, Queen Mary, University of London, 2017. http://qmro.qmul.ac.uk/xmlui/handle/123456789/25906.
Full textSmith, Daniel R. "Effects of training and context on human performance in a point estimation sonification task." Thesis, Georgia Institute of Technology, 2003. http://hdl.handle.net/1853/32845.
Full textBelz, Steven M. "A Simulator-Based Investigation of Visual, Auditory, and Mixed-Modality Display of Vehicle Dynamic State Information to Commercial Motor Vehicle Operators." Thesis, Virginia Tech, 1997. http://hdl.handle.net/10919/35851.
Full textMaster of Science
Åstholm, Carl. "Tillämpning av ljud i IT-system för att öka användarupplevelsen: en litteraturstudie." Thesis, Örebro universitet, Handelshögskolan vid Örebro Universitet, 2017. http://urn.kb.se/resolve?urn=urn:nbn:se:oru:diva-56972.
Full textToday, there is a certain lack of knowledge on how sound can be utilized in systems to enhance the user experience among systems developers and many developers have a skeptical outlook on the usability of sound. Auditory display is an umbrella term for an array of different techniques that utilize sound as a medium to communicate different sorts of information and data from the system to the user. As much of the research revolving around auditory display has the development of accessibility tools for visually impaired as its sole focus, instead of more general systems intended for users without specific needs, we see that there is a need for a literature review focused on the latter. We asked ourselves the question "how can auditory display be utilized in the development of traditional IT-systems?" and carried out a literature review where 23 articles were analyzed to identify different use cases, with the purpose of presenting these use casers in a way that can be used by developers who are interested in implementing sound in their systems but are unsure where to start. Results indicate that auditory display can be used to good effect in, among others, systems for monitoring network traffic, user interfaces and widgets and in-vehicle technologies. Lastly, we propose promising potential use cases that are in need of further research.
Manor, Ella. "Prediction Model for Perceived Elevation of Ecologically Valid Sound Sources Intended for a Virtual Auditory Display." Thesis, The University of Sydney, 2017. http://hdl.handle.net/2123/18604.
Full textEriksson, Frida, and Märta Andersson. "Interface Development for Semi-Autonomous Trucks : Visual and Auditory Feedback." Thesis, Linköpings universitet, Maskinkonstruktion, 2015. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-120591.
Full textBrown, Eric L. "The effects of fatigue on position determination and cognitive workload using a visual and 3-dimensional auditory display." Thesis, Monterey, Calif. : Springfield, Va. : Naval Postgraduate School ; Available from National Technical Information Service, 2004. http://library.nps.navy.mil/uhtbin/hyperion/04Jun%5FBrown.pdf.
Full textBlack, David Verfasser], Horst [Akademischer Betreuer] Hahn, Jürgen [Gutachter] Schönwälder, Andreas [Gutachter] Nüchter, and Jörn [Gutachter] [Loviscach. "Auditory Display for Image-Guided Medical Interventions / David Black ; Gutachter: Jürgen Schönwälder, Andreas Nüchter, Jörn Loviscach ; Betreuer: Horst Hahn." Bremen : IRC-Library, Information Resource Center der Jacobs University Bremen, 2019. http://d-nb.info/1182033687/34.
Full textMicheal, Stefan Gregory. "The use of auditory prompts to direct drivers' attention to an in-vehicle visual display in a dual-task simulated commercial truck environment." Thesis, This resource online, 1995. http://scholar.lib.vt.edu/theses/available/etd-03042009-040621/.
Full textCastle, Heidi. "The workload implications of haptic displays in multi-display environments such as the cockpit : dual-task interference of within-sense haptic inputs (tactile/proprioceptive) and between-sense inputs (tactile/proprioceptive/auditory/visual)." Thesis, Cranfield University, 2007. http://dspace.lib.cranfield.ac.uk/handle/1826/3859.
Full textCastle, H. "The workload implications of haptic displays in multi-display environments such as the cockpit: Dual-task interference of within-sense haptic inputs (tactile/proprioceptive) and between-sense inputs (tactile/proprioceptive/auditory/visual)." Thesis, Cranfield University, 2007. http://hdl.handle.net/1826/3859.
Full textPinedo, Carlos. "Effects of a combined 3-D auditory/visual cueing system and non-distributed flight reference on visual target detection using a helmet-mounted display." Thesis, Massachusetts Institute of Technology, 2006. http://hdl.handle.net/1721.1/34683.
Full textIncludes bibliographical references (p. 55-56).
An air-combat pilot must both control the aircraft and locate targets. The objective of this study was to determine combined effects of using the Non-Distributed Flight Reference and 3-D audio/visual cueing system for the purpose of easing pilot control and aiding target location. The Non-Distributed Flight Reference was compared against the Military Standard display, while three different target cues were presented for target acquisition: (1) 3-D Audio Only, a voiced signal = "Target-Target", (2) Visual Only, a line emanating from the aim-sight reticle (located in the center of the subject's field of view) pointing towards the target aircraft, and (3) a Combined Audio/Visual cue, providing both cues. The subjects were asked to fly a simulated aircraft at a commanded heading and altitude while targets appeared from 15 different locations (three elevations 0⁰, +40⁰, and five azimuths 0⁰, ±30⁰, ±60⁰). Subject deviations from heading and altitude were used to determine flight performance, and target cue effectiveness was determined by recording the time to target. The results of this experiment showed that there was no significant difference (p < 0.05) in flight performance between the Non-Distributed Flight Reference and the Military Standard displays. The combined Audio/Visual Cueing system resulted in the fastest search times.
(cont.) These results are consistent with the findings from past research. The cleaner more integrated Non-Distributed Flight Reference allowed subjects to visually acquire targets quicker with no decrease in flight performance. Using the Non-Distributed Flight Reference display for attitude information combined with a 3-D Audio/Visual cueing system for target acquisition is a promising method of reducing search time during a visual search task.
by Carlos Pinedo.
S.M.
Perkins, Rhys John. "Interactive sonification of a physics engine." Thesis, Anglia Ruskin University, 2013. http://arro.anglia.ac.uk/323077/.
Full textMagnani, Alessandro. "Sonificazione: stato dell'arte e casi di studio." Bachelor's thesis, Alma Mater Studiorum - Università di Bologna, 2021. http://amslaurea.unibo.it/24697/.
Full textIsaacson, Matthew David. "Using new tools to study the neural mechanisms of sensation : auditory processing in locusts and translational motion vision in flies." Thesis, University of Cambridge, 2019. https://www.repository.cam.ac.uk/handle/1810/288741.
Full textLunn, Paul. "Multi-listener auditory displays." Thesis, University of York, 2016. http://etheses.whiterose.ac.uk/22959/.
Full textDavison, Benjamin Kenneth. "Universal graph literacy: understanding how blind and low vision students can satisfy the common core standards with accessible auditory graphs." Diss., Georgia Institute of Technology, 2013. http://hdl.handle.net/1853/47621.
Full textLundkvist, André. "3D Auditory Displays for Driver Assistance Systems." Doctoral thesis, Luleå tekniska universitet, Drift, underhåll och akustik, 2016. http://urn.kb.se/resolve?urn=urn:nbn:se:ltu:diva-97.
Full textHalihabiboglu, H. "Perceptual room auralization for virtual auditory displays." Thesis, Queen's University Belfast, 2004. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.411218.
Full textHinde, Alistair F. "Concurrency in auditory displays for connected television." Thesis, University of York, 2016. http://etheses.whiterose.ac.uk/16724/.
Full textWhaley, Christopher J. "Cross-modality learning and redundancy with auditory and visual displays." Diss., Georgia Institute of Technology, 1997. http://hdl.handle.net/1853/30925.
Full textAhmad, Ali. "DESIGN FOR AUDITORY DISPLAYS: IDENTIFYING TEMPORAL AND SPATIAL INFORMATION CONVEYANCE PRINCIPLES." Doctoral diss., University of Central Florida, 2007. http://digital.library.ucf.edu/cdm/ref/collection/ETD/id/2835.
Full textPh.D.
Department of Industrial Engineering and Management Systems
Engineering and Computer Science
Industrial Engineering PhD
Graham, Hudson D. "Effect of auditory peripheral displays on unmanned aerial vehicle operator performance." Thesis, Massachusetts Institute of Technology, 2008. http://hdl.handle.net/1721.1/43741.
Full textThis electronic version was submitted by the student author. The certified thesis is available in the Institute Archives and Special Collections.
Includes bibliographical references (p. 101-105).
With advanced autonomy, Unmanned Aerial Vehicle (UAV) operations will likely be conducted by single operators controlling multiple UAVs. As operator attention is divided across multiple supervisory tasks, there is a need to support the operator's awareness of the state of the tasks for safe and effective task management. This research explores enhancing audio cues of UAV interfaces for this futuristic control of multiple UAVs by a single operator. This thesis specifically assesses the value of continuous and discrete audio cues as indicators of course-deviations or late-arrivals to targets for UAV missions with single and multiple UAVs. In particular, this thesis addresses two questions: (1) when compared with discrete audio, does continuous audio better aid human supervision of UAV operations, and (2) is the effectiveness of the discrete or continuous audio support dependent on operator workload? An experiment was carried out on the Multiple Autonomous Unmanned Vehicle Experiment (MAUVE) test bed with 44 military participants. Specifically, two continuous audio alerts were mapped to two human supervisory tasks within MAUVE. These continuous alerts were tested against single beep discrete alerts. The results show that the use of the continuous audio alerts enhances a single operator's performance in monitoring single and multiple, semi-autonomous vehicles. The results also emphasize the necessity to properly integrate the continuous audio with other auditory alarms and visual representations in a display, as it is possible for discrete audio alerts to be masked by continuous audio, leaving operators reliant on the visual aspects of the display.
by Hudson D. Graham.
S.M.
Winters, John. "An Investigation of Auditory Icons and Brake Response Times in a Commercial Truck-Cab Environment." Thesis, Virginia Tech, 1998. http://hdl.handle.net/10919/36714.
Full textMaster of Science
Bergqvist, Emil. "Auditory displays : A study in effectiveness between binaural and stereo audio to support interface navigation." Thesis, Högskolan i Skövde, Institutionen för informationsteknologi, 2014. http://urn.kb.se/resolve?urn=urn:nbn:se:his:diva-10072.
Full textKullman, Christoffer. "Improving web usability for the visually impaired." Thesis, Linköping University, Department of Science and Technology, 2009. http://urn.kb.se/resolve?urn=urn:nbn:se:liu:diva-52437.
Full textThe Web has opened up many possibilities for disabled people to interact with society, but there is unfortunately a lack of parity between the user interface presented to different users.
This dissertation presents a proof of concept on designing a spatial layout presentation for blind users using a screen reader. This is done in three steps by first conducting a survey to determine current practices of web developers, then implementing an instant spatial feedback and comparison function that present the spatial layout, and ends with an evaluation of the spatial layout presentation by the way of user testing
The survey yielded a set of guidelines for the realistic development of web technologies for disabled persons based on the participants answered. From the implementation a concept for spatial feedback functions that are portable and expandable is presented. The evaluation shows that the created spatial presentation method passes both objectively and subjectively.
Powell, Jared Alan. "The Effect of Directional Auditory Cues on Driver Performance in a Simulated Truck Cab Environment." Thesis, Virginia Tech, 1999. http://hdl.handle.net/10919/36412.
Full textMaster of Science
Nees, Michael A. "Internal representations of auditory frequency behavioral studies of format and malleability by instructions /." Diss., Atlanta, Ga. : Georgia Institute of Technology, 2009. http://hdl.handle.net/1853/31838.
Full textCommittee Chair: Walker, Bruce; Committee Member: Bonebright, Terri; Committee Member: Catrambone, Richard; Committee Member: Corso, Gregory; Committee Member: Rogers, Wendy. Part of the SMARTech Electronic Thesis and Dissertation Collection.
Jeon, Myounghoon. ""Spindex" (speech index) enhances menu navigation user experience of touch screen devices in various input gestures: tapping, wheeling, and flicking." Thesis, Georgia Institute of Technology, 2010. http://hdl.handle.net/1853/37101.
Full textStanley, Raymond M. "Toward adapting spatial audio displays for use with bone conduction the cancellation of bone-conducted and air-conducted sound waves /." Thesis, Available online, Georgia Institute of Technology, 2006, 2006. http://etd.gatech.edu/theses/available/etd-11022006-103809/.
Full textWinberg, Fredrik. "Contextualizing Accessibility : Interaction for Blind Computer Users." Doctoral thesis, Stockholm : Human-Computer Interaction, Kungliga tekniska högskolan, 2008. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-4758.
Full textGeronazzo, Michele. "Mixed Structural Models for 3D Audio in Virtual Environments." Doctoral thesis, Università degli studi di Padova, 2014. http://hdl.handle.net/11577/3424593.
Full textIl settore dell'Information and Communications Technology (ICT) sta investendo in strategie di innovazione e sviluppo sempre più rivolte ad applicazioni capaci di interazione complesse grazie alla rappresentazione spaziale in ambienti virtuali multimodali capaci di rispettare i vincoli di tempo reale. Una delle principali sfide da affrontare riguarda la centralità dell'utente, che si riflette, ad esempio, sullo sviluppo di servizi la cui complessità tecnologica viene nascosta al destinatario, e la cui offerta di servizi sia personalizzabile dall’utente e per l’utente. Per queste ragioni , le interfacce multimodali rappresentano un elemento chiave per consentire un uso diffuso di queste nuove tecnologie. Per raggiungere questo obiettivo è necessario ottenere dei modelli multimodali realistici che siano capaci di descrivere l’ambiente circostante, e in particolare modelli che sappiano rappresentare accuratamente l'acustica dell'ambiente e la trasmissione di informazione attraverso la modalità uditiva. Alcuni esempi di aree applicative e direzioni di ricerca attive nella comunità scientifica internazionale includono 3DTV e internet del futuro , codifica, trasmissione e ricostruzione della scena 3D video e audio e sistemi di teleconferenza , per citarne solo alcuni. La presenza concomitante di più modalità sensoriali e la loro integrazione rendono gli ambienti virtuali multimodali potenzialmente flessibili e adattabili, permettendo agli utenti di passare dall’una all’altra modalità in base alle necessità dettata dalle mutevoli condizioni di utilizzo di tali sistemi. Modalità sensoriali aumentata attraverso altri sensi e tecniche di sostituzione sensoriale sono elementi essenziali per la veicolazione dell’informazioni non visivamente, quando, ad esempio, il canale visivo è sovraccaricato, quando i dati sono visivamente ostruiti, o quando il canale visivo non è disponibile per l'utente (ad esempio, per le persone non vedenti). I sistemi multimodali per la rappresentazione delle informazioni spaziali beneficano sicuramente della realizzazione di motori audio che possiedano una conoscenza approfondita degli aspetti legati alla percezione spaziale e all’acustica virtuale. I modelli per il rendering di audio spazializzato sono in grado di fornire accurate informazioni dinamiche sulla relazione tra la sorgente sonora e l'ambiente circostante , compresa l'interazione del corpo dell’ascoltatore che agisce da ulteriore filtraggio acustico. Queste informazioni non possono essere sostituite da altre modalità (ad esempio quella visiva o tattile). Tuttavia , la rappresentazione spaziale del suono nei feedback acustici tende ad essere, al giorno d’oggi, semplicistica e con scarse capacità di interazione, questo perchè i sistemi multimediali attualmente si focalizzano per lo più sull’elaborazione grafica, e si accontentano di semplici tecnologie stereofoniche o surround multicanale per il rendering del suono. Il rendering binaurale riprodotto in cuffia rappresenta un approccio avveniristico, tenendo conto che i possibili svantaggi (es. invasività , risposte in frequenza non piane) possono essere man mano gestiti e controbilanciati da una serie di desiderabili caratteristiche. Questi sistemi sono caratterizzati dalla possibilità di controllare e/o eliminare il riverbero e altri effetti acustici dello spazio di ascolto circostante, di ridurre il rumore di fondo e fornire dei display audio adattabili e portatili, tutti aspetti rilevanti soprattutto in contesti di innovazione. La maggior parte delle tecniche di rendering binaurale impiegate oggigiorno in ricerca si basano sull'uso di Head Related Transfer Functions (HRTFs), vale a dire di filtri particolari che catturano gli effetti acustici di testa, busto e orecchie dell’ascoltatore. Le HRTF permettono una simulazione fedele del segnale audio che si presenta all'ingresso del canale uditivo in funzione della posizione spaziale della sorgente sonora. I filtri basati su HRTF sono generalmente presentati sotto forma di segnali acustici misurati a partire da una testa di manichino costruito secondo misurazioni antropometriche medie. Tuttavia, le caratteristiche antropometriche individuali hanno un ruolo fondamentale nel determinare le HRTF: diversi studi hanno riscontrato come l’ascolto di audio binaurale non individuale produce errori di localizzazione evidenti . D'altra parte , le misurazioni individuali di HRTF su un numero significativo di soggetti richiedono un impiego di risorse e tempo non trascurabili. Sono state proposte negli ultimi due decenni diverse tecniche per il design di HRTF sintetiche e tra le più promettente vi è quella che utilizza i modelli strutturali di HRTF. In questo approccio rivoluzionario, gli effetti più importanti coinvolti nella percezione spaziale del suono (i ritardi acustici e le ombre acustiche ad opera della diffrazione attorno alla testa, le riflessioni sui contorni dell’orecchio esterno e sulle spalle, le risonanze all'interno delle cavità dell’orecchio) sono isolati e modellati separatamente nell’elemento filtrante corrispondente. La selezione di HRTF non individuali e queste procedure di modellazione possono essere entrambe analizzate con una interpretazione fisica: i parametri di ogni blocco di rendering o i criteri di selezione possono venir stimati dalla relazione tra dati reali e simulati e antropometria dell’ascoltatore. La realizzazione di efficaci display uditivi personali rappresenta un notevole passo in avanti per numerose applicazioni; l’approccio strutturale consente una intrinseca scalabilità a seconda delle risorse computazionali o della larghezza di banda disponibili. Scene altamente realistiche con più oggetti audiovisivi riescono ad essere gestite sfruttando il parallelismo della Graphics Processing Unit (GPU) sempre più onnipresenti. Ottenere un equalizzazione individuale delle cuffie con tecniche di filtraggio inverso che siano percettivamente robuste costituisce un passo fondamentale verso la creazione di display uditivi virtuali personali. A titolo d’esempio, vengono di seguito riportate alcune aree applicative che possono trarre beneficio da queste considerazioni: riproduzione multi canale in cuffia, rendering spaziale del suono in dispositivi mobile, motori di rendering per computer-game e standard audio binaurali individuali per film e produzione musicale. Questa tesi presenta una famiglia di approcci in grado di superare gli attuali limiti dei sistemi di audio 3D in cuffia, con l’obiettivo di realizzare display uditivi personali attraverso modelli strutturali per l’audio binaurale volti ad una riproduzione immersiva del suono. I modelli che ne derivano permettono adattamento e personalizzazione di contenuti, grazie alla gestione dei parametri relativi all’antropometria dell'utente oltre a quelli relativi alle sorgenti sonore nell'ambiente . Le direzioni di ricerca intraprese convergono verso una metodologia per la progettazione e personalizzazione di HRTF sintetiche che unisce il paradigma di modellazione strutturale con altre tecniche di selezione per HRTF (ispirate a procedure di selezione non-individuali di HRTF) e rappresenta il principale contributo di questa tesi: l’ approccio a modellazione strutturale mista( MSM ) che considera la HRTF globale come una combinazione di elementi strutturali, che possono essere scelti tra componenti sia sintetiche che registrate. In entrambi i casi, la personalizzazione si basa su dati antropometrici individuali, utilizzati per adattare sia i parametri del modello sia per selezionare un componente simulato o misurato, tra un insieme di risposte all’impulso disponibili. La definizione e la validazione sperimentale dell'approccio a MSM affronta alcune questioni cruciali riguarda l'acquisizione e il rendering di scene acustiche binaurali, definendo alcune linee guida di progettazione per ambienti virtuali personali che utilizzano l’audio 3D e che possiedono nuove forme di comunicazione su misura e di interazione con contenuti sonori e musicali. In questa tesi viene anche presentato un sistema interattivo multimodale utilizzato per condurre test soggettivi sull’integrazione multisensoriale in ambienti virtuali. Vengono proposti quattro scenari sperimentali al fine di testare le funzionalità di un feedback sonoro integrato a modalità tattili o visive. (i) Un feedback con audio 3D legato ai movimenti dell'utente durante una semplice attività di inseguimento di un bersaglio viene presentato come un esempio applicativo di sistema riabilitativo audiovisivo. (ii) La percezione della direzione sonora dei passi interattivamente generati in cuffia durante la camminata evidenzia come l'informazione spaziale sia in grado di mettere in luce la congruenza semantica tra movimento e feedback multimodale. (iii) Un sistema audio tattile interattivo e real-time sintetizza l'informazione spaziale di mappe virtuali per l’educazione all’orientamento e alla mobilità (O&M) rivolta a persone non vedenti. (iv) Un ultimo esperimento analizza la stima tattile delle dimensioni di un oggetto virtuale 3D (un gradino), mentre l'esplorazione è accompagnata da un feedback sonoro generato in tempo reale i cui parametri variano in funzione dell’altezza del punto di interazione aptico. I dati raccolti da questi esperimenti suggeriscono che feedback multimodali che sfruttano correttamente modelli di audio 3D, possono essere utilizzati per migliorare la navigazione nella realtà virtuale, l’orientamento e l’apprendimento di azioni motorie complesse, grazie all'alto livello di attenzione, impegno e immersività fornito all'utente. La metodologia di ricerca, basata sull'approccio a MSM, rappresenta un importante strumento di valutazione per determinare progressivamente i principali attributi spaziali del suono in relazione a ciascun dominio applicativo. In questa prospettiva, tali studi rappresentano una novità nella letteratura scientifica corrente che ha come principale argomento di indagine la realtà virtuale e aumentata, soprattutto per quanto riguarda l'uso di tecniche di sonicazione legate alla cognizione spaziale e alla rappresentazione multisensoriale interna del corpo . Questa tesi è organizzata come segue. Un’introduzione e una panoramica sulla percezione spaziale del suono e sulle tecnologie binaurali in cuffia sono fornite nel Capitolo 1. Il Capitolo 2 è dedicato al formalismo sulla modellazione strutturale mista e sua corrispondente filosofia di ricerca. Nel Capitolo 3 vengono presentati i modelli strutturali relativi ad ogni parte del corpo, risultanti da precedenti ricerche. Due nuove proposte di modello di testa e orecchio approfondiscono rispettivamente la dipendenza dalla distanza nel near-field e le informazioni spettrali fornite dall’orecchio esterno per la localizzazione verticale del suono. Il Capitolo 4 si occupa di un caso di studio completo riguardante l'approccio a modellazione strutturale mista, fornendo degli approfondimenti riguardanti i principali aspetti innovativi di tale modus operandi. Il Capitolo 5 fornisce una panoramica di strumenti sviluppati per l'analisi e la sintesi di HRTF. Inoltre linee guida per il design di ambienti di realtà virtuale vengono discussi in termini di problematiche riguardanti vincoli di tempo reali, requisiti per la mobilità e personalizzazione del segnale audio. Nel Capitolo 6, attraverso due casi di studio viene approfondita l'importanza dell'attributo spaziale del suono nel comportamento dell’ascoltatore e come la continua interazione in ambienti virtuali possa utilizzare con successo algoritmi per l’audio spaziale. Il Capitolo 7 descrive una serie di esperimenti volti a valutare il contributo dell’audio binaurale in cuffia in processi di apprendimento di mappe cognitive spaziali e nell'esplorazione di oggetti virtuali. Infine, il Capitolo 8 apre a nuovi orizzonti per futuri lavori di ricerca.