Dissertationen zum Thema „Estimation de terme source“

Um die anderen Arten von Veröffentlichungen zu diesem Thema anzuzeigen, folgen Sie diesem Link: Estimation de terme source.

Geben Sie eine Quelle nach APA, MLA, Chicago, Harvard und anderen Zitierweisen an

Wählen Sie eine Art der Quelle aus:

Machen Sie sich mit Top-50 Dissertationen für die Forschung zum Thema "Estimation de terme source" bekannt.

Neben jedem Werk im Literaturverzeichnis ist die Option "Zur Bibliographie hinzufügen" verfügbar. Nutzen Sie sie, wird Ihre bibliographische Angabe des gewählten Werkes nach der nötigen Zitierweise (APA, MLA, Harvard, Chicago, Vancouver usw.) automatisch gestaltet.

Sie können auch den vollen Text der wissenschaftlichen Publikation im PDF-Format herunterladen und eine Online-Annotation der Arbeit lesen, wenn die relevanten Parameter in den Metadaten verfügbar sind.

Sehen Sie die Dissertationen für verschiedene Spezialgebieten durch und erstellen Sie Ihre Bibliographie auf korrekte Weise.

1

Rajaona, Harizo. „Inférence bayésienne adaptative pour la reconstruction de source en dispersion atmosphérique“. Thesis, Lille 1, 2016. http://www.theses.fr/2016LIL10120/document.

Der volle Inhalt der Quelle
Annotation:
En physique de l’atmosphère, la reconstruction d’une source polluante à partir des mesures de capteurs est une question importante. Elle permet en effet d’affiner les paramètres des modèles de dispersion servant à prévoir la propagation d’un panache de polluant, et donne aussi des informations aux primo-intervenants chargés d’assurer la sécurité des populations. Plusieurs méthodes existent pour estimer les paramètres de la source, mais leur application est coûteuse à cause de la complexité des modèles de dispersion. Toutefois, cette complexité est souvent nécessaire, surtout lorsqu’il s’agit de traiter des cas urbains où la présence d’obstacles et la météorologie instationnaire imposent un niveau de précision important. Il est aussi vital de tenir compte des différents facteurs d’incertitude, sur les observations et les estimations. Les travaux menés dans le cadre de cette thèse ont pour objectif de développer une méthodologie basée sur l’inférence bayésienne adaptative couplée aux méthodes de Monte Carlo pour résoudre le problème d’estimation du terme source. Pour cela, nous exposons d’abord le contexte scientifique du problème et établissons un état de l’art. Nous détaillons ensuite les formulations utilisées dans le cadre bayésien, plus particulièrement pour les algorithmes d’échantillonnage d’importance adaptatifs. Le troisième chapitre présente une application de l’algorithme AMIS dans un cadre expérimental, afin d’exposer la chaîne de calcul utilisée pour l’estimation de la source. Enfin, le quatrième chapitre se concentre sur une amélioration du traitement des calculs de dispersion, entraînant un gain important de temps de calcul à la fois en milieu rural et urbain
In atmospheric physics, reconstructing a pollution source is a challenging but important question : it provides better input parameters to dispersion models, and gives useful information to first-responder teams in case of an accidental toxic release.Various methods already exist, but using them requires an important amount of computational resources, especially as the accuracy of the dispersion model increases. A minimal degree of precision for these models remains necessary, particularly in urban scenarios where the presence of obstacles and the unstationary meteorology have to be taken into account. One has also to account for all factors of uncertainty, from the observations and for the estimation. The topic of this thesis is the construction of a source term estimation method based on adaptive Bayesian inference and Monte Carlo methods. First, we describe the context of the problem and the existing methods. Next, we go into more details on the Bayesian formulation, focusing on adaptive importance sampling methods, especially on the AMIS algorithm. The third chapter presents an application of the AMIS to an experimental case study, and illustrates the mechanisms behind the estimation process that provides the source parameters’ posterior density. Finally, the fourth chapter underlines an improvement of how the dispersion computations can be processed, thus allowing a considerable gain in computation time, and giving room for using a more complex dispersion model on both rural and urban use cases
APA, Harvard, Vancouver, ISO und andere Zitierweisen
2

Jin, Bei. „Conditional source-term estimation methods for turbulent reacting flows“. Thesis, University of British Columbia, 2007. http://hdl.handle.net/2429/232.

Der volle Inhalt der Quelle
Annotation:
Conditional Source-term Estimation (CSE) methods are used to obtain chemical closure in turbulent combustion simulation. A Laminar Flamelet Decomposition (LFD) and then a Trajectory Generated Low-Dimensional Manifold (TGLDM) method are combined with CSE in Reynolds-Averaged Navier Stokes (RANS) simulation of non-premixed autoigniting jets. Despite the scatter observed in the experimental data, the predictions of ignition delay from both methods agree reasonably well with the measurements. The discrepancy between predictions of these two methods can be attributed to different ways of generating libraries that contain information of detailed chemical mechanism. The CSE-TGLDM method is recommended for its seemingly better performance and its ability to transition from autoignition to combustion. The effects of fuel composition and injection parameters on ignition delay are studied using the CSE-TGLDM method. The CSE-TGLDM method is then applied in Large Eddy Simulation of a non-premixed, piloted jet flame, Sandia Flame D. The adiabatic CSE-TGLDM method is extended to include radiation by introducing a variable enthalpy defect to parameterize TGLDM manifolds. The results are compared to the adiabatic computation and the experimental data. The prediction of NO formation is improved, though the predictions of temperature and major products show no significant difference from the adiabatic computation due to the weak radiation of the flame. The scalar fields are then extracted and used to predict the mean spectral radiation intensities of the flame. Finally, the application of CSE in turbulent premixed combustion is explored. A product-based progress variable is chosen for conditioning. Presumed Probability Density Function (PDF) models for the progress variable are studied. A modified version of a laminar flame-based PDF model is proposed, which best captures the distribution of the conditional variable among all PDFs under study. A priori tests are performed with the CSE and presumed PDF models. Reaction rates of turbulent premixed flames are closed and compared to the DNS data. The results are promising, suggesting that chemical closure can be achieved in premixed combustion using the CSE method.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
3

Salehi, Mohammad Mahdi. „Numerical simulation of turbulent premixed flames with conditional source-term estimation“. Thesis, University of British Columbia, 2012. http://hdl.handle.net/2429/42775.

Der volle Inhalt der Quelle
Annotation:
Conditional Source-term Estimation (CSE) is a closure model for turbulence-chemistry interactions. This model is based on the conditional moment closure hypothesis for the chemical reaction source terms. The conditional scalar field is estimated by solving an integral equation using inverse methods. CSE was originally developed for - and has been used extensively in - non-premixed combustion. This work is the first application of this combustion model to predictive simulations of turbulent premixed flames. The underlying inverse problem is diagnosed with rigorous mathematical tools. CSE is coupled with a Trajectory Generated Low-Dimensional Manifold (TGLDM) model for chemistry. The CSE-TGLDM combustion model is used with both Reynolds-Averaged Navier-Stokes (RANS) and Large-Eddy Simulation (LES) turbulence models to simulate two different turbulent premixed flames. Also in this work, the Presumed Conditional Moment (PCM) turbulent combustion model is employed. This is a simple flamelet model which is used with the Flame Prolongation of ILDM (FPI) chemistry reduction technique. The PCM-FPI approach requires a presumption for the shape of the probability density function of reaction progress variable. Two shapes have been examined: the widely used beta-function and the Modified Laminar Flamelet PDF (MLF-PDF). This model is used in both RANS and large-eddy simulation of a turbulent premixed Bunsen burner. Radial distributions of the calculated temperature field, axial velocity and chemical species mass fraction have been compared with experimental data. This comparison shows that using the MLF-PDF leads to predictions that are similar, and often superior to those obtained using the beta-PDF. Given that the new PDF is based on the actual chemistry - as opposed to the ad hoc nature of the beta-PDF - these results suggest that it is a better choice for the statistical description of the reaction progress variable.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
4

Nivarti, Girish Venkata. „Combustion modelling in spark-ignition engines using conditional source-term estimation“. Thesis, University of British Columbia, 2013. http://hdl.handle.net/2429/44838.

Der volle Inhalt der Quelle
Annotation:
Conditional Source-term Estimation (CSE) is a chemical closure model for the simulation of turbulent combustion. In this work, CSE has been explored for modelling combustion phenomena in a spark-ignition (SI) engine. In the arbitrarily complex geometries imposed by industrial design, estimation of conditionally averaged scalars is challenging. The key underlying requirement of CSE is that conditionally averaged scalars be calculated within spatially localized sub-domains. A domain partitioning algorithm based on space-filling curves has been developed to construct localized ensembles of points necessary to retain the validity of CSE. Algorithms have been developed to evenly distribute points to the maximum extent possible while maintaining spatial locality. A metric has been defined to estimate relative inter-partition contact as an indicator of communication in parallel computing architectures. Domain partitioning tests conducted on relevant geometries highlight the performance of the method as an unsupervised and computationally inexpensive domain partitioning tool. In addition to involving complex geometries, SI engines pose the challenge of accurately modelling the transient ignition process. Combustion in a homogeneous-charge natural gas fuelled SI engine with a relatively simple chamber geometry has been simulated using an empirical model for ignition. An oxygen based reaction progress variable is employed as the conditioning variable and its stochastic behaviour is approximated by a presumed probability density function (PDF). A trajectory generated low-dimensional manifold has been used to tabulate chemistry in a hyper-dimensional space described by the reaction progress variable, temperature and pressure. The estimates of pressure trace and pollutant emission trends obtained using CSE accurately match experimental measurements.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
5

Mechhoud, Sarah. „Estimation de la diffusion thermique et du terme source du modèle de transport de la chaleur dans les plasmas de tokamaks“. Phd thesis, Université de Grenoble, 2013. http://tel.archives-ouvertes.fr/tel-00954183.

Der volle Inhalt der Quelle
Annotation:
Cette thèse porte sur l'estimation simultanée du coefficient de diffusion et du terme source régissant le modèle de transport de la température dans les plasmas chauds. Ce phénomène physique est décrit par une équation différentielle partielle (EDP) linéaire, parabolique du second-ordre et non-homogène, où le coefficient de diffusion est distribué et le coefficient de réaction est constant. Ce travail peut se présenter en deux parties. Dans la première, le problème d'estimation est traité en dimension finie ("Early lumping approach"). Dans la deuxième partie, le problème d'estimation est traité dans le cadre initial de la dimension infinie ("Late lumping approach"). Pour l'estimation en dimension finie, une fois le modèle établi, la formulation de Galerkin et la méthode d'approximation par projection sont choisies pour convertir l'EDP de transport en un système d'état linéaire, temps-variant et à entrées inconnues. Sur le modèle réduit, deux techniques dédiées à l'estimation des entrées inconnues sont choisies pour résoudre le problème. En dimension infinie, l'estimation en-ligne adaptative est adoptée pour apporter des éléments de réponse aux contraintes et limitations dues à la réduction du modèle. Des résultats de simulations sur des données réelles et simulées sont présentées dans ce mémoire.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
6

Wang, Mei. „Combustion modeling using conditional source-term estimation with flamelet decomposition and low-dimensional manifolds“. Thesis, University of British Columbia, 2006. http://hdl.handle.net/2429/31181.

Der volle Inhalt der Quelle
Annotation:
Combustion modeling is performed with Conditional Source-term Estimation (CSE) using both Laminar Flamelet Decomposition (LFD) and Low-dimensional Manifolds. CSE with Laminar Flamelet Decomposition (LFD) is used in the Large Eddy Simulation (LES) context to study the non-premixed Sandia D-flame. The results show that the flame temperature and major species are well predicted with both steady and unsteady flamelet libraries. A mixed library composed of steady and unsteady flamelet solutions is needed to get a good prediction of NO. That the LFD model allows for tuning of the results is found to be significant drawback to this approach. CSE is also used with a Trajectory Generated Low-dimensional Manifold (TGLDM) to simulate the Sandia D-flame. Both GRI-Mech 3.0 and GRI-Mech 2.11 are found to be able to predict the temperature and major species well. However, only GRI-Mech 2.11 gives a good prediction of NO. That GRI-Mech 3.0 failed to give a good prediction of NO is in agreement with the findings of others in the literature. The Stochastic Particle Model (SPM) is used to extend the TGLDM to low temperatures where the original continuum TGLDM failed. A new method for generating a trajectory for the TGLDM by averaging different realizations together is proposed. The new TGLDM is used in simulations of a premixed laminar flame and a perfectly stirred reactor. The results show that the new TGLDM significantly improves the prediction. Finally, a time filter is applied to individual SPM realizations to eliminate the small time scales. These filtered realizations are tabulated into TGLDM which are then used to predict the autoignition delay time of a turbulent methane/air jet in RANS using CSE. The results are compared with shock tube experimental data. The TGLDMs incorporating SPM results are able to predict a certain degree of fluctuations in the autoignition delay time, but the magnitude is smaller than is seen in the experiments. This suggests that fluctuations in the ignition delay are at least in part due to turbulent fluctuations, which might be better predicted with LES.
Science, Faculty of
Mathematics, Department of
Graduate
APA, Harvard, Vancouver, ISO und andere Zitierweisen
7

Tobias, Brännvall. „Source Term Estimation in the Atmospheric Boundary Layer : Using the adjoint of the Reynolds Averaged Scalar Transport equation“. Thesis, Umeå universitet, Institutionen för fysik, 2015. http://urn.kb.se/resolve?urn=urn:nbn:se:umu:diva-103671.

Der volle Inhalt der Quelle
Annotation:
This work evaluates whether the branch of Reynolds Averaging in Computational Fluid Dynamics can be used to, based on real field measurements, find the source of the measured gas in question. The method to do this is via the adjoint to the Reynolds Averaged Scalar Transport equation, explained and derived herein. Since the Inverse is only as good as the main equation, forward runs are made to evaluate the turbulence model. Reynolds Averaged Navier Stokes is solved in a domain containing 4 cubes in a 2x2 grid, generating a velocity field for said domain. The turbulence model in question is a union of two modifications to the standard two equation k-ε model in order to capture blunt body turbulence but also to model the atmospheric boundary layer. This field is then inserted into the Reynolds Averaged Scalar Transport equation and the simulation is compared to data from the Environmental Flow wind tunnel in Surrey. Finally the adjoint scalar transport is solved, both for synthetic data that was generated in the forward run, but also for the data from EnFlo. It was discovered that the turbulent Schmidt number plays a major role in capturing the dispersed gas, three different Schmidt numbers were tested, the standard 0.7, the unconventional 0.3 and a height dependent Schmidt number. The widely accepted value of 0.7 did not capture the dispersion at all and gave a huge model error. As such the adjoint scalar transport was solved for 0.3 and a height dependent Schmidt number. The interaction between measurements, the real source strength (which is not used in the adjoint equation, but needed to find the source) and the location of the source is intricate indeed. Over estimation and under estimation of the forward model may cancel out in order to find the correct source, with the correct strength. It is found that Reynolds Averaged Computational fluid dynamics may prove useful in source term estimation.
Detta arbete utvärderar hurvida Reynolds medelvärdesmodellering inom flödessimuleringar kan användas till att finna källan till en viss gas baserat på verkliga mätningar ute i fält. Metoden går ut på att använda den adjungerade ekvationen till Reynolds tidsmedlade skalära transportekvationen, beskriven och härledd häri. Då bakåtmodellen bygger på framåtmodellen, måste såleds framåtmodellen utvärderas först. Navier-Stokes ekvationer med en turbulensmodell löses i en domän, innehållandes 4 kuber i en 2x2 orientering, för vilken en hastighetsprofil erhålles. Turbulensmodellen som användes är en union av två olika k-ε modeller, där den ena fångar turbulens runt tröga objekt och den andra som modellerar atmosfäriska gränsskiktet. Detta fält används sedan i framåtmodellen av skalära transportekvationen, som sedan jämförs med körningar från EnFlo windtunneln i Surrey. Slutligen testkörs även den adjungerade ekvationen, både för syntetiskt data genererat i framåtkörningen men även för data från EnFlo tunneln. Då det visade sig att det turbulenta Schmidttalet spelar stor roll inom spridning i det atmosfäriska gränsskiktet, gjordes testkörningar med tre olika Schmidttal, det normala 0.7, det väldigt låga talet 0.3 samt ett höjdberoende Schmidttal. Det visade sig att det vanligtvis använda talet 0.7 inte alls lyckas fånga spridningen tillfredställande och gav ett stort modellfel. Därför löstes den adjungerade ekvationen för 0.3 samt för ett höjdberoende Schmidttal. Interaktionen mellan mätningar, den riktiga källstyrkan (som är okänd i den adjungerade ekvationen) samt källpositionen är onekligen intrikat. Över- samt underestimationer av framåtmodellen kan ta ut varandra i bakåtmodellen för att finna rätt källa, med rätt källstyrka. Det ter sig som Reynolds turbulensmodellering mycket möjligt kan användas inom källtermsuppskattning.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
8

Lopez, Ferber Roman. „Approches RBF-FD pour la modélisation de la pollution atmosphérique urbaine et l'estimation de sources“. Electronic Thesis or Diss., Université Grenoble Alpes, 2024. http://www.theses.fr/2024GRALT006.

Der volle Inhalt der Quelle
Annotation:
Depuis l'ère industrielle, les villes sont impactées par la pollution de l'air du fait de la densité de l'industrie, de la circulation de véhicules et de la densité d'appareils de chauffage à combustion. La pollution atmosphérique urbaine a des conséquences sur la santé auxquelles les pouvoirs publics et les citoyens s'intéressent toujours plus. Cette pollution peut entraîner l'aggravation de l'asthme ou encore de troubles cardiovasculaires.Le but de ce travail de thèse est de localiser et de quantifier des sources de pollution urbaine à l'aide d'un réseau dense de mesures bruitées. Nous avons fait le choix de développer des méthodes d'estimation de sources de pollution en se basant sur des modèles physiques de dispersion de polluants. Ainsi l'estimation de sources de pollution est contrainte par la connaissance de la physique du phénomène de dispersion.Ce travail de thèse porte ainsi sur la modélisation numérique de la dispersion de polluants en milieu urbain et sur l'estimation des termes sources.À cause des nombreuses contraintes qu'impose le bâti urbain aux flux de polluants, la physique de dispersion est représentée par des modèles numériques coûteux en calcul.Nous avons développé un modèle numérique de dispersion basé sur la méthode des Différences Finies supportées par des Fonctions de Bases Radiales (RBF-FD). Ces approches sont réputées frugales en calcul et adaptées au traitement de domaines de simulation à géométrie complexe. Notre modèle RBF-FD peut traiter des problèmes bidimensionnels (2D) et tridimensionnels (3D). Nous avons comparé cette modélisation face à un modèle analytique en 2D, et avons qualitativement comparé notre modèle en 3D à un modèle numérique de référence.Des expériences d'estimations de source ont ensuite été réalisées. Elles considèrent de nombreuses mesures bruitées pour estimer un terme source quelconque sur tout le domaine de simulation. Les différentes études effectuées mettent en oe uvre des expériences jumelles : nous générons nous-même des mesures simulées par un modèle numérique et évaluons les performances des estimations. Après avoir testé une approche d'apprentissage automatique sur un cas unidimensionnel en régime stationnaire, nous avons testé des méthodes d'estimation de terme source sur des cas tridimensionnels en régime permanent et transitoire, en considérant des géométries sans et avec présence d'obstacles. Nous avons testé des estimations en utilisant une méthode adjointe originale puis une méthode originale d'estimation inspirée de l'apprentissage automatique informé de la physique (PIML) et enfin un filtre de Kalman. L'approche inspirée du PIML pour le moment testée en régime stationnaire conduit à une qualité d'estimation comparable au filtre de Kalman (où ce dernier considère un régime transitoire de dispersion à source stationnaire). L'approche inspirée du PIML exploite directement la frugalité du modèle direct de calcul RBF-FD, ce qui en fait une méthode prometteuse pour des estimations de source sur des domaines de calcul de grande taille
Since the industrial era, cities have been affected by air pollution due to the density of industry, vehicle traffic and the density of combustion heaters. Urban air pollution has health consequences that are of increasing concern to both public authorities and the general public. This pollution can aggravate asthma and cardiovascular problems. The aim of this thesis is to locate and quantify sources of urban pollution using a dense network of noisy measurements. We have chosen to develop methods for estimating pollution sources based on physical models of pollutant dispersion. The estimation of pollution sources is therefore constrained by knowledge of the physics of the dispersion phenomenon. This thesis therefore focuses on the numerical modelling of pollutant dispersion in an urban environment and on the estimation of source terms.Because of the many constraints imposed on pollutant flows by urban buildings, the physics of dispersion is represented by computationally expensive numerical models.We have developed a numerical dispersion model based on the Finite Difference method supported by Radial Basis Functions (RBF-FD). These approaches are known to be computationally frugal and suitable for handling simulation domains with complex geometries. Our RBF-FD model can handle both two-dimensional (2D) and three-dimensional (3D) problems. We compared this model with a 2D analytical model, and qualitatively compared our 3D model with a reference numerical model.Source estimation experiments were then carried out. They consider numerous noisy measurements in order to estimate any source term over the entire simulation domain. The various studies carried out involve twin experiments: we ourselves generate measurements simulated by a numerical model and evaluate the performance of the estimates. After testing a machine-learning approach on a one-dimensional steady-state case, we tested source term estimation methods on three-dimensional steady-state and transient cases, considering geometries without and with the presence of obstacles. We tested estimates using an original adjoint method, then an original estimation method inspired by physics-informed machine learning (PIML) and finally a Kalman filter. The PIML-inspired approach, which is currently being tested in a stationary regime, produces an estimation quality comparable to that of the Kalman filter (where the latter considers a transient dispersion regime with a stationary source). The PIML-inspired approach directly exploits the frugality of the RBF-FD direct computation model, which makes it a promising method for source estimates over large computational domains
APA, Harvard, Vancouver, ISO und andere Zitierweisen
9

Tsui, Hong P. „Turbulent premixed combustion simulation with Conditional Source-term Estimation and Linear-Eddy Model formulated PDF and SDR models“. Thesis, University of British Columbia, 2016. http://hdl.handle.net/2429/60295.

Der volle Inhalt der Quelle
Annotation:
Computational fluid dynamics (CFD) is indispensable in the development of complex engines due to its low cost and time requirement compared to experiments. Nevertheless, because of the strong coupling between turbulence and chemistry in premixed flames, the prediction of chemical reaction source terms continues to be a modelling challenge. This work focuses on the improvement of turbulent premixed combustion simulation strategies requiring the use of presumed probability density function (PDF) models. The study begins with the development of a new PDF model that includes the effect of turbulence, achieved by the implementation of the Linear-Eddy Model (LEM). Comparison with experimental burners reveals that the LEM PDF can capture the general PDF shapes for methane-air combustion under atmospheric conditions with greater accuracy than other presumed PDF models. The LEM is additionally used to formulate a new, pseudo-turbulent scalar dissipation rate (SDR) model. Conditional Source-term Estimation (CSE) is implemented in the Large Eddy Simulation (LES) of the Gülder burner as the closure model for the chemistry-turbulence interactions. To accommodate the increasingly parallel computational environments in clusters, the CSE combustion module has been parallelised and optimised. The CSE ensembles can now dynamically adapt to the changing flame distributions by shifting their spatial boundaries and are no longer confined to pre-allocated regions in the simulation domain. Further, the inversion calculation is now computed in parallel using a modified version of an established iterative solver, the Least-Square QR-factorisation (LSQR). The revised version of CSE demonstrates a significant reduction in computational requirement — a reduction of approximately 50% — while producing similar solutions as previous implementations. The LEM formulated PDF and SDR models are subsequently implemented in conjunction with the optimised version of CSE for the LES of a premixed methane-air flame operating in the thin reaction zone. Comparison with experimental measurements of temperature reveals that the LES results are very comparable in terms of the flame height and distribution. This outcome is encouraging as it appears that this work represents a significant step towards the correct direction in developing a complete combustion simulation strategy that can accurately predict flame characteristics in the absence of ad hoc parameters.
Applied Science, Faculty of
Mechanical Engineering, Department of
Graduate
APA, Harvard, Vancouver, ISO und andere Zitierweisen
10

Sakarya, Fatma Ayhan. „Passive source location estimation“. Diss., Georgia Institute of Technology, 1992. http://hdl.handle.net/1853/13714.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
11

Nguyen, Thanh Don. „Impact de la résolution et de la précision de la topographie sur la modélisation de la dynamique d’invasion d’une crue en plaine inondable“. Thesis, Toulouse, INPT, 2012. http://www.theses.fr/2012INPT0093/document.

Der volle Inhalt der Quelle
Annotation:
Nous analysons dans cette thèse différents aspects associés à la modélisation des écoulements à surface libre en eaux peu profondes (Shallow Water). Nous étudions tout d’abord le système d’équations de Saint-Venant à deux dimensions et leur résolution par la méthode numérique des volumes finis, en portant une attention particulière sur les aspects hyperboliques et conservatifs. Ces schémas permettent de traiter les équilibres stationnaires, les interfaces sec/mouillé et aussi de modéliser des écoulements subcritique, transcritique et supercritique. Nous présentons ensuite la théorie de la méthode d’assimilation variationnelle de données adaptée à ce type d’écoulement. Son application au travers des études de sensibilité est longuement discutée dans le cadre de l'hydraulique à surface libre. Après cette partie à caractère théorique, la partie tests commence par une qualification de l’ensemble des méthodes numériques qui sont implémentées dans le code DassFlow, développé à l’Université de Toulouse, principalement à l’IMT mais aussi à l’IMFT. Ce code résout les équations Shallow Water par une méthode de volumes finis et est validé par comparaison avec les solutions analytiques pour des cas tests classiques. Ces mêmes résultats sont comparés avec un autre code d’hydraulique à surface libre aux éléments finis en deux dimensions, Telemac 2D. Une particularité notable du code DassFlow est de permettre l’assimilation variationnelle de données grâce au code adjoint permettant le calcul du gradient de la fonction coût. Ce code adjoint a été obtenu en utilisant l'outil de différentiation automatique Tapenade (Inria). Nous testons ensuite sur un cas réel, hydrauliquement complexe, différentes qualités de Modèles Numériques de Terrain (MNT) et de bathymétrie du lit d’une rivière. Ces informations proviennent soit d’une base de données classique type IGN, soit d’informations LIDAR à très haute résolution. La comparaison des influences respectives de la bathymétrie, du maillage et du type de code utilisé, sur la dynamique d’inondation est menée très finement. Enfin nous réalisons des études cartographiques de sensibilité aux paramètres du modèle sur DassFlow. Ces cartes montrent l’influence respective des différents paramètres ou de la localisation des points de mesure virtuels. Cette localisation optimale de ces points est nécessaire pour une future assimilation de données efficiente
We analyze in this thesis various aspects associated with the modeling of free surface flows in shallow water approximation. We first study the system of Saint-Venant equations in two dimensions and its resolution with the numerical finite volumes method, focusing in particular on aspects hyperbolic and conservative. These schemes can process stationary equilibria, wetdry interfaces and model subcritical, transcritical and supercritical flows. After, we present the variational data assimilation method theory fitted to this kind of flow. Its application through sensitivity studies is fully discussed in the context of free surface water. After this theoretical part, we test the qualification of numerical methods implemented in the code Dassflow, developed at the University of Toulouse, mainly at l'IMT, but also at IMFT. This code solves the Shallow Water equations by finite volume method and is validated by comparison with analytical solutions for standard test cases. These results are compared with another hydraulic free surface flow code using finite elements in two dimensions: Telemac2D. A significant feature of the Dassflow code is to allow variational data assimilation using the adjoint method for calculating the cost function gradient. The adjoint code was obtained using the automatic differentiation tool Tapenade (INRIA). Then, the test is carried on a real hydraulically complex case using different qualities of Digital Elevation Models (DEM) and bathymetry of the river bed. This information are provided by either a conventional database types IGN or a very high resolution LIDAR information. The comparison of the respective influences of bathymetry, mesh size, kind of code used on the dynamics of flooding is very finely explored. Finally we perform sensitivity mapping studies on parameters of the Dassflow model. These maps show the respective influence of different parameters and of the location of virtual measurement points. This optimal location of these points is necessary for an efficient data assimilation in the future
APA, Harvard, Vancouver, ISO und andere Zitierweisen
12

Fouassier, Elise. „Analyse haute fréquence de l'équation de Helmholtz avec terme source“. Phd thesis, Université Rennes 1, 2005. http://tel.archives-ouvertes.fr/tel-00080011.

Der volle Inhalt der Quelle
Annotation:
Nous étudions la limite haute fréquence de l'équation de Helmholtz avec terme source dans le cas où la fréquence des oscillations dues à la source est identique à celle des modes propres de l'opérateur de Helmholtz qui régit la propagation des ondes, de sorte que des intéractions résonantes peuvent se produire. Nous quantifions le transport asymptotique de l'énergie via l'utilisation des mesures de Wigner (ou mesures semi-classiques).
Nos résultats concernent deux cadres d'étude : le cas de deux sources quasi-ponctuelles (pour lequel nous nous limitons à un indice de réfraction constant), et le cas d'un indice de réfraction discontinu le long d'une interface séparant deux milieux inhomogènes non bornés.
Dans les deux cas, nous montrons que, sous des hypothèses géométriques appropriées, la mesure de Wigner est l'intégrale le long des rayons de l'optique géométrique et jusqu'en temps infini, d'une source d'énergie qui mesure les interactions résonantes entre la source et la solution.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
13

Fouassier, Élise. „Analyse haute fréquence de l'équation de Helmholtz avec terme source“. Rennes 1, 2005. https://tel.archives-ouvertes.fr/tel-00080011.

Der volle Inhalt der Quelle
Annotation:
Nous étudions la limite haute fréquence de l'équation de Helmholtz avec terme source dans le cas où la fréquence des oscillations dues à la source est identique à celle des modes propres de l'opérateur de Helmholtz qui régit la propagation des ondes, de sorte que des intéractions résonantes peuvent se produire. Nous quantifions le transport asymptotique de l'énergie via l'utilisation des mesures de Wigner (ou mesures semi-classiques). Nos résultats concernent deux cadres d'étude : le cas de deux sources quasi-ponctuelles (pour lequel nous nous limitons à un indice de réfraction constant), et le cas d'un indice de réfraction discontinu le long d'une interface séparant deux milieux inhomogènes non bornés. Dans les deux cas, nous montrons que, sous des hypothèses géométriques appropriées, la mesure de Wigner est l'intégrale le long des rayons de l'optique géométrique et jusqu'en temps infini, d'une source d'énergie qui mesure les intéractions résonantes entre la source et la solution.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
14

Schnieders, Dirk. „Light source estimation from spherical reflections“. Thesis, The University of Hong Kong (Pokfulam, Hong Kong), 2011. http://hub.hku.hk/bib/B45892970.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
15

Luettgen, Mark R. (Mark Robert). „Trajectory estimation of an optically radiating source“. Thesis, Massachusetts Institute of Technology, 1990. http://hdl.handle.net/1721.1/14027.

Der volle Inhalt der Quelle
Annotation:
Thesis (M.S.)--Massachusetts Institute of Technology, Dept. of Electrical Engineering and Computer Science, 1990.
Includes bibliographical references (leaves 115-117).
by Mark R. Luettgen.
M.S.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
16

Andera, Craig. „Trajectory estimation of an optically radiating source“. Thesis, Massachusetts Institute of Technology, 1995. http://hdl.handle.net/1721.1/36634.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
17

Scaillet, Olivier. „Modélisation et estimation de la structure par terme des taux d'intérêt“. Paris 9, 1996. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1996PA090003.

Der volle Inhalt der Quelle
Annotation:
Le présent travail se compose de cinq chapitres et examine deux aspects de la modélisation de la structure par terme : l'évaluation d'actifs dérivés de taux d'intérêt et l'inférence des modèles généralement utilisés dans le cadre de cette évaluation. Le premier chapitre est composé d'une introduction aux modèles en temps continu et à leur valorisation par arbitrage. Le second chapitre s'attache à l'évaluation d'options dans un modèle affine particulier. La partie estimation des processus de diffusion décrivant la dynamique des variables d'état est analysée dans le chapitre iii et consiste en une présentation d'une méthode fondée sur des simulations. Dans le chapitre iv, des tests d'hypothèses non emboitées utilisant des procédures fondées sur des simulations et une notion d'englobement indirect sont décrits. Deux applications sont proposées dans le chapitre v. La première consiste en la présentation d'une méthode d'estimation à partir de prix d'obligations des modèles de la structure par terme. La deuxième application concerne l'estimation et la comparaison de plusieurs modèles habituellement retenus pour le taux court instantané
This work is divided in five chapters and examines two aspects of term structure modeling: the pricing of derivatives assets on interest rates end the inference of the models generally used in this pricing. The first chapter introduces continuous-time models and arbitrage pricing. The second chapter examines option pricing in a affine model. The estimation part concerning state variable dynamics is dealt with in chapter III. It consists in studying an inference method based on simulations in the frameworks of diffusion processes. In chapter IV, tests of non-nested hypotheses using simulations and an indirect encompassing notion are described. Two applications are proposed in chapter V. The first one consists in examining an estimation method of term structure models from bond data. The second one concerns estimation and comparison of several usual models of the instantaneous interest rate
APA, Harvard, Vancouver, ISO und andere Zitierweisen
18

Prieto, Germán A. „Improving earthquake source spectrum estimation using multitaper techniques“. Diss., Connect to a 24 p. preview or request complete full text in PDF format. Access restricted to UC campuses, 2007. http://wwwlib.umi.com/cr/ucsd/fullcit?p3257950.

Der volle Inhalt der Quelle
Annotation:
Thesis (Ph. D.)--University of California, San Diego, 2007.
Title from first page of PDF file (viewed May 22 , 2007). Available via ProQuest Digital Dissertations. Vita. Includes bibliographical references (p. 117-124).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
19

Che, Viet Nhat Anh. „Cyclostationary analysis : cycle frequency estimation and source separation“. Thesis, Saint-Etienne, 2011. http://www.theses.fr/2011STET4035.

Der volle Inhalt der Quelle
Annotation:
Le problème de séparation aveugle de sources a but de retrouver un ensemble des sources signaux statistiquement indépendants à partir seulement d’un ensemble des observations du capteur. Ces observations peuvent être modélisées comme un mélanges linéaires instantané ou convolutifs de sources. Dans cette thèse, les sources signaux sont supposées être cyclostationnaire où leurs fréquences cycles peuvent être connues ou inconnu par avance. Premièrement, nous avons établi des relations entre le spectre, spectre de puissance d’un signal source et leurs composants, puis nous avons proposé deux nouveaux algorithmes pour estimer sa fréquences cycliques. Ensuite, pour la séparation aveugle de sources en mélanges instantanés, nous présentons quatre algorithmes basés sur diagonalisation conjoint approchées orthogonale (ou non-orthogonales) d’une famille des matrices cycliques multiples moment temporel, or l’approche matricielle crayon pour extraire les sources signaux. Nous introduisons aussi et prouver une nouvelle condition identifiabilité pour montrer quel type de sources cyclostationnaires d’entrée peuvent être séparées basées sur des statistiques cyclostationnarité à l’ordre deux. Pour la séparation aveugle de sources en mélanges convolutifs, nous présentons un algorithme en deux étapes basées sur une approche dans le domaine temporel pour récupérer les signaux source. Les simulations numériques sont utilisés dans cette thèse pour démontrer l’efficacité de nos approches proposées, et de comparer les performances avec leurs méthodes précédentes
Blind source separation problem aims to recover a set of statistically independent source signals from a set of sensor observations. These observations can be modeled as an instantaneous or convolutive mixture of the same sources. In this dissertation, the source signals are assumed to be cyclostationary where their cycle frequencies may be known or unknown a priori. First, we establish relations between the spectrum, power spectrum of a source signal and its component, then we propose two novel algorithms to estimate its cycle frequencies. Next, for blind separation of instantaneous mixtures of sources, we present four algorithms based on orthogonal (or non-orthogonal) approximate diagonalization of the multiple cyclic temporal moment matrices, and the matrix pencil approach to extract the source signal. We also introduce and prove a new identifiability condition to show which kind of input cyclostationary sources can be separated based on second-order cyclostationarity statistics. For blind separation of convolutive mixtures of sources signal or blind deconvolution of FIR MIMO systems, we present a two-steps algorithm based on time domain approach for recovering the source signals. Numerical simulations are used throughout this thesis to demonstrate the effectiveness of our proposed approaches, and compare theirs performances with previous methods
APA, Harvard, Vancouver, ISO und andere Zitierweisen
20

Sawangtong, Panumart. „Blow-up pour des problèmes paraboliques semi-linéaires avec un terme source localisé“. Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2010. http://tel.archives-ouvertes.fr/tel-00833171.

Der volle Inhalt der Quelle
Annotation:
On étudie l'existence de 'blow-up' et l'ensemble des points de 'blow-up' pour une équation de type chaleur dégénérée ou non avec un terme source uniforme fonction non linéaire de la température instantanée en un point fixé du domaine. L'étude est conduite par les méthodes d'analyse classique (fonction de Green, développements en fonctions propres, principe du maximum) ou fonctionnelle (semi-groupes d'opérateurs linéaires).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
21

Gunawan, David Oon Tao Electrical Engineering &amp Telecommunications Faculty of Engineering UNSW. „Musical instrument sound source separation“. Awarded By:University of New South Wales. Electrical Engineering & Telecommunications, 2009. http://handle.unsw.edu.au/1959.4/41751.

Der volle Inhalt der Quelle
Annotation:
The structured arrangement of sounds in musical pieces, results in the unique creation of complex acoustic mixtures. The analysis of these mixtures, with the objective of estimating the individual sounds which constitute them, is known as musical instrument sound source separation, and has applications in audio coding, audio restoration, music production, music information retrieval and music education. This thesis principally addresses the issues related to the separation of harmonic musical instrument sound sources in single-channel mixtures. The contributions presented in this work include novel separation methods which exploit the characteristic structure and inherent correlations of pitched sound sources; as well as an exploration of the musical timbre space, for the development of an objective distortion metric to evaluate the perceptual quality of separated sources. The separation methods presented in this work address the concordant nature of musical mixtures using a model-based paradigm. Model parameters are estimated for each source, beginning with a novel, computationally efficient algorithm for the refinement of frequency estimates of the detected harmonics. Harmonic tracks are formed, and overlapping components are resolved by exploiting spectro-temporal intra-instrument dependencies, integrating the spectral and temporal approaches which are currently employed in a mutually exclusive manner in existing systems. Subsequent to the harmonic magnitude extraction using this method, a unique, closed-loop approach to source synthesis is presented, separating sources by iteratively minimizing the aggregate error of the sources, constraining the minimization to a set of estimated parameters. The proposed methods are evaluated independently, and then are placed within the context of a source separation system, which is evaluated using objective and subjective measures. The evaluation of music source separation systems is presently limited by the simplicity of objective measures, and the extensive effort required to conduct subjective evaluations. To contribute to the development of perceptually relevant evaluations, three psychoacoustic experiments are also presented, exploring the perceptual sensitivity of timbre for the development of an objective distortion metric for timbre. The experiments investigate spectral envelope sensitivity, spectral envelope morphing and noise sensitivity.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
22

Castillo, Anthony. „Contribution à l'étude de l'endommagement de matériaux composites par estimation des termes sources et des diffusivités thermiques“. Thesis, Aix-Marseille, 2017. http://www.theses.fr/2017AIXM0592/document.

Der volle Inhalt der Quelle
Annotation:
Ce travail porte sur la détection de l’endommagement de matériaux composites. Une première partie concerne l’élaboration de méthodes permettant d’estimer les termes sources de chaleur d’un matériau sollicité mécaniquement. Lors de ce processus, un ensemble de défauts mécaniques mènent à des productions de chaleur. La détection des sources peut permettre la détection de ces défauts. Deux principales méthodes sont présentées : une méthode dite « directe » basée sur une discrétisation du champ de température mesuré et une méthode « itérative » basée sur la méthode du gradient conjugué. A ces méthodes sont couplées des techniques de filtrages des données comme la SVD. Les équations sont résolues par différences finies sous leur forme linéaire. Des modifications sont apportées à l’algorithme itératif pour améliorer sa convergence ainsi que les résultats. Les problématiques envisagées font partie des problèmes inverses en thermique. L’objectif de la première partie est de trouver un lien entre l’apparition de macro-fissure et la localisation de termes sources de chaleur au sein d’un matériau composite. La seconde partie consiste à élaborer des méthodes d’estimation des diffusivités thermiques directionnelles. Les méthodes reposent sur une modélisation du transfert de chaleur à l’aide des quadripôles thermiques. Les estimations de paramètres sont réalisées sur des zones ciblées à risque sur un matériau déjà endommagé. Le but est de faire le lien entre un endommagement mécanique connu diffus et une dégradation des propriétés thermiques. Ce manuscrit est présenté en deux parties : une partie de validation des méthodes. Une partie expérimentale où sont analysés les composites
This work deals with the damage detection of composite materials. These materials are used in the aeronautics industry. The first part concerns the development of methods to estimate the heat sources terms of a stressed material. During this process, a set of mechanical defects leads to heat productions. The sources detection can conduct to the detection of these defects. Two main methods are presented: a "direct" method based on a discretization of the measured temperature field and an "iterative" method based on the conjugate gradient method. These methods are coupled with data filtering techniques such as SVD. In order to optimize computation time, equations are solved by finite differences in their linear form. Modifications are also made for the iterative algorithm to improve its convergence as well as the results of the estimation. These problems are considered as thermal inverse problems. The main objective of the first part is to find an experimental link between the appearance of a macro fissure and the localization of a heat source term within a composite material. The second part consists in the elaboration of methods for estimating thermal directional diffusivities. The methods are based on a modeling of heat transfer using thermal quadrupoles. Parameter estimations are made on targeted "risked" areas on a material, which is already damaged but not under stress. The aim is to link a known mechanical damage, which is called "diffuse" to thermal properties degradation in the main directions. This manuscript is presented in two parts: a validation part of the methods, and an experimental part in which composites are analyzed
APA, Harvard, Vancouver, ISO und andere Zitierweisen
23

Peyroutet, Fabrice. „Etude d'une méthode Splitting pour des lois de conservation scalaires avec terme de source“. Pau, 1999. http://www.theses.fr/1999PAUU3029.

Der volle Inhalt der Quelle
Annotation:
Ce travail traite de l'étude théorique de l'approximation de lois de conservation scalaires avec terme de source au moyen d'une technique de Splitting. Cette méthode consiste à alterner la résolution d'une équation différentielle contenant le terme de source et la résolution de lois hyperboliques homogènes. Les solutions considérées vérifient, sur un ouvert borne, une formulation entropique avec prise en compte d'une condition de type Dirichlet sur la frontière. On démontre la convergence du schéma Splitting dans le cadre d'étude de fonctions à variation bornée puis on établit que l'erreur commise est d'ordre 1. Dans le cadre d'étude de solutions seulement bornées, la convergence de la technique est à nouveau prouvée. De plus, une estimation de l'erreur est obtenue dès que seule la donnée initiale du problème continu possède un degré de régularité intermédiaire. En outre, on montre que cette méthode s'adapte aussi au cas de problèmes unilatéraux. Dans ce cas, il suffit, dans le procédé de décomposition d'opérateurs, de prendre en compte la contrainte d'obstacle au niveau du traitement de l'équation différentielle. On prouve la convergence du schéma Splitting en proposant, dans le cas du problème de Cauchy, une estimation de l'erreur. Finalement, on donne une illustration numérique de ce résultat.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
24

Shiga, Yoshinori. „Precise estimation of vocal tract and voice source characteristics“. Thesis, University of Edinburgh, 2006. http://hdl.handle.net/1842/940.

Der volle Inhalt der Quelle
Annotation:
This thesis addresses the problem of quality degradation in speech produced by parameter-based speech synthesis, within the framework of an articulatory-acoustic forward mapping. I first investigate current problems in speech parameterisation, and point out the fact that conventional parameterisation inaccurately extracts the vocal tract response due to interference from the harmonic structure of voiced speech. To overcome this problem, I introduce a method for estimating filter responses more precisely from periodic signals. The method achieves such estimation in the frequency domain by approximating all the harmonics observed in several frames based on a least squares criterion. It is shown that the proposed method is capable of estimating the response more accurately than widely-used frame-by-frame parameterisation, for simulations using synthetic speech and for an articulatory-acoustic mapping using actual speech. I also deal with the source-filter separation problem and independent control of the voice source characteristic during speech synthesis. I propose a statistical approach to separating out the vocal-tract filter response from the voice source characteristic using a large articulatory database. The approach realises such separation for voiced speech using an iterative approximation procedure under the assumption that the speech production process is a linear system composed of a voice source and a vocal-tract filter, and that each of the components is controlled independently by different sets of factors. Experimental results show that controlling the source characteristic greatly improves the accuracy of the articulatory-acoustic mapping, and that the spectral variation of the source characteristic is evidently influenced by the fundamental frequency or the power of speech. The thesis provides more accurate acoustical approximation of the vocal tract response, which will be beneficial in a wide range of speech technologies, and lays the groundwork in speech science for a new type of corpus-based statistical solution to the source-filter separation problem.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
25

Mazzilli, Giacomo. „Shape-from-shading and light source estimation in humans“. Thesis, University of Birmingham, 2015. http://etheses.bham.ac.uk//id/eprint/5713/.

Der volle Inhalt der Quelle
Annotation:
Light source estimation is very important for the interpretation of shape-fromshading by humans. We used a range of methods to characterise the way in which the type, and position of the light source can influence observers’ performance in shape-from-shading tasks. Firstly, we used classification images to discover people’s priors for light source position using noise only stimuli. This cue-free approach uncovered the weakness of the light-from-above prior. We also examined the effect of varying the light source elevation on the perceived shape of isotropic and anisotropic surfaces, the impacts of lighting ambiguities on shape-from-shading and, finally, the interpretation of shadow regions. We found that lighting priors are weighted by the visual system in a way that is inversely proportional to the strength of lighting cues in the stimuli, revealing that knowledge about the light source position is critical to perceiving shapefrom- shading. Where ambiguous cues to lighting direction are present human vision seems to favour local cues over distal ones. We also showed that perceived surface shape varies with light elevation only in so far as elevation alters contrast. Finally we show that human vision does not treat shadows in the same way as objects.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
26

Richards, John A. (John Alfred). „Time-to-intercept estimation for an optically radiating source“. Thesis, Massachusetts Institute of Technology, 1996. http://hdl.handle.net/1721.1/41391.

Der volle Inhalt der Quelle
Annotation:
Thesis (M. Eng.)--Massachusetts Institute of Technology, Dept. of Electrical Engineering and Computer Science, 1996.
Includes bibliographical references (leaves 93-94).
by John A. Richards.
M.Eng.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
27

Yardibi, Tarik. „Source localization and power estimation in aeroacoustic noise measurements“. [Gainesville, Fla.] : University of Florida, 2009. http://purl.fcla.edu/fcla/etd/UFE0024868.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
28

Meseguer, Brocal Gabriel. „Multimodal analysis : informed content estimation and audio source separation“. Electronic Thesis or Diss., Sorbonne université, 2020. http://www.theses.fr/2020SORUS111.

Der volle Inhalt der Quelle
Annotation:
Cette thèse propose l'étude de l'apprentissage multimodal dans le contexte de signaux musicaux. Tout au long de ce manuscrit, nous nous concentrerons sur l'interaction entre les signaux audio et les informations textuelles. Parmi les nombreuses sources de texte liées à la musique qui peuvent être utilisées (par exemple les critiques, les métadonnées ou les commentaires des réseaux sociaux), nous nous concentrerons sur les paroles. La voix chantée relie directement le signal audio et les informations textuelles d'une manière unique, combinant mélodie et paroles où une dimension linguistique complète l'abstraction des instruments de musique. Notre étude se focalise sur l'interaction audio et paroles pour cibler la séparation de sources et l'estimation de contenu informé. Les stimuli du monde réel sont produits par des phénomènes complexes et leur interaction constante dans divers domaines. Notre compréhension apprend des abstractions utiles qui fusionnent différentes modalités en une représentation conjointe. L'apprentissage multimodal décrit des méthodes qui analysent les phénomènes de différentes modalités et leur interaction afin de s'attaquer à des tâches complexes. Il en résulte des représentations meilleures et plus riches qui améliorent les performances des méthodes d'apprentissage automatique actuelles. Pour développer notre analyse multimodale, nous devons d'abord remédier au manque de données contenant une voix chantée avec des paroles alignées. Ces données sont obligatoires pour développer nos idées. Par conséquent, nous étudierons comment créer une telle base de données en exploitant automatiquement les ressources du World Wide Web. La création de ce type de base de données est un défi en soi qui soulève de nombreuses questions de recherche. Nous travaillons constamment avec le paradoxe classique de la `` poule ou de l'œuf '': l'acquisition et le nettoyage de ces données nécessitent des modèles précis, mais il est difficile de former des modèles sans données. Nous proposons d'utiliser le paradigme enseignant-élève pour développer une méthode où la création de bases de données et l'apprentissage de modèles ne sont pas considérés comme des tâches indépendantes mais plutôt comme des efforts complémentaires. Dans ce processus, les paroles et les annotations non-expertes de karaoké décrivent les paroles comme une séquence de notes alignées sur le temps avec leurs informations textuelles associées. Nous lions ensuite chaque annotation à l'audio correct et alignons globalement les annotations dessus
This dissertation proposes the study of multimodal learning in the context of musical signals. Throughout, we focus on the interaction between audio signals and text information. Among the many text sources related to music that can be used (e.g. reviews, metadata, or social network feedback), we concentrate on lyrics. The singing voice directly connects the audio signal and the text information in a unique way, combining melody and lyrics where a linguistic dimension complements the abstraction of musical instruments. Our study focuses on the audio and lyrics interaction for targeting source separation and informed content estimation. Real-world stimuli are produced by complex phenomena and their constant interaction in various domains. Our understanding learns useful abstractions that fuse different modalities into a joint representation. Multimodal learning describes methods that analyse phenomena from different modalities and their interaction in order to tackle complex tasks. This results in better and richer representations that improve the performance of the current machine learning methods. To develop our multimodal analysis, we need first to address the lack of data containing singing voice with aligned lyrics. This data is mandatory to develop our ideas. Therefore, we investigate how to create such a dataset automatically leveraging resources from the World Wide Web. Creating this type of dataset is a challenge in itself that raises many research questions. We are constantly working with the classic ``chicken or the egg'' problem: acquiring and cleaning this data requires accurate models, but it is difficult to train models without data. We propose to use the teacher-student paradigm to develop a method where dataset creation and model learning are not seen as independent tasks but rather as complementary efforts. In this process, non-expert karaoke time-aligned lyrics and notes describe the lyrics as a sequence of time-aligned notes with their associated textual information. We then link each annotation to the correct audio and globally align the annotations to it. For this purpose, we use the normalized cross-correlation between the voice annotation sequence and the singing voice probability vector automatically, which is obtained using a deep convolutional neural network. Using the collected data we progressively improve that model. Every time we have an improved version, we can in turn correct and enhance the data
APA, Harvard, Vancouver, ISO und andere Zitierweisen
29

CUNHA, RAQUEL D. S. da. „A comunicação dos riscos na preparação para emergências nucleares: um estudo de caso em Angra dos Reis, Rio de Janeiro“. reponame:Repositório Institucional do IPEN, 2017. http://repositorio.ipen.br:8080/xmlui/handle/123456789/28029.

Der volle Inhalt der Quelle
Annotation:
Submitted by Pedro Silva Filho (pfsilva@ipen.br) on 2017-11-21T11:45:58Z No. of bitstreams: 0
Made available in DSpace on 2017-11-21T11:45:58Z (GMT). No. of bitstreams: 0
O gerenciamento de riscos em uma instalação nuclear é necessário para a segurança de trabalhadores e de populações vizinhas. Parte desse processo é a comunicação dos riscos que propicia o diálogo entre gestores da empresa e moradores das áreas de risco. A população que conhece os riscos a que está exposta, como esses riscos são gerenciados e o que deve ser feito em uma situação de emergência tende a se sentir mais segura e a confiar nas instituições responsáveis pelo plano de emergência. Sem diálogo entre empresa e público, o conhecimento dos procedimentos a serem seguidos em caso de acidente não chega à população, ou quando chega, não há confiança dessas pessoas na sua eficácia. Em Angra dos Reis, no litoral sul do Estado do Rio de Janeiro, está a Central Nuclear Almirante Álvaro Alberto. No entorno dessa Central Nuclear existe uma população que, de acordo com o Plano de Emergência Externo (PEE/RJ), deverá ser evacuada ou ficar abrigada, caso ocorra um acidente na instalação. Um trabalho de comunicação de riscos entre esses moradores é necessário para que eles conheçam o plano de emergência e os procedimentos corretos para uma situação de emergência, além de buscar esclarecer dúvidas e mitos. Esse trabalho apresenta uma análise da comunicação dos riscos feita para a população local, a percepção que ela tem dos riscos e o grau de conhecimento do plano de emergência externo por parte dessas pessoas.
Tese (Doutorado em Tecnologia Nuclear)
IPEN/T
Instituto de Pesquisas Energéticas e Nucleares - IPEN-CNEN/SP
APA, Harvard, Vancouver, ISO und andere Zitierweisen
30

Freret-Lorgeril, Valentin. „Le terme source des panaches de téphras : applications radars aux volcans Etna et Stromboli (Italie)“. Thesis, Université Clermont Auvergne‎ (2017-2020), 2018. http://www.theses.fr/2018CLFAC057/document.

Der volle Inhalt der Quelle
Annotation:
Les panaches volcaniques de téphras constituent un des aléas volcaniques majeurs. Pour prévoir leur dispersion et les zones d'impacts de leurs retombées, des modèles numériques sont utilisés en opérationnel et basés sur des paramètres éruptifs, regroupés sous la notion de terme source, caractérisant l'émission des panaches. L'ensemble du terme source est cependant difficile à mesurer en temps réel. C'est pourquoi les modèles de dispersion sont souvent basés sur des scénarios d'éruptions passées et utilisent des lois empiriques reliant la hauteur des panaches avec les flux massiques à la source. Cependant, les résultats qui découlent de ces modèles sont peu contraints, moyennés sur la durée des éruptions, et souffrent de larges incertitudes. Dans cette optique, les radars Doppler, capables de sonder l'intérieur des colonnes éruptives avec des échelles spatio-temporelles fines, peuvent fournir des contraintes cruciales sur le terme source des panaches en temps réel. Ce travail de thèse traite des applications de radars volcanologiques dédiés, potentiellement transposables aux radars météorologiques communément utilisés, afin de fournir des paramètres éruptifs à la source des panaches de téphras en surveillance opérationnelle mais également pour contraindre la dynamique des colonnes éruptives et les charges internes des panaches et de leurs retombées. Une campagne de mesures au volcan Stromboli a permis de montrer les capacités d'un couplage innovant entre un disdromètre optique (Parsivel2) avec un nouveau radar Doppler à onde millimétrique (Mini-BASTA). Grâce à l'excellente résolution spatio-temporelle de Mini-BASTA (12,5 m et 1 s), des figures intermittentes de sédimentation ont été observées dans les retombées de panaches transitoires dilués. Observées également au disdromètre mesurant la vitesse et la taille des retombées, ces figures ont été reproduites en laboratoire grâce à un modèle analogique. Un modèle conceptuel de formation de thermiques de sédimentation inversés est proposé pour expliquer ces figures et implique que les processus menant à une sédimentation irrégulière typique des panaches soutenus et concentrés peuvent s'appliquer à des panaches dilués, y compris ceux issus d'éruptions Stromboliennes normales en régime transitoire. Ensuite, une caractérisation physique d'un grand nombre de particules de cendres échantillonnées à Stromboli a permis de valider les mesures de tailles et de vitesses terminales de chutes par disdromètre sur le terrain et en laboratoire, justifiant par ailleurs son utilisation opérationnelle. A partir de ces contraintes, une loi reliant les concentrations de cendres avec les facteurs de réflectivité calculés a pu être comparée aux mesures radar in situ. Les concentrations internes modale et maximale des panaches de Stromboli sont respectivement autour de 1 × 10-5 kg m-3 et 7,45 × 10-4 kg m-3, largement supérieures au seuil fixé pour la sécurité aérienne. Les concentrations en cendres des retombées s’étalent entre 1,87 × 10-8 - 2,42 × 10-6 kg m-3 avec un mode vers 4 × 10-7 kg m-3.Finalement, ce travail de thèse montre les applications opérationnelles du radar UHF VOLDORAD 2B dans le cadre de la surveillance de l'activité de l'Etna. Une méthodologie, applicable à tout radar Doppler, a été développée pour obtenir des flux de masse de téphras en temps réel à partir d’un proxy de masse, uniquement basé sur les vitesses d'éjection et puissances mesurées, calibré avec un modèle de colonne tenant compte de l'influence du vent sur les panaches. La gamme de flux trouvée pour 47 paroxysmes entre 2011 et 2015 s’étend de 2.96 × 104 à 3.26 × 106 kg s-1. A partir d’un autre modèle de colonne éruptive, Plume-MoM, les flux radar ont permis de modéliser des hauteurs des panaches de téphras émis lors de quatre paroxysmes de l'Etna cohérentes avec les observations faites en temps réel par imagerie visible et par radar en bande-X. (...)
Volcanic tephra plumes are one of the major volcanic hazards. To forecast their dispersion and the impact zones of their fallout, the numerical models used in operational monitoring are based on eruptive parameters, called the source term, characterizing the plume emission. Source term parameters are challenging to measure in real time. This is why dispersion models are often based on past eruptive scenarios and use empirical laws that relate plume heights to source mass fluxes. However, the model outputs are not well constrained, averaged over the eruption duration, and suffer from large uncertainties. In this topic, Doppler radars are capable of probing the interior of eruptive columns and plumes at high space-time resolution and can provide crucial constraints on the source term in real time. This thesis deals with applications in operational monitoring of dedicated volcanological radars, potentially transposable to most common meteorological radars, to provide eruptive parameters at the source of tephra plumes but also to constrain the dynamics and internal mass load of eruptive columns, volcanic plumes and their fallout.A measurement campaign at Stromboli volcano has shown the capabilities of an innovative coupling between an optical disdrometer (Parsivel2) and a new 3-mm wave Doppler radar (Mini-BASTA). Owing to its high spatio-temporal resolution (12.5 m and 1 s), intermittent sedimentation patterns were observed in the fallout of dilute transient plumes typical of normal strombolian activity. These features, also recorded with the disdrometer, measuring the particle settling speeds and sizes, were reproduced in the laboratory using an analog model. A conceptual model for the formation of reversed sedimentation thermals is proposed to explain these features. It implies that processes leading to irregular sedimentation typical of sustained concentrated strong plumes can be applied to dilute weak plumes, including those formed by normal transient Strombolian activity. Then, a physical characterization of a large number of ash particles sampled at Stromboli allowed the validation of particle size and terminal velocity measurements by the disdrometer in the field and in the laboratory, arguing in favor of its operational use. Then, a physical characterization of a large number of ash particles sampled at Stromboli allowed to validate the measurements of size and terminal velocity of falls by disdrometer in the field and in laboratory, justifying also its operational use. From these constraints, a law relating ash concentrations with calculated reflectivity factors was found and compared to in situ radar measurements inside ash plumes and fallout. The modal and maximum internal concentrations of Strombolian plumes are at about 1 × 10-5 kg m-3 and 7.5 × 10-4 kg m-3 respectively, well above the threshold for aviation safety. Ash concentrations in the fallout range from 1.9× 10-8 to 2.4 × 10-6 kg m-3 with a mode at about 4 × 10-7 kg m-3.Finally, this thesis work shows operational applications of the UHF VOLDORAD 2B radar for the monitoring of explosive activity at Etna. A methodology, applicable to any Doppler radar, has been developed to obtain tephra mass eruption rates in real time from a mass proxy, based only on measured ejection velocities and power, and calibrated with an eruptive column model taking crosswinds into account. Tephra mass fluxes found for 47 paroxysms between 2011 and 2015 range from 3 × 104 to over 3 × 106 kg s-1. Then, tephra plumes heights of four Etna paroxysms were simulated using the eruptive column model Plume-MoM from the radar-derived mass eruption rates and were found consistent with real-time observations made by visible imagery and by X-band radar. This last part demonstrates the capabilities of VOLDORAD 2B to provide quantitative input parameters for dispersion models in the case of future Etna paroxysms. (...)
APA, Harvard, Vancouver, ISO und andere Zitierweisen
31

Kovavisaruch, La-or. „Source localization using TDOA with erroneous receiver positions“. Diss., Columbia, Mo. : University of Missouri-Columbia, 2005. http://hdl.handle.net/10355/6278.

Der volle Inhalt der Quelle
Annotation:
Thesis (Ph. D.)--University of Missouri-Columbia, 2005.
The entire dissertation/thesis text is included in the research.pdf file; the official abstract appears in the short.pdf file (which also appears in the research.pdf); a non-technical general description, or public abstract, appears in the public.pdf file. Title from title screen of research.pdf file viewed on (May 22, 2006) Vita. Includes bibliographical references.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
32

Bettadapura, Raghuprasad Shivatejas. „Echo Delay Estimation to Aid Source Localization in Noisy Environments“. Thesis, Virginia Tech, 2014. http://hdl.handle.net/10919/50517.

Der volle Inhalt der Quelle
Annotation:
Time-delay estimation (TDE) finds application in a variety of problems, be it locating fractures or steering cameras towards the speaker in a multi-participant conference application. Underwater acoustic OFDM source localization is another important application of TDE. Existing underwater acoustic source localization techniques use a microphone array consisting of three or four sensors in order to effectively locate the source. Analog-to-digital (ADC) converters at these sensors call for a non-nominal investment in terms of circuitry and memory. A relatively inexpensive source localization algorithm is needed that works with the output of a single sensor. Since an inexpensive process for estimating the location of the source is desired, the ADC used at the sensor is capable only of a relatively low sampling rate. For a given delay, a low sampling rate leads to sub-sample interval delays, which the desired algorithm must be able to estimate. Prevailing TDE algorithms make some a priori assumptions about the nature of the received signal, such as Gaussianity, wide-sense stationarity, or periodicity. The desired algorithm must not be restrictive in so far as the nature of the transmitted signal is concerned. A time-delay estimation algorithm based on the time-frequency ratio of mixtures (TFRM) method is proposed. The experimental set-up consists of two microphones/sensors placed at some distances from the source. The method accepts as input the received signal which consists of the sum of the signal received at the nearer sensor and the signal received at the farther sensor and noise. The TFRM algorithm works in the time-frequency domain and seeks to perform successive source cancellation in the received burst. The key to performing source cancellation is to estimate the ratio in which the sources combine and this ratio is estimated by means of taking a windowed mean of the ratio of the spectrograms of any two pulses in the received burst. The variance of the mean function helps identify single-source regions and regions in which the sources mix. The performance of the TFRM algorithm is evaluated in the presence of noise and is compared against the Cramer-Rao lower bound. It is found that the variance of the estimates returned by the estimator diverge from the predictions of the Cramer-Rao inequality as the farther sensor is moved farther away. Conversely, the estimator becomes more reliable as the farther sensor is moved closer. The time-delay estimates obtained from the TFRM algorithm are used for source localization. The problem of finding the source reduces to finding the locus of points such that the difference of its distances to the two sensors equals the time delay. By moving the pair of sensors to a different location, or having a second time delay sensor, an exact location for the source can be determined by finding the point of intersection of the two loci. The TFRM method does not rely on a priori information about the signal. It is applicable to OFDM sources as well as sinusoidal and chirp sources.
Master of Science
APA, Harvard, Vancouver, ISO und andere Zitierweisen
33

Suzuki, Wataru. „Estimation of broadband source process based on strong motion modeling“. 京都大学 (Kyoto University), 2008. http://hdl.handle.net/2433/136890.

Der volle Inhalt der Quelle
Annotation:
Kyoto University (京都大学)
0048
新制・課程博士
博士(理学)
甲第13598号
理博第3256号
新制||理||1481(附属図書館)
UT51-2008-C516
京都大学大学院理学研究科地球惑星科学専攻
(主査)教授 岩田 知孝, 教授 平原 和朗, 教授 Mori James J.
学位規則第4条第1項該当
APA, Harvard, Vancouver, ISO und andere Zitierweisen
34

Noris, Mauro <1996&gt. „Multi-view light source estimation for automated industrial quality control“. Master's Degree Thesis, Università Ca' Foscari Venezia, 2020. http://hdl.handle.net/10579/17736.

Der volle Inhalt der Quelle
Annotation:
Nowadays, Computer Vision comprises a lot of different useful applications, ranging from real-time surveillance to series production. Since most of the mass-production systems are automatized, there is a non-zero probability for an error to happen, which in some cases would make the final product useless. In that regard, many factories often integrate into their assembly line a specialized camera system for the purpose of identifying errors at the end or during the production. In particular, a device composed of a network of calibrated cameras is usually employed to identify metrological and visual defects. Together with cameras, such device could comprise multiple light sources to easily spot defects caused by an imperfect structure of the object's surface. This work explores the possibility of increasing the precision of such an inspection system by estimating the position of each light source. The estimation is carried out through the analysis of the shading observed on the surface of some spherical Lambertian objects in different poses and from different points of view.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
35

Long, Peter Vincent. „Estimating the long-term health effects associated with health insurance and usual source of care at the population level“. Diss., Restricted to subscribing institutions, 2008. http://proquest.umi.com/pqdweb?did=1779835391&sid=18&Fmt=2&clientId=48051&RQT=309&VName=PQD.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
36

Sarazin, Desbois Céline. „Méthodes numériques pour des systèmes hyperboliques avec terme source provenant de physiques complexes autour du rayonnement“. Phd thesis, Université de Nantes, 2013. http://tel.archives-ouvertes.fr/tel-00814182.

Der volle Inhalt der Quelle
Annotation:
Ce manuscrit est dédié à l'approximation numérique de plusieurs modèles du transfert radiatif. Dans un premier temps, l'attention est portée sur le modèle cinétique d'ordonnées discrètes. Dans le but de coupler ce modèle avec d'autres phénomènes plus lents, il est nécessaire d'avoir des méthodes numériques performantes et précises sur des temps longs. À partir d'une double approximation polynomiale de la solution en temps et en espace, on développe un schéma de type GRP d'ordre élevé sans restriction sur le pas de temps pour un système hyperbolique linéaire sur des maillages non structurés. Ce schéma est ensuite étendu pour le modèle d'ordonnées discrètes. Dans un second temps, on s'intéresse à des modèles aux moments issus du transfert radiatif. En effet, dans certaines applications, les modèles aux moments de type M1 conservent de nombreuses propriétés de l'ETR et fournissent une approximation suffisante de la solution. Après avoir résolu le problème de Riemann associé au modèle M1 gris, on considère l'approximation numérique du modèle M1 multigroupe. Une attention particulière est portée sur le calcul des moyennes d'opacités et des lois de fermeture. Un algorithme de précalculs est alors mis en place. La dernière application traitée dans ce mémoire porte sur une extension du transfert radiatif pour estimer des doses de radiothérapie. À la différence du M1 gris usuel, les flux dépendent ici de fonctions peu régulières en espace. Grâce à des changements de variables, un schéma HLL rétrograde est développé. De nombreux exemples numériques illustrent l'intérêt des schémas obtenus dans cette étude.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
37

Kassai, Koupai Behrouz. „Estimation du bénéfice clinique à long terme, les critères intermédiaires et leur application en pédiatrie“. Lyon 1, 2006. http://www.theses.fr/2006LYO10028.

Der volle Inhalt der Quelle
Annotation:
Les résultats des tests diagnostiques ou des biomarqueurs sont proposés comme critères de substitution dans l’évaluation du bénéfice thérapeutique. Le passage par ces critères de substitutions induit une série de problèmes peu étudiés. Grâce à une approche numérique, nous avons contribué à la compréhension de l’influence de la précision d’un test ou d’un biomarqueur sur la mesure du bénéfice thérapeutique. Chez l’enfant nous avons développé un protocole d’essai clinique évaluant l’efficacité du minoxidil sur l’épaisseur intima-média mesurée par échographie chez les enfants atteints de la maladie de Williams et Beuren. Estimation du bénéfice clinique à long terme. Dans le domaine de la prévention des maladies chroniques la durée des essais cliniques dépasse rarement 5 ans. Cependant, la plupart des traitements préventifs sont prescrits à long terme. Il importe donc de connaître les termes de l’approximation faite en extrapolant à partir des données factuelles. Nous avons développé une approche permettant d’estimer le bénéfice clinique d’un traitement préventif en terme de gain en espérance de vie à partir des données des essais cliniques. Nous l’avons appliqué aux antihypertenseurs en utilisant les données d’une méta-analyse sur données individuelles des essais cliniques et les tables de mortalité. Grâce à cette approche nous avons contribué à la compréhension du comportement des indices d’efficacité (risque relatif, réduction du risque) en fonction de la durée du traitement. Chez l’enfant nous avons exploré le bénéfice clinique à long terme en terme de gain en espérance de vie pour les enfants traités pour des pathologies cancéreuses
Biomarkers and diagnostic tests results are commonly used as substitute for evaluating the treatment benefit. The use of substitutes yields a series of methodological problems. Using a numerical approach we have contributed to a better knowledge of the influence of the performance of diagnostic tests and biomarkers on the measurement of the treatment benefit. In paediatrics, we developed a clinical trial evaluating the efficacy of minoxidil on intima-media thickness with echography in children with Williams Beuren syndrome. Estimating the long-term treatment benefit. In the realm of prevention of chronic diseases, the follow-up duration rarely exceed 5 years. Preventive treatment, however, are usually prescribed for long-term. It is important, therefore, to know the approximations made when extrapolating results of short-term clinical trials. We developed an approach allowing us to estimate the clinical benefit of preventive treatment in terms of gain in life expectancy from results of clinical trials. We applied this approach to antihypertensive drugs using a meta-analysis on individual patient data and life tables. We have contributed to a better understanding of the behaviour of efficacy indices (relative risk, risk differences) as a function of the duration of the treatment. In children treated for cancer, we explored the long-term benefit in terms of gain in life expectancy
APA, Harvard, Vancouver, ISO und andere Zitierweisen
38

Chotikakamthorn, Nopporn. „A pre-filtering maximum likelihood approach to multiple source direction estimation“. Thesis, Imperial College London, 1996. http://hdl.handle.net/10044/1/8634.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
39

Ujile, Awajiokiche. „Harmonic estimation and source identification in power distribution systems using observers“. Thesis, University of Manchester, 2015. https://www.research.manchester.ac.uk/portal/en/theses/harmonic-estimation-and-source-identification-in-power-distribution-systems-using-observers(d66cfe60-e1a5-44d8-9555-be7ec0fb8090).html.

Der volle Inhalt der Quelle
Annotation:
With advances in technology and the increasing use of power electronic components in the design of household and industrial equipment, harmonic distortion has become one of the major power quality problems in power systems. Identifying the harmonic sources and quantifying the contributions of these harmonic sources provides utility companies with the information they require to effectively mitigate harmonics in the system. This thesis proposes the use of observers for harmonic estimation and harmonic source identification. An iterative observer algorithm is designed for performing harmonic estimation in measured voltage or current signals taken from a power distribution system. The algorithm is based on previous observer designs for estimating the power system states at the fundamental frequency. Harmonic estimation is only carried out when the total harmonic distortion (THD) exceeds a specified threshold. In addition, estimation can be performed on multiple measurements simultaneously. Simulations are carried out on an IEEE distribution test feeder. A number of scenarios such as changes in harmonic injections with time, variations in fundamental frequency and measurement noise are simulated to verify the validity and robustness of the proposed iterative observer algorithm. Furthermore, an observer-based algorithm is proposed for identifying the harmonic sources in power distribution systems. The observer is developed to estimate the system states for a combination of suspicious nodes and the estimation error is analysed to verify the existence of harmonic sources in the specified node combinations. This method is applied to the identification of both single and multiple harmonic sources. The response of the observer-based algorithm to time varying load parameters and variations in harmonic injections with time is investigated and the results show that the proposed harmonic source identification algorithm is able to adapt to these changes. In addition, the presence of time delay in power distribution system measurements is taken into consideration when identifying harmonic sources. An observer is designed to estimate the system states for the case of a single time delay as well as multiple delays in the measurements. This observer is then incorporated into the observer-based harmonic source identification algorithm to identify harmonic sources in the presence of delayed measurements. Simulation results show that irrespective of the time delay in the measurements, the algorithm accurately identifies the harmonic sources in the power distribution system.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
40

Lobo, Arthur. „Estimation of the voice source and its modelling in speech synthesis“. Thesis, Keele University, 1989. http://ethos.bl.uk/OrderDetails.do?uin=uk.bl.ethos.716863.

Der volle Inhalt der Quelle
APA, Harvard, Vancouver, ISO und andere Zitierweisen
41

Costa, Facundo hernan. „Bayesian M/EEG source localization with possible joint skull conductivity estimation“. Thesis, Toulouse, INPT, 2017. http://www.theses.fr/2017INPT0016/document.

Der volle Inhalt der Quelle
Annotation:
Les techniques M/EEG permettent de déterminer les changements de l'activité du cerveau, utiles au diagnostic de pathologies cérébrales, telle que l'épilepsie. Ces techniques consistent à mesurer les potentiels électriques sur le scalp et le champ magnétique autour de la tête. Ces mesures sont reliées à l'activité électrique du cerveau par un modèle linéaire dépendant d'une matrice de mélange liée à un modèle physique. La localisation des sources, ou dipôles, des mesures M/EEG consiste à inverser le modèle physique. Cependant, la non-unicité de la solution (due à la loi fondamentale de physique) et le faible nombre de dipôles rendent le problème inverse mal-posé. Sa résolution requiert une forme de régularisation pour restreindre l'espace de recherche. La littérature compte un nombre important de travaux traitant de ce problème, notamment avec des approches variationnelles. Cette thèse développe des méthodes Bayésiennes pour résoudre des problèmes inverses, avec application au traitement des signaux M/EEG. L'idée principale sous-jacente à ce travail est de contraindre les sources à être parcimonieuses. Cette hypothèse est valide dans plusieurs applications, en particulier pour certaines formes d'épilepsie. Nous développons différents modèles Bayésiens hiérarchiques pour considérer la parcimonie des sources. En théorie, contraindre la parcimonie des sources équivaut à minimiser une fonction de coût pénalisée par la norme l0 de leurs positions. Cependant, la régularisation l0 générant des problèmes NP-complets, l'approximation de cette pseudo-norme par la norme l1 est souvent adoptée. Notre première contribution consiste à combiner les deux normes dans un cadre Bayésien, à l'aide d'une loi a priori Bernoulli-Laplace. Un algorithme Monte Carlo par chaîne de Markov est utilisé pour estimer conjointement les paramètres du modèle et les positions et intensités des sources. La comparaison des résultats, selon plusieurs scenarii, avec ceux obtenus par sLoreta et la régularisation par la norme l1 montre des performances intéressantes, mais au détriment d'un coût de calcul relativement élevé. Notre modèle Bernoulli Laplace résout le problème de localisation des sources pour un instant donné. Cependant, il est admis que l'activité cérébrale a une certaine structure spatio-temporelle. L'exploitation de la dimension temporelle est par conséquent intéressante pour contraindre d'avantage le problème. Notre seconde contribution consiste à formuler un modèle de parcimonie structurée pour exploiter ce phénomène biophysique. Précisément, une distribution Bernoulli-Laplacienne multivariée est proposée comme loi a priori pour les dipôles. Une variable latente est introduite pour traiter la loi a posteriori complexe résultante et un algorithme d'échantillonnage original de type Metropolis Hastings est développé. Les résultats montrent que la technique d'échantillonnage proposée améliore significativement la convergence de la méthode MCMC. Une analyse comparative des résultats a été réalisée entre la méthode proposée, une régularisation par la norme mixte l21, et l'algorithme MSP (Multiple Sparse Priors). De nombreuses expérimentations ont été faites avec des données synthétiques et des données réelles. Les résultats montrent que notre méthode a plusieurs avantages, notamment une meilleure localisation des dipôles. Nos deux précédents algorithmes considèrent que le modèle physique est entièrement connu. Cependant, cela est rarement le cas dans les applications pratiques. Au contraire, la matrice du modèle physique est le résultat de méthodes d'approximation qui conduisent à des incertitudes significatives
M/EEG mechanisms allow determining changes in the brain activity, which is useful in diagnosing brain disorders such as epilepsy. They consist of measuring the electric potential at the scalp and the magnetic field around the head. The measurements are related to the underlying brain activity by a linear model that depends on the lead-field matrix. Localizing the sources, or dipoles, of M/EEG measurements consists of inverting this linear model. However, the non-uniqueness of the solution (due to the fundamental law of physics) and the low number of dipoles make the inverse problem ill-posed. Solving such problem requires some sort of regularization to reduce the search space. The literature abounds of methods and techniques to solve this problem, especially with variational approaches. This thesis develops Bayesian methods to solve ill-posed inverse problems, with application to M/EEG. The main idea underlying this work is to constrain sources to be sparse. This hypothesis is valid in many applications such as certain types of epilepsy. We develop different hierarchical models to account for the sparsity of the sources. Theoretically, enforcing sparsity is equivalent to minimizing a cost function penalized by an l0 pseudo norm of the solution. However, since the l0 regularization leads to NP-hard problems, the l1 approximation is usually preferred. Our first contribution consists of combining the two norms in a Bayesian framework, using a Bernoulli-Laplace prior. A Markov chain Monte Carlo (MCMC) algorithm is used to estimate the parameters of the model jointly with the source location and intensity. Comparing the results, in several scenarios, with those obtained with sLoreta and the weighted l1 norm regularization shows interesting performance, at the price of a higher computational complexity. Our Bernoulli-Laplace model solves the source localization problem at one instant of time. However, it is biophysically well-known that the brain activity follows spatiotemporal patterns. Exploiting the temporal dimension is therefore interesting to further constrain the problem. Our second contribution consists of formulating a structured sparsity model to exploit this biophysical phenomenon. Precisely, a multivariate Bernoulli-Laplacian distribution is proposed as an a priori distribution for the dipole locations. A latent variable is introduced to handle the resulting complex posterior and an original Metropolis-Hastings sampling algorithm is developed. The results show that the proposed sampling technique improves significantly the convergence. A comparative analysis of the results is performed between the proposed model, an l21 mixed norm regularization and the Multiple Sparse Priors (MSP) algorithm. Various experiments are conducted with synthetic and real data. Results show that our model has several advantages including a better recovery of the dipole locations. The previous two algorithms consider a fully known leadfield matrix. However, this is seldom the case in practical applications. Instead, this matrix is the result of approximation methods that lead to significant uncertainties. Our third contribution consists of handling the uncertainty of the lead-field matrix. The proposed method consists in expressing this matrix as a function of the skull conductivity using a polynomial matrix interpolation technique. The conductivity is considered as the main source of uncertainty of the lead-field matrix. Our multivariate Bernoulli-Laplacian model is then extended to estimate the skull conductivity jointly with the brain activity. The resulting model is compared to other methods including the techniques of Vallaghé et al and Guttierez et al. Our method provides results of better quality without requiring knowledge of the active dipole positions and is not limited to a single dipole activation
APA, Harvard, Vancouver, ISO und andere Zitierweisen
42

Orefice, Antonella <1983&gt. „Refined Estimation of Earthquake Source Parameters: Methods, Applications and Scaling Relationships“. Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2012. http://amsdottorato.unibo.it/4286/1/orefice_antonella_tesi.pdf.

Der volle Inhalt der Quelle
Annotation:
The objective of this work of thesis is the refined estimations of source parameters. To such a purpose we used two different approaches, one in the frequency domain and the other in the time domain. In frequency domain, we analyzed the P- and S-wave displacement spectra to estimate spectral parameters, that is corner frequencies and low frequency spectral amplitudes. We used a parametric modeling approach which is combined with a multi-step, non-linear inversion strategy and includes the correction for attenuation and site effects. The iterative multi-step procedure was applied to about 700 microearthquakes in the moment range 1011-1014 N•m and recorded at the dense, wide-dynamic range, seismic networks operating in Southern Apennines (Italy). The analysis of the source parameters is often complicated when we are not able to model the propagation accurately. In this case the empirical Green function approach is a very useful tool to study the seismic source properties. In fact the Empirical Green Functions (EGFs) consent to represent the contribution of propagation and site effects to signal without using approximate velocity models. An EGF is a recorded three-component set of time-histories of a small earthquake whose source mechanism and propagation path are similar to those of the master event. Thus, in time domain, the deconvolution method of Vallée (2004) was applied to calculate the source time functions (RSTFs) and to accurately estimate source size and rupture velocity. This technique was applied to 1) large event, that is Mw=6.3 2009 L’Aquila mainshock (Central Italy), 2) moderate events, that is cluster of earthquakes of 2009 L’Aquila sequence with moment magnitude ranging between 3 and 5.6, 3) small event, i.e. Mw=2.9 Laviano mainshock (Southern Italy).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
43

Orefice, Antonella <1983&gt. „Refined Estimation of Earthquake Source Parameters: Methods, Applications and Scaling Relationships“. Doctoral thesis, Alma Mater Studiorum - Università di Bologna, 2012. http://amsdottorato.unibo.it/4286/.

Der volle Inhalt der Quelle
Annotation:
The objective of this work of thesis is the refined estimations of source parameters. To such a purpose we used two different approaches, one in the frequency domain and the other in the time domain. In frequency domain, we analyzed the P- and S-wave displacement spectra to estimate spectral parameters, that is corner frequencies and low frequency spectral amplitudes. We used a parametric modeling approach which is combined with a multi-step, non-linear inversion strategy and includes the correction for attenuation and site effects. The iterative multi-step procedure was applied to about 700 microearthquakes in the moment range 1011-1014 N•m and recorded at the dense, wide-dynamic range, seismic networks operating in Southern Apennines (Italy). The analysis of the source parameters is often complicated when we are not able to model the propagation accurately. In this case the empirical Green function approach is a very useful tool to study the seismic source properties. In fact the Empirical Green Functions (EGFs) consent to represent the contribution of propagation and site effects to signal without using approximate velocity models. An EGF is a recorded three-component set of time-histories of a small earthquake whose source mechanism and propagation path are similar to those of the master event. Thus, in time domain, the deconvolution method of Vallée (2004) was applied to calculate the source time functions (RSTFs) and to accurately estimate source size and rupture velocity. This technique was applied to 1) large event, that is Mw=6.3 2009 L’Aquila mainshock (Central Italy), 2) moderate events, that is cluster of earthquakes of 2009 L’Aquila sequence with moment magnitude ranging between 3 and 5.6, 3) small event, i.e. Mw=2.9 Laviano mainshock (Southern Italy).
APA, Harvard, Vancouver, ISO und andere Zitierweisen
44

Beuzet, Emilie. „Modélisation des conséquences d'une entrée d'air en cuve sur le calcul du terme source en accident grave“. Paris 11, 2010. http://www.theses.fr/2010PA112240.

Der volle Inhalt der Quelle
Annotation:
Ce travail de thèse s'inscrit dans la thématique des accidents graves de centrales nucléaires avec entrée d'air en cuve. L'air, par son fort pouvoir oxydant, favorise notamment le relâchement du ruthénium sous forme d'oxydes hautement volatils et radio-toxiques. La disponibilité de l'oxydant pour le ruthénium dépend de l'état d'oxydation des gaines en zircaloy et du combustible. L'objectif de cette thèse a consisté en une mise à l'état de l'art de la modélisation de l'oxydation de ces constituants d'un assemblage, dans le code de scénarios accidentels MAAP. L'oxydation sous air des gaines conduit à la croissance d'une couche de zircone dense et, après fissuration, d'une couche poreuse. Les essais QUENCH-10 (KIT) et PARAMETER-SF4 (LUCH) ont été simulés : la loi de gain en masse de la couche de zircone dite 'NUREG' a été recommandée. Cette loi constitue le meilleur compromis, dans l'attente du développement de corrélations balayant l'ensemble du phénomène. Le relâchement du ruthénium suppose une volatilisation sous forme d'oxydes, notamment contrôlé par l'oxydation du combustible, dont la modélisation est basée sur une hypothèse de réaction en surface. Les simulations d'une sélection d'essais VERCORS (CEA) reproduisent de manière satisfaisante le comportement du ruthénium, en particulier pour les essais en air et en vapeur. Enfin, la définition d'un scénario réacteur avec entrée d'air en cuve a permis de déterminer un ordre de grandeur du temps nécessaire au relâchement complet du ruthénium encore présent en cœur, confronté aux résultats disponibles dans la littérature. Cette simulation dans MAAP a confirmé l'importance du relâchement de ruthénium sous air
This work deals with severe accidents in nuclear power plants with an air ingress in the vesse!. Air, which is very oxidizing, enhances noticeably ruthenium release, due to a high fuel oxidation. Oxygen affinity is decreasing between zircaloy cladding, fuel and ruthenium which is released from fuel as volatile and radiotoxic oxides. The main objective was to develop models for cladding and fuel oxidation and ruthenium release and implement them in the severe accident code MAAP. For each phenomenon, the literature study contributes to establish numerical models, validated against specific experiments. Cladding oxidation by air leads to a dense zirconia layer and, after cracking, a porous zirconia. Its modelling was validated against QUENCH-10 (KIT) and PARAMETER-SF4 (LUCH) experiments and 'NUREG' oxide mass gain law was selected as the best current compromise. Ruthenium release is modelled as an instantaneous oxide volatilisation at the fuel surface, controlled by fuel oxidation, which is itself based on a surface reaction assumption. These models were validated against a selected set of VERCORS (CEA) experiments. Ruthenium release is well-reproduced, particularly for air and steam atmospheres. To finish, an accidental scenario with air ingress in the vessel was simulated : a first value was given for the time needed to completely release ruthenium still present in core and was compared to the other studies. This simulation underlines the high ruthenium release under air conditions
APA, Harvard, Vancouver, ISO und andere Zitierweisen
45

Bellier-Delienne, Annie. „Évaluation des contrats notionnels MATIF : estimation de la volatilité et de l'option de livraison“. Paris 9, 1993. https://portail.bu.dauphine.fr/fileviewer/index.php?doc=1993PA090028.

Der volle Inhalt der Quelle
Annotation:
La volatilité du contrat notionnel MATIF, qui exprime la sensibilité du contrat aux paramètres influant le marché financier, est estimée à partir de différents types de modèles d'évaluation d'options sur contrats à terme d'obligations. Parmi les modèles testés, le modèle de Whaley (hypothèses classiques de Black et Scholes, option de type américain) donne les meilleurs résultats. L'option de livraison correspond au droit pour le vendeur de contrat notionnel de choisir parmi les obligations du gisement celle qu'il va livrer à l'échéance. Déterminée par arbitrage, elle semble systématiquement sous-évaluée par le marché. Ce phénomène s'explique essentiellement par le fait que le marché limite le gisement à deux ou trois obligations livrables et que lorsqu'une obligation sort du gisement, elle est presque toujours la moins chère à livrer
Notional bond futures volatility, which measures the sensibility of the contract to movements in financial market, is estimated from different types of options on long bond futures evaluation models. Whaley model (with classical hypothesis of Black and Scholes model, American option) gives the best result within the different models which were tested. The quality option gives the futures seller the choice of delivery bond at the expiry date. Obtained by arbitrage, it always seems to be under evaluated by the market. It can be explained by the fact that the market limits the official bond list with two or three deliverable bonds, and when a bond goes out of the official list, the next delivery month, it's almost the cheapest to deliver
APA, Harvard, Vancouver, ISO und andere Zitierweisen
46

Abdel, Hamid Haydar. „Etude de deux problèmes quasilinéaires elliptiques avec terme de source relatif à la fonction ou à son gradient“. Phd thesis, Université François Rabelais - Tours, 2009. http://tel.archives-ouvertes.fr/tel-00441100.

Der volle Inhalt der Quelle
Annotation:
Dans ce manuscrit de thèse nous présentons des nouveaux résultats concernant l'existence, la non-existence, la multiplicité et la régularité des solutions positives pour deux problèmes quasilinéaires elliptiques avec conditions de Dirichlet dans un domaine borné. Dans le chapitre 1 d'introduction, nous décrivons les deux problèmes que nous allons étudier et nous donnons les principaux résultats. Le premier, d'inconnue u, comporte un terme de source de gradient à croissance critique. Le second, d'inconnue v, contient un terme source d'ordre 0. Dans le chapitre 2 nous donnons des nouveaux résultats de régularité des solutions renormalisées utiles pour notre étude. A l'aide d'un changement d'inconnue, nous établissons un lien précis entre les problèmes en u et v. Le chapitre 3 est consacré à montrer ce lien et à donner une première application. Dans les chapitres 4 et 5 nous traitons de l'existence de solutions, la solution extrémale et sa régularité, l'existence d'une deuxième solution bornée du problème en v. Dans le chapitre 6 nous démontrons un résultat d'existence pour le problème en v avec des données mesures de Radon bornées quelconques. Dans le chapitre 7 nous obtenons des nouveaux résultats pour le problème en u en utilisant la connexion entre ces deux problèmes.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
47

Iwaza, Lana. „Joint Source-Network Coding & Decoding“. Thesis, Paris 11, 2013. http://www.theses.fr/2013PA112048/document.

Der volle Inhalt der Quelle
Annotation:
Dans les réseaux traditionnels, la transmission de flux de données s'effectuaient par routage des paquets de la source vers le ou les destinataires. Le codage réseau (NC) permet aux nœuds intermédiaires du réseau d'effectuer des combinaisons linéaires des paquets de données qui arrivent à leurs liens entrants. Les opérations de codage ont lieu dans un corps de Galois de taille finie q. Aux destinataires, le décodage se fait par une élimination de Gauss des paquets codés-réseau reçus. Cependant, dans les réseaux sans fils, le codage réseau doit souvent faire face à des erreurs de transmission causées par le bruit, les effacements, et les interférences. Ceci est particulièrement problématique pour les applications temps réel, telle la transmission de contenus multimédia, où les contraintes en termes de délais d'acheminement peuvent aboutir à la réception d'un nombre insuffisant de paquets, et par conséquent à des difficultés à décoder les paquets transmis. Dans le meilleurs des cas, certains paquets arrivent à être décodés. Dans le pire des cas, aucun paquet ne peut être décodé.Dans cette thèse, nous proposons des schémas de codage conjoint source-réseau dont l'objectif est de fournir une reconstruction approximative de la source, dans des situations où un décodage parfait est impossible. L'idée consiste à exploiter la redondance de la source au niveau du décodeur afin d'estimer les paquets émis, même quand certains de ces paquets sont perdus après avoir subi un codage réseau. La redondance peut être soit naturelle, c'est-à-dire déjà existante, ou introduite de manière artificielle.Concernant la redondance artificielle, le codage à descriptions multiples (MDC) est choisi comme moyen d'introduire de la redondance structurée entre les paquets non corrélés. En combinant le codage à descriptions multiples et le codage réseau, nous cherchons à obtenir une qualité de reconstruction qui s'améliore progressivement avec le nombre de paquets codés-réseau reçus.Nous considérons deux approches différentes pour générer les descriptions. La première approche consiste à générer les descriptions par une expansion sur trame appliquée à la source avant la quantification. La reconstruction de données se fait par la résolution d'un problème d' optimisation quadratique mixte. La seconde technique utilise une matrice de transformée dans un corps de Galois donné, afin de générer les descriptions, et le décodage se fait par une simple éliminationde Gauss. Ces schémas sont particulièrement intéressants dans un contexte de transmission de contenus multimédia, comme le streaming vidéo, où la qualité s'améliore avec le nombre de descriptions reçues.Une seconde application de tels schémas consiste en la diffusion de données vers des terminaux mobiles à travers des canaux de transmission dont les conditions sont variables. Dans ce contexte, nous étudions la qualité de décodage obtenue pour chacun des deux schémas de codage proposés, et nous comparons les résultats obtenus avec ceux fournis par un schéma de codage réseau classique.En ce qui concerne la redondance naturelle, un scénario typique est celui d'un réseau de capteurs, où des sources géographiquement distribuées prélèvent des mesures spatialement corrélées. Nous proposons un schéma dont l'objectif est d'exploiter cette redondance spatiale afin de fournir une estimation des échantillons de mesures transmises par la résolution d'un problème d'optimisation quadratique à variables entières. La qualité de reconstruction est comparée à celle obtenue à travers un décodage réseau classique
While network data transmission was traditionally accomplished via routing, network coding (NC) broke this rule by allowing network nodes to perform linear combinations of the upcoming data packets. Network operations are performed in a specific Galois field of fixed size q. Decoding only involves a Gaussian elimination with the received network-coded packets. However, in practical wireless environments, NC might be susceptible to transmission errors caused by noise, fading, or interference. This drawback is quite problematic for real-time applications, such as multimediacontent delivery, where timing constraints may lead to the reception of an insufficient number of packets and consequently to difficulties in decoding the transmitted sources. At best, some packets can be recovered, while in the worst case, the receiver is unable to recover any of the transmitted packets.In this thesis, we propose joint source-network coding and decoding schemes in the purpose of providing an approximate reconstruction of the source in situations where perfect decoding is not possible. The main motivation comes from the fact that source redundancy can be exploited at the decoder in order to estimate the transmitted packets, even when some of them are missing. The redundancy can be either natural, i.e, already existing, or artificial, i.e, externally introduced.Regarding artificial redundancy, we choose multiple description coding (MDC) as a way of introducing structured correlation among uncorrelated packets. By combining MDC and NC, we aim to ensure a reconstruction quality that improves gradually with the number of received network-coded packets. We consider two different approaches for generating descriptions. The first technique consists in generating multiple descriptions via a real-valued frame expansion applied at the source before quantization. Data recovery is then achieved via the solution of a mixed integerlinear problem. The second technique uses a correlating transform in some Galois field in order to generate descriptions, and decoding involves a simple Gaussian elimination. Such schemes are particularly interesting for multimedia contents delivery, such as video streaming, where quality increases with the number of received descriptions.Another application of such schemes would be multicasting or broadcasting data towards mobile terminals experiencing different channel conditions. The channel is modeled as a binary symmetric channel (BSC) and we study the effect on the decoding quality for both proposed schemes. Performance comparison with a traditional NC scheme is also provided.Concerning natural redundancy, a typical scenario would be a wireless sensor network, where geographically distributed sources capture spatially correlated measures. We propose a scheme that aims at exploiting this spatial redundancy, and provide an estimation of the transmitted measurement samples via the solution of an integer quadratic problem. The obtained reconstruction quality is compared with the one provided by a classical NC scheme
APA, Harvard, Vancouver, ISO und andere Zitierweisen
48

Wehner, Daniel T. „Head movements of children in MEG : quantification, effects on source estimation, and compensation“. Thesis, Massachusetts Institute of Technology, 2007. http://hdl.handle.net/1721.1/40540.

Der volle Inhalt der Quelle
Annotation:
Thesis (S.M.)--Massachusetts Institute of Technology, Dept. of Electrical Engineering and Computer Science, 2007.
Includes bibliographical references (leaves 36-38).
Head movements during MEG recordings in children may lead to inaccurate localization of brain activity. In this thesis, we examined the effects of head movements on source estimation in twenty children performing a simple auditory cognitive task. In addition, we tested the ability of a recently introduced spherical harmonic expansion method, signal space separation (SSS), to compensate for the effects of head movements on two source models: equivalent current dipoles (ECDs) and minimum norm estimates (MNE). In the majority of subjects, the goodness-of-fit of ECDs fit to the peak of the auditory N100m response was increased following the SSS correction compared with the averaged forward solution method proposed earlier. The spatial spread of ECDs as determined with a bootstrapping approach was also reduced after SSS correction. In addition, the MNE source estimates were spatially sharpened following SSS application, indicative of an increase in signal to noise ratio. Together these results suggest that SSS is an effective method to compensate for head movements in MEG recordings in children.
by Daniel T. Wehner.
S.M.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
49

Lawrence, Joseph Scott. „Use of Phase and Amplitude Gradient Estimation for Acoustic Source Characterization and Localization“. BYU ScholarsArchive, 2018. https://scholarsarchive.byu.edu/etd/6969.

Der volle Inhalt der Quelle
Annotation:
Energy-based acoustic quantities provide vital information about acoustic fields and the characterization of acoustic sources. Recently, the phase and amplitude gradient estimator (PAGE) method has been developed to reduce error and extend bandwidth of energy-based quantity estimates. To inform uses and applications of the method, analytical and experimental characterizations of the method are presented. Analytical PAGE method bias errors are compared with those of traditional estimation for two- and three-microphone one-dimensional probes. For a monopole field when phase unwrapping is possible, zero bias error is achieved for active intensity using three-microphone PAGE and for specific acoustic impedance using two-microphone PAGE. A method for higher-order estimation in reactive fields is developed, and it is shown that a higher-order traditional method outperforms higher-order PAGE for reactive intensity in a standing wave field. Extending the applications of PAGE, the unwrapped phase gradient is used to develop a method for directional sensing with improved bandwidth and arbitrary array response.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
50

Karlsson, Alexander. „Feasibility Study for Single Platform Airborne FDOA and TDOA Estimation With Unknown Source“. Thesis, KTH, Skolan för elektro- och systemteknik (EES), 2016. http://urn.kb.se/resolve?urn=urn:nbn:se:kth:diva-192443.

Der volle Inhalt der Quelle
Annotation:
Direction of arrival (DOA) estimation is a well studied topic and used in many different applications. Although it is usually based on time-difference-of-arrival (TDOA) of coherent signals, it is sometimes possible to also use frequency-difference-of-arrival (FDOA). By combining TDOA and FDOA a more reliable estimate of the DOA can be obtained. This can be useful in military applications such as reconnaissance and surveillance where the objective is to locate unknown transmitters. It is however not always possible to obtain accurate TDOA and FDOA estimates. In this study the conditions for this are examined for the airborne case when the receivers are on the same aerial vehicle. A method for simulating and estimating TDOAs and FDOAs is also presented. The results are based on simulations with three different signal types and conditions are found for which accurate TDOA and FDOA estimation can be achieved. These conditions are obtained from the Cramér-Rao bounds for TDOA and FDOA. It is shown that FDOA can in some cases yield a higher accuracy in the DOA estimate than what is possible with TDOA.
Riktning av ankomst (förkortat DOA) är ett väl studerat ämne och används i många olika sammanhang. Även om det ofta är baserat på tidsskillnader i ankomst (förkortat TDOA) hos koherenta vågor, är det ibland möjligt att även använda frekvensskillnader i ankomst (förkortat FDOA). Genom att kombinera TDOA och FDOA kan ett mer pålitligt estimat av DOA fås. Detta kan vara användbart i militära sammanhang så som spaning och övervakning då målet är att lokalisera okända sändare. Det är dock inte alltid möjligt att uppnå noggranna TDOA och FDOA estimat. I denna studie undersöks villkoren för detta för fallet då mottagarna är på samma luftburna farkost. En metod för att simulera och estimera TDOA och FDOA visas också. Resultaten baseras på simuleringar med tre olika signaltyper och villkor för vilka noggranna TDOA och FDOA estimat kan uppnås tas fram. Dessa villkor är tagna från Cramér-Raos sats för TDOA och FDOA. Det visas att FDOA kan i vissa sammanhang ge en högre noggrannhet i DOA estimatet än vad som är möjligt med TDOA.
APA, Harvard, Vancouver, ISO und andere Zitierweisen
Wir bieten Rabatte auf alle Premium-Pläne für Autoren, deren Werke in thematische Literatursammlungen aufgenommen wurden. Kontaktieren Sie uns, um einen einzigartigen Promo-Code zu erhalten!

Zur Bibliographie