To see the other types of publications on this topic, follow the link: Détection par maximum de vraisemblance.

Dissertations / Theses on the topic 'Détection par maximum de vraisemblance'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Détection par maximum de vraisemblance.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Ezzahar, Abdessamad. "Estimation et détection d'un signal contaminé par un bruit autorégressif." Phd thesis, Grenoble 1, 1991. http://tel.archives-ouvertes.fr/tel-00339831.

Full text
Abstract:
Nous considérons un modèle signal plus bruit particulier ou le signal est une combinaison linéaire de suites déterministes données et est contamine par un bruit additif autoregressif d'ordre 1 stationnaire. Nous étudions d'abord des problèmes d'estimation partielle. On analyse les propriétés asymptotiques d'estimateurs de maximum de vraisemblance ou de moindres carres pour les paramétrés du bruit lorsque le signal est complètement connu ou pour les paramètres du signal lorsque l'un des paramètres du bruit est connu. Puis nous examinons le probleme de l'estimation simultanée des paramètres du signal et du bruit. On montre l'existence et l'unicité de l'estimateur de maximum de vraisemblance dont on étudie le comportement asymptotique. De même on considère une methode d'estimation fondée sur une première étape de moindres carres pour l'estimation des paramétrés du signal, et une procédure de maximum de vraisemblance approche. On construit ensuite des tests pour la détection du signal a partir des méthodes d'estimation envisagées précédemment. Les risques associes a ces tests sont analyses de manière précise. Enfin une étude expérimentale par simulation des performances des diverses méthodes est menée
APA, Harvard, Vancouver, ISO, and other styles
2

Zhu, Xuan. "Structuration automatique en locuteurs par approche acoustique." Phd thesis, Université Paris Sud - Paris XI, 2007. http://tel.archives-ouvertes.fr/tel-00624061.

Full text
Abstract:
Cette thèse porte sur la structuration en locuteurs de différents types d'enregistrements audio, en particulier des journaux télévisés ou radiophoniques et des réunions. La structuration en locuteurs a pour objectif de répondre à la question ''qui a parlé quand'' dans un document audio donné. Cette thèse fait l'hypothèse qu'aucune connaissance a priori sur la voix de locuteurs ou sur leur nombre n'est disponible. La principale originalité du système de structuration en locuteurs pour des journaux télévisés ou radiophoniques présenté est de combiner deux étapes de regroupement en locuteurs: la première étape se fonde sur le Critère d'Information Bayesien (BIC) avec des Gaussiennes à matrice de covariance pleine et la deuxième étape de regroupement recombine les classes résultant en utilisant des techniques proposées pour l'identification du locuteur et utilisant des modèle de mélange de Gaussiennes (GMM) adaptés à partir d'un modèle générique. Ce système a été validé dans l'évaluation internationale NIST RT-04F (Rich Transcription 2004 Fall) et l'évaluation française ESTER 2005 du projet Technolangue EVALDA. Il a obtenu les meilleurs résultats dans les deux évaluations. Le système de structuration en locuteurs conçu pour les journaux télévisés a également été adapté aux réunions. Il intègre un nouveau détecteur de parole fondé sur le rapport de log-vraisemblance. Diverses techniques de normalisation des paramètres acoustiques et différentes représentations acoustiques ont été testées au cours de cette adaptation. Dans la dernière évaluation du NIST sur de réunions, le système adapté a eu un taux d'erreur de 26% environ sur les données de conférences et séminaires.
APA, Harvard, Vancouver, ISO, and other styles
3

Kazem, Ali. "Particules déterministes généralisées en filtrage non-linéaire : applications défense et télécommunications." Toulouse 3, 2008. http://thesesups.ups-tlse.fr/1638/.

Full text
Abstract:
La technique de filtrage particulaire s'applique à tous les problèmes d'estimation des systèmes dynamiques markoviens, sans restriction sur la nature des non-linéarités et/ou des distributions de bruits. L'objet de ce mémoire est de montrer la généralité de la technique déterministe en filtrage particulaire, par opposition à l'ancienne version aléatoire, qui permet d'éviter l'aléa inutilement introduit tant en prédiction qu'une redistribution des particules après pondération bayésienne. Le présent travail, s'articule autour de deux apports: Le premier, concerne le filtrage optimal à maximum de vraisemblance, et porte sur l'estimation trajectorielle globale des variables d'état. Le second portant sur le filtrage particulaire déterministe, concerne le filtrage optimal à minimum de variance, et porte sur l'estimation marginale à l'instant courant, par redistribution déterministe conforme en loi. Cette approche délivre simultanément tous les modes (maxima locaux) de la densité de probabilité marginale de l'état courant. Le mémoire met l'accent sur plusieurs réalisations dans des domaines différents, communications: Nous avons développé un outil à base de filtrage particulaire qui permet d'estimer conjointement des paramètres cinématiques relatifs au récepteur et la détection du message transmis par un satellite. Nous avons également proposé une série de schémas d'estimation/décodage itératifs du message turbo-codé conforme au standard DVB-RCS. Estimation de cible en sonar: On a construit un récepteur passif particulaire se contentant d'écouter sa cible, afin d'identifier ses paramètres cinématiques. La version déterministe permet de faire diminuer considérablement la masse de calculs. Traitement du signal radar: Le premier récepteur déterministe, à maximum de vraisemblance est utilisé pour la détection/poursuite de cibles furtives et manoeuvrantes, dans le cas où il y un nombre très limité de mesures disponibles pendant un tour d'antenne du radar de veille. Le second récepteur consiste à appliquer la technique à minimum de variance au radar ARMOR, ce qui a permis de confirmer des gains inhabituels en termes de rapport signal sur bruit. La nouvelle technique déterministe à minimum de variance s'étend également au multi-cible et au traitement en présence de fouillis, avec l'incomparable économie calculatoire du déterministe
Particle filters are presently among the most powerful tools to estimate Markovian dynamical systems, regardless of the nature of nonlinearities and/or noise probability distributions. The purpose of this dissertation is to show the generality of deterministic particle filtering, as opposed to the former random version, which avoids randomization in the prediction stage as well as in the resampling stage after Bayesian correction. This work relies on two kinds of results: the first concerns the particle filter-based maximum likelihood estimator for sequential estimation of the state variables. The second patent, introducing deterministic particle filtering in the minimum variance sense, focuses on the current state marginal estimation using a resampling scheme consistant with the a posteriori distribution. This approach simultaneously delivers all modes (local maxima) of the marginal probability density function of the current state. The thesis focuses on several achievements in various fields: communications: The proposed particle algorithm makes possible the joint estimation of the kinematic channel parameters at the receiver side and the detection of the message transmitted by a satellite. We have also proposed several techniques for the iterative estimation and decoding of the turbo-coded message compliant with the DVB-RCS standard. Target estimation for sonar: We built a passive particle receiver only listening to its target, in order to identify its kinematic parameters. The deterministic version allows to significantly reduce the computational complexity. Radar signal processing: The first receiver , with deterministic maximum likelihood filtering, is used for the detection / tracking of steady and manoeuvering targets , when there is a very limited number of available measurements during a circular period of antenna of the radar. The second receiver applies the minimum variance technique to the ARMOR radar, confirming unusually high signal-to-noise gains. The novel deterministic technique based on minimum variance criteria can easily be extended to multitarget processing and tracking in the presence of clutter, with the incomparable complexity savings due to the deterministic technique
APA, Harvard, Vancouver, ISO, and other styles
4

Keribin, Christine. "Tests de modeles par maximum de vraisemblance." Evry-Val d'Essonne, 1999. http://www.theses.fr/1999EVRY0006.

Full text
Abstract:
L'ordre d'un modele parametrique est, grossierement, le nombre de parametres necessaires pour definir le modele. Lorsque cet ordre n'est pas connu, l'estimateur du maximum de vraisemblance va surestimer l'ordre, pour s'ajuster le mieux aux donnees. Mais un modele sur-parametre ne donnera pas de bons resultats de prediction. Ainsi, il est interessant d'etudier des estimateurs et des tests de l'ordre. Nous etudions des tests de rapport de vraisemblance dans le cadre de trois modeles : le modele a observations independantes et identiquement distribuees (i. I. D. ) identifiable, meme quand l'ordre surestime, le modele de melange a observations i. I. D. (qui n'est pas identifiable quand le nombre de composantes est surestime), et le modele de chaine de markov cachee (cmc) a observations continues (qui presente les memes problemes d'identifiabilite que le precedent, avec en plus la dependance markovienne). Dans le premier cas, nous utilisons des resultats connus de consistance de l'estimateur de l'ordre pour determiner la vitesse asymptotique de la probabilite de se tromper d'ordre. Dans le second cas, nous demontrons d'abord la consistance de l'estimateur du maximum de vraisemblance penalisee sous certaines hypotheses, puis nous donnons un majorant du niveau d'un test de contamination. Dans le dernier cas, nous testons un modele a observations i. I. D. Contre un modele cmc a deux etats caches. Dans ce cas, sur un sous-ensemble des parametres, nous montrons que le rapport de vraisemblance tend en loi vers la moitie du supremum du carre d'un processus gaussien tronque a ses valeurs positives. Puis agrandissant le domaine, nous montrons que le rapport de vraisemblance tend vers l'infini en probabilite. Prenant un cas particulier de cmc, le modele ma bruite, nous etudions, a ordre connu, un estimateur du filtre et des parametres de la chaine cachee, quand celle-ci est, elle aussi, a etats continus. Des simulations permettent d'illustrer les resultats. Ces etudes sont accompagnees d'un travail bibliographique les positionnant dans le contexte actuel, les eclairant par des exemples, montrant leur apport, et proposant des voies de recherche.
APA, Harvard, Vancouver, ISO, and other styles
5

Safa, Khodor. "Embracing Nonlinearities in Future Wireless Communication Systems : Low-Resolution Analog-to-Digital Converters." Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASG082.

Full text
Abstract:
Avec l'avancement des communications sans fil vers la 5G et la 6G, de nouveaux défis émergent en raison de l'augmentation des utilisateurs et des applications industrielles. Des technologies comme le massive multiple-input multiple-output (mMIMO) et les systèmes à ondes millimétriques sont développées pour répondre à ces besoins. Cependant, des fréquences et des largeurs de plus élevées entraînent une consommation d'énergie accrue dans les circuits radiofréquences (RF), nécessitant des composants plus économes. Parallèlement, les systèmes deviennent sensibles aux non-linéarités, telles que le bruit de phase et les distorsions de quantification. Comprendre l'impact de ces non-linéarités sur la conception des émetteurs-récepteurs et les limites fondamentales devient essentiel. Cette thèse se concentre sur les effets non linéaires des convertisseurs analogique-numérique (CAN) à faible résolution au récepteur. La consommation d'énergie des CAN augmente avec la largeur de bande et la résolution, rendant les CAN à faible résolution pratiques dans des systèmes comme le mMIMO, où la consommation est cruciale. La première partie examine la détection de données dans des canaux MIMO à évanouissement plat quantifié, avec différentes hypothèses sur l'information de l'état du canal (IEC). La détection par maximum de vraisemblance (MV) est optimale pour minimiser les erreurs, mais elle est coûteuse en calculs. Les algorithmes de décodage sphérique (DS) réduisent la complexité dans les canaux non quantifiés, mais ne s'appliquent pas directement aux canaux quantifiés. Pour y remédier, nous proposons un algorithme de détection à faible complexité en deux étapes pour les systèmes à un bit. Cette méthode utilise une approximation de la métrique MV via une série de Taylor et transforme le problème de détection en optimisation des moindres carrés entiers, permettant d'utiliser les algorithmes de DS. Les résultats montrent que cette approche atteint des performances proches de celles de ML. La méthode est également étendue aux scénarios multi-bits, convergeant vers le DS classique avec une résolution accrue. Dans des scénarios plus pratiques, où seule l'information statistique sur l'état du canal au récepteur (IECR) est disponible, nous explorons la détection sous un schéma de transmission pilote. La première approche considère l'estimation du canal et la détection comme des tâches de classification binaire. Les taux réalisables en utilisant l'information mutuelle généralisée sont comparés aux estimateurs de Bussgang où on trouve que la performance dépend de l'estimateur choisi. La seconde approche traite conjointement les séquences de données et de pilotes en rencontrant des défis d'évaluation des probabilités gaussiennes et de complexité combinatoire. Le premier défi est résolu par la méthode de Laplace, et pour la complexité, nous adaptons la technique SD du cas avec CSI parfait à une métrique de substitution. Il est crucial d'obtenir des directives de conception pour les futurs systèmes sans fil afin d'expliquer le compromis entre efficacité spectrale et consommation d'énergie. Nous examinons ensuite la capacité des canaux MIMO quantifiés, difficile à caractériser en raison de leur nature discrète. Par conséquent, en supposant un régime asymptotique où le nombre d'antennes de réception augmente et en utilisant des résultats théoriques bien connus de la statistique bayésienne sur les prioris de référence, l'échelonnement de la capacité peut être caractérisé pour le cas multi-bits cohérent, fournissant une expression utile pour l'analyse de l'efficacité spectrale et de la consommation d'énergie. Pour le cas non cohérent, nous appliquons les mêmes résultats au canal non quantifié comme borne supérieure pour le canal quantifié et identifions des bornes supérieures et inférieures sur l'échelonnement pour certaines valeurs de l'intervalle de cohérence
With the advent of 5G networks and the road towards 6G already being established, innovative wireless communication technologies including massive multiple-inputmultiple-output (mMIMO) and millimeter-wave systems are emerging to address the ever-increasing number of mobile users and to support new industry applications. However, higher frequencies and wider bandwidths lead to increased power consumption in radio-frequency (RF) circuits, necessitating more energy-efficient components. At the same time, systems are increasingly susceptible to nonlinear impairments such as phase noise, saturation, and quantization distortions. Understanding the impact of these nonlinearities on transceiver design and fundamental limits becomes essential. This thesis focuses on the nonlinear effects of low-resolution analog-to-digital converters (ADCs) at the receiver. ADC power consumption increases with both bandwidth and resolution, making low-resolution ADCs a practical solution in systems like mMIMO, where power consumption is a major constraint. The first part of this work examines data detection in quantized flat-fading MIMO channels, with various assumptions about the channel state information (CSI). Maximum likelihood (ML) detection is optimal for minimizing the error probability but is computationally expensive. While sphere-decoding (SD) algorithms are commonly used to reduce complexity in unquantized channels, they are not directly applicable to the quantized case due to the discrete nature of observations. To address this, we propose a two-step low-complexity detection algorithm for systems with one-bit comparators. This method approximates the ML metric using a Taylor series and converts the detection problem into a classical integer least-squares optimization, allowing the use of SD algorithms. Numerical results show this approach achieves near-ML performance. This method is also extended to multi-bit scenarios, converging to conventional SD as resolution increases. In more practical scenarios, where only statistical CSI at the receiver (CSIR) is available, we explore data detection under a pilot transmission scheme. The first approach frames channel estimation and detection as binary classification tasks using probit regression. Achievable mismatched rates using the generalized mutual information are then evaluated in comparison to the Bussgang linear minimum mean-square error estimators where it's shown that the performance depends on the choice of the estimator. The second approach jointly processes data and pilot sequences where we encounter challenges related to evaluating multivariate Gaussian probabilities and the combinatorial complexity of optimization. We address the first challenge with the Laplace method that provides us with a closed-form expression, while for the complexity we adapt the SD technique from the perfect CSI case on a surrogate metric. It is of interest for future wireless systems to obtain design guidelines that can accurately explain the trade-off between spectral efficiency and energy consumption. We then investigate the capacity of quantized MIMO channels, which is difficult to characterize due to their discrete nature. Therefore, assuming an asymptotic regime where the number of receive antennas grows large and employing known information-theoretic results from Bayesian statistics on reference priors, the capacity scaling can be characterized for the coherent multi-bit case providing us with an expression that can be used for the analysis of the spectral efficiency and power consumption balance. For the noncoherent case, we apply the same results at the unquantized channel as an upper bound for the quantized channel and identify upper and lower bounds on the scaling for particular values on the coherence interval
APA, Harvard, Vancouver, ISO, and other styles
6

Berrim, Selma. "Tomoscintigraphie par ouverture codée, reconstruction par le maximum de vraisemblance." Paris 13, 1998. http://www.theses.fr/1998PA132033.

Full text
Abstract:
Le collimateur est necessaire a la formation des images, en tomographie par emission monophotonique. L'idee de base des systemes a ouverture codee est de conserver la bonne resolution spatiale du collimateur a stenope unique. La localisation des sources en profondeur se fait par l'augmentation du nombre de stenopes. L'acquisition des donnees de projections s'effectue alors au moyen d'un masque de codage remplacant le collimateur standard a trous paralleles. L'obtention de coupes tomographiques representant l'objet, necessite un decodage de l'image brute d'acquisition. Les donnees de projections d'un volume radioactive presentent des fluctuations aleatoires obeissant a la distribution de poisson. La reconstruction par le maximum de vraisemblance utilisant l'algorithme em presente un modele fonde sur la distribution de poisson. Cet algorithme iteratif est interessant quant a sa capacite a introduire des phenomenes physiques. L'experimentation du ml-em pour un systeme de codage sous une incidence unique conduit a une resolution laterale de l'ordre de 4 mm dans l'air. L'amelioration de la discrimination en profondeur est significative comparee a la methode de reconstruction par correlation equilibree. L'augmentation du nombre d'incidences en deux projections orthogonales prevoit, pour une etude indicative sur l'image simulee d'une source ponctuelle, une amelioration de la discrimination en profondeur comparee a l'incidence unique.
APA, Harvard, Vancouver, ISO, and other styles
7

Zakaria, Rostom. "Transmitter and receiver design for inherent interference cancellation in MIMO filter-bank based multicarrier systems." Phd thesis, Conservatoire national des arts et metiers - CNAM, 2012. http://tel.archives-ouvertes.fr/tel-00923184.

Full text
Abstract:
Multicarrier (MC) Modulation attracts a lot of attention for high speed wireless transmissions because of its capability to cope with frequency selective fading channels turning the wideband transmission link into several narrowband subchannels whose equalization, in some situations, can be performed independently and in a simple manner. Nowadays, orthogonal frequency division multiplexing (OFDM) with the cyclic prefix (CP) insertion is the most widespread modulation among all MC modulations, and this thanks to its simplicity and its robustness against multipath fading using the cyclic prefix. Systems or standards such as ADSL or IEEE802.11a have already implemented the CP-OFDM modulation. Other standards like IEEE802.11n combine CP-OFDM and multiple-input multiple-output (MIMO) in order to increase the bit rate and to provide a better use of the channel spatial diversity. Nevertheless, CP-OFDM technique causes a loss of spectral efficiency due to the CP as it contains redundant information. Moreover, the rectangular prototype filter used in CP-OFDM has a poor frequency localization. This poor frequency localization makes it difficult for CP-OFDM systems to respect stringent specifications of spectrum masks.To overcome these drawbacks, filter-bank multicarrier (FBMC) was proposed as an alternative approach to CP-OFDM. Indeed, FBMC does not need any CP, and it furthermore offers the possibility to use different time-frequency well-localized prototype filters which allow much better control of the out-of-band emission. In the literature we find several FBMC systems based on different structures. In this thesis, we focus on the Saltzberg's scheme called OFDM/OQAM (or FBMC/OQAM). The orthogonality constraint for FBMC/OQAM is relaxed being limited only to the real field while for OFDM it has to be satisfied in the complex field. Consequently, one of the characteristics of FBMC/OQAM is that the demodulated transmitted symbols are accompanied by interference terms caused by the neighboring transmitted data in time-frequency domain. The presence of this interference is an issue for some MIMO schemes and until today their combination with FBMC remains an open problem.The aim of this thesis is to study the combination between FBMC and MIMO techniques, namely spatial multiplexing with ML detection. In the first part, we propose to analyze different intersymbol interference (ISI) cancellation techniques that we adapt to the FBMC/OQAM with MIMO context. We show that, in some cases, we can cope with the presence of the inherent FBMC interference and overcome the difficulties of performing ML detection in spatial multiplexing with FBMC/OQAM. After that, we propose a modification in the conventional FBMC/OQAM modulation by transmitting complex QAM symbols instead of OQAM ones. This proposal allows to reduce considerably the inherent interference but at the expense of the orthogonality condition. Indeed, in the proposed FBMC/QAM,the data symbol and the inherent interference term are both complex. Finally, we introduce a novel FBMC scheme and a transmission strategy in order to avoid the inherent interference terms. This proposed scheme (that we call FFT-FBMC) transforms the FBMC system into an equivalent system formulated as OFDM regardless of some residual interference. Thus, any OFDM transmission technique can be performed straightforwardly to the proposed FBMC scheme with a corresponding complexity growth. We develop the FFT-FBMC in the case of single-input single-output (SISO) configuration. Then, we extend its application to SM-MIMO configuration with ML detection and Alamouti coding scheme.
APA, Harvard, Vancouver, ISO, and other styles
8

KUHN, Estelle. "Estimation par maximum de vraisemblance dans des problèmes inverses non linéaires." Phd thesis, Université Paris Sud - Paris XI, 2003. http://tel.archives-ouvertes.fr/tel-00008316.

Full text
Abstract:
Cette thèse est consacrée à l'estimation par maximum de vraisemblance dans des problèmes inverses. Nous considérons des modèles statistiques à données manquantes, dans un cadre paramétrique au cours des trois premiers chapitres. Le Chapitre 1 présente une variante de l'algorithme EM (Expectation Maximization) qui combine une approximation stochastique à une méthode de Monte Carlo par chaînes de Markov : les données manquantes sont simulées selon une probabilité de transition bien choisie. Nous prouvons la convergence presque sûre de la suite générée par l'algorithme vers un maximum local de la vraisemblance des observations. Nous présentons des applications en déconvolution et en détection de ruptures. Dans le Chapitre 2, nous appliquons cet algorithme aux modèles non linéaires à effets mixtes et effectuons outre l'estimation des paramètres du modèle, des estimations de la vraisemblance du modèle et de l'information de Fisher. Les performances de l'algorithme sont illustrées via des comparaisons avec d'autres méthodes sur des exemples de pharmacocinétique et de pharmacodynamique. Le Chapitre 3 présente une application de l'algorithme en géophysique. Nous effectuons une inversion jointe, entre les temps de parcours des ondes sismiques et leurs vitesses et entre des mesures gravimétriques de surface et les densités du sous-sol, en estimant les paramètres du modèle, qui étaient en général fixés arbitrairement. De plus, nous prenons en compte une relation linéaire entre les densités et les vitesses des ondes. Le Chapitre 4 est consacré à l'estimation non paramétrique de la densité des données manquantes. Nous exhibons un estimateur logspline de cette densité qui maximise la vraisemblance des observations dans un modèle logspline et appliquons notre algorithme à ce modèle paramétrique. Nous étudions la convergence de cet estimateur vers la vraie densité lorsque la dimension du modèle logspline et le nombre d'observations tendent vers l'infini. Nous présentons quelques applications.
APA, Harvard, Vancouver, ISO, and other styles
9

Khelifi, Bruno. "Recherche de sources gamma par une méthode de Maximum de Vraisemblance :." Phd thesis, Université de Caen, 2002. http://tel.archives-ouvertes.fr/tel-00002393.

Full text
Abstract:
L'actuelle génération de détecteurs de rayons gamma au TeV a permis d'étudier les sources les plus brillantes (Noyaux Actifs de Galaxies et restes de supernovae). Afin de détecter des objets moins lumineux, nous proposons des techniques d'observation et d'analyse améliorant la sensibilité des détecteurs que nous avons appliqués sur le détecteur CAT (Cerenkov Array at Themis). Le développement d'un maximum de vraisemblance a permis de doubler notre sensibilité sur la nébuleuse du Crabe près du transit. Cet outil permet désormais de rechercher des sources de position inconnue sans perte de sensibilité (aux effets instrumentaux près) et de tester des hypothèses sur la forme des extensions spatiales des émissions.
Grâce à ces techniques, nous avons détecté de faibles et rapides variations de flux de Mkn 421, découvert deux nouveaux blazars IES 1959+65 et IES 1426+42.8 qui est de faible luminosité et nous avons identifié deux blazars susceptibles d'émettre au TeV. La comparaison des spectres en énergie des blazars de même redshift (Mkn 421 et Mkn 501) permet de nous affranchir de l'absorption des gamma par l'infrarouge intergalactique (IIR) : Mkn 421 semble posséder un spectre avant absorption distinct d'une loi de puissance sur au moins une nuit. La dérivation d'informations plus précises sur les blazars dépendra des futures connaissances sur l'IIR et des observations simultanées multi-longueurs d'onde.
Ayant observé des restes de supernovae contenant des plérions (IC 443, CTA 1 et CTB 80), nous avons cherché en vain une émission provenant des plérions et de l'interaction de ces restes avec des nuages moléculaires grâce au maximum de vraisemblance. Les valeurs supérieures extraites sur les plérions ont été comparées avec des modèles d'émission électromagnétique d'un spectre d'électrons accélérés. Ces comparaisons nous ont amenées à nous interroger sur les hypothèses faites dans ces modèles et sur la pertinence des plérions choisis.
APA, Harvard, Vancouver, ISO, and other styles
10

Kuhn, Estelle. "Estimation par maximum de vraisemblance dans des problèmes inverses non linéaires." Paris 11, 2003. https://tel.archives-ouvertes.fr/tel-00008316.

Full text
Abstract:
Cette thèse est consacrée à l'estimation par maximum de vraisemblance dans des problèmes inverses. Nous considérons des modèles statistiques à données manquantes, dans un cadre paramétrique au cours des trois premiers chapitres. Le Chapitre 1 présente une variante de l'algorithme EM (Expectation Maximization) qui combine une approximation stochastique à une méthode de Monte Carlo par chaînes de Markov : les données manquantes sont simulées selon une probabilité de transition bien choisie. Nous prouvons la convergence presque sûre de la suite générée par l'algorithme vers un maximum local de la vraisemblance des observations. Nous présentons des applications en déconvolution et en détection de ruptures. Dans le Chapitre 2, nous appliquons cet algorithme aux modèles non linéaires à effets mixtes et effectuons outre l'estimation des paramètres du modèle, des estimations de la vraisemblance du modèle et de l'information de Fisher. Les performances de l'algorithme sont illustrées via des comparaisons avec d'autres méthodes sur des exemples de pharmacocinétique et de pharmacodynamique. Le Chapitre 3 présente une application de l'algorithme en géophysique. Nous effectuons une inversion jointe, entre les temps de parcours des ondes sismiques et leurs vitesses et entre des mesures gravimétriques de surface et les densités du sous-sol, en estimant les paramètres du modèle, qui étaient en général fixés arbitrairement. De plus, nous prenons en compte une relation linéaire entre les densités et les vitesses des ondes. Le Chapitre 4 est consacré à l'estimation non paramétrique de la densité [PI] des données manquantes. Nous exhibons un estimateur logspline de PI qui maximise la vraisemblance des observations dans un modèle logspline et appliquons notre algorithme à ce modèle paramétrique. Nous étudions la convergence de cet estimateur vers pi lorsque la dimension du modèle logspline et le nombre d'observations tendent vers l'infini. Nous présentons quelques applications
This thesis deals with maximum likelihood estimation in inverse problems. In the tree first chapters, we consider statistical models involving missing data in a parametric framework. Chapter 1 presents a version of the EM algorithm (Expectation Maximization), which combines a stochastic approximation with a Monte Carlo Markov Chain method: the missing data are drawn from a well-chosen transition probability. The almost sure convergence of the sequence generated by the algorithm to a local maximum of the likelihood of the observations is proved. Some applications to deconvolution and change-point detection are presented. Chapter 2 deals with the application of the algorithm to nonlinear mixed effects models. Besides the estimation of the parameters, we estimate the likelihood of the model and the Fisher information matrix. We assess the performance of the algorithm, comparing the results obtained with other methods, on examples coming from pharmacocinetics and pharmacodynamics. Chapter 3 presents an application to geophysics. We perform a joint inversion between teleseismic times and velocity and between gravimetric data and density. Our point of view is innovative because we estimate the parameters of the model which were generally fixed arbitrarily. Moreover we take into account a linear relation between slowness and density. Chapter 4 deals with non parametric density estimation in missing data problems. We propose a logspline estimator of the density of the non observed data, which maximizes the observed likelihood in a logspline model. We apply our algorithm in this parametric model. We study the convergence of this estimator to the density of the non observed data, when the size of the logpline model and the number of observations tend to infinity. Some applications illustrate this method
APA, Harvard, Vancouver, ISO, and other styles
11

Gilbert, Helène. "Multidimensionnalité pour la détection de gènes influençant des caractères quantitatifs : Application à l'espèce porcine." Paris, Institut national d'agronomie de Paris Grignon, 2003. http://www.theses.fr/2003INAP0007.

Full text
Abstract:
Ce travail a pour but de développer des méthodes de détection de locus affectant les caractères quantitatifs, appelés QTL, à partir de l'information disponible sur des caractères corrélés et/ou des positions liées, chez les animaux d'élevage. Les méthodologies ont été dans un premier temps caractérisées pour leurs puissances et leurs précisions d'estimation des paramètres (positions et effets des QTL) à partir de données simulées. Nous avons développé d'une part des méthodes multivariées, extrapolées de techniques décrites pour l'analyse de données issues de croisements entre populations supposées génétiquement fixées, et d'autre part des méthodes synthétiques univariées, développées à l'occasion de ce travail. Ces dernières méthodes permettent de synthétiser l'information due à la présence du (des) QTL déterminant plusieurs caractères dans une unique variable, combinaison linéaire des caractères. Le nombre de paramètres à estimer est ainsi indépendant du nombre de caractères étudiés, permettant de réduire fortement les temps de calcul par rapport aux méthodes multivariées. La stratégie retenue repose sur des techniques d'analyse discriminante. Pour chaque vecteur de positions testé, des groupes de descendants sont créés en fonction de la probabilité que les individus aient reçu l'un ou l'autre haplotype de leur père. Les matrices de (co)variance génétique et résiduelle spécifiques de la présence du (des) QTL peuvent alors être estimées. La transformation linéaire permet de maximiser le rapport de ces deux variabilités. Les méthodes basées sur l'analyse de variables synthétiques permettent en général d'obtenir des résultats équivalents, voire meilleurs, que les stratégies multivariées. Seule l'estimation des effets des QTL et de la corrélation résiduelle entre les caractères reste inaccessible par ces méthodes. Une stratégie itérative basée sur l'analyse de variables synthétiques pour la sélection des caractères et des régions chromosomiques à analyser par les méthodes multivariées est proposée. Par ailleurs, nous avons quantité les apports des méthodologies multidimensionnelles pour la cartographie des QTL par rapport aux méthodes unidimensionnelles. Dans la majorité des cas, la puissance et la précision d'estimation des paramètres sont nettement améliorées. De plus, nous avons pu montrer qu'un QTL pléiotrope peut être discriminé de deux QTL liés, s'ils sont relativement distants. Ces méthodologies ont été appliquées à la détection de QTL déterminant cinq caractères de composition corporelle chez le porc sur le chromosome 7. Deux groupes de QTL déterminant des types de gras différents, le gras interne et le gras externe, ont ainsi été discriminés. Pour chacun de ces groupes, les analyses multiQTL ont permis d'identifier au moins deux régions chromosomiques distinctes déterminant les caractères.
APA, Harvard, Vancouver, ISO, and other styles
12

Saidi, Yacine. "Méthodes appliquées de détection et d'estimation de rupture dans les modèles de régression." Université Joseph Fourier (Grenoble ; 1971-2015), 1986. http://tel.archives-ouvertes.fr/tel-00319930.

Full text
Abstract:
Nous étudions deux procédures ― somme cumulée des résidus récursifs et rapport des vraisemblances maximales ― de détection de rupture dans un modèle de régression, en vue de leur application à des problèmes concrets. Nous menons une étude expérimentale par simulation, afin de cerner le comportement de ces deux méthodes de détection de rupture. Le problème de l'estimation, par le maximum de vraisemblance, dans un modèle de régression à une rupture est traité. Une application des méthodes étudiées sur des données d'hydrologie est présentée
APA, Harvard, Vancouver, ISO, and other styles
13

Abdi, Moussa. "Détection multi-utilisateurs en mode CDMA." Paris, ENST, 2002. http://www.theses.fr/2002ENST0027.

Full text
APA, Harvard, Vancouver, ISO, and other styles
14

Diop, Cheikh Abdoulahat. "La structure multimodale de la distribution de probabilité de la réflectivité radar des précipitations." Toulouse 3, 2012. http://thesesups.ups-tlse.fr/3089/.

Full text
Abstract:
Un ensemble de données radar collectées sur divers sites du réseau américain de radars bande S, Nexrad (Next Generation Weather Radar), est utilisé pour analyser la fonction de distribution de probabilité (fdp) du facteur de réflectivité radar (Z) des précipitations, soit P(Z). Nous avons étudié et comparé divers types de systèmes précipitants : 1) orages grêlifères sur le site continental de Little Rock (Arkansas), 2) convection péninsulaire et côtière à Miami (Floride), 3) convection côtière et transition terre/mer à Brownsville (Texas) , 4) convection maritime tropicale à Hawaii, 5) convection maritime des latitudes moyennes à Eureka (Californie), 6) neige associée aux systèmes frontaux continentaux d'hiver à New York City (New York) et 7) neige à Middleton Island (Alaska), une zone maritime des hautes latitudes. On montre que chaque type de système précipitant a une signature spécifique au niveau de la forme de P(Z). La distribution P(Z) a une forme complexe. Nous montrons qu'il s'agit d'un mélange de plusieurs composantes gaussiennes, chacune étant attribuable à un type de précipitation. Avec l'algorithme EM (Expectation Maximisation) de Dempster et al. 1977, basé sur la méthode du maximum devraisemblance, on décompose la fdp des systèmes précipitants en quatre compo-santes : 1) le nuage et les précipitations de très faible intensité ou drizzle, 2) les précipitations stratiformes, 3) les précipitations convectives et 4) la grêle. Chaque composante est représentée par une gaussienne définie par sa moyenne, sa variance et la proportion de l'aire qu'elle occupe dans le mélange. On a mis en évidence l'absence de composante grêle dans les P(Z) des cas de systèmes convectifs maritimes et côtiers. Les chutes de neige correspondent à des distributions P(Z) plus régulières. La présence de plusieurs composantes dans P(Z) est liée à des différences dans la dynamique et la microphysique propres à chaque composante. Une combinaison linéaire des différentes composantes gaussiennes a permis d'obtenir un très bon ajustement de P(Z). Nous présentons ensuite une application des résultats de la décomposition de P(Z). Nous avons isolé chaque composante, et pour chacune d'elles, la distribution de réflectivité est convertie en une distribution d'intensité de précipitation (R), soit P(R) ayant comme paramètres µR et sR2 qui sont respectivement la moyenne et la variance. On montre, sur le le graphe (µR ,sR2), que chaque composante occupe une région spécifique, suggérant ainsi que les types de précipitation identifiés constituent des populations distinctes. Par exemple, la position des points représentatifs de la neige montre que cette dernière est statistiquement différente de la pluie. Le coefficient de variation de P(R), CVR = sR /µR est constant pour chaque type de précipitation. Ce résultat implique que la connaissance de CVR et la mesure de l'un des paramètres de P(R) permet de déterminer l'autre et de définir la distributionde l'intensité de précipitation pour chaque composante. L'influence des coefficients a et b de la relation Z = aRb sur P(R) a été également discutée
A set of radar data gathered over various sites of the US Nexrad (Next Generation Weather Radar) S band radar network is used to analyse the probability distribution function (pdf) of the radar reflectivity factor (Z) of precipitation, P(Z). Various storm types are studied and a comparison between them is made: 1) hailstorms at the continental site of Little Rock (Arkansas), 2) peninsular and coastal convection at Miami (Florida), 3) coastal convection and land/sea transition at Brownsville (Texas), 4) tropical maritime convection at Hawaii, 5) midlatitude maritime convection at Eureka (California), 6) snowstorms from winter frontal continental systems at New York City (New York), and 7) high latitude maritime snowstorms at Middleton Island (Alaska). Each storm type has a specific P(Z) signature with a complex shape. It is shown that P(Z) is a mixture of Gaussian components, each of them being attribuable to a precipitation type. Using the EM (Expectation Maximisation) algorithm of Dempster et al. 1977, based on the maximum likelihood method, four main components are categorized in hailstorms: 1) cloud and precipitation of very low intensity or drizzle, 2) stratiform precipitation, 3) convective precipitation, and 4) hail. Each component is described by the fraction of area occupied inside P(Z) and by the two Gaussian parameters, mean and variance. The absence of hail component in maritime and coastal storms is highlighted. For snowstorms, P(Z) has a more regular shape. The presence of several components in P(Z) is linked to some differences in the dynamics and microphysics of each precipitation type. The retrieval of the mixed distribution by a linear combination of the Gaussian components gives a very stisfactory P(Z) fitting. An application of the results of the split-up of P(Z) is then presented. Cloud, rain, and hail components have been isolated and each corresponding P(Z) is converted into a probability distribution of rain rate P(R) which parameters are µR and sR2 , respectively mean and variance. It is shown on the graph (µR ,sR2) that each precipitation type occupies a specific area. This suggests that the identified components are distinct. For example, the location of snowstorms representative points indicates that snow is statistically different from rain. The P(R) variation coefficient, CVR = sR/µR is constant for each precipitation type. This result implies that knowing CVR and measuring only one of the P(R) parameters enable to determine the other one and to define the rain rate probability distribution. The influence of the coefficients a and b of the relation Z = aRb on P(R) is also discussed
APA, Harvard, Vancouver, ISO, and other styles
15

Al-Khalidi, Khaldoun. "Reconstruction tomographique en géométrie conique par la technique du maximum de vraisemblance : optimisation et parallélisation." Besançon, 1996. http://www.theses.fr/1996BESA2009.

Full text
Abstract:
Ce travail s'intègre dans le contexte de l'imagerie isotopique. Il concerne la mise en œuvre sur un réseau de transputers d'une méthode de reconstruction 3D de la distribution des coefficients d'atténuation, à partir de projections obtenues en géométrie conique. La connaissance de ces coefficients permettant l'amélioration de la correction de l'atténuation en tomographie d'émission monophotonique. Nous avons opté pour les méthodes de reconstruction statistiques basées sur le principe de Maximum de Vraisemblance. Afin de calculer l'estimateur de Maximum de Vraisemblance nous nous sommes basés sur l'algorithme d'Espérance et Maximisation (EM). En formulant ce dernier sous une forme gradient, nous avons proposé une méthode d'optimisation de type Maximisation Unidimensionnelle. Nous l'avons implantée sous le nom de l'algorithme EM-MU. Ensuite, nous nous sommes intéressés au caractère mal posé du problème de la reconstruction dans le cas de l'estimateur de Maximum de Vraisemblance. Nous avons proposé une technique de régularisation basée sur une approche bayésienne et nous l'avons implantée sous le nom de l'algorithme EM-MAP. Afin de valider nos travaux, nous avons mis en œuvre un simulateur de transport de photons en transmission, basé sur la méthode de Monte Carlo. Nous avons comparé les algorithmes EM-MU et EM-MAP avec deux algorithmes de reconstruction très connus (ART et Feldkamp). L'algorithme EM-MU a donné les meilleurs résultats sur le plan qualitatif et quantitatif, Ainsi nous avons choisi de la parallèliser. Nous avons proposé une méthode de parallèlisation basée sur la technique maitre-esclave avec une répartition de charges, et nous l'avons implanté sur un réseau constitué de trois transputers. La parallèlisation s'est avérée efficace ce qui montre l'intérêt d'une telle approche pour envisager l'utilisation de l'algorithme EM-MU en routine clinique.
APA, Harvard, Vancouver, ISO, and other styles
16

Gilbert, Hélène. "Multidimensionnalité pour la détection de gènes influençant des caractères quantitatifs. Application à l'espèce porcine." Phd thesis, INAPG (AgroParisTech), 2003. http://tel.archives-ouvertes.fr/tel-00005699.

Full text
Abstract:
Ce travail a pour but de développer des méthodes de détection de locus affectant les caractères quantitatifs, appelés QTL, à partir de l'information disponible sur des caractères corrélés et/ou des positions liées, chez les animaux d'élevage.
Les méthodologies ont été dans un premier temps caractérisées pour leurs puissances et leurs précisions d'estimation des paramètres (positions et effets des QTL) à partir de données simulées. Nous avons développé d'une part des méthodes multivariées, extrapolées de techniques décrites pour l'analyse de données issues de croisements entre populations supposées génétiquement fixées, et d'autre part des méthodes synthétiques univariées, développées à l'occasion de ce travail. Ces dernières méthodes permettent de synthétiser l'information due à la présence du (des) QTL déterminant plusieurs caractères dans une unique variable, combinaison linéaire des caractères. Le nombre de paramètres à estimer est ainsi indépendant du nombre de caractères étudiés, permettant de réduire fortement les temps de calcul par rapport aux méthodes multivariées. La stratégie retenue repose sur des techniques d'analyse discriminante. Pour chaque vecteur de positions testé, des groupes de descendants sont créés en fonction de la probabilité que les individus aient reçu l'un ou l'autre haplotype de leur père. Les matrices de (co)variance génétique et résiduelle spécifiques de la présence du (des) QTL peuvent alors être estimées. La transformation linéaire permet de maximiser le rapport de ces deux variabilités.
Les méthodes basées sur l'analyse de variables synthétiques permettent en général d'obtenir des résultats équivalents, voire meilleurs, que les stratégies multivariées. Seule l'estimation des effets des QTL et de la corrélation résiduelle entre les caractères reste inaccessible par ces méthodes. Une stratégie itérative basée sur l'analyse de variables synthétiques pour la sélection des caractères et des régions chromosomiques à analyser par les méthodes multivariées est proposée. Par ailleurs, nous avons quantité les apports des méthodologies multidimensionnelles pour la cartographie des QTL par rapport aux méthodes unidimensionnelles. Dans la majorité des cas, la puissance et la précision d'estimation des paramètres sont nettement améliorées. De plus, nous avons pu montrer qu'un QTL pléiotrope peut être discriminé de deux QTL liés, s'ils sont relativement distants.
Ces méthodologies ont été appliquées à la détection de QTL déterminant cinq caractères de composition corporelle chez le porc sur le chromosome 7. Deux groupes de QTL déterminant des types de gras différents, le gras interne et le gras externe, ont ainsi été discriminés. Pour chacun de ces groupes, les analyses multiQTL ont permis d'identifier au moins deux régions chromosomiques distinctes déterminant les caractères.
APA, Harvard, Vancouver, ISO, and other styles
17

Salloum, Zahraa. "Maximum de vraisemblance empirique pour la détection de changements dans un modèle avec un nombre faible ou très grand de variables." Thesis, Lyon, 2016. http://www.theses.fr/2016LYSE1008/document.

Full text
Abstract:
Cette thèse est consacrée à tester la présence de changements dans les paramètres d'un modèle de régression non-linéaire ainsi que dans un modèle de régression linéaire en très grande dimension. Tout d'abord, nous proposons une méthode basée sur la vraisemblance empirique pour tester la présence de changements dans les paramètres d'un modèle de régression non-linéaire. Sous l'hypothèse nulle, nous prouvons la consistance et la vitesse de convergence des estimateurs des paramètres de régression. La loi asymptotique de la statistique de test sous l'hypothèse nulle nous permet de trouver la valeur critique asymptotique. D'autre part, nous prouvons que la puissance asymptotique de la statistique de test proposée est égale à 1. Le modèle épidémique avec deux points de rupture est également étudié. Ensuite, on s'intéresse à construire les régions de confiance asymptotiques pour la différence entre les paramètres de deux phases d'un modèle non-linéaire avec des regresseurs aléatoires en utilisant la méthode de vraisemblance empirique. On montre que le rapport de la vraisemblance empirique a une distribution asymptotique χ2. La méthode de vraisemblance empirique est également utilisée pour construire les régions de confiance pour la différence entre les paramètres des deux phases d'un modèle non-linéaire avec des variables de réponse manquantes au hasard (Missing At Random (MAR)). Afin de construire les régions de confiance du paramètre en question, on propose trois statistiques de vraisemblance empirique : la vraisemblance empirique basée sur les données cas-complète, la vraisemblance empirique pondérée et la vraisemblance empirique par des valeurs imputées. On prouve que les trois rapports de vraisemblance empirique ont une distribution asymptotique χ2. Un autre but de cette thèse est de tester la présence d'un changement dans les coefficients d'un modèle linéaire en grande dimension, où le nombre des variables du modèle peut augmenter avec la taille de l'échantillon. Ce qui conduit à tester l'hypothèse nulle de non-changement contre l'hypothèse alternative d'un seul changement dans les coefficients de régression. Basée sur les comportements asymptotiques de la statistique de rapport de vraisemblance empirique, on propose une simple statistique de test qui sera utilisée facilement dans la pratique. La normalité asymptotique de la statistique de test proposée sous l'hypothèse nulle est prouvée. Sous l'hypothèse alternative, la statistique de test diverge
In this PHD thesis, we propose a nonparametric method based on the empirical likelihood for detecting the change in the parameters of nonlinear regression models and the change in the coefficient of linear regression models, when the number of model variables may increase as the sample size increases. Firstly, we test the null hypothesis of no-change against the alternative of one change in the regression parameters. Under null hypothesis, the consistency and the convergence rate of the regression parameter estimators are proved. The asymptotic distribution of the test statistic under the null hypothesis is obtained, which allows to find the asymptotic critical value. On the other hand, we prove that the proposed test statistic has the asymptotic power equal to 1. The epidemic model, a particular case of model with two change-points, under the alternative hypothesis, is also studied. Afterwards, we use the empirical likelihood method for constructing the confidence regions for the difference between the parameters of a two-phases nonlinear model with random design. We show that the empirical likelihood ratio has an asymptotic χ2 distribu- tion. Empirical likelihood method is also used to construct the confidence regions for the difference between the parameters of a two-phases nonlinear model with response variables missing at randoms (MAR). In order to construct the confidence regions of the parameter in question, we propose three empirical likelihood statistics : empirical likelihood based on complete-case data, weighted empirical likelihood and empirical likelihood with imputed va- lues. We prove that all three empirical likelihood ratios have asymptotically χ2 distributions. An another aim for this thesis is to test the change in the coefficient of linear regres- sion models for high-dimensional model. This amounts to testing the null hypothesis of no change against the alternative of one change in the regression coefficients. Based on the theoretical asymptotic behaviour of the empirical likelihood ratio statistic, we propose, for a deterministic design, a simpler test statistic, easier to use in practice. The asymptotic normality of the proposed test statistic under the null hypothesis is proved, a result which is different from the χ2 law for a model with a fixed variable number. Under alternative hypothesis, the test statistic diverges
APA, Harvard, Vancouver, ISO, and other styles
18

Ranwez, Vincent. "Méthodes efficaces pour reconstruire de grandes phylogénies suivant le principe du maximum de vraisemblance." Phd thesis, Université Montpellier II - Sciences et Techniques du Languedoc, 2002. http://tel.archives-ouvertes.fr/tel-00843175.

Full text
Abstract:
La reconstruction de phylogénies moléculaires consiste à retrouver l'arbre évolutif (ou phylogénie) d'un ensemble de séquences homologues. La méthode de reconstruction la plus fiable actuellement, semble être la méthode du maximum de vraisemblance. Les méthodes classiques pour rechercher la phylogénie de vraisemblance maximale deviennent, rapidement, très coûteuses en temps de calcul lorsque le nombre de séquences augmente. Elles ne peuvent donc pas traiter de grandes phylogénies. Actuellement, les deux types de méthodes qui permettent de reconstruire de grandes phylogénies suivant le principe du maximum de vraisemblance sont : les méthodes de distances et les méthodes de quadruplets. Toutes deux divisent le problème initial en sous-problèmes contenant peu de séquences. Elles peuvent alors résoudre rapidement (suivant le principe du maximum de vraisemblance) chacun de ces sous-problèmes, puis combiner les solutions obtenues pour proposer une phylogénie de l'ensemble des séquences. Après avoir présenté les principales méthodes de reconstruction phylogenetique, nous décrivons une nouvelle méthode de quadruplets (Weight Optimization) qui possède de bonnes propriétés théoriques et reconstruit des arbres plus fiables que Quartet Puzzling (une méthode de quadruplets très populaire). Nous expliquons ensuite en quoi les méthodes de quadruplets sont mal adaptées pour reconstruire de grandes phylogénies suivant le principe du maximum de vraisemblance, et comment ces méthodes peuvent résoudre efficacement d'autres problèmes. Puis, nous proposons une approche qui combine de manière originale les méthodes de distances et du maximum de vraisemblance. Cette approche que nous appelons TripleML permet d'améliorer la fiabilité de différentes méthodes de distances en remplaçant les distances qu'elles utilisent par des distances qui sont estimées en optimisant localement la vraisemblance de triplets de séquences (ou de groupes de séquences).
APA, Harvard, Vancouver, ISO, and other styles
19

Ferràs, Font Marc. "Utilisation des coefficients de régression linéaire par maximum de vraisemblance comme paramètres pour la reconnaissance automatique du locuteur." Phd thesis, Université Paris Sud - Paris XI, 2009. http://tel.archives-ouvertes.fr/tel-00616673.

Full text
Abstract:
The goal of this thesis is to find new and efficient features for speaker recognition. We are mostly concerned with the use of the Maximum-Likelihood Linear Regression (MLLR) family of adaptation techniques as features in speaker recognition systems. MLLR transformcoefficients are able to capture speaker cues after adaptation of a speaker-independent model using speech data. The resulting supervectors are high-dimensional and no underlying model guiding its generation is assumed a priori, becoming suitable for SVM for classification. This thesis brings some contributions to the speaker recognition field by proposing new approaches to feature extraction and studying existing ones via experimentation on large corpora: 1. We propose a compact yet efficient system, MLLR-SVM, which tackles the issues of transcript- and language-dependency of the standard MLLR-SVM approach by using single-class Constrained MLLR (CMLLR) adaptation transforms together with Speaker Adaptive Training (SAT) of a Universal Background Model (UBM). 1- When less data samples than dimensions are available. 2- We propose several alternative representations of CMLLR transformcoefficients based on the singular value and symmetric/skew-symmetric decompositions of transform matrices. 3- We develop a novel framework for feature-level inter-session variability compensation based on compensation of CMLLR transform supervectors via Nuisance Attribute Projection (NAP). 4- We perform a comprehensive experimental study of multi-class (C)MLLR-SVM systems alongmultiple axes including front-end, type of transform, type fmodel,model training and number of transforms. 5- We compare CMLLR and MLLR transform matrices based on an analysis of properties of their singular values. 6- We propose the use of lattice-basedMLLR as away to copewith erroneous transcripts in MLLR-SVMsystems using phonemic acoustic models.
APA, Harvard, Vancouver, ISO, and other styles
20

Lepoutre, Alexandre. "Détection et poursuite en contexte Track-Before-Detect par filtrage particulaire." Thesis, Rennes 1, 2016. http://www.theses.fr/2016REN1S101/document.

Full text
Abstract:
Cette thèse s'intéresse à l'étude et au développement de méthodes de pistage mono et multicible en contexte Track-Before-Detect (TBD) par filtrage particulaire. Contrairement à l'approche classique qui effectue un seuillage préalable sur les données avant le pistage, l'approche TBD considère directement les données brutes afin de réaliser conjointement la détection et le pistage des différentes cibles. Il existe plusieurs solutions à ce problème, néanmoins cette thèse se restreint au cadre bayésien des Modèles de Markov Cachés pour lesquels le problème TBD peut être résolu à l'aide d'approximations particulaires. Dans un premier temps, nous nous intéressons à des méthodes particulaires monocibles existantes pour lesquels nous proposons différentes lois instrumentales permettant l'amélioration des performances en détection et estimation. Puis nous proposons une approche alternative du problème monocible fondée sur les temps d'apparition et de disparition de la cible; cette approche permet notamment un gain significatif au niveau du temps de calcul. Dans un second temps, nous nous intéressons au calcul de la vraisemblance en TBD -- nécessaire au bon fonctionnement des filtres particulaires -- rendu difficile par la présence des paramètres d'amplitudes des cibles qui sont inconnus et fluctuants au cours du temps. En particulier, nous étendons les travaux de Rutten et al. pour le calcul de la vraisemblance au modèle de fluctuations Swerling et au cas multicible. Enfin, nous traitons le problème multicible en contexte TBD. Nous montrons qu'en tenant compte de la structure particulière de la vraisemblance quand les cibles sont éloignées, il est possible de développer une solution multicible permettant d'utiliser, dans cette situation, un seule filtre par cible. Nous développons également un filtre TBD multicible complet permettant l'apparition et la disparition des cibles ainsi que les croisements
This thesis deals with the study and the development of mono and multitarget tracking methods in a Track-Before-Detect (TBD) context with particle filters. Contrary to the classic approach that performs before the tracking stage a pre-detection and extraction step, the TBD approach directly works on raw data in order to jointly perform detection and tracking. Several solutions to this problem exist, however this thesis is restricted to the particular Hidden Markov Models considered in the Bayesian framework for which the TBD problem can be solved using particle filter approximations.Initially, we consider existing monotarget particle solutions and we propose several instrumental densities that allow to improve the performance both in detection and in estimation. Then, we propose an alternative approach of the monotarget TBD problem based on the target appearance and disappearance times. This new approach, in particular, allows to gain in terms of computational resources. Secondly, we investigate the calculation of the measurement likelihood in a TBD context -- necessary for the derivation of the particle filters -- that is difficult due to the presence of the target amplitude parameters that are unknown and fluctuate over time. In particular, we extend the work of Rutten et al. for the likelihood calculation to several Swerling models and to the multitarget case. Lastly, we consider the multitarget TBD problem. By taking advantage of the specific structure of the likelihood when targets are far apart from each other, we show that it is possible to develop a particle solution that considers only a particle filter per target. Moreover, we develop a whole multitarget TBD solution able to manage the target appearances and disappearances and also the crossing between targets
APA, Harvard, Vancouver, ISO, and other styles
21

Khélifi, Bruno. "Recherche de sources gamma par une méthode de maximum de vraisemblance : application aux AGN et aux sources galactiques suivis par le téléescope CAT." Caen, 2002. http://www.theses.fr/2002CAEN2051.

Full text
Abstract:
L'actuelle génération de détecteurs de rayons γ au TeV a permis d'étudier les sources les plus brillantes (Noyaux Actifs de Galaxies et restes de supernova). Afin de détecter des objets moins lumineux, nous proposons des techniques d'observation et d'analyse améliorant la sensibilité des détecteurs que nous avons appliqués sur le détecteur CAT (Cerenkov Array at Themis). Le développement d'un maximum de vraisemblance a permis de doubler notre sensibilité sur la nébuleuse du Crabe près du transit. Cet outil permet désormais de rechercher des sources de position inconnue sans perte de sensibilité (aux effets instrumentaux près) et de tester des hypothèses sur la forme des extensions spatiales des émissions. Grâce à ces techniques, nous avons détecté de faibles et rapides variations de flux de Mkn 421, découvert deux nouveaux blazars 1ES 1959+65 et 1ES 1426+42. 8 qui est de faible luminosité et nous avons identifié deux blazars susceptibles d'émettre au TeV. La comparaison des spectres en énergie des blazars de même redshrift (Mkn 421 et Mkn 501) permet de nous affranchir de l'absorption des γ par l'infrarouge intergalactique (IIR) : Mkn 421 semble posséder un spectre avant asorption distinct d'une loi de puissance sur au moins une nuit. La dérivation d'informations plus précises sur les blazars dépendra des futures connaissances sur l'IRR et des observations simultanées multi-longueurs d'onde. Ayant observé des restes de supernova contenant des plérions (IC 443, CTA 1 et CTB 80), nous avons recherché en vain une émission provenant des plérions et de l'interaction de ces restes avec des nuages moléculaires grâce au maximum de vraisemblance. Les valeurs supérieures extraites sur les plérions ont été comparées avec des modèles d'émission électromagnétique d'un spectre d'électrons accélérés. Ces comparaison nous ont amené à nous interroger sur les hypothèses faites dans ces modèles et sur la pertinence des plérions choisis.
APA, Harvard, Vancouver, ISO, and other styles
22

Kengne, William Charky. "Détection des ruptures dans les processus causaux : application aux débits du bassin versant de la Sanaga au Cameroun." Phd thesis, Université Panthéon-Sorbonne - Paris I, 2012. http://tel.archives-ouvertes.fr/tel-00695364.

Full text
Abstract:
Cette thèse porte sur la détection de rupture dans les processus causaux avec application aux débits du bassin versant de la Sanaga. Nous considérons une classe semi-paramétrique de modèles causaux contenant des processus classique tel que l'AR, ARCH, TARCH. Le chapitre 1 est une synthèse des travaux. Il présente le modèle avec des exemples et donne les principaux résultats obtenus aux chapitres 2, 3,4. Le chapitre 2 porte sur la détection off-line de ruptures multiples en utilisant un critère de vraisemblance pénalisée. Le nombre de rupture, les instants de rupture et les paramètres du modèle sur chaque segment sont inconnus. Ils sont estimés par maximisation d'un contraste construit à partir des quasi-vraisemblances et pénalisées par le nombre de ruptures. Nous donnons les choix possibles du paramètre de pénalité et montrons que les estimateurs des paramètres du modèle sont consistants avec des vitesses optimales. Pour des applications pratiques, un estimateur adaptatif du paramètre de pénalité basé sur l'heuristique de la pente est proposé. La programmation dynamique est utilisée pour réduire le coût numérique des opérations, celui-ci est désormais de l'ordre de $\mathcal{O}(n^2)$. Des comparaisons faites avec des résultats existants montrent que notre procédure est plus stable et plus robuste. Le chapitre 3 porte toujours sur la détection off-line de ruptures multiples, mais cette fois en utilisant une procédure de test. Nous avons construit une nouvelle procédure qui, combinée avec un algorithme de type ICSS (Itereted Cumulative Sums of Squares) permet de détecter des ruptures multiples dans des processus causaux. Le test est consistant en puissance et la comparaison avec des procédures existantes montre qu'il est plus puissant. Le chapitre 4 étudie la détection des ruptures on-line dans la classe de modèle considéré aux chapitres 2 et 3. Une procédure basée sur la quasi-vraisemblance des observations a été développée. La procédure est consistante en puissance et le délai de détection est meilleur que celui des procédures existantes. Le chapitre 5 est consacré aux applications aux débits du bassin versant de la Sanaga, les procédures décrites aux chapitres 2 et 3 ont été utilisées en appliquant un modèle ARMA sur les données désaisonnalisées et standardisées. Ces deux procédures ont détecté des ruptures qui sont "proches".
APA, Harvard, Vancouver, ISO, and other styles
23

LEJEUNE, BERNARD. "Modèles à erreurs composées et hétérogénéité variable : modélisation, estimation par pseudo-maximum de vraisemblance au deuxième ordre et tests de spécification." Paris 12, 1998. http://www.theses.fr/1998PA122007.

Full text
Abstract:
Cette these est consacree a l'etude de quelques problemes econometriques associes a la modelisation de l'heterogeneite des comportements individuels lorsque l'on travaille avec des donnees micro-economiques en panel. Elle poursuit un double objectif : d'une part, proposer et discuter une extension du modele a erreurs composees standard permettant de prendre en compte et de rendre compte de phenomenes d'heterogeneite individuelle variables, et d'autre part, fournir pour l'estimation et la mise a l'epreuve de la specification du modele propose un ensemble coherent de procedures d'estimation et de tests prenant explicitement en compte une possible mauvaise specification de la forme d'heterogeneite modelisee. La these est composee de quatre chapitres. Dans un cadre qui depasse largement - mais inclut comme cas particulier - les modeles a erreurs composees, le premier chapitre etablit les conditions sous lesquelles les estimateurs de type pseudo-maximum de vraisemblance au deuxieme ordre d'un modele semi-parametrique a l'ordre 2 sont robustes a une mauvaise specification de la variance conditionnelle, et etudie leurs proprietes asymptotiques. Dans le meme cadre general que le chapitre 1, le second chapitre decrit comment, a partir d'un tel estimateur, tirer parti de l'approche 'm-test' pour tester de maniere extensive, avec ou sans hypothese alternative clairement definie, la specification des modeles semi- parametriques a l'ordre 2. Le troisieme chapitre expose et discute l'extension proposee du modele a erreurs composees standard et montre, en s'appuyant sur les resultats theoriques generaux des deux premiers chapitres, comment estimer et tester de facon robuste ce modele. Finalement, le quatrieme chapitre illustre l'interet pratique des resultats degages. Cette illustration, qui consiste en l'estimation et le test de la specification de fonctions de production, est basee sur un panel incomplet de 824 entreprises francaises observees sur la periode 1979-1988 (5201 observations)
This thesis considers some econometric issues associated with the modelisation of the heterogeneity of individual behaviors when working with microeconomic panel data. Its purpose is twofold. First, to propose and discuss an extension of the standard error components model which allows to take into account and account for phenomenons of variable heterogeneity. Second, to provide, for its estimation and specification testing, a set of integrated inferential procedures taking explicitly into account a possible misspecification of the assumed form of heterogeneity. The thesis is composed of four chapters. In a very general framework which includes error components models as a special case, chapter 1 establishes the conditions under which second order pseudo-maximum likelihood estimators of a second order semi-parametric model are robust to conditional variance misspecification, and investigates their asymptotic properties. Remaining in the same general framework than chapter 1, chapter 2 describes how, from such a robust estimator, to take advantage of the 'm-testing' approach to extensively test, with or without explicit alternative, the specification of second order semi-parametric models. Chapter 3 exposes and discusses the proposed extension of the standard error components model and, using the general results obtained in the first two chapters, shows how to estimate and test this model in a robust way. Finally, chapter 4 illustrates the practical usefulness of the provided results. This illustration consists in production functions estimation and specification testing, and is based on an incomplete panel dataset of 824 french firms observed over the period 1979-1988 (5201 observations)
APA, Harvard, Vancouver, ISO, and other styles
24

Pascal, Frédéric. "Détection et Estimation en Environnement non Gaussien." Phd thesis, Université de Nanterre - Paris X, 2006. http://tel.archives-ouvertes.fr/tel-00128438.

Full text
Abstract:
Dans le contexte très général de la détection radar, les détecteurs classiques, basés sur l'hypothèse d'un bruit Gaussien, sont souvent mis en défaut dès lors que l'environnement (fouillis de sol, de mer) devient inhomogène, voire impulsionnel, s'écartant très vite du modèle Gaussien. Des modèles physiques de fouillis basés sur les modèles de bruit composé (SIRP, Compound Gaussian Processes) permettent de mieux représenter la réalité (variations spatiales de puissance et nature de fouillis, transitions, ...). Ces modèles dépendent cependant de paramètres (matrice de covariance, loi de texture, paramètres de "disturbance") qu'il devient nécessaire d'estimer. Une fois ces paramètres estimés, il est possible de construire des détecteurs radar optimaux (Generalized Likelihood Ratio Test - Linear Quadratic) pour ces environnements. Cette thèse, qui s'appuie sur ces modèles, propose une analyse complète de diverses procédures d'estimation de matrices de covariance, associées à ce problème de détection. Une étude statistique des principaux estimateurs de matrice de covariance, utilisés actuellement, est réalisée. De plus, un nouvel estimateur est proposé: l'estimateur du point fixe, très attractif grâce à ses bonnes propriétés statistiques et "radaristiques".
Elle décrit également les performances et les propriétés théoriques (SIRV-CFAR) du détecteur GLRT-LQ construits avec ces nouveaux estimateurs. En particulier, on montre l'invariance du détecteur à la loi de la texture mais également à la matrice de covariance régissant les propriétés spectrales du fouillis. Ces nouveaux détecteurs sont ensuite analysés sur des données simulées mais également testés sur des données réelles de fouillis de sol.
APA, Harvard, Vancouver, ISO, and other styles
25

Grégoire, Marie-Claude. "Reconstruction d'images cardiaques dynamiques synchronisées à l'ECG par maximum de vraisemblance sur les signaux obtenus à faible taux de comptage avec une gamma-caméra." Compiègne, 1989. http://www.theses.fr/1989COMPD190.

Full text
Abstract:
Une méthode de traitement des études cardiaques dynamiques permettant la prise en compte simultanée de toutes les informations spatiales et temporelles, afin d'effectuer un lissage global, a été proposée. Elle repose sur l'utilisation de l'estimation bayésienne, introduisant une loi à priori du type loi de Gibbs. Une étude comparative sur simulations à faible taux de comptage entre cette méthode et diverses méthodes classiques a permis d'une part de révéler les avantages liés à l'utilisation de toute l'information temporelle disponible, d'autre part d'améliorer la qualité des résultats cliniques courants
To do a global smoothing, a processing technic of dynamic cardiac studies has been suggested, allowing the simultaneous integration of all the spatial and temporal informations. This technic uses a bayesian estimation, therefore introducing an a priori law of Gibbs. A comparative study was done on low-count simulations, using this method and other classical methods. It has shown the advantages of using all the available temporal informations, and has increased the quality of current clinical results
APA, Harvard, Vancouver, ISO, and other styles
26

Lemenuel-Diot, Annabelle. "Spécification des paramètres entrant dans les modèles de mélanges non linéaires à effets mixtes par approximation de la vraisemblance : application à la détection et à l'explication d'hétérogénéités dans le domaine de la Pharmacocinétique/Pharmacodynamie." Paris 6, 2005. http://www.theses.fr/2005PA066152.

Full text
APA, Harvard, Vancouver, ISO, and other styles
27

Filstroff, Louis. "Contributions to probabilistic non-negative matrix factorization - Maximum marginal likelihood estimation and Markovian temporal models." Thesis, Toulouse, INPT, 2019. http://www.theses.fr/2019INPT0143.

Full text
Abstract:
La factorisation en matrices non-négatives (NMF, de l’anglais non-negative matrix factorization) est aujourd’hui l’une des techniques de réduction de la dimensionnalité les plus répandues, dont les domaines d’application recouvrent le traitement du signal audio, l’imagerie hyperspectrale, ou encore les systèmes de recommandation. Sous sa forme la plus simple, la NMF a pour but de trouver une approximation d’une matrice des données non-négative (c’est-à-dire à coefficients positifs ou nuls) par le produit de deux matrices non-négatives, appelées les facteurs. L’une de ces matrices peut être interprétée comme un dictionnaire de motifs caractéristiques des données, et l’autre comme les coefficients d’activation de ces motifs. La recherche de cette approximation de rang faible s’effectue généralement en optimisant une mesure de similarité entre la matrice des données et son approximation. Il s’avère que pour de nombreux choix de mesures de similarité, ce problème est équivalent à l’estimation jointe des facteurs au sens du maximum de vraisemblance sous un certain modèle probabiliste décrivant les données. Cela nous amène à considérer un paradigme alternatif pour la NMF, dans lequel les taches d’apprentissage se portent sur des modèles probabilistes dont la densité d’observation est paramétrisée par le produit des facteurs non-négatifs. Ce cadre général, que nous appelons NMF probabiliste, inclut de nombreux modèles à variables latentes bien connus de la littérature, tels que certains modèles pour des données de compte. Dans cette thèse, nous nous intéressons à des modèles de NMF probabilistes particuliers pour lesquels on suppose une distribution a priori pour les coefficients d’activation, mais pas pour le dictionnaire, qui reste un paramètre déterministe. L'objectif est alors de maximiser la vraisemblance marginale de ces modèles semi-bayésiens, c’est-à-dire la vraisemblance jointe intégrée par rapport aux coefficients d’activation. Cela revient à n’apprendre que le dictionnaire, les coefficients d’activation pouvant être inférés dans un second temps si nécessaire. Nous entreprenons d’approfondir l’étude de ce processus d’estimation. En particulier, deux scénarios sont envisagées. Dans le premier, nous supposons l’indépendance des coefficients d’activation par échantillon. Des résultats expérimentaux antérieurs ont montré que les dictionnaires appris via cette approche avaient tendance à régulariser de manière automatique le nombre de composantes ; une propriété avantageuse qui n’avait pas été expliquée alors. Dans le second, nous levons cette hypothèse habituelle, et considérons des structures de Markov, introduisant ainsi de la corrélation au sein du modèle, en vue d’analyser des séries temporelles
Non-negative matrix factorization (NMF) has become a popular dimensionality reductiontechnique, and has found applications in many different fields, such as audio signal processing,hyperspectral imaging, or recommender systems. In its simplest form, NMF aims at finding anapproximation of a non-negative data matrix (i.e., with non-negative entries) as the product of twonon-negative matrices, called the factors. One of these two matrices can be interpreted as adictionary of characteristic patterns of the data, and the other one as activation coefficients ofthese patterns. This low-rank approximation is traditionally retrieved by optimizing a measure of fitbetween the data matrix and its approximation. As it turns out, for many choices of measures of fit,the problem can be shown to be equivalent to the joint maximum likelihood estimation of thefactors under a certain statistical model describing the data. This leads us to an alternativeparadigm for NMF, where the learning task revolves around probabilistic models whoseobservation density is parametrized by the product of non-negative factors. This general framework, coined probabilistic NMF, encompasses many well-known latent variable models ofthe literature, such as models for count data. In this thesis, we consider specific probabilistic NMFmodels in which a prior distribution is assumed on the activation coefficients, but the dictionary remains a deterministic variable. The objective is then to maximize the marginal likelihood in thesesemi-Bayesian NMF models, i.e., the integrated joint likelihood over the activation coefficients.This amounts to learning the dictionary only; the activation coefficients may be inferred in asecond step if necessary. We proceed to study in greater depth the properties of this estimation process. In particular, two scenarios are considered. In the first one, we assume the independence of the activation coefficients sample-wise. Previous experimental work showed that dictionarieslearned with this approach exhibited a tendency to automatically regularize the number of components, a favorable property which was left unexplained. In the second one, we lift thisstandard assumption, and consider instead Markov structures to add statistical correlation to themodel, in order to better analyze temporal data
APA, Harvard, Vancouver, ISO, and other styles
28

Sim, Tepmony. "Estimation du maximum de vraisemblance dans les modèles de Markov partiellement observés avec des applications aux séries temporelles de comptage." Thesis, Paris, ENST, 2016. http://www.theses.fr/2016ENST0020/document.

Full text
Abstract:
L'estimation du maximum de vraisemblance est une méthode répandue pour l'identification d'un modèle paramétré de série temporelle à partir d'un échantillon d'observations. Dans le cadre de modèles bien spécifiés, il est primordial d'obtenir la consistance de l'estimateur, à savoir sa convergence vers le vrai paramètre lorsque la taille de l'échantillon d'observations tend vers l'infini. Pour beaucoup de modèles de séries temporelles, par exemple les modèles de Markov cachés ou « hidden Markov models »(HMM), la propriété de consistance « forte » peut cependant être dfficile à établir. On peut alors s'intéresser à la consistance de l'estimateur du maximum de vraisemblance (EMV) dans un sens faible, c'est-à-dire que lorsque la taille de l'échantillon tend vers l'infini, l'EMV converge vers un ensemble de paramètres qui s'associent tous à la même distribution de probabilité des observations que celle du vrai paramètre. La consistance dans ce sens, qui reste une propriété privilégiée dans beaucoup d'applications de séries temporelles, est dénommée consistance de classe d'équivalence. L'obtention de la consistance de classe d'équivalence exige en général deux étapes importantes : 1) montrer que l'EMV converge vers l'ensemble qui maximise la log-vraisemblance normalisée asymptotique ; et 2) montrer que chaque paramètre dans cet ensemble produit la même distribution du processus d'observation que celle du vrai paramètre. Cette thèse a pour objet principal d'établir la consistance de classe d'équivalence des modèles de Markov partiellement observés, ou « partially observed Markov models » (PMM), comme les HMM et les modèles « observation-driven » (ODM)
Maximum likelihood estimation is a widespread method for identifying a parametrized model of a time series from a sample of observations. Under the framework of well-specified models, it is of prime interest to obtain consistency of the estimator, that is, its convergence to the true parameter as the sample size of the observations goes to infinity. For many time series models, for instance hidden Markov models (HMMs), such a “strong” consistency property can however be difficult to establish. Alternatively, one can show that the maximum likelihood estimator (MLE) is consistent in a weakened sense, that is, as the sample size goes to infinity, the MLE eventually converges to a set of parameters, all of which associate to the same probability distribution of the observations as for the true one. The consistency in this sense, which remains a preferred property in many time series applications, is referred to as equivalence-class consistency. The task of deriving such a property generally involves two important steps: 1) show that the MLE converges to the maximizing set of the asymptotic normalized loglikelihood; and 2) show that any parameter in this maximizing set yields the same distribution of the observation process as for the true parameter. In this thesis, our primary attention is to establish the equivalence-class consistency for time series models that belong to the class of partially observed Markov models (PMMs) such as HMMs and observation-driven models (ODMs)
APA, Harvard, Vancouver, ISO, and other styles
29

Sim, Tepmony. "Estimation du maximum de vraisemblance dans les modèles de Markov partiellement observés avec des applications aux séries temporelles de comptage." Electronic Thesis or Diss., Paris, ENST, 2016. http://www.theses.fr/2016ENST0020.

Full text
Abstract:
L'estimation du maximum de vraisemblance est une méthode répandue pour l'identification d'un modèle paramétré de série temporelle à partir d'un échantillon d'observations. Dans le cadre de modèles bien spécifiés, il est primordial d'obtenir la consistance de l'estimateur, à savoir sa convergence vers le vrai paramètre lorsque la taille de l'échantillon d'observations tend vers l'infini. Pour beaucoup de modèles de séries temporelles, par exemple les modèles de Markov cachés ou « hidden Markov models »(HMM), la propriété de consistance « forte » peut cependant être dfficile à établir. On peut alors s'intéresser à la consistance de l'estimateur du maximum de vraisemblance (EMV) dans un sens faible, c'est-à-dire que lorsque la taille de l'échantillon tend vers l'infini, l'EMV converge vers un ensemble de paramètres qui s'associent tous à la même distribution de probabilité des observations que celle du vrai paramètre. La consistance dans ce sens, qui reste une propriété privilégiée dans beaucoup d'applications de séries temporelles, est dénommée consistance de classe d'équivalence. L'obtention de la consistance de classe d'équivalence exige en général deux étapes importantes : 1) montrer que l'EMV converge vers l'ensemble qui maximise la log-vraisemblance normalisée asymptotique ; et 2) montrer que chaque paramètre dans cet ensemble produit la même distribution du processus d'observation que celle du vrai paramètre. Cette thèse a pour objet principal d'établir la consistance de classe d'équivalence des modèles de Markov partiellement observés, ou « partially observed Markov models » (PMM), comme les HMM et les modèles « observation-driven » (ODM)
Maximum likelihood estimation is a widespread method for identifying a parametrized model of a time series from a sample of observations. Under the framework of well-specified models, it is of prime interest to obtain consistency of the estimator, that is, its convergence to the true parameter as the sample size of the observations goes to infinity. For many time series models, for instance hidden Markov models (HMMs), such a “strong” consistency property can however be difficult to establish. Alternatively, one can show that the maximum likelihood estimator (MLE) is consistent in a weakened sense, that is, as the sample size goes to infinity, the MLE eventually converges to a set of parameters, all of which associate to the same probability distribution of the observations as for the true one. The consistency in this sense, which remains a preferred property in many time series applications, is referred to as equivalence-class consistency. The task of deriving such a property generally involves two important steps: 1) show that the MLE converges to the maximizing set of the asymptotic normalized loglikelihood; and 2) show that any parameter in this maximizing set yields the same distribution of the observation process as for the true parameter. In this thesis, our primary attention is to establish the equivalence-class consistency for time series models that belong to the class of partially observed Markov models (PMMs) such as HMMs and observation-driven models (ODMs)
APA, Harvard, Vancouver, ISO, and other styles
30

Obara, Tiphaine. "Modélisation de l’hétérogénéité tumorale par processus de branchement : cas du glioblastome." Electronic Thesis or Diss., Université de Lorraine, 2016. http://www.theses.fr/2016LORR0186.

Full text
Abstract:
Grâce aux progrès de la recherche, on sait aujourd’hui guérir près d’un cancer sur deux. Cependant, certaines tumeurs, telles que les glioblastomes restent parmi les plus agressives et les plus difficiles à traiter. La cause de cette résistance aux traitements pourrait provenir d’une sous-population de cellules ayant des caractéristiques communes aux cellules souches que l’on appelle cellules souches cancéreuses. De nombreux modèles mathématiques et numériques de croissance tumorale existent déjà mais peu tiennent compte de l’hétérogénéité intra-tumorale, qui est aujourd’hui un véritable challenge. Cette thèse s’intéresse à la dynamique des différentes sous-populations cellulaires d’un glioblastome. Elle consiste en l’élaboration d’un modèle mathématique de croissance tumorale reposant sur un processus de branchement de Bellman-Harris, à la fois multi-type et dépendant de l’âge. Ce modèle permet d’intégrer l’hétérogénéité cellulaire. Des simulations numériques reproduisent l’évolution des différents types de cellules et permettent de tester l’action de différents schémas thérapeutiques sur le développement tumoral. Une méthode d’estimation des paramètres du modèle numérique fondée sur le pseudo-maximum de vraisemblance a été adaptée. Cette approche est une alternative au maximum de vraisemblance dans le cas où la distribution de l’échantillon est inconnue. Enfin, nous présentons les expérimentations biologiques qui ont été mises en place dans le but de valider le modèle numérique
The latest advances in cancer research are paving the way to better treatments. However, some tumors such as glioblastomas remain among the most aggressive and difficult to treat. The cause of this resistance could be due to a sub-population of cells with characteristics common to stem cells. Many mathematical and numerical models on tumor growth already exist but few take into account the tumor heterogeneity. It is now a real challenge. This thesis focuses on the dynamics of different cell subpopulations in glioblastoma. It involves the development of a mathematical model of tumor growth based on a multitype, age-dependent branching process. This model allows to integrate cellular heterogeneity. Numerical simulations reproduce the evolution of different types of cells and simulate the action of several therapeutic strategies. A method of parameters estimation based on the pseudo-maximum likelihood has been developed. This approach is an alternative to the maximum likelihood in the case where the sample distribution is unknown. Finally, we present the biological experiments that have been implemented in order to validate the numerical model
APA, Harvard, Vancouver, ISO, and other styles
31

Obara, Tiphaine. "Modélisation de l’hétérogénéité tumorale par processus de branchement : cas du glioblastome." Thesis, Université de Lorraine, 2016. http://www.theses.fr/2016LORR0186/document.

Full text
Abstract:
Grâce aux progrès de la recherche, on sait aujourd’hui guérir près d’un cancer sur deux. Cependant, certaines tumeurs, telles que les glioblastomes restent parmi les plus agressives et les plus difficiles à traiter. La cause de cette résistance aux traitements pourrait provenir d’une sous-population de cellules ayant des caractéristiques communes aux cellules souches que l’on appelle cellules souches cancéreuses. De nombreux modèles mathématiques et numériques de croissance tumorale existent déjà mais peu tiennent compte de l’hétérogénéité intra-tumorale, qui est aujourd’hui un véritable challenge. Cette thèse s’intéresse à la dynamique des différentes sous-populations cellulaires d’un glioblastome. Elle consiste en l’élaboration d’un modèle mathématique de croissance tumorale reposant sur un processus de branchement de Bellman-Harris, à la fois multi-type et dépendant de l’âge. Ce modèle permet d’intégrer l’hétérogénéité cellulaire. Des simulations numériques reproduisent l’évolution des différents types de cellules et permettent de tester l’action de différents schémas thérapeutiques sur le développement tumoral. Une méthode d’estimation des paramètres du modèle numérique fondée sur le pseudo-maximum de vraisemblance a été adaptée. Cette approche est une alternative au maximum de vraisemblance dans le cas où la distribution de l’échantillon est inconnue. Enfin, nous présentons les expérimentations biologiques qui ont été mises en place dans le but de valider le modèle numérique
The latest advances in cancer research are paving the way to better treatments. However, some tumors such as glioblastomas remain among the most aggressive and difficult to treat. The cause of this resistance could be due to a sub-population of cells with characteristics common to stem cells. Many mathematical and numerical models on tumor growth already exist but few take into account the tumor heterogeneity. It is now a real challenge. This thesis focuses on the dynamics of different cell subpopulations in glioblastoma. It involves the development of a mathematical model of tumor growth based on a multitype, age-dependent branching process. This model allows to integrate cellular heterogeneity. Numerical simulations reproduce the evolution of different types of cells and simulate the action of several therapeutic strategies. A method of parameters estimation based on the pseudo-maximum likelihood has been developed. This approach is an alternative to the maximum likelihood in the case where the sample distribution is unknown. Finally, we present the biological experiments that have been implemented in order to validate the numerical model
APA, Harvard, Vancouver, ISO, and other styles
32

Jay, Sylvain. "Estimation et détection en imagerie hyperspectrale : application aux environnements côtiers." Phd thesis, Ecole centrale de Marseille, 2012. https://theses.hal.science/docs/00/78/99/45/PDF/These_jay.pdf.

Full text
Abstract:
Cette thèse aborde des problématiques d'estimation et de détection supervisée en imagerie hyperspectrale, appliquées ici aux environnements côtiers. Des modèles bathymétriques de réflectance sont utilisés afin de représenter l'influence de la colonne d'eau sur la lumière incidente. Différents paramètres sont dits optiquement actifs et agissent sur le spectre de réflectance (phytoplancton, matière organique dissoute colorée. . . ). Nous proposons d'adopter une nouvelle approche statistique pour estimer ces paramètres, traditionnellement retrouvés par inversion des modèles physiques. Différentes méthodes telles que l'estimation du maximum de vraisemblance et du maximum a posteriori, ainsi que le calcul des bornes de Cramér-Rao, sont implémentées avec succès sur les données synthétiques et réelles. Par ailleurs, nous adaptons les filtres supervisés couramment utilisés au contexte de la détection de cibles immergées. Dans le cas où les paramètres caractéristiques de la colonne d'eau sont inconnus, nous développons un nouveau filtre issu du test du rapport de vraisemblance généralisé permettant la détection sans aucune connaissance a priori sur ces paramètres
This thesis deals with estimation and supervised detection issues in hyperspectral imagery, applied in coastal environments. Bathymetric models of reflectance are used for modeling the water column influence on the incident light. Various parameters are optically active and are responsible for distorting the reflectance spectrum (phytoplankton, colored dissolved organic matter. . . ). We adopt a new statistical approach for estimating these parameters, which are usually retrieved by inverting physical models. Various methods such as maximum likelihood estimation, maximum a posteriori estimation, and Cramér-Rao bound calculation, are successfully implemented on simulated and real data. Moreover, we adapt the frequently used supervised detectors to the underwater target detection context. If some parameters describing the water column influence are unknown, we propose a new filter, based on the generalized likelihood ratio test, and that enables the detection without any a priori knowledge on these parameters
APA, Harvard, Vancouver, ISO, and other styles
33

Jay, Sylvain. "Estimation et détection en imagerie hyperspectrale : application aux environnements côtiers." Phd thesis, Ecole centrale de Marseille, 2012. http://tel.archives-ouvertes.fr/tel-00789945.

Full text
Abstract:
Cette thèse aborde des problématiques d'estimation et de détection supervisée en imagerie hyperspectrale, appliquées ici aux environnements côtiers. Des modèles bathymétriques de réflectance sont utilisés afin de représenter l'influence de la colonne d'eau sur la lumière incidente. Différents paramètres sont dits optiquement actifs et agissent sur le spectre de réflectance (phytoplancton, matière organique dissoute colorée...). Nous proposons d'adopter une nouvelle approche statistique pour estimer ces paramètres, traditionnellement retrouvés par inversion des modèles physiques. Différentes méthodes telles que l'estimation du maximum de vraisemblance et du maximum a posteriori, ainsi que le calcul des bornes de Cramér-Rao, sont implémentées avec succès sur les données synthétiques et réelles. Par ailleurs, nous adaptons les filtres supervisés couramment utilisés au contexte de la détection de cibles immergées. Dans le cas où les paramètres caractéristiques de la colonne d'eau sont inconnus, nous développons un nouveau filtre issu du test du rapport de vraisemblance généralisé permettant la détection sans aucune connaissance a priori sur ces paramètres.
APA, Harvard, Vancouver, ISO, and other styles
34

Pujol, Nicolas. "Développement d’approches régionales et multivariées pour la détection de non stationnarités d’extrêmes climatiques. Applications aux précipitations du pourtour méditerranéen français." Montpellier 2, 2008. http://www.theses.fr/2008MON20090.

Full text
Abstract:
Parallèlement au contexte du réchauffement climatique, la vulnérabilité face aux événements hydrologiques extrêmes est en constante augmentation, notamment en France. Si l'effet du changement climatique sur les températures maximales est avéré, son impact sur le régime des pluies fortes n'est pas établi, et l'on s'interroge, depuis quelques années, sur la perception d'une recrudescence des événements extrêmes : urbanisation mal maîtrisée, surmédiatisation ou changement climatique ? Dans ce contexte, l'objectif de cette thèse est double. Premièrement, mettre au point des outils statistiques permettant l'étude régionale de la stationnarité des extrêmes climatiques. En effet, le changement climatique est un phénomène à grande échelle qui devrait avoir un impact à l'échelle régionale. Deuxièmement, étudier la stationnarité des précipitations méditerranéennes intenses. Deux approches sont ici proposées. La première permet de mettre en évidence des changements locaux significatifs à l'échelle régionale. La deuxième consiste à rechercher une tendance régionale qui soit commune à l'ensemble des stations d'une même zone. Cette deuxième méthode est basée sur l'utilisation de copules multivariées qui permettent de prendre en compte formellement la dépendance spatiale des données. L'estimation par maximum de vraisemblance est alors réalisée via les algorithmes génétiques. Ainsi, 92 séries de précipitations du pourtour méditerranéen français sont examinées. Une tendance à la hausse des maxima annuels est observée sur une bande méridienne allant de l'Ariège à la Corrèze, mais également dans le Massif Central, les Cévennes et les montagnes du Roussillon
At the same time as the global warming context, the vulnerability in front of extreme hydrological events is in constant increase, notably in France. If the effect of the climate change on the maximal temperatures is turned out, its impact on the regime of strong rains is not established, and we wonder, for some years, about the perception of an increasing number of extreme events: badly mastered urbanization, excessive media coverage or climate change? In this context, the objective of this thesis is double. In the first place, to define statistical tools allowing the regional study of the stationnarity of climatic extremes. Indeed, the climate change is a large-scale phenomenon which should have an impact at the regional scale. Secondly, to study the stationnarity of the intense Mediterranean precipitations. Two approaches are proposed here. The first one allows to detect significant local changes at the regional scale. The second consists in looking for a regional tendency which is common to all the stations of a same zone. This second method is based on the use of multivariate copula which allow to take formally into account the spatial dependence of the data. The estimation by maximum likelihood method is then realized via the genetic algorithms. So, 92 precipitation series of the French Mediterranean region are examined. An increase of annual maxima is observed on a meridian band going from the Ariège to the Corrèze, and also in the Massif Central, Cevennes and the mountains of Roussillon
APA, Harvard, Vancouver, ISO, and other styles
35

Zaïdi, Abdelhamid. "Séparation aveugle d'un mélange instantané de sources autorégressives gaussiennes par la méthode du maximum de vraissemblance exact." Université Joseph Fourier (Grenoble), 2000. http://www.theses.fr/2000GRE10233.

Full text
Abstract:
Cette these est consacree a l'etude du probleme de la separation aveugle d'un melange instantane de sources gaussiennes autoregressives, sans bruit additif, par la methode du maximum de vraisemblance exact. La maximisation de la vraisemblance est decomposee, par relaxation, en deux sous-problemes d'optimisation, egalement traites par des techniques de relaxation. Le premier consiste en l'estimation de la matrice de separation a structure autoregressive des sources fixee. Le second est d'estimer cette structure lorsque la matrice de separation est fixee. Le premier probleme est equivalent a la maximisation du determinant de la matrice de separation sous contraintes non lineaires. Nous donnons un algorithme de calcul de la solution de ce probleme pour lequel nous precisons les conditions de convergence. Nous montrons l'existence de l'estimateur du maximum de vraisemblance dont nous prouvons la consistance. Nous determinons egalement la matrice d'information de fisher relative au parametre global et nous proposons un indice pour mesurer les performances des methodes de separation. Puis nous analysons, par simulation, les performances de l'estimateur ainsi defini et nous montrons l'amelioration qu'il apporte a la procedure de quasi-maximum de vraisemblance ainsi qu'aux autres methodes du second ordre.
APA, Harvard, Vancouver, ISO, and other styles
36

Dib, Stephanie. "Distribution de la non-linéarité des fonctions booléennes." Thesis, Aix-Marseille, 2013. http://www.theses.fr/2013AIXM4090/document.

Full text
Abstract:
Parmi les différents critères qu'une fonction booléenne doit satisfaire en cryptographie, on s'intéresse à la non-linéarité. Pour une fonction booléenne donnée, cette notion mesure la distance de Hamming qui la sépare des fonctions de degré au plus 1. C'est un critère naturel pour évaluer la complexité d'une fonction cryptographique, celle-ci ne devant pas admettreune approximation qui soit simple, comme par une fonction de degré 1, ou plus généralement une fonction de bas degré. Ainsi, il est important de considérer plus généralement, la non-linéarité d'ordre supérieur, qui pour un ordre donné r, mesure la distance d'une fonction donnée à l'ensemble des fonctions de degré au plus r. Cette notion est également importante pour les fonctions vectorielles, i.e., celles à plusieurs sorties. Quand le nombre de variables est grand, presque toutes les fonctions ont une non-linéarité (d'ordre 1) voisine d'une certaine valeur, assez élevée. Dans un premier travail, on étend ce résultat à l'ordre 2. Cette méthode qui consiste à observer comment les boules de Hamming recouvrent l'hypercube des fonctions booléennes, nous conduit naturellement vers une borne de décodage théorique des codes de Reed-Muller d'ordre 1, coïncidant au même endroit où se concentre la non-linéarité de presque toutes les fonctions ; une approche nouvelle pour un résultat pas entièrement nouveau. On étudie aussi la non-linéarité des fonctions vectorielles. On montre avec une approche différente, que le comportement asymptotique est le même que celui des fonctions booléennes: une concentration de la non-linéarité autour d'une valeur assez élevée
Among the different criteria that a Boolean function must satisfy in symmetric cryptography, we focus on the nonlinearity of these. This notion measures the Hamming distance between a given function and the set of functions with degree at most 1. It is a natural criterion to evaluate the complexity of a cryptographic function that must not have a simple approximation as by a function of degree 1, or more generally, a function of low degree. Hence, it is important to consider the higher order nonlinearity, which for a given order r, measures the distance between a given function and the set of all functions of degree at most r. This notion is equally important for multi-output Boolean functions. When the number of variables is large enough, almost all Boolean functions have nonlinearities lying in a small neighbourhood of a certain high value. We prove that this fact holds when considering the second-order nonlinearity. Our method which consists in observing how the Hamming balls pack the hypercube of Boolean functions led quite naturally to a theoretical decoding bound for the first-order Reed-Muller code, coinciding with the concentration point of the nonlinearity of almost all functions. This was a new approach for a result which is not entirely new. We also studied the nonlinearity of multi-output functions. We proved with a different approach, that the asymptotic behaviour of multi-output functions is the same as the single-output ones: a concentration of the nonlinearity around a certain large value
APA, Harvard, Vancouver, ISO, and other styles
37

Presles, Benoit. "Caractérisation géométrique et morphométrique 3-D par analyse d'image 2-D de distributions dynamiques de particules convexes anisotropes. Application aux processus de cristallisation." Phd thesis, Ecole Nationale Supérieure des Mines de Saint-Etienne, 2011. http://tel.archives-ouvertes.fr/tel-00782471.

Full text
Abstract:
La cristallisation en solution est un procédé largement utilisé dans l'industrie comme opération de séparation et de purification qui a pour but de produire des solides avec des propriétés spécifiques. Les propriétés concernant la taille et la forme ont un impact considérable sur la qualité finale des produits. Il est donc primordial de pouvoir déterminer la distribution granulométrique (DG) des cristaux en formation. En utilisant une caméra in situ, il est possible de visualiser en temps réel les projections 2D des particules 3D présentes dans la suspension. La projection d'un objet 3D sur un plan 2D entraîne nécessairement une perte d'informations : déterminer sa taille et sa forme à partir de ses projections 2D n'est donc pas aisé. C'est tout l'enjeu de ce travail: caractériser géométriquement et morphométriquement des objets 3D à partir de leurs projections 2D. Tout d'abord, une méthode basée sur le maximum de vraisemblance des fonctions de densité de probabilité de mesures géométriques projetées a été développée pour déterminer la taille d'objets 3D convexes. Ensuite, un descripteur de forme stéréologique basé sur les diagrammes de forme a été proposé. Il permet de caractériser la forme d'un objet 3D convexe indépendamment de sa taille et a notamment été utilisé pour déterminer les facteurs d'anisotropie des objets 3D convexes considérés. Enfin, une combinaison des deux études précédentes a permis d'estimer à la fois la taille et la forme des objets 3D convexes. Cette méthode a été validée grâce à des simulations, comparée à une méthode de la littérature et utilisée pour estimer des DGs d'oxalate d'ammonium qui ont été comparées à d'autres méthodes granulométriques.
APA, Harvard, Vancouver, ISO, and other styles
38

Estève, Loïc. "Etude de la violation de symétrie CP à l'aide du canal de désintégration B0→rho0rho0 dans l'expérience BABAR." Paris 6, 2008. https://tel.archives-ouvertes.fr/tel-00444148.

Full text
Abstract:
Les mesures dans le canal B0->rho0rho0 permettent de réaliser pour la première fois une analyse d'isospin complète dans les modes B->rhorho et ainsi de contraindre directement l'angle alpha du triange d'unitarite, en s'affranchissant des contributions mal connues des diagrammes pingouins. Le rapport d'embranchement du mode B0->rho0rho0 a été mesuré BR=0. 92±0. 32±0. 14 10^{-6} ainsi que la fraction de polarisationlongitudinale fL= 0. 75+0. 11-0. 14±0. 03. La signifiance du signal B0->rho0rho0 est de 3. 1 sigma en prenant en compte les erreurs systématiques. Les paramètres de violation CP de la composante longitudinale ont également été mesurés: S^{00}_L = 0. 3±0. 7±0. 2, C^{00}_L = 0. 2±0. 8±0. 2. L'implication de ces résultats sur l'angle alpha du triangle d'unitarité a été étudiée à l'aide d'une analyse d'isospin. La limite supérieure à 68% (90%) sur le décalage induit par les diagrammes pingouins est donnée par: |alpha-alphaeff|<15. 6° (<17. 6°)
APA, Harvard, Vancouver, ISO, and other styles
39

Presles, Benoît. "Caractérisation géométrique et morphométrique 3-D par analyse d'image 2-D de distributions dynamiques de particules convexes anisotropes. Application aux processus de cristallisation." Thesis, Saint-Etienne, EMSE, 2011. http://www.theses.fr/2011EMSE0632/document.

Full text
Abstract:
La cristallisation en solution est un procédé largement utilisé dans l'industrie comme opération de séparation et de purification qui a pour but de produire des solides avec des propriétés spécifiques. Les propriétés concernant la taille et la forme ont un impact considérable sur la qualité finale des produits. Il est donc primordial de pouvoir déterminer la distribution granulométrique (DG) des cristaux en formation. En utilisant une caméra in situ, il est possible de visualiser en temps réel les projections 2D des particules 3D présentes dans la suspension. La projection d'un objet 3D sur un plan 2D entraîne nécessairement une perte d'informations : déterminer sa taille et sa forme à partir de ses projections 2D n’est donc pas aisé. C'est tout l'enjeu de ce travail: caractériser géométriquement et morphométriquement des objets 3D à partir de leurs projections 2D. Tout d'abord, une méthode basée sur le maximum de vraisemblance des fonctions de densité de probabilité de mesures géométriques projetées a été développée pour déterminer la taille d'objets 3D convexes. Ensuite, un descripteur de forme stéréologique basé sur les diagrammes de forme a été proposé. Il permet de caractériser la forme d'un objet 3D convexe indépendamment de sa taille et a notamment été utilisé pour déterminer les facteurs d'anisotropie des objets 3D convexes considérés. Enfin, une combinaison des deux études précédentes a permis d'estimer à la fois la taille et la forme des objets 3D convexes. Cette méthode a été validée grâce à des simulations, comparée à une méthode de la littérature et utilisée pour estimer des DGs d'oxalate d'ammonium qui ont été comparées à d’autres méthodes granulométriques
Solution crystallization processes are widely used in the process industry as separation and purification operations and are expected to produce solids with desirable properties. The properties concerning the size and the shape are known to have a considerable impact on the final quality of products. Hence, it is of main importance to be able to determine the granulometry of the crystals (CSD) in formation. By using an in situ camera, it is possible to visualize in real time the 2D projections of the 3D particles in the suspension.The projection of a 3D object on a 2D plane necessarily involves a loss of information. Determining the size and the shape of a 3D object from its 2D projections is therefore not easy. This is the main goal of this work: to characterize geometrically and morphometrically 3D objects from their 2D projections. First of all, a method based on the maximum likelihood estimation of the probability density functions of projected geometrical measurements has been developed to estimate the size of 3D convex objects. Then, a stereological shape descriptor based on shape diagrams has been proposed. It enables to characterize the shape of a 3D convex object independently of its size and has notably been used to estimate the value of the anisotropy factors of the 3D convex objects. At last, a combination of the two previous studies has allowed to estimate both the size and the shape of the 3D convex objects. This method has been validated with simulated data, has been compared to a method from the literature and has been used to estimate size distributions of ammonium oxalate particles crystallizing in water that have been compared to other CSD methods
APA, Harvard, Vancouver, ISO, and other styles
40

Trachi, Youness. "On induction machine faults detection using advanced parametric signal processing techniques." Thesis, Brest, 2017. http://www.theses.fr/2017BRES0103/document.

Full text
Abstract:
L’objectif de ces travaux de thèse est de développer des architectures fiables de surveillance et de détection des défauts d’une machine asynchrone basées sur des techniques paramétriques de traitement du signal. Pour analyser et détecter les défauts, un modèle paramétrique du courant statorique en environnement stationnaire est proposé. Il est supposé être constitué de plusieurs sinusoïdes avec des paramètres inconnus dans le bruit. Les paramètres de ce modèle sont estimés à l’aide des techniques paramétriques telles que les estimateurs spectraux de type sous-espaces (MUSIC et ESPRIT) et l’estimateur du maximum de vraisemblance. Un critère de sévérité des défauts, basé sur l’estimation des amplitudes des composantes fréquentielles du courant statorique, est aussi proposé pour évaluer le niveau de défaillance de la machine. Un nouveau détecteur des défauts est aussi proposé en utilisant la théorie de détection. Il est principalement basé sur le test du rapport de vraisemblance généralisé avec un signal et un bruit à paramètres inconnus. Enfin, les techniques paramétriques proposées ont été évaluées à l’aide de signaux de courant statoriques expérimentaux de machines asynchrones en considérant les défauts de roulements et les ruptures de barres rotoriques. L’analyse des résultats expérimentaux montre clairement l’efficacité et la capacité de détection des techniques paramétriques proposées
This Ph.D. thesis aims to develop reliable and cost-effective condition monitoring and faults detection architectures for induction machines. These architectures are mainly based on advanced parametric signal processing techniques. To analyze and detect faults, a parametric stator current model under stationary conditions has been considered. It is assumed to be multiple sinusoids with unknown parameters in noise. This model has been estimated using parametric techniques such as subspace spectral estimators and maximum likelihood estimator. A fault severity criterion based on the estimation of the stator current frequency component amplitudes has also been proposed to determine the induction machine failure level. A novel faults detector based on hypothesis testing has been also proposed. This detector is mainly based on the generalized likelihood ratio test detector with unknown signal and noise parameters. The proposed parametric techniques have been evaluated using experimental stator current signals issued from induction machines under two considered faults: bearing and broken rotor bars faults.Experimental results show the effectiveness and the detection ability of the proposed parametric techniques
APA, Harvard, Vancouver, ISO, and other styles
41

Allouche, Tahar. "Epistemic Approval Voting : Applications to Crowdsourcing Data Labeling." Electronic Thesis or Diss., Université Paris sciences et lettres, 2022. http://www.theses.fr/2022UPSLD056.

Full text
Abstract:
Dans le vote par approbation épistémique, les agents sont confrontés à une question comportant plusieurs alternatives et une vérité objective cachée. Les votants sélectionnent les alternatives qui, suivant leurs croyances, peuvent correspondre à la vérité. Les croyances des votants sont agrégées pour estimer cette vérité. D’abord, nous considérons le cas où une seule alternative est correcte. Nous recommandons des règles d’agrégation qui attribuent plus de poids aux votants ayant sélectionné peu d’alternatives, car ils ont tendance à être plus précis. Il en découle de nouvelles méthodes fondées sur des résultats théoriques et validées par des expériences numériques. Ensuite, nous considérons le cas où la vérité est constituée de plusieurs alternatives (les notes d’un accord, les meilleurs candidats.). La taille de la sortie dans de telles situations peut être connue au préalable ou limitée par une contrainte exogène. Nous proposons des solutions adaptées à chacun de ces deux cas
In epistemic approval voting, there is a hidden ground truth, and voters select the alternatives which, according to their beliefs, can correspond to the ground truth. These votes are then aggregated to estimate it. We first focus on tracking a simple truth, where exactly one alternative is correct. We advocate using aggregation rules that assign more weight to voters who select fewer alternatives, as they tend to be more accurate. This yields novel methods backed by theoretical results and experiments on image annotation datasets. Second, we consider cases where the ground truth contains multiple alternatives (e.g., notes in a chord, objectively best applicants). The size of the output can be either a prior knowledge on the number of true alternatives, or an exogenous constraint bearing on the output of the rule regardless ofthe true size of the ground truth. We propose suitable solution concepts for each of these two interpretations
APA, Harvard, Vancouver, ISO, and other styles
42

Queguiner, Emeline. "Analysis of the data of the EDELWEISS-LT experiment searching for low-mass WIMP." Thesis, Lyon, 2018. http://www.theses.fr/2018LYSE1196/document.

Full text
Abstract:
De nombreuses observations astrophysiques et cosmologiques tendent à prouver que la matière ordinaire (dite baryonique) ne constituerait qu'environ 5 % du contenu énergétique de l'Univers. Les principales composantes de celui-ci seraient l'énergie noire (à 70 %) ainsi que la matière noire (à 25 %). Cette dernière serait invisible et seuls ses effets gravitationnels traduiraient sa présence dans l'Univers. Plusieurs particules, regroupées sous le terme générique de WIMP (Weakly Interacting Massive Particles), pourraient correspondre à cette théorie et sont activement recherchées. Plusieurs dispositifs expérimentaux ont été développés dans ce but et s'appuyent sur les stratégies suivantes : la production de ces particules au sein de collisionneurs, l'observation de particules produites via l'annihilation de WIMP ou encore la détection directe de ces particules via leur interaction avec le noyau des atomes constitutifs d'un détecteur. C'est sur cette dernière méthode que s'appuie l'expérience EDELWEISS. Il s'agit d'une expérience de détection directe de matière noire dédiée à la recherche de WIMP de masse comprise entre 1 GeV et 1 TeV. Son but premier est de détecter les reculs nucléaires induits par la diffusion élastique de particule de matière noire dans les détecteurs. Les taux d'événements attendus < 10 /(kg.an) étant de plusieurs ordres de grandeur inférieurs à ceux induits par la radioactivité ambiante, une double mesure de l'ionisation et de la chaleur est employée pour discriminer les reculs électroniques induits par les bruits de fonds β et γ des reculs nucléaires induits par les WIMPs. De plus, l'expérience a été placée en site souterrain pour se prémunir des rayonnements cosmiques, induisant des événements dans les détecteurs. Ceux utilisés par l'expérience sont des bolomètres en germanium, appelés FID, refroidis à des températures cryogéniques (18 mK) et opérant à bas champ (1 V/cm). Depuis 2015, la nouvelle stratégie de l'expérience consiste à se focaliser sur les WIMPs de masse inférieure à 10 GeV, zone de recherche privilégiée pour les expériences utilisant des détecteurs cryogéniques. Le fonctionnement de l'expérience a donc été amélioré afin d'atteindre cet objectif.Le but de cette thèse consiste à analyser les campagnes de données de l'expérience, effectuées en 2015 et 2016. Celles-ci utilisaient les détecteurs FID soumis à un champ électrique plus important que précédemment afin d'améliorer leur sensibilité. La limite extraite à partir de ces données s'appuie sur la statistique de Poisson et a permis de mettre en évidence que le bruit de fond dominant de l'expérience à basse énergie impacte grandement les résultats. C'est pourquoi une étude de ces événements, appelés heat-only, a été réalisée. Ceux-ci se caractérisent par une élévation de chaleur vue par les senseurs thermiques sans que les électrodes du détecteur ne mesurent d'ionisation en son sein. Une étude de ce bruit de fond a été réalisée et a permis de mettre en évidence la possibilité de modéliser ces événements. Suite à ces résultats, une analyse par maximum de vraisemblance a été construite. Cette méthode d'analyse permet de soustraire de manière statistique les bruits de fond de l'expérience grâce à leurs spectres en énergie différents de ceux attendus pour un signal de matière noire. De cette façon, une limite sur la section efficace des WIMP a été calculée en utilisant pour la première fois des détecteurs FID soumis à des champs électriques supérieurs aux valeurs utilisées jusqu'à présent
Many astrophysical and cosmological observations lead to postulate the existence of an unknown matter, called dark matter. Ordinary matter can explain only 5 % of the energy content of the Universe : the main components would be the dark energy (70 %) and dark matter (25 %). This latter is invisible and manifest itself only via its gravitational effects. Several particles, grouped under the generic term of WIMP (Weakly Interacting Massive Particles), could correspond to this theory and are actively searched. Many experiments have been developed for this purpose and are based on three strategies: the production of these particles with colliders, the observation of the particles produced by their annihilation in astrophysical objects or the direct detection of these particles via their interaction with the nucleus of the atoms constituent of a detector. It is on this last method that the EDELWEISS experiment is based. It is a dark matter direct detection experiment dedicated to the search for WIMP with masses between 1 GeV and 1 TeV. Its primary purpose is to detect nuclear recoils induced by elastic scattering of dark matter particles in detectors. Since the expected event rates < 10 /(kg.year) are several orders of magnitude lower than those induced by ambient radioactivity, a double measurement of ionization and heat is used to discriminate electron-induced recoils arising from β and γ interactions from WIMP-induced nuclear recoils. In addition, the experiment was placed underground to guard against cosmic radiation, inducing events in the detectors. These are germanium bolometers, called FID, cooled to cryogenic temperatures (18 mK) and operating at low field (1 V/cm). Since 2015, the new strategy of the experiment consists of focusing on WIMPs with mass below 10 GeV, an interessant research area where experiments using cryogenic detectors can exploit their ability to operate with experimental thresholds well below 1 keV. The operation of the experiment has been improved to achieve this goal. The aim of this thesis is to analyze the data set recorded by EDELWEISS in 2015 and 2016. These used the FID detectors subjected to a greater electric field than previously to improve their sensitivity. It is expected that the limit on the spin-independent WIMP-nucleon crosssection extracted from these data will be greatly impacted by a dominant background, called heat-only events. That is why they are studied in detail in this work. They are characterized by a rise in heat seen by thermal sensors without any ionization signal on the collecting electrodes. This study resulted in to highlight a model for these events that can be used in the WIMP search analyses. Following these results, a maximum likelihood analysis was constructed. This method of analysis makes it possible to statistically subtract the background noise from the experiment by exploiting the difference between the energy spectra of signal and backgrounds. In this way, limits on the spin-independent WIMP-nucleon cross-section are obtained. They will be compared to the results of other experiments
APA, Harvard, Vancouver, ISO, and other styles
43

Fréret, Sandy. "Essais empiriques sur l'existence d'interactions horizontales en termes de dépenses publiques." Phd thesis, Université Rennes 1, 2008. http://tel.archives-ouvertes.fr/tel-00354575.

Full text
Abstract:
Cette thèse étend l'examen des interactions horizontales aux dépenses publiques. La littérature existante réduit, en effet, l'espace des instruments stratégiques des entités locales au seul taux de taxe. Après examen du processus de décentralisation et des compétences afférentes à chaque échelon de collectivités territoriales, l'analyse retient les dépenses publiques d'action sociale des départements français sur la période 1992 à 2005. Les résultats économétriques confirment la présence d'interactions horizontales qui persistent sur données de panel, cadre minimisant les biais de variables omises présents en coupe transversale (via l'introduction d'effets fixes individuels et temporels). Ces interactions apparaissent au travers d'un comportement mimétique des départements sur leurs dépenses d'action sociale (en coupe transversale et sur données de panel l'élasticité est respectivement égale à 0,35 et 0,11). L'extension de l'estimation par le maximum de vraisemblance au cas des panels spatiaux permet enfin de tester l'existence d'une concurrence politique par comparaison. La théorie prédit une diminution de l'ampleur des interactions horizontales lorsque le décideur local fait face à un contexte politique " favorable ". L'examen empirique valide également l'existence de telles interactions basées sur des considérations électorales avec des coefficients d'interaction qui diffèrent significativement selon le contexte politique.
APA, Harvard, Vancouver, ISO, and other styles
44

Papakonstantinou, Konstantinos. "Les applications du traitement du signal statistique à la localisation mobile." Paris, Télécom ParisTech, 2010. http://www.theses.fr/2010ENST0041.

Full text
Abstract:
Dans ce travail nous attaquons au problème de l’estimation de la position d’une station mobile (SM) dans un environnement NLoS. Les méthodes de localisation traditionnelles sont des processus en deux étapes: dans la première étape un ensemble de paramètres qui dépendent de la position du MT (LDP) est estimé. Dans la deuxième étape, la position de la SM est estimée en etrouvant la position qui correspondrait le plus aux paramètres LDP. Nous avons développé un algorithme (4D Unitary ESPRIT) d’estimation de LDP des composantes multi-trajets (MPC), à haute résolution et à faible complexité, pour les systèmes MIMO-OFDM. Pour la deuxième étape de localisation, nous avons développé plusieurs méthodes hybrides. En general, le problème de localisation NLoS n’est toujours pas résolu provient de la difficulté à faire correspondre des estimations de LDP à une position du MT unique. C’est pourquoi nous utilisons le modèle à rebond unique (SBM) ou le modèle SBM dynamique. Les deux avantages énormes des méthodes basées sur le (D)SBM sont la possibilité d’identification même lorsque les estimations des LDP ne sont disponibles que pour 2 MPC et la performance remarquable pour les cas où le canal est plus riche. Enfin, nous avons développé une méthode directe d’estimation de position (DLE) pour les systèmes MIMO-OFDM qui opèrent dans les environnements NLoS. Le DLE estime la position de la SM directement à partir du signal reçu. Une meilleure précision est constatée pour des rapports signal sur bruit faibles à moyens et/ou pour un petit nombre d’échantillons, comme le démontrent nos résultats
In this work we attack the problem of mobile terminal (MT) location estimation in NLoS environments. Traditional localization methods are 2-step processes: In the 1st step a set of location-dependent parameters (LDP) is estimated. In the 2nd step, the MT location is estimated by finding the position that best fits the LDP estimates. For the 1st step we have developed a high-resolution low-complexity LDP estimation algorithm (4D Unitary ESPRIT) for MIMO-OFDM systems, to estimate the angles of arrival (AoA), the angles of departure (AoD), the delays (ToA) and the Doppler shifts (DS) of the multipath components (MPC). As far as the second step of localization is concerned, we developed several hybrid methods applicable to NLoS environments. In the NLoS localization problem, mapping the LDP estimates to the location of the MT is not trivial. To this end, we utilize static and dynamic geometrical channel models (eg. SBM). The 2 great advantages of the SBM-based methods are the identifiability even for cases when LDP estimates are available for only 2 MPC and the remarkable performance for cases when the channel is richer. Due to these great advantages, we consider SBM-based methods to be an appealing solution for the NLoS localization problem. Moreover, we have developed a direct location estimation (DLE) method for MIMO-OFDM systems. In contrast to traditional methods, DLE estimates the MT location directly from the received signal. Its main advantage is the enhanced accuracy at low to medium signal-to-noise ratio (SNR) and/or with small number of data samples, as demonstrated by our results
APA, Harvard, Vancouver, ISO, and other styles
45

Avilès, Cruz Carlos. "Analyse de texture par statistiques d'ordre superieur : caracterisation et performances." Grenoble INPG, 1997. http://www.theses.fr/1997INPG0001.

Full text
Abstract:
Dans le cadre statistique, chercher a classer et a segmenter des textures a grain fin, c'est souvent utiliser des statistiques d'ordre un et d'ordre deux mais parfois ceux-ci sont insuffisantes. Une autre alternative est d'utiliser les statistiques d'ordre superieur, plus particulierement les moments d'ordre trois et d'ordre quatre. Dans ce travail, on met en place une methodologie d'experimentation ayant pour but de faire de la classification et de la segmentation de micro-textures, a l'aide de ces statistiques d'ordre trois et quatre. Deux methodes pour la classification et la segmentation de micro-textures sont mise en place, d'une part une methode supervisee et d'autre part une methode non supervisee. Cette derniere est basee sur l'algorithme em. Du fait de la redondance importante d'information sous-jacente aux moments statistiques, des methodes de reduction et de selection de dimension sont testees. D'une part, pour la reduction de dimension on a utilise l'analyse en composantes principales (acp) et l'analyse en composantes curvilignes (acc). D'autre part, pour la selection d'attributs la methode branch and bound a ete utilisee. Ces methodes ont ete explorees sur les attributs statistiques afin d'utiliser les plus discriminants soit dans l'espace original, soit dans un espace de projection. Puisqu'aucune famille de parametres prise isolement (statistique d'ordre un, deux, trois et quatre) ne suffit pour faire la discrimination d'une large gamme de textures, on est oblige de faire leur mise en cooperation via la fusion de donnees, fournissant une solution performante en reconnaissance.
APA, Harvard, Vancouver, ISO, and other styles
46

Poss, Stèphane. "Étalonnage de l'algorithme d'étiquetage de la saveur par la mesure de sin (2b) dans LHCb." Phd thesis, Université de la Méditerranée - Aix-Marseille II, 2009. http://tel.archives-ouvertes.fr/tel-00430205.

Full text
Abstract:
L'objectif de la thèse est de proposer une procédure pour l'étalonnage de l'algorithme d'étiquetage de la saveur de l'expérience LHCb. Cet algorithme est fondamental pour de nombreuses mesures de paramètre de la violation de la symétrie CP. La mesure de référence est celle de sin(2b) car ce paramètre est très bien connu. Dans la première partie de ce document, nous présentons le cadre théorique du travail, avec une présentation de l'origine des observables de violation de la symétrie CP dans le Modèle Standard de la physique des particules. La deuxième partie présente le détecteur LHCb, avec une revue de ses sousdétecteurs. La troisième partie montre l'algorithme d'étiquetage de la saveur, avec une présentation des estimateurs choisis, ainsi que la procédure d'optimisation utilisée. Cette partie donne enfin les performances attendues. Le chapitre suivant présente l'étude de la sélection d'un canal de contrôle utilisé pour l'optimisation de l'algorithme. La cinquième partie présente la procédure d'extraction de la fraction de mauvais étiquetage depuis un autre canal de contrôle. Cette fraction de mauvais étiquetage est un paramètre fondamental de l'algorithme. Enfin, le dernier chapitre montre comment cette fraction de mauvais étiquetage est utilisée dans la mesure de sin(2b), et quels sont les conséquences d'une erreur sur cette fraction. On montre qu'avec une année de prise de données, la sensibilité à sin(2b) est suffisante pour contrôler l'algorithme. Mots clés : étalonnage, étiquetage de la saveur, LHCb, fraction de mauvqais étiquetage, violation de la symétrie CP, sin(2b), maximum de vraisemblance
APA, Harvard, Vancouver, ISO, and other styles
47

Bachoc, François. "Estimation paramétrique de la fonction de covariance dans le modèle de Krigeage par processus Gaussiens : application à la quantification des incertitudes en simulation numérique." Phd thesis, Paris 7, 2013. http://www.theses.fr/2013PA077111.

Full text
Abstract:
L'estimation paramétrique de la fonction de covariance d'un processus Gaussien est étudiée, dans le cadre du modèle de Krigeage. Les estimateurs par Maximum de Vraisemblance et Validation Croisée sont considérés. Le cas correctement spécifié, dans lequel la fonction de covariance du processus Gaussien appartient à l'ensemble paramétrique de fonctions de covariance, est d'abord traité dans un cadre asymptotique par expansion. Le plan d'expériences considéré est une grille régulière multidimensionnelle perturbée aléatoirement. Un résultat de consistance et de normalité asymptotique est montré pour les deux estimateurs. Il est ensuite mis en évidence que des amplitudes de perturbation importantes sont toujours préférables pour l'estimation par Maximum de Vraisemblance. Le cas incorrectement spécifié, dans lequel l'ensemble paramétrique utilisé pour l'estimation ne contient pas la fonction de covariance du processus Gaussien, est ensuite étudié. Il est montré que la Validation Croisée est alors plus robuste que le Maximum de Vraisemblance. Enfin, deux applications du modèle de Krigeage par processus Gaussiens sont effectuées sur des données industrielles. Pour un problème de validation du modèle de frottement pariétal du code de thermohydraulique FLICA 4, en présence de résultats expérimentaux, il est montré que la modélisation par processus Gaussiens de l'erreur de modèle du code FLICA 4 permet d'améliorer considérablement ses prédictions. Enfin, pour un problème de métamodélisation du code de thermomécanique GERMINAL, l'intérêt du modèle de Krigeage par processus Gaussiens, par rapport à des méthodes par réseaux de neurones, est montré
The parametric estimation of the covariance function of a Gaussian process is studied, in the framework of the Kriging model. Maximum Likelihood and Cross Validation estimators are considered. The correctly specified case, in which the covariance function of the Gaussian process does belong to the parametric set used for estimation, is first studied in an increasing-domain asymptotic framework. The sampling considered is a randomly perturbed multidimensional regular grid. Consistency and asymptotic normality are proved for the estimators. It is then put into evidence that strong perturbations of the regular grid are always beneficial to Maximum Likelihood estimation. The incorrectly specified case, in which the covariance function of the Gaussian process does not belong to the parametric set used for estimation, is then studied. It is shown that Cross Validation is more robust than Maximum Likelihood in this case. Finally, two applications of the Kriging model with Gaussian processes are carried out on industrial data. For a validation problem of the friction model of the thermal-hydraulic code FLICA 4, where experimental results are available, it is shown that Gaussian process modeling of the FLICA 4 code model error enables to considerably improve its predictions. Finally, for a metamodeling problem of the GERMINAL thermal-mechanical code, the interest of the Kriging model with Gaussian processes, compared to neural network methods, is shown
APA, Harvard, Vancouver, ISO, and other styles
48

Bachoc, François. "Estimation paramétrique de la fonction de covariance dans le modèle de Krigeage par processus Gaussiens : application à la quantification des incertitudes en simulation numérique." Phd thesis, Université Paris-Diderot - Paris VII, 2013. http://tel.archives-ouvertes.fr/tel-00881002.

Full text
Abstract:
L'estimation paramétrique de la fonction de covariance d'un processus Gaussien est étudiée, dans le cadre du modèle de Krigeage. Les estimateurs par Maximum de Vraisemblance et Validation Croisée sont considérés. Le cas correctement spécifié, dans lequel la fonction de covariance du processus Gaussien appartient à l'ensemble paramétrique de fonctions de covariance, est d'abord traité dans un cadre asymptotique par expansion. Le plan d'expériences considéré est une grille régulière multidimensionnelle perturbée aléatoirement. Un résultat de consistance et de normalité asymptotique est montré pour les deux estimateurs. Il est ensuite mis en évidence que des amplitudes de perturbation importantes sont toujours préférables pour l'estimation par Maximum de Vraisemblance. Le cas incorrectement spécifié, dans lequel l'ensemble paramétrique utilisé pour l'estimation ne contient pas la fonction de covariance du processus Gaussien, est ensuite étudié. Il est montré que la Validation Croisée est alors plus robuste que le Maximum de Vraisemblance. Enfin, deux applications du modèle de Krigeage par processus Gaussiens sont effectuées sur des données industrielles. Pour un problème de validation du modèle de frottement pariétal du code de thermohydraulique FLICA 4, en présence de résultats expérimentaux, il est montré que la modélisation par processus Gaussiens de l'erreur de modèle du code FLICA 4 permet d'améliorer considérablement ses prédictions. Enfin, pour un problème de métamodélisation du code de thermomécanique GERMINAL, l'intérêt du modèle de Krigeage par processus Gaussiens, par rapport à des méthodes par réseaux de neurones, est montré
APA, Harvard, Vancouver, ISO, and other styles
49

Rodriguez, Valcarce Willy. "Estimation de l’histoire démographique des populations à partir de génomes entièrement séquencés." Thesis, Toulouse, INSA, 2016. http://www.theses.fr/2016ISAT0048/document.

Full text
Abstract:
Le développement des nouvelles techniques de séquençage élargit l' horizon de la génétique de populations. Une analyse appropriée des données génétiques peut augmenter notre capacité à reconstruire l'histoire des populations. Cette énorme quantité de données disponibles peut aider les chercheurs en biologie et anthropologie à mieux estimer les changements démographiques subis par une population au cours du temps, mais induit aussi de nouveaux défis. Lorsque les modèles sous-jacents sont trop simplistes il existe unrisque très fort d'être amené à des conclusions erronées sur la population étudiée. Il a été montré que certaines caractéristiques présentes dans l'ADN des individus d'une population structurée se trouvent aussi dans l'ADN de ceux qui proviennent d'une population sans structure dont la taille a changé au cours du temps. Par conséquent il peut s'avérer très difficile de déterminer si les changements de taille inférés à partir des données génétiquesont vraiment eu lieu ou s'il s'agit simplement des effets liés à la structure. D'ailleurs la quasi totalité des méthodes pour inférer les changements de taille d'une population au cours du temps sont basées sur des modèles qui négligent la structure.Dans cette thèse, de nouveaux résultats de génétique de populations sont présentés. Premièrement, nous présentons une méthodologie permettant de faire de la sélection de modèle à partir de l'ADN d'un seul individudiploïde. Cette première étude se limite à un modèle simple de population non structurée avec un changement de taille et à un modèle considérant une population de taille constante mais structurée. Cette nouvelle méthode utilise la distribution des temps de coalescence de deux gènes pour identifier le modèle le plus probable et ouvreainsi la voie pour de nouvelles méthodes de sélection de modèles structurés et non structurés, à partir de données génomiques issues d'un seul individu. Deuxièmement, nous montrons, par une ré-interprétation du taux de coalescence que, pour n'importe quel scénario structuré, et plus généralement n'importe quel modèle, il existe toujours un scénario considérant une population panmictique avec une fonction précise de changements de taille dont la distribution des temps de coalescence de deux gènes est identique a celle du scénario structuré. Cela non seulement explique pourquoi les méthodes d'inférence démographique détectent souvent des changements de taille n'ayant peut-être jamais eu lieu, mais permet aussi de prédire les changements de taille qui seront reconstruits lorsque des méthodes basées sur l'hypothèse de panmixie sont appliquées à des données issues de scénarios plus complexes. Finalement, une nouvelle approche basée sur un processus de Markov est développée et permet de caractériser la distribution du temps de coalescence de deux gènes dans une population structurée soumise à des événements démographiques tel que changement de flux de gènes et changements de taille. Une discussion est menée afin de décrire comment cette méthode donne la possibilité de reconstruire l'histoire démographique à partir de données génomiques tout en considérant la structure
The rapid development of DNA sequencing technologies is expanding the horizons of population genetic studies. It is expected that genomic data will increase our ability to reconstruct the history of populations.While this increase in genetic information will likely help biologists and anthropologists to reconstruct the demographic history of populations, it also poses big challenges. In some cases, simplicity of the model maylead to erroneous conclusions about the population under study. Recent works have shown that DNA patterns expected in individuals coming from structured populations correspond with those of unstructured populations with changes in size through time. As a consequence it is often difficult to determine whether demographic events such as expansions or contractions (bottlenecks) inferred from genetic data are real or due to the fact that populations are structured in nature. Moreover, almost no inferential method allowing to reconstruct pastdemographic size changes takes into account structure effects. In this thesis, some recent results in population genetics are presented: (i) a model choice procedure is proposed to distinguish one simple scenario of population size change from one of structured population, based on the coalescence times of two genes, showing that for these simple cases, it is possible to distinguish both models using genetic information form one single individual; (ii) by using the notion of instantaneous coalescent rate, it is demonstrated that for any scenario of structured population or any other one, regardless how complex it could be, there always exists a panmitic scenario with a precise function of population size changes havingexactly the same distribution for the coalescence times of two genes. This not only explains why spurious signals of bottlenecks can be found in structured populations but also predicts the demographic history that actual inference methods are likely to reconstruct when applied to non panmitic populations. Finally, (iii) a method based on a Markov process is developed for inferring past demographic events taking the structure into account. This is method uses the distribution of coalescence times of two genes to detect past demographic changes instructured populations from the DNA of one single individual. Some applications of the model to genomic data are discussed
APA, Harvard, Vancouver, ISO, and other styles
50

Donnet, Sophie. "Inversion de données IRMf : estimation et sélection de modèles." Paris 11, 2006. http://www.theses.fr/2006PA112193.

Full text
Abstract:
Cette thèse est consacrée à l'analyse de données d'Imagerie par Résonance Magnétique fonctionnelle (IRMf). Dans le cadre du modèle classique de convolution, nous testons l'hypothèse de variabilité inter-occurrences des amplitudes des réponses hémodynamiques. L'estimation des paramètres de ce nouveau modèle requiert le recours à l'algorithme Expectation-Maximisation. Nous comparons ce modèle au modèle sans variabilité inter-occurrences par un test du rapport des vraisemblances, sur un grand nombre de jeu de données réelles. Le modèle linéaire souffrant d'un manque de fondement biologique, nous considérons un modèle physiologique aboutissant à l'écriture du signal IRMf comme la somme d'un terme de régression, solution d'une équation différentielle ordinaire (EDO), sans solution analytique dépendant d'un paramètre aléatoire, et d'un bruit de mesure gaussien. Nous proposons une méthode générale d'estimation paramétrique des modèles définis par EDO à données non-observées, intégrant une méthode de résolution numérique du système dynamique et reposant sur une version stochastique de l'algorithme EM. Nous montrons la convergence des estimateurs des paramètres produits par cet algorithme, et contrôlons l'erreur induite par l'approximation de la solution du système différentiel sur l'estimation des paramètres. Nous appliquons cette méthode à la fois sur données d'IRMf simulées et réelles. Enfin, nous considérons des modèles définis par équations différentielles stochastiques (EDS) dépendant d'un paramètre aléatoire. En approchant la diffusion par un schéma numérique, nous proposons une méthode d'estimation des paramètres du modèle. La précision de cette méthode est illustrée sur une étude sur données simulées dans le cadre d'un modèle à effets mixtes, issus de la pharmacocinétique. Une étude sur données réelle démontre la pertinence de l'approche stochastique. Finalement, nous nous intéressons à l'identifiabilité des modèles définis par EDS dépendant de paramètres aléatoires
This thesis is devoted to the analysis of functional Magnetic Resonance Imaging data (fMRI). In the framework of standard convolution models, we test a model that allows for the variation of the magnitudes of the hemodynamic reponse. To estimate the parameters of this model, we have to resort to the Expectation-Maximisation algorithm. We test this model against the standard one --withconstant magnitudes-- on several real data, set by a likelihood ratio test. The linear model suffers from a lack of biological basis, hence we consider a physiological model. In this framework, we describe the data as the sum of a regression term, defined as the non-analytical solution of an ordinary differentiel equation (ODE) depending on random parameters, and a gaussian observation noise. We develop a general method to estimate the parameters of a statistical model defined by ODE with non-observed parameters. This method, integrating a numerical resolution of the ODE, relies on a stochastic version of the EM algorithm. The convergence of the algorithm is proved and the error induced by the numerical solving method is controlled. We apply this method on simulated and real data sets. Subsequently, we consider statistical models defined by stochastic differential equations (SDE) depending on random parameters. We approximate the diffusion process by a numerical scheme and propose a general estimation method. Results of a pharmacokineticmixed model study (on simulated and real data set) illustrate the accuracy of the estimation and the relevance of the SDE approach. Finally, the identifiability of statistical models defined by SDE with random parameters is studied
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography