Academic literature on the topic 'Détection par maximum de vraisemblance'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Détection par maximum de vraisemblance.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Détection par maximum de vraisemblance"

1

BIDANEL, J. P., and D. MILAN. "La recherche de QTL àl’aide de marqueurs : résultats chez le porc." INRAE Productions Animales 13, HS (December 22, 2000): 223–28. http://dx.doi.org/10.20870/productions-animales.2000.13.hs.3842.

Full text
Abstract:
Le programme de détection de QTL dans une population F2 issue du croisement entre les races porcines Meishan (MS) et Large White (LW) réalisé à l’INRA est présenté. Des mesures de croissance, de composition corporelle, de qualité de la viande, de développement sexuel mâle et femelle, de prolificité et de réactivité comportementale et neuroendocrinienne ont été effectuées sur 530 mâles et 573 femelles F2, nés de 6 verrats et 17 truies F1, eux-mêmes issus de 6 verrats LW et 6 truies MS. Le génotype de l’ensemble des animaux a été déterminé à l’aide de séquenceurs automatiques pour un total de 115 marqueurs microsatellites couvrant l’ensemble du génome porcin. Les données ont été analysées par chromosome (analyse multipoint) à l’aide d’une procédure du maximum de vraisemblance prenant en compte la structure familiale des données. Des QTL ont été mis en évidence ou suggérés sur l’ensemble des chromosomes, à l’exception des chromosomes 16 et 18.
APA, Harvard, Vancouver, ISO, and other styles
2

Sambou, S. "Comparaison par simulation de Monte-Carlo des propriétés de deux estimateurs du paramètre d'échelle de la loi exponentielle : méthode du maximum de vraisemblance (MV) et méthode des moindres carrés (MC)." Revue des sciences de l'eau 17, no. 1 (April 12, 2005): 23–47. http://dx.doi.org/10.7202/705521ar.

Full text
Abstract:
La loi exponentielle est très répandue en hydrologie : elle est faiblement paramétrée, de mise en œuvre aisée. Deux méthodes sont fréquemment utilisées pour estimer son paramètre : la méthode du maximum de vraisemblance et la méthode des moments, qui fournissent la même estimation. A côté de ces deux méthodes, il y a celle des moindres carrés qui est très rarement utilisée pour cette loi. Dans cet article, nous comparons le comportement asymptotique de l'estimateur de la méthode des moindres carrés avec celui de la méthode du maximum de vraisemblance en partant d'une loi exponentielle à un seul paramètre a connu, puis en généralisant les résultats obtenus à partir de la dérivation des expressions analytiques. L'échantillon historique disponible en pratique étant unique, et de longueur généralement courte par rapport à l'information que l'on désire en tirer, l'étude des propriétés statistiques des estimateurs ne pourra se faire qu'à partir d'échantillons de variables aléatoires représentant des réalisations virtuelles du phénomène hydrologique concerné obtenus par simulations de Monte Carlo. L'étude par simulation de Monte Carlo montre que pour de faibles échantillons, l'espérance mathématique des deux estimateurs tend vers le paramètre réel, et que la variance de l'estimateur des moindres carrés est supérieure à celle de l'estimateur du maximum de vraisemblance.
APA, Harvard, Vancouver, ISO, and other styles
3

Lardic, Sandrine, and Valérie Mignon. "Essai de mesure du «degré» de mémoire longue des séries. L’exemple de la modélisation ARFIMA." Économie appliquée 50, no. 2 (1997): 161–95. http://dx.doi.org/10.3406/ecoap.1997.1635.

Full text
Abstract:
L’objet de cet article est d’étudier les modalités de détection et de mesure de la mémoire longue en économie. D’un point de vue économique, on retrouve dans nombre d’analyses théoriques comme empiriques des inerties, des délais d’ajustement, des rigidités témoignant de l’intérêt de la quantification de la structure de dépendance des séries. Les modèles fractionnairement intégrés sont des inventions statistiques visant à être de bonnes approximations de cette persistance. A cet égard, nous proposons d’appliquer les méthodes d’estimation les plus puissantes (méthode de Geweke et Porter-Hudak et du maximum de vraisemblance exact) des processus ARFIMA sur diverses séries macro-économiques et financières.
APA, Harvard, Vancouver, ISO, and other styles
4

Villa, Pierre. "Offre et demande d’investissement: le rôle des profits." Recherches économiques de Louvain 66, no. 1 (2000): 55–97. http://dx.doi.org/10.1017/s0770451800008137.

Full text
Abstract:
RésuméL’introduction des profits dans les fonctions d’investissement s’inscrit dans le cadre du retour de l’argument empirique sur les spécifications proposées par Jorgenson. Selon la théorie de la profitabilité les entreprises ont une demande d’investissement croissante avec le rapport taux de profit de pleine capacité/taux d’intérêt afin de se prémunir contre l’incertitude de la demande ou de gagner des parts de marché (effet de clientèle). La théorie des contraintes financières définit une offre d’investissement dépendant des profits réalisés, du ratio d’endettement et du taux d’intérêt réel anticipé. On estime un modèle de déséquilibre d’investissement avec CES par le maximum de vraisemblance et le pseudo maximum de vraisemblance simulé; robustes au changement de méthode: les profits réalisés, la profitabilité, le ratio endettement/capital et la demande anticipée. Les contraintes financières ne s’exercent pas forcément lorsque le ratio d’endettement est élevé et la chute de l’offre d’investissement est plus forte que la chute de la demande en phase de récession. Le report des contraintes financières est plutôt négatif (comportement « rationnel » vs « extrapolatif »).
APA, Harvard, Vancouver, ISO, and other styles
5

Ouardighi, Jalal El. "Dépendance spatiale sur données de panel : application à la relation Brevets-R&D au niveau régional." Articles 78, no. 1 (March 11, 2004): 67–86. http://dx.doi.org/10.7202/007245ar.

Full text
Abstract:
Résumé Cet article présente les estimations de la relation brevets-recherche et développement (R&D) au niveau des régions françaises sur la période 1991-1996, en utilisant un modèle à erreurs composées avec dépendance spatiale. L’approche analytique prend en compte les effets des externalités spatiales des activités de recherche causées par la proximité technologique ou géographique des régions. Le modèle est estimé par le maximum de vraisemblance. Les résultats empiriques montrent une influence significative des dépenses de R&D sur l’activité des dépôts de brevets affectés aux régions. Les externalités technologiques sont positives mais leur signification dépend du caractère fixe ou aléatoire des effets régionaux. Par contre, les externalités géographiques demeurent absentes.
APA, Harvard, Vancouver, ISO, and other styles
6

Dabye, Ali Souleymane. "Estimation par la méthode du maximum de vraisemblance pour un processus de Poisson d'intensité discontinue." Comptes Rendus de l'Académie des Sciences - Series I - Mathematics 329, no. 4 (August 1999): 335–38. http://dx.doi.org/10.1016/s0764-4442(00)88577-8.

Full text
APA, Harvard, Vancouver, ISO, and other styles
7

Cournoyer, A., V. Langlois-Carbonneau, R. Daoust, and J. Chauny. "P023: La valeur diagnostique du ‘Score de détection de la dissection aortique’ et du ratio neutrophiles sur lymphocytes pour le syndrome aortique aigu." CJEM 20, S1 (May 2018): S64—S65. http://dx.doi.org/10.1017/cem.2018.221.

Full text
Abstract:
Introduction: Le syndrome aortique aigu (SAA) est une condition rare et généralement mortelle qui demeure difficile à diagnostiquer. Le Score de détection de la dissection aortique (DDA) et le ratio de neutrophiles sur lymphocytes (NL) ont été proposés comme des éléments pouvant contribuer à exclure le diagnostic du SAA. Lobjectif primaire de cette étude est de déterminer la valeur diagnostique (sensibilité et spécificité et rapport de vraisemblance négatif [RV-]) de ces deux éléments de façon indépendante et combinée chez les patients suspectés de SAA au département durgence. Methods: Les patients ayant subi une angiographie par tomodensitométrie (angioCT) à la recherche dune dissection aortique entre 2008 et 2014 à lurgence dun hôpital tertiaire montréalais ont été inclus dans cette étude de cohorte rétrospective. Le score DDA a été établi à partir des dossiers médicaux et le ratio NL calculé à partir de la première formule sanguine prélevée chez ces patients. Pour le score DDA, un score de 1 ou plus et de 2 ou plus ont été évalués comme seuils de positivité. Pour le ratio NL, une valeur de plus de 4,6 a été choisie comme seuil puisquil sagissait du ratio proposé afin de différencier les patients atteints dun SAA de ceux souffrant dun anévrysme chronique. Pour lévaluation de la combinaison des deux tests, afin de maximiser la sensibilité, un score DAA de 1 ou plus ou un ratio NL de plus de 4,6 serait considéré comme positif. Le test de référence pour tous les patients était langiographie par tomodensitométrie. À partir de cela, la sensibilité, la spécificité et le rapport de vraisemblance négatif de chacun de ces tests/combinaison de tests et leurs intervalles de confiance (IC) ont été calculés. Results: Un total de 198 patients (99 hommes et 99 femmes) dun âge moyen de 63 ans (±16) ont été inclus dans létude, parmi lesquels 26 (13%) souffraient dun SAA. Un score DDA de 1 ou plus avait une sensibilité de 84,6% (IC 95% 65,1-95,6), une spécificité de 65,7% (IC 95% 58,1-72,8) et un VR- de 0,23 (IC 95% 0,09-0,58). Un score DDA de 2 ou plus avait une sensibilité de 23,1% (IC 95% 9,0-43,7), une spécificité de 95,3% (IC 95% 91,0-98,0) et un VR- de 0,81 (IC 95% 0,65-1,00). La sensibilité dun ratio NL de plus de 4,6 était de 42,3% (IC 95% 23,4-63,1), la spécificité de 58,7% (IC 95% 51,0-66,3) et le VR- de 0,98 (0,69-1,40). La combinaison du score DDA et du ratio NL avait une sensibilité de 88,5% (IC 95% 69,9-97,6), une spécificité de 38,4% (IC 95% 30,9-46,0) et un VR- de 0,30 (IC 95% 0,10-0,89). Conclusion: Avoir un score de DDA inférieur à 1 diminue significativement les chances davoir un SAA, nélimine pas cette possibilité et ne devrait pas être utilisé, sauf chez les patients ayant une probabilité pré-test déjà très faible. Le ratio NL en utilisant un seuil de 4,6 na aucune utilité diagnostique pour le SAA.
APA, Harvard, Vancouver, ISO, and other styles
8

De Lapparent, Matthieu. "Déplacements domicile-travail en Île-de-France et choix individuels du mode de transport." Articles 81, no. 3 (June 5, 2006): 485–520. http://dx.doi.org/10.7202/013039ar.

Full text
Abstract:
Résumé Nous étudions dans cet article le choix du mode de transport pour un déplacement domicile-travail au sein de la région Île-de-France dans un ensemble à deux modalités : véhicule particulier ou transports en commun. Nous modélisons la présence d’effets indirects liés aux autres dimensions de la demande de transport et l’existence d’hétérogénéité des goûts dans la population observée. Nous spécifions, identifions et estimons par la méthode du maximum de vraisemblance simulée un modèle Logit à paramètres aléatoires. Les résultats sont nombreux et réalistes : dispersion des goûts concernant les attributs de transports et les variables socio-économiques, corrélation positive entre valeur du temps et niveau de la congestion, rejet de l’axiome IIA.
APA, Harvard, Vancouver, ISO, and other styles
9

Jacquinot, Pascal, and F. Mihoubi. "Dynamique et hétérogénéité de l’emploi en déséquilibre." Articles 72, no. 2 (February 13, 2009): 113–48. http://dx.doi.org/10.7202/602200ar.

Full text
Abstract:
RÉSUMÉ Pour rendre compte à un niveau macroéconomique des hétérogénéités qui caractérisent le marché du travail, la démarche la plus indiquée est l’agrégation par intégration des micromarchés en déséquilibre. Afin d’enrichir la structure dynamique de ce modèle d’équilibre avec rationnements quantitatifs, nous incluons des variables latentes retardées dans les équations d’offre ou de demande de travail ainsi que les rationnements passés dans l’équation de salaire. À la lumière des derniers développements proposés par Laroque et Salanié (1993), l’estimation de ce type de modèle est désormais envisageable. Leur méthode repose sur une extension du pseudo-maximum de vraisemblance simulé au cas dynamique. Notre objectif est, d’une part, d’étudier l’emploi en déséquilibre et la formation des salaires et d’autre part, de tester l’existence de micromarchés. L’application sur données macroéconomiques trimestrielles françaises met en évidence les résultats suivants. L’hypothèse d’existence de micromarchés ne semble pas rejetée. Néanmoins, depuis la fin des années 70, la contribution de l’imparfaite réallocation entre micromarchés à la montée du chômage se serait réduite. En outre, des effets de report dynamiques semblent affecter la demande de travail et les déséquilibres à la fois présents et passés pèseraient sur la croissance des salaires.
APA, Harvard, Vancouver, ISO, and other styles
10

Balafrej, Mohammed, Abdelatif Sahnoun, and Mohamed Sadik. "Comparaison des modèles mathématiques non linéaires et détermination du modèle qui décrit au mieux la croissance de la race Sardi." Revue d’élevage et de médecine vétérinaire des pays tropicaux 73, no. 4 (November 25, 2020): 255–61. http://dx.doi.org/10.19182/remvt.31945.

Full text
Abstract:
L’objectif de cette étude a été d’identifier le modèle mathématique non linéaire le plus approprié pour décrire la courbe de croissance de la race Sardi. Cette étude a été menée sur un troupeau d’ovins élevé dans la station de sélection de Krakra située à El Borouj au Maroc. Les effectifs comprenaient 763 mâles et 649 femelles correspondant respectivement à 3814 et 3240 observations pour les âges types : naissance, 10 jours, 30 jours, 90 jours et poids adulte. Pour modéliser la relation entre le poids et l’âge, cinq modèles ont été ajustés aux données de croissance, à savoir Brody, Logistic, Gompertz, Von Bertalanffy et Richards. Les modèles de croissance ont été ajustés aux données par la méthode du maximum de vraisemblance. Le critère d’information d’Akaike (AIC), le critère d’information bayésien (BIC) et la déviance ont été utilisés pour comparer la pertinence statistique des différents modèles de croissance. Parmi ces modèles, celui de von Bertalanffy a eu les plus petites valeurs d’AIC, du BIC et de la déviance, indiquant que ce modèle permettait la représentation des données la meilleure pour les deux sexes de cette race. Les paramètres de cette fonction peuvent être utilisés pour définir de nouveaux critères de sélection et améliorer les prévisionsde production par une meilleure gestion de l’alimentation.
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Détection par maximum de vraisemblance"

1

Ezzahar, Abdessamad. "Estimation et détection d'un signal contaminé par un bruit autorégressif." Phd thesis, Grenoble 1, 1991. http://tel.archives-ouvertes.fr/tel-00339831.

Full text
Abstract:
Nous considérons un modèle signal plus bruit particulier ou le signal est une combinaison linéaire de suites déterministes données et est contamine par un bruit additif autoregressif d'ordre 1 stationnaire. Nous étudions d'abord des problèmes d'estimation partielle. On analyse les propriétés asymptotiques d'estimateurs de maximum de vraisemblance ou de moindres carres pour les paramétrés du bruit lorsque le signal est complètement connu ou pour les paramètres du signal lorsque l'un des paramètres du bruit est connu. Puis nous examinons le probleme de l'estimation simultanée des paramètres du signal et du bruit. On montre l'existence et l'unicité de l'estimateur de maximum de vraisemblance dont on étudie le comportement asymptotique. De même on considère une methode d'estimation fondée sur une première étape de moindres carres pour l'estimation des paramétrés du signal, et une procédure de maximum de vraisemblance approche. On construit ensuite des tests pour la détection du signal a partir des méthodes d'estimation envisagées précédemment. Les risques associes a ces tests sont analyses de manière précise. Enfin une étude expérimentale par simulation des performances des diverses méthodes est menée
APA, Harvard, Vancouver, ISO, and other styles
2

Zhu, Xuan. "Structuration automatique en locuteurs par approche acoustique." Phd thesis, Université Paris Sud - Paris XI, 2007. http://tel.archives-ouvertes.fr/tel-00624061.

Full text
Abstract:
Cette thèse porte sur la structuration en locuteurs de différents types d'enregistrements audio, en particulier des journaux télévisés ou radiophoniques et des réunions. La structuration en locuteurs a pour objectif de répondre à la question ''qui a parlé quand'' dans un document audio donné. Cette thèse fait l'hypothèse qu'aucune connaissance a priori sur la voix de locuteurs ou sur leur nombre n'est disponible. La principale originalité du système de structuration en locuteurs pour des journaux télévisés ou radiophoniques présenté est de combiner deux étapes de regroupement en locuteurs: la première étape se fonde sur le Critère d'Information Bayesien (BIC) avec des Gaussiennes à matrice de covariance pleine et la deuxième étape de regroupement recombine les classes résultant en utilisant des techniques proposées pour l'identification du locuteur et utilisant des modèle de mélange de Gaussiennes (GMM) adaptés à partir d'un modèle générique. Ce système a été validé dans l'évaluation internationale NIST RT-04F (Rich Transcription 2004 Fall) et l'évaluation française ESTER 2005 du projet Technolangue EVALDA. Il a obtenu les meilleurs résultats dans les deux évaluations. Le système de structuration en locuteurs conçu pour les journaux télévisés a également été adapté aux réunions. Il intègre un nouveau détecteur de parole fondé sur le rapport de log-vraisemblance. Diverses techniques de normalisation des paramètres acoustiques et différentes représentations acoustiques ont été testées au cours de cette adaptation. Dans la dernière évaluation du NIST sur de réunions, le système adapté a eu un taux d'erreur de 26% environ sur les données de conférences et séminaires.
APA, Harvard, Vancouver, ISO, and other styles
3

Kazem, Ali. "Particules déterministes généralisées en filtrage non-linéaire : applications défense et télécommunications." Toulouse 3, 2008. http://thesesups.ups-tlse.fr/1638/.

Full text
Abstract:
La technique de filtrage particulaire s'applique à tous les problèmes d'estimation des systèmes dynamiques markoviens, sans restriction sur la nature des non-linéarités et/ou des distributions de bruits. L'objet de ce mémoire est de montrer la généralité de la technique déterministe en filtrage particulaire, par opposition à l'ancienne version aléatoire, qui permet d'éviter l'aléa inutilement introduit tant en prédiction qu'une redistribution des particules après pondération bayésienne. Le présent travail, s'articule autour de deux apports: Le premier, concerne le filtrage optimal à maximum de vraisemblance, et porte sur l'estimation trajectorielle globale des variables d'état. Le second portant sur le filtrage particulaire déterministe, concerne le filtrage optimal à minimum de variance, et porte sur l'estimation marginale à l'instant courant, par redistribution déterministe conforme en loi. Cette approche délivre simultanément tous les modes (maxima locaux) de la densité de probabilité marginale de l'état courant. Le mémoire met l'accent sur plusieurs réalisations dans des domaines différents, communications: Nous avons développé un outil à base de filtrage particulaire qui permet d'estimer conjointement des paramètres cinématiques relatifs au récepteur et la détection du message transmis par un satellite. Nous avons également proposé une série de schémas d'estimation/décodage itératifs du message turbo-codé conforme au standard DVB-RCS. Estimation de cible en sonar: On a construit un récepteur passif particulaire se contentant d'écouter sa cible, afin d'identifier ses paramètres cinématiques. La version déterministe permet de faire diminuer considérablement la masse de calculs. Traitement du signal radar: Le premier récepteur déterministe, à maximum de vraisemblance est utilisé pour la détection/poursuite de cibles furtives et manoeuvrantes, dans le cas où il y un nombre très limité de mesures disponibles pendant un tour d'antenne du radar de veille. Le second récepteur consiste à appliquer la technique à minimum de variance au radar ARMOR, ce qui a permis de confirmer des gains inhabituels en termes de rapport signal sur bruit. La nouvelle technique déterministe à minimum de variance s'étend également au multi-cible et au traitement en présence de fouillis, avec l'incomparable économie calculatoire du déterministe
Particle filters are presently among the most powerful tools to estimate Markovian dynamical systems, regardless of the nature of nonlinearities and/or noise probability distributions. The purpose of this dissertation is to show the generality of deterministic particle filtering, as opposed to the former random version, which avoids randomization in the prediction stage as well as in the resampling stage after Bayesian correction. This work relies on two kinds of results: the first concerns the particle filter-based maximum likelihood estimator for sequential estimation of the state variables. The second patent, introducing deterministic particle filtering in the minimum variance sense, focuses on the current state marginal estimation using a resampling scheme consistant with the a posteriori distribution. This approach simultaneously delivers all modes (local maxima) of the marginal probability density function of the current state. The thesis focuses on several achievements in various fields: communications: The proposed particle algorithm makes possible the joint estimation of the kinematic channel parameters at the receiver side and the detection of the message transmitted by a satellite. We have also proposed several techniques for the iterative estimation and decoding of the turbo-coded message compliant with the DVB-RCS standard. Target estimation for sonar: We built a passive particle receiver only listening to its target, in order to identify its kinematic parameters. The deterministic version allows to significantly reduce the computational complexity. Radar signal processing: The first receiver , with deterministic maximum likelihood filtering, is used for the detection / tracking of steady and manoeuvering targets , when there is a very limited number of available measurements during a circular period of antenna of the radar. The second receiver applies the minimum variance technique to the ARMOR radar, confirming unusually high signal-to-noise gains. The novel deterministic technique based on minimum variance criteria can easily be extended to multitarget processing and tracking in the presence of clutter, with the incomparable complexity savings due to the deterministic technique
APA, Harvard, Vancouver, ISO, and other styles
4

Keribin, Christine. "Tests de modeles par maximum de vraisemblance." Evry-Val d'Essonne, 1999. http://www.theses.fr/1999EVRY0006.

Full text
Abstract:
L'ordre d'un modele parametrique est, grossierement, le nombre de parametres necessaires pour definir le modele. Lorsque cet ordre n'est pas connu, l'estimateur du maximum de vraisemblance va surestimer l'ordre, pour s'ajuster le mieux aux donnees. Mais un modele sur-parametre ne donnera pas de bons resultats de prediction. Ainsi, il est interessant d'etudier des estimateurs et des tests de l'ordre. Nous etudions des tests de rapport de vraisemblance dans le cadre de trois modeles : le modele a observations independantes et identiquement distribuees (i. I. D. ) identifiable, meme quand l'ordre surestime, le modele de melange a observations i. I. D. (qui n'est pas identifiable quand le nombre de composantes est surestime), et le modele de chaine de markov cachee (cmc) a observations continues (qui presente les memes problemes d'identifiabilite que le precedent, avec en plus la dependance markovienne). Dans le premier cas, nous utilisons des resultats connus de consistance de l'estimateur de l'ordre pour determiner la vitesse asymptotique de la probabilite de se tromper d'ordre. Dans le second cas, nous demontrons d'abord la consistance de l'estimateur du maximum de vraisemblance penalisee sous certaines hypotheses, puis nous donnons un majorant du niveau d'un test de contamination. Dans le dernier cas, nous testons un modele a observations i. I. D. Contre un modele cmc a deux etats caches. Dans ce cas, sur un sous-ensemble des parametres, nous montrons que le rapport de vraisemblance tend en loi vers la moitie du supremum du carre d'un processus gaussien tronque a ses valeurs positives. Puis agrandissant le domaine, nous montrons que le rapport de vraisemblance tend vers l'infini en probabilite. Prenant un cas particulier de cmc, le modele ma bruite, nous etudions, a ordre connu, un estimateur du filtre et des parametres de la chaine cachee, quand celle-ci est, elle aussi, a etats continus. Des simulations permettent d'illustrer les resultats. Ces etudes sont accompagnees d'un travail bibliographique les positionnant dans le contexte actuel, les eclairant par des exemples, montrant leur apport, et proposant des voies de recherche.
APA, Harvard, Vancouver, ISO, and other styles
5

Safa, Khodor. "Embracing Nonlinearities in Future Wireless Communication Systems : Low-Resolution Analog-to-Digital Converters." Electronic Thesis or Diss., université Paris-Saclay, 2024. http://www.theses.fr/2024UPASG082.

Full text
Abstract:
Avec l'avancement des communications sans fil vers la 5G et la 6G, de nouveaux défis émergent en raison de l'augmentation des utilisateurs et des applications industrielles. Des technologies comme le massive multiple-input multiple-output (mMIMO) et les systèmes à ondes millimétriques sont développées pour répondre à ces besoins. Cependant, des fréquences et des largeurs de plus élevées entraînent une consommation d'énergie accrue dans les circuits radiofréquences (RF), nécessitant des composants plus économes. Parallèlement, les systèmes deviennent sensibles aux non-linéarités, telles que le bruit de phase et les distorsions de quantification. Comprendre l'impact de ces non-linéarités sur la conception des émetteurs-récepteurs et les limites fondamentales devient essentiel. Cette thèse se concentre sur les effets non linéaires des convertisseurs analogique-numérique (CAN) à faible résolution au récepteur. La consommation d'énergie des CAN augmente avec la largeur de bande et la résolution, rendant les CAN à faible résolution pratiques dans des systèmes comme le mMIMO, où la consommation est cruciale. La première partie examine la détection de données dans des canaux MIMO à évanouissement plat quantifié, avec différentes hypothèses sur l'information de l'état du canal (IEC). La détection par maximum de vraisemblance (MV) est optimale pour minimiser les erreurs, mais elle est coûteuse en calculs. Les algorithmes de décodage sphérique (DS) réduisent la complexité dans les canaux non quantifiés, mais ne s'appliquent pas directement aux canaux quantifiés. Pour y remédier, nous proposons un algorithme de détection à faible complexité en deux étapes pour les systèmes à un bit. Cette méthode utilise une approximation de la métrique MV via une série de Taylor et transforme le problème de détection en optimisation des moindres carrés entiers, permettant d'utiliser les algorithmes de DS. Les résultats montrent que cette approche atteint des performances proches de celles de ML. La méthode est également étendue aux scénarios multi-bits, convergeant vers le DS classique avec une résolution accrue. Dans des scénarios plus pratiques, où seule l'information statistique sur l'état du canal au récepteur (IECR) est disponible, nous explorons la détection sous un schéma de transmission pilote. La première approche considère l'estimation du canal et la détection comme des tâches de classification binaire. Les taux réalisables en utilisant l'information mutuelle généralisée sont comparés aux estimateurs de Bussgang où on trouve que la performance dépend de l'estimateur choisi. La seconde approche traite conjointement les séquences de données et de pilotes en rencontrant des défis d'évaluation des probabilités gaussiennes et de complexité combinatoire. Le premier défi est résolu par la méthode de Laplace, et pour la complexité, nous adaptons la technique SD du cas avec CSI parfait à une métrique de substitution. Il est crucial d'obtenir des directives de conception pour les futurs systèmes sans fil afin d'expliquer le compromis entre efficacité spectrale et consommation d'énergie. Nous examinons ensuite la capacité des canaux MIMO quantifiés, difficile à caractériser en raison de leur nature discrète. Par conséquent, en supposant un régime asymptotique où le nombre d'antennes de réception augmente et en utilisant des résultats théoriques bien connus de la statistique bayésienne sur les prioris de référence, l'échelonnement de la capacité peut être caractérisé pour le cas multi-bits cohérent, fournissant une expression utile pour l'analyse de l'efficacité spectrale et de la consommation d'énergie. Pour le cas non cohérent, nous appliquons les mêmes résultats au canal non quantifié comme borne supérieure pour le canal quantifié et identifions des bornes supérieures et inférieures sur l'échelonnement pour certaines valeurs de l'intervalle de cohérence
With the advent of 5G networks and the road towards 6G already being established, innovative wireless communication technologies including massive multiple-inputmultiple-output (mMIMO) and millimeter-wave systems are emerging to address the ever-increasing number of mobile users and to support new industry applications. However, higher frequencies and wider bandwidths lead to increased power consumption in radio-frequency (RF) circuits, necessitating more energy-efficient components. At the same time, systems are increasingly susceptible to nonlinear impairments such as phase noise, saturation, and quantization distortions. Understanding the impact of these nonlinearities on transceiver design and fundamental limits becomes essential. This thesis focuses on the nonlinear effects of low-resolution analog-to-digital converters (ADCs) at the receiver. ADC power consumption increases with both bandwidth and resolution, making low-resolution ADCs a practical solution in systems like mMIMO, where power consumption is a major constraint. The first part of this work examines data detection in quantized flat-fading MIMO channels, with various assumptions about the channel state information (CSI). Maximum likelihood (ML) detection is optimal for minimizing the error probability but is computationally expensive. While sphere-decoding (SD) algorithms are commonly used to reduce complexity in unquantized channels, they are not directly applicable to the quantized case due to the discrete nature of observations. To address this, we propose a two-step low-complexity detection algorithm for systems with one-bit comparators. This method approximates the ML metric using a Taylor series and converts the detection problem into a classical integer least-squares optimization, allowing the use of SD algorithms. Numerical results show this approach achieves near-ML performance. This method is also extended to multi-bit scenarios, converging to conventional SD as resolution increases. In more practical scenarios, where only statistical CSI at the receiver (CSIR) is available, we explore data detection under a pilot transmission scheme. The first approach frames channel estimation and detection as binary classification tasks using probit regression. Achievable mismatched rates using the generalized mutual information are then evaluated in comparison to the Bussgang linear minimum mean-square error estimators where it's shown that the performance depends on the choice of the estimator. The second approach jointly processes data and pilot sequences where we encounter challenges related to evaluating multivariate Gaussian probabilities and the combinatorial complexity of optimization. We address the first challenge with the Laplace method that provides us with a closed-form expression, while for the complexity we adapt the SD technique from the perfect CSI case on a surrogate metric. It is of interest for future wireless systems to obtain design guidelines that can accurately explain the trade-off between spectral efficiency and energy consumption. We then investigate the capacity of quantized MIMO channels, which is difficult to characterize due to their discrete nature. Therefore, assuming an asymptotic regime where the number of receive antennas grows large and employing known information-theoretic results from Bayesian statistics on reference priors, the capacity scaling can be characterized for the coherent multi-bit case providing us with an expression that can be used for the analysis of the spectral efficiency and power consumption balance. For the noncoherent case, we apply the same results at the unquantized channel as an upper bound for the quantized channel and identify upper and lower bounds on the scaling for particular values on the coherence interval
APA, Harvard, Vancouver, ISO, and other styles
6

Berrim, Selma. "Tomoscintigraphie par ouverture codée, reconstruction par le maximum de vraisemblance." Paris 13, 1998. http://www.theses.fr/1998PA132033.

Full text
Abstract:
Le collimateur est necessaire a la formation des images, en tomographie par emission monophotonique. L'idee de base des systemes a ouverture codee est de conserver la bonne resolution spatiale du collimateur a stenope unique. La localisation des sources en profondeur se fait par l'augmentation du nombre de stenopes. L'acquisition des donnees de projections s'effectue alors au moyen d'un masque de codage remplacant le collimateur standard a trous paralleles. L'obtention de coupes tomographiques representant l'objet, necessite un decodage de l'image brute d'acquisition. Les donnees de projections d'un volume radioactive presentent des fluctuations aleatoires obeissant a la distribution de poisson. La reconstruction par le maximum de vraisemblance utilisant l'algorithme em presente un modele fonde sur la distribution de poisson. Cet algorithme iteratif est interessant quant a sa capacite a introduire des phenomenes physiques. L'experimentation du ml-em pour un systeme de codage sous une incidence unique conduit a une resolution laterale de l'ordre de 4 mm dans l'air. L'amelioration de la discrimination en profondeur est significative comparee a la methode de reconstruction par correlation equilibree. L'augmentation du nombre d'incidences en deux projections orthogonales prevoit, pour une etude indicative sur l'image simulee d'une source ponctuelle, une amelioration de la discrimination en profondeur comparee a l'incidence unique.
APA, Harvard, Vancouver, ISO, and other styles
7

Zakaria, Rostom. "Transmitter and receiver design for inherent interference cancellation in MIMO filter-bank based multicarrier systems." Phd thesis, Conservatoire national des arts et metiers - CNAM, 2012. http://tel.archives-ouvertes.fr/tel-00923184.

Full text
Abstract:
Multicarrier (MC) Modulation attracts a lot of attention for high speed wireless transmissions because of its capability to cope with frequency selective fading channels turning the wideband transmission link into several narrowband subchannels whose equalization, in some situations, can be performed independently and in a simple manner. Nowadays, orthogonal frequency division multiplexing (OFDM) with the cyclic prefix (CP) insertion is the most widespread modulation among all MC modulations, and this thanks to its simplicity and its robustness against multipath fading using the cyclic prefix. Systems or standards such as ADSL or IEEE802.11a have already implemented the CP-OFDM modulation. Other standards like IEEE802.11n combine CP-OFDM and multiple-input multiple-output (MIMO) in order to increase the bit rate and to provide a better use of the channel spatial diversity. Nevertheless, CP-OFDM technique causes a loss of spectral efficiency due to the CP as it contains redundant information. Moreover, the rectangular prototype filter used in CP-OFDM has a poor frequency localization. This poor frequency localization makes it difficult for CP-OFDM systems to respect stringent specifications of spectrum masks.To overcome these drawbacks, filter-bank multicarrier (FBMC) was proposed as an alternative approach to CP-OFDM. Indeed, FBMC does not need any CP, and it furthermore offers the possibility to use different time-frequency well-localized prototype filters which allow much better control of the out-of-band emission. In the literature we find several FBMC systems based on different structures. In this thesis, we focus on the Saltzberg's scheme called OFDM/OQAM (or FBMC/OQAM). The orthogonality constraint for FBMC/OQAM is relaxed being limited only to the real field while for OFDM it has to be satisfied in the complex field. Consequently, one of the characteristics of FBMC/OQAM is that the demodulated transmitted symbols are accompanied by interference terms caused by the neighboring transmitted data in time-frequency domain. The presence of this interference is an issue for some MIMO schemes and until today their combination with FBMC remains an open problem.The aim of this thesis is to study the combination between FBMC and MIMO techniques, namely spatial multiplexing with ML detection. In the first part, we propose to analyze different intersymbol interference (ISI) cancellation techniques that we adapt to the FBMC/OQAM with MIMO context. We show that, in some cases, we can cope with the presence of the inherent FBMC interference and overcome the difficulties of performing ML detection in spatial multiplexing with FBMC/OQAM. After that, we propose a modification in the conventional FBMC/OQAM modulation by transmitting complex QAM symbols instead of OQAM ones. This proposal allows to reduce considerably the inherent interference but at the expense of the orthogonality condition. Indeed, in the proposed FBMC/QAM,the data symbol and the inherent interference term are both complex. Finally, we introduce a novel FBMC scheme and a transmission strategy in order to avoid the inherent interference terms. This proposed scheme (that we call FFT-FBMC) transforms the FBMC system into an equivalent system formulated as OFDM regardless of some residual interference. Thus, any OFDM transmission technique can be performed straightforwardly to the proposed FBMC scheme with a corresponding complexity growth. We develop the FFT-FBMC in the case of single-input single-output (SISO) configuration. Then, we extend its application to SM-MIMO configuration with ML detection and Alamouti coding scheme.
APA, Harvard, Vancouver, ISO, and other styles
8

KUHN, Estelle. "Estimation par maximum de vraisemblance dans des problèmes inverses non linéaires." Phd thesis, Université Paris Sud - Paris XI, 2003. http://tel.archives-ouvertes.fr/tel-00008316.

Full text
Abstract:
Cette thèse est consacrée à l'estimation par maximum de vraisemblance dans des problèmes inverses. Nous considérons des modèles statistiques à données manquantes, dans un cadre paramétrique au cours des trois premiers chapitres. Le Chapitre 1 présente une variante de l'algorithme EM (Expectation Maximization) qui combine une approximation stochastique à une méthode de Monte Carlo par chaînes de Markov : les données manquantes sont simulées selon une probabilité de transition bien choisie. Nous prouvons la convergence presque sûre de la suite générée par l'algorithme vers un maximum local de la vraisemblance des observations. Nous présentons des applications en déconvolution et en détection de ruptures. Dans le Chapitre 2, nous appliquons cet algorithme aux modèles non linéaires à effets mixtes et effectuons outre l'estimation des paramètres du modèle, des estimations de la vraisemblance du modèle et de l'information de Fisher. Les performances de l'algorithme sont illustrées via des comparaisons avec d'autres méthodes sur des exemples de pharmacocinétique et de pharmacodynamique. Le Chapitre 3 présente une application de l'algorithme en géophysique. Nous effectuons une inversion jointe, entre les temps de parcours des ondes sismiques et leurs vitesses et entre des mesures gravimétriques de surface et les densités du sous-sol, en estimant les paramètres du modèle, qui étaient en général fixés arbitrairement. De plus, nous prenons en compte une relation linéaire entre les densités et les vitesses des ondes. Le Chapitre 4 est consacré à l'estimation non paramétrique de la densité des données manquantes. Nous exhibons un estimateur logspline de cette densité qui maximise la vraisemblance des observations dans un modèle logspline et appliquons notre algorithme à ce modèle paramétrique. Nous étudions la convergence de cet estimateur vers la vraie densité lorsque la dimension du modèle logspline et le nombre d'observations tendent vers l'infini. Nous présentons quelques applications.
APA, Harvard, Vancouver, ISO, and other styles
9

Khelifi, Bruno. "Recherche de sources gamma par une méthode de Maximum de Vraisemblance :." Phd thesis, Université de Caen, 2002. http://tel.archives-ouvertes.fr/tel-00002393.

Full text
Abstract:
L'actuelle génération de détecteurs de rayons gamma au TeV a permis d'étudier les sources les plus brillantes (Noyaux Actifs de Galaxies et restes de supernovae). Afin de détecter des objets moins lumineux, nous proposons des techniques d'observation et d'analyse améliorant la sensibilité des détecteurs que nous avons appliqués sur le détecteur CAT (Cerenkov Array at Themis). Le développement d'un maximum de vraisemblance a permis de doubler notre sensibilité sur la nébuleuse du Crabe près du transit. Cet outil permet désormais de rechercher des sources de position inconnue sans perte de sensibilité (aux effets instrumentaux près) et de tester des hypothèses sur la forme des extensions spatiales des émissions.
Grâce à ces techniques, nous avons détecté de faibles et rapides variations de flux de Mkn 421, découvert deux nouveaux blazars IES 1959+65 et IES 1426+42.8 qui est de faible luminosité et nous avons identifié deux blazars susceptibles d'émettre au TeV. La comparaison des spectres en énergie des blazars de même redshift (Mkn 421 et Mkn 501) permet de nous affranchir de l'absorption des gamma par l'infrarouge intergalactique (IIR) : Mkn 421 semble posséder un spectre avant absorption distinct d'une loi de puissance sur au moins une nuit. La dérivation d'informations plus précises sur les blazars dépendra des futures connaissances sur l'IIR et des observations simultanées multi-longueurs d'onde.
Ayant observé des restes de supernovae contenant des plérions (IC 443, CTA 1 et CTB 80), nous avons cherché en vain une émission provenant des plérions et de l'interaction de ces restes avec des nuages moléculaires grâce au maximum de vraisemblance. Les valeurs supérieures extraites sur les plérions ont été comparées avec des modèles d'émission électromagnétique d'un spectre d'électrons accélérés. Ces comparaisons nous ont amenées à nous interroger sur les hypothèses faites dans ces modèles et sur la pertinence des plérions choisis.
APA, Harvard, Vancouver, ISO, and other styles
10

Kuhn, Estelle. "Estimation par maximum de vraisemblance dans des problèmes inverses non linéaires." Paris 11, 2003. https://tel.archives-ouvertes.fr/tel-00008316.

Full text
Abstract:
Cette thèse est consacrée à l'estimation par maximum de vraisemblance dans des problèmes inverses. Nous considérons des modèles statistiques à données manquantes, dans un cadre paramétrique au cours des trois premiers chapitres. Le Chapitre 1 présente une variante de l'algorithme EM (Expectation Maximization) qui combine une approximation stochastique à une méthode de Monte Carlo par chaînes de Markov : les données manquantes sont simulées selon une probabilité de transition bien choisie. Nous prouvons la convergence presque sûre de la suite générée par l'algorithme vers un maximum local de la vraisemblance des observations. Nous présentons des applications en déconvolution et en détection de ruptures. Dans le Chapitre 2, nous appliquons cet algorithme aux modèles non linéaires à effets mixtes et effectuons outre l'estimation des paramètres du modèle, des estimations de la vraisemblance du modèle et de l'information de Fisher. Les performances de l'algorithme sont illustrées via des comparaisons avec d'autres méthodes sur des exemples de pharmacocinétique et de pharmacodynamique. Le Chapitre 3 présente une application de l'algorithme en géophysique. Nous effectuons une inversion jointe, entre les temps de parcours des ondes sismiques et leurs vitesses et entre des mesures gravimétriques de surface et les densités du sous-sol, en estimant les paramètres du modèle, qui étaient en général fixés arbitrairement. De plus, nous prenons en compte une relation linéaire entre les densités et les vitesses des ondes. Le Chapitre 4 est consacré à l'estimation non paramétrique de la densité [PI] des données manquantes. Nous exhibons un estimateur logspline de PI qui maximise la vraisemblance des observations dans un modèle logspline et appliquons notre algorithme à ce modèle paramétrique. Nous étudions la convergence de cet estimateur vers pi lorsque la dimension du modèle logspline et le nombre d'observations tendent vers l'infini. Nous présentons quelques applications
This thesis deals with maximum likelihood estimation in inverse problems. In the tree first chapters, we consider statistical models involving missing data in a parametric framework. Chapter 1 presents a version of the EM algorithm (Expectation Maximization), which combines a stochastic approximation with a Monte Carlo Markov Chain method: the missing data are drawn from a well-chosen transition probability. The almost sure convergence of the sequence generated by the algorithm to a local maximum of the likelihood of the observations is proved. Some applications to deconvolution and change-point detection are presented. Chapter 2 deals with the application of the algorithm to nonlinear mixed effects models. Besides the estimation of the parameters, we estimate the likelihood of the model and the Fisher information matrix. We assess the performance of the algorithm, comparing the results obtained with other methods, on examples coming from pharmacocinetics and pharmacodynamics. Chapter 3 presents an application to geophysics. We perform a joint inversion between teleseismic times and velocity and between gravimetric data and density. Our point of view is innovative because we estimate the parameters of the model which were generally fixed arbitrarily. Moreover we take into account a linear relation between slowness and density. Chapter 4 deals with non parametric density estimation in missing data problems. We propose a logspline estimator of the density of the non observed data, which maximizes the observed likelihood in a logspline model. We apply our algorithm in this parametric model. We study the convergence of this estimator to the density of the non observed data, when the size of the logpline model and the number of observations tend to infinity. Some applications illustrate this method
APA, Harvard, Vancouver, ISO, and other styles

Books on the topic "Détection par maximum de vraisemblance"

1

Mihoubi, Ferhat. Estimation, tests et évaluation du modèle de déséquilibre avec micro-marchés par le pseudo-maximum de vraisemblance: Application à l'emploi en France. Grenoble: A.N.R.T. Université Pierre Mendès France Grenoble 2, 1994.

Find full text
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Détection par maximum de vraisemblance"

1

GIMENEZ, Olivier, Julie LOUVRIER, Valentin LAURET, and Nina Luisa SANTOSTASI. "Démographie et distribution en conditions naturelles : les modèles de Markov cachés." In Approches statistiques pour les variables cachées en écologie, 59–80. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9047.ch3.

Full text
Abstract:
Nous introduisons les modèles de Markov cachés pour formuler les modèles de capture-recapture pour la dynamique des populations et d' « occupancy » pour la distribution des espèces avec détection imparfaite. Cette formulation permet d'estimer les variables cachées par maximum de vraisemblance. Nous illustrons l’approche avec l'estimation de la prévalence d'hybrides chiens loups en Italie, et celle de la distribution des loups en France.
APA, Harvard, Vancouver, ISO, and other styles
2

COGRANNE, Rémi, Marc CHAUMONT, and Patrick BAS. "Stéganalyse : détection d’information cachée dans des contenus multimédias." In Sécurité multimédia 1, 261–303. ISTE Group, 2021. http://dx.doi.org/10.51926/iste.9026.ch8.

Full text
Abstract:
Ce chapitre détaille comment analyser une image numérique en vue d’obtenir des informations sur les données cachées par une méthode de stéganographie. Après une présentation des objectifs, plusieurs stratégies de détection sont ensuite détaillées, notamment les méthodes statistiques utilisant le rapport de vraisemblance, les méthodes par apprentissage reposant soit sur l’extraction de caractéristiques, soit sur l’utilisation de réseaux de neurones profonds.
APA, Harvard, Vancouver, ISO, and other styles
3

ATTO, Abdourrahmane M., Aluísio PINHEIRO, Guillaume GINOLHAC, and Pedro MORETTIN. "Analyse d’ordre fractionnaire et prédiction de trajectoire de cyclones." In Détection de changements et analyse des séries temporelles d’images 1, 159–82. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9056.ch6.

Full text
Abstract:
Les contributions apportées dans le chapitre sont les suivantes. Premièrement, nous proposons un modèle statistique associé à un champ aléatoire rose fractionnaire afin de caractériser le mur de l'oeil du cyclone et la rugosité de l'oeil (modélisation de texture). Deuxièmement, nous proposons une méthode d'estimation du paramètre de ce modèle de champ fractionnaire rose et de détection de la position spatiale de l'oeil du cyclone. La détection de l'oeil est effectuée par trame d'image, en recherchant la région présentant le plus petit paramètre fractal sous la contrainte que cette region soit entouré par des régions associées à des paramètres d'intensité fractale maximum (mur de l'oeil). Un suivi de l'oeil est aussi proposé sur la base de la méthode de détection de l'oeil, en se focalisant sur une recherche de fenêtre plus serrée et en détectant la position future de l'oeil. Nous construisons une suite chronologique de paramètres associés à chaque position spatiale géoréférencée et décrivons cette suite comme un processus autorégressif à moyenne mobile et intégration fractionnaire (ARFIMA). Le modèle ARFIMA capture les variations statistiques tant à long terme qu'à court terme du processus aléatoire d'intensité fractale du cyclone. L'ouragan Isaac est utilisé comme étude de cas.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography