Academic literature on the topic 'Problèmes d’estimation de performances'

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the lists of relevant articles, books, theses, conference reports, and other scholarly sources on the topic 'Problèmes d’estimation de performances.'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Journal articles on the topic "Problèmes d’estimation de performances"

1

Agalati, Barnabé, and Pamphile Degla. "Effet des coûts de transaction sur la performance économique et l’adoption du coton biologique au Centre et Nord du Bénin." International Journal of Biological and Chemical Sciences 14, no. 4 (August 17, 2020): 1416–31. http://dx.doi.org/10.4314/ijbcs.v14i4.20.

Full text
Abstract:
Face au défi de la dégradation de l’environnement et des problèmes sanitaires liés à la production du coton conventionnel au Bénin, la production du coton biologique initiée depuis quelques décennies peine à se développer. Cet article s’intéresse à l’analyse de l’effet des coûts de transaction (CT) sur la performance économique et l’adoption du coton biologique au Centre et au Nord du Bénin. Basée sur un échantillon aléatoire de 408 producteurs dont 168 adoptants du coton biologique, l’étude a utilisé l’approche d’estimation des CT, la régression logistique et le test t de Student pour l’analyse des données. Les résultats montrent que les CT, plus élevés dans le système du coton biologique réduisent considérablement la performance économique de ce système et affectent négativement la probabilité de son adoption. Outre cet effet, il ressort également l’influence négative d’autres facteurs tels que le sexe, le niveau de rendement, la distance domicile-exploitation, le nombre d’années d’expérience dans la production cotonnière et le mode de faire valoir direct sur l’adoption du coton biologique. La formation technique dans la production du coton biologique et la situation géographique exercent par contre une influence positive sur l’adoption du coton biologique.Mots clés : Déterminants, système de production, économie néo-institutionnelle, agriculture biologique English Title: Effect of transaction costs on the economic performance and the adoption of organic cotton in central and northern Benin Regarding the environmental degradation challenge and health problems due to the production of conventional cotton in Benin, organic cotton production initiated several decades ago is struggling to develop. This paper focuses on analyzing the effect of transaction costs on the economic performance and the adoption of organic cotton in central and northern Benin. The study is based on a random sample of 408 producers, including 168 adopters of organic cotton. The transaction costs estimation approach, the logistic regression and the Student's t-test were used for data analysis. The results show that the high transaction costs in the organic cotton system significantly reduce the economic performance of this system and negatively affect the probability of adoption of organic cotton. In addition, there is the negative influence of other factors such as gender, the level of yield, the distance from home to farm, the years of experience in cotton production as well as the direct tenure mode in the adoption of organic cotton. On the other side, technical training in the production of organic cotton and the geographic location have a positive influence on the adoption of organic cotton.Keywords: Determinants, production system, new institutional economics, organic production.
APA, Harvard, Vancouver, ISO, and other styles
2

Lapointe, Alain, and Hugues Moisan. "Élasticité de la demande de logement au Canada." Articles 60, no. 1 (February 9, 2009): 5–23. http://dx.doi.org/10.7202/601273ar.

Full text
Abstract:
RÉSUMÉ L’estimation des élasticités de la demande de logement a été l’objet d’un nombre important d’articles tant au Canada qu’aux États-Unis. Cet intérêt a été entretenu principalement par l’écart des résultats observé d’une étude à l’autre et par la diversité des problèmes économétriques à laquelle conduit ce genre d’estimation. Le présent article, tout en poussant l’investigation un peu plus loin, a l’avantage d’utiliser un échantillon de données individuelles dans les deux plus grandes zones métropolitaines au Canada : Montréal et Toronto. De plus, la spécification du modèle incorpore une variable prix obtenue à partir de l’estimation d’une fonction de prix hédonique. L’article fait d’abord la revue des principaux problèmes économétriques que soulève ce genre d’estimation, et présente ensuite la spécification du modèle finalement retenue aux fins de l’estimateur. Nos résultats montrent que le biais dans l’élasticité-revenu consécutif à l’exclusion de la variable prix dans l’équation de demande est relativement faible par rapport à celui qu’entraînerait une mesure inappropriée du revenu ou encore des dépenses de logement.
APA, Harvard, Vancouver, ISO, and other styles
3

Savard, Claude. "Justesse d'estimation des performances réalisées en compétition par des joueurs de volley-ball de haut niveau." STAPS 16, no. 37 (1995): 19–30. http://dx.doi.org/10.3406/staps.1995.1021.

Full text
Abstract:
La présente étude se situe dans le cadre de la recherche sur l’efficacité des processus d’entraînement des athlètes de haut niveau. L’objectif général est de décrire avec quelle justesse des athlètes estiment leur propre performance en compétition. L’étude a été réalisée auprès d’une équipe universitaire de volley-ball. Les résultats révèlent une variation élevée des erreurs d’estimation de la performance d’un athlète à l’autre : certains athlètes se surestimant, d’autres se sous-estimant. Des athlètes ont commis des erreurs d’estimation importantes allant jusqu’à 14 gestes incorrectement perçus par match. Certains gestes moins remarquables se sont avérés plus difficiles à apprécier en moyenne que d’autres. Il est suggéré aux entraîneurs de tenir compte des erreurs d’estimation des athlètes en rectifiant au besoin la perception qu’ils ont de leur performance par une rétroaction spécifique après chaque match et une fixation adaptée des objectifs de performance.
APA, Harvard, Vancouver, ISO, and other styles
4

Fagnani, Francis, Catherine Severo, and Bruno Detournay. "Aspects socio-économiques de la maladie d’Alzheimer : problèmes méthodologiques d’estimation des coûts." Gérontologie et société 18 / n° 72, no. 1 (August 2, 1995): 80–92. http://dx.doi.org/10.3917/gs.072.0080.

Full text
APA, Harvard, Vancouver, ISO, and other styles
5

Ferrando, Irene, Carlos Segura, and Marta Pla-Castells. "Relations entre contexte, situation et schéma de résolution dans les problèmes d’estimation." Canadian Journal of Science, Mathematics and Technology Education 20, no. 3 (September 2020): 557–73. http://dx.doi.org/10.1007/s42330-020-00102-w.

Full text
APA, Harvard, Vancouver, ISO, and other styles
6

Joseph, Gonel, Karem Chokmani, Taha B. M. J. Ouarda, and André Saint-Hilaire. "Une évaluation de la robustesse de la méthode du krigeage canonique pour l’analyse régionale des débits." Revue des sciences de l'eau 20, no. 4 (January 21, 2008): 367–80. http://dx.doi.org/10.7202/016911ar.

Full text
Abstract:
Résumé Dans le présent article, on se propose d’évaluer la généralité et la robustesse du krigeage canonique, une méthode d’estimation régionale du débit, en l’appliquant pour l’estimation du débit moyen interannuel en régime hydrologique tropical et dans des conditions imparfaites de qualité et de disponibilité de données. Pour ce faire, la méthode du krigeage canonique a été appliquée au cas de Haïti dont le réseau de stations hydrométriques est très limité. Le krigeage canonique a été comparé à la régression linéaire, une méthode simple d’estimation régionale. Selon les critères de performance définis, le krigeage canonique paraît légèrement plus performant que la régression. Il produit des estimations moins biaisées (un biais relatif moyen de ‑ 13 % contre ‑ 20 % pour la régression) et des erreurs relatives légèrement moins importantes (54,4 % contre 59,6 %). Toutefois, le krigeage canonique a été moins performant pour l’estimation du débit des plus grands bassins versants, bien que ses performances globales demeurent acceptables. Par ailleurs, vu les conditions très défavorables dans lesquelles la méthode a été appliquée, il n’a pas été possible de relier la baisse dans les performances du krigeage canonique à une déficience dans la généralité de l’approche et/ou dans sa robustesse.
APA, Harvard, Vancouver, ISO, and other styles
7

Boileau, Marie-José. "Les échecs orthodontiques dans le traitement des classes II." L'Orthodontie Française 87, no. 1 (March 2016): 103–4. http://dx.doi.org/10.1051/orthodfr/2016017.

Full text
Abstract:
Dans le traitement des cas de classe II, comme dans toutes les dysmorphoses, l’échec de nos thérapeutiques peut concerner tout ou partie de nos objectifs de traitement : occlusaux, fonctionnels et esthétiques. Après avoir précisé au travers de cas cliniques la notion d’échec et les limites de l’acceptable dans ces différentes facettes, nous essaierons de déterminer les causes principales de nos échecs afin de mieux les prévenir. L’analyse de la littérature comme celle des cas cliniques montre que ceux-ci reposent le plus souvent sur une erreur d’estimation de la quantité et de la direction de croissance résiduelle, un mauvais contrôle du sens vertical, une prise en charge insuffisante des problèmes fonctionnels, une position inadéquate des incisives maxillaires et mandibulaires. À ces principales erreurs thérapeutiques s’ajoute l’insuffisance de coopération des patients qu’il faut évaluer et entretenir afin de limiter échecs et abandons de traitement.
APA, Harvard, Vancouver, ISO, and other styles
8

Boussemart, Jean Philippe, and Dhafer Saidane. "Convergence et performances des systèmes bancaires des pays de l’OCDE." Articles 81, no. 4 (April 12, 2007): 617–64. http://dx.doi.org/10.7202/014912ar.

Full text
Abstract:
Résumé L’internationalisation et la déréglementation des systèmes bancaires rendent indispensable l’analyse de la convergence de leurs performances. Dans cet article nous nous focalisons sur l’évolution des performances productives et des coûts de production des secteurs bancaires au sein des principaux pays de l’OCDE. En vue d’étudier la convergence des niveaux de ces indicateurs, nous proposons des méthodes d’estimation de la technologie de référence et de la fonction de coût basées sur la notion de fonction distance. Ces approches permettent de comparer les performances des systèmes bancaires non seulement à leur propre passé mais aussi aux meilleures pratiques observées dans le groupe sans imposer a priori trop d’hypothèses restrictives comme l’absence d’inefficacité technique et/ou allocative et les rendements d’échelle constants. Notre étude empirique concerne 17 pays, dont 8 appartenant à la zone euro, sur la période 1988-1998. Si nos résultats indiquent que le processus de convergence des performances bancaires est un phénomène complexe, ils révèlent indéniablement des effets de rattrapage des secteurs nationaux vis-à-vis des leaders situés sur leur frontière d’efficacité productive et de coût.
APA, Harvard, Vancouver, ISO, and other styles
9

JONDREVILLE, C., and J. Y. DOURMAD. "Le phosphore dans la nutrition des porcs." INRAE Productions Animales 18, no. 3 (July 15, 2005): 183–92. http://dx.doi.org/10.20870/productions-animales.2005.18.3.3523.

Full text
Abstract:
Limiter les apports alimentaires de phosphore (P) aux porcs pour en réduire les rejets suppose la mise en œuvre de stratégies d’alimentation permettant de mieux ajuster les apports aux besoins des animaux et mettant en œuvre des voies d’amélioration de la disponibilité de P. Un système d’évaluation de la valeur P des aliments et d’estimation des besoins des animaux s’appuyant sur la digestibilité fécale apparente est proposé. L’impact de facteurs de variation de la digestibilité de P tels que la proportion de P phytique dans P total et la présence de phytases, végétales ou microbiennes, est quantifié. Le nouveau système représente un progrès par rapport à la formulation sur la base de P total, même si l’impact d’autres facteurs de variation identifiés reste à quantifier. Les bases de l’estimation factorielle du besoin en P sont exprimées conformément au concept de digestibilité apparente. Des exemples d’estimation du besoin en P digestible apparent de porcelets, porcs en engraissement et truies en lactation ou en gestation selon leurs caractéristiques et performances sont présentés. Des marges de progrès sont encore possibles pour réduire les apports alimentaires de P aux truies, mais elles devront s’appuyer sur l’acquisition de nouvelles données expérimentales concernant les possibilités de mobilisation et de restauration de la réserve osseuse au cours du cycle de reproduction.
APA, Harvard, Vancouver, ISO, and other styles
10

Heran, F. "La résolution des problèmes dans la production." Revue Française de Gestion Industrielle 12, no. 3 (September 1, 1993): 31–62. http://dx.doi.org/10.53102/1993.12.03.212.

Full text
Abstract:
Les problèmes dans la production sont innombrables etinextricablement mêlés. Derrière le symptôme d'ordre technique (panne d'une machine, défaut de qualité d’un produit...), organisationnel (délai non respecté, complexité des flux...), économique (dérive des coûts, insuffisance des performances...) ou humain (désintérêt au travail, revendications salariales...) se cachent toujours une multiplicité de facteurs explicatifs
APA, Harvard, Vancouver, ISO, and other styles

Dissertations / Theses on the topic "Problèmes d’estimation de performances"

1

Barré, Mathieu. "Worst-case analysis of efficient first-order methods." Electronic Thesis or Diss., Université Paris sciences et lettres, 2021. http://www.theses.fr/2021UPSLE064.

Full text
Abstract:
De nombreuses applications modernes reposent sur la résolution de problèmes d’optimisations (par exemple, en biologie numérique, en mécanique, en finance), faisant des méthodes d’optimisation des outils essentiels dans de nombreux domaines scientifiques. Apporter des garanties sur le comportement de ces méthodes constitue donc un axe de recherche important. Une façon classique d’analyser un algorithme d’optimisation consiste à étudier son comportement dans le pire cas. C'est-à-dire, donner des garanties sur son comportement (par exemple sa vitesse de convergence) qui soient indépendantes de la fonction en entrée de l’algorithme et vraies pour toutes les fonctions dans une classe donnée. Cette thèse se concentre sur l’analyse en pire cas de quelques méthodes du premier ordre réputées pour leur efficacité. Nous commençons par étudier les méthodes d’accélération d’Anderson, pour lesquelles nous donnons de nouvelles bornes de pire cas qui permettent de garantir précisément et explicitement quand l’accélération a lieu. Pour obtenir ces garanties, nous fournissons des majorations sur une variation du problème d’optimisation polynomiale de Tchebychev, dont nous pensons qu’elles constituent un résultat indépendant. Ensuite, nous prolongeons l’étude des Problèmes d’Estimation de Performances (PEP), développés à l’origine pour analyser les algorithmes d’optimisation à pas fixes, à l’analyse des méthodes adaptatives. En particulier, nous illustrons ces développements à travers l’étude des comportements en pire cas de la descente de gradient avec pas de Polyak, qui utilise la norme des gradients et les valeurs prises par la fonction objectif, ainsi que d’une nouvelle version accélérée. Nous détaillons aussi cette approche sur d’autres algorithmes adaptatifs standards. Enfin, la dernière contribution de cette thèse est de développer plus avant la méthodologie PEP pour l’analyse des méthodes du premier ordre se basant sur des opérations proximales inexactes. En utilisant cette approche, nous définissons des algorithmes dont les garanties en pire cas ont été optimisées et nous fournissons des analyses de pire cas pour quelques méthodes présentes dans la littérature
Many modern applications rely on solving optimization problems (e.g., computational biology, mechanics, finance), establishing optimization methods as crucial tools in many scientific fields. Providing guarantees on the (hopefully good) behaviors of these methods is therefore of significant interest. A standard way of analyzing optimization algorithms consists in worst-case reasoning. That is, providing guarantees on the behavior of an algorithm (e.g. its convergence speed), that are independent of the function on which the algorithm is applied and true for every function in a particular class. This thesis aims at providing worst-case analyses of a few efficient first-order optimization methods. We start by the study of Anderson acceleration methods, for which we provide new explicit worst-case bounds guaranteeing precisely when acceleration occurs. We obtained these guarantees by providing upper bounds on a variation of the classical Chebyshev optimization problem on polynomials, that we believe of independent interest. Then, we extend the Performance Estimation Problem (PEP) framework, that was originally designed for principled analyses of fixed-step algorithms, to study first-order methods with adaptive parameters. This is illustrated in particular through the worst-case analyses of the canonical gradient method with Polyak step sizes that use gradient norms and function values information, and of an accelerated version of it. The approach is also presented on other standard adaptive algorithms. Finally, the last contribution of this thesis is to further develop the PEP methodology for analyzing first-order methods relying on inexact proximal computations. Using this framework, we produce algorithms with optimized worst-case guarantees and provide (numerical and analytical) worst-case bounds for some standard algorithms in the literature
APA, Harvard, Vancouver, ISO, and other styles
2

Gasparyan, Samvel. "Deux problèmes d’estimation statistique pour les processus stochastiques." Thesis, Le Mans, 2016. http://www.theses.fr/2016LEMA1031/document.

Full text
Abstract:
Le travail est consacré aux questions de la statistique des processus stochastiques. Particulièrement, on considère deux problèmes d'estimation. Le premier chapitre se concentre sur le problème d'estimation non-paramétrique pour le processus de Poisson non-homogène. On estime la fonction moyenne de ce processus, donc le problème est dans le domaine d'estimation non-paramétrique. On commence par la définition de l'efficacité asymptotique dans les problèmes non-paramétriques et on procède à exploration de l'existence des estimateurs asymptotiquement efficaces. On prend en considération la classe des estimateurs à noyau. Dans la thèse il est démontré que sous les conditions sur les coefficients du noyau par rapport à une base trigonométrique, on a l'efficacité asymptotique dans le sens minimax sur les ensembles divers. Les résultats obtenus soulignent le phénomène qu'en imposant des conditions de régularité sur la fonction inconnue, on peut élargir la classe des estimateurs asymptotiquement efficaces. Pour comparer les estimateurs asymptotiquement efficaces (du premier ordre), on démontre une inégalité qui nous permet de trouver un estimateur qui est asymptotiquement efficace du second ordre. On calcule aussi la vitesse de convergence pour cet estimateur, qui dépend de la régularité de la fonction inconnue et finalement on calcule la valeur minimale de la variance asymptotique pour cet estimateur. Cette valeur joue le même rôle dans l'estimation du second ordre que la constantede Pinsker dans le problème d'estimation de la densité ou encore l'information de Fisher dans les problèmes d'estimation paramétrique.Le deuxième chapitre est dédié au problème de l’estimation de la solution d’une équation différentielle stochastique rétrograde (EDSR). On observe un processus de diffusion qui est donnée par son équation différentielle stochastique dont le coefficient de la diffusion dépend d’un paramètre inconnu. Les observations sont discrètes. Pour estimer la solution de l’EDSR on a besoin d’un estimateur-processus pour leparamètre, qui, chaque instant n’utilise que la partie des observations disponible. Dans la littérature il existe une méthode de construction, qui minimise une fonctionnelle. On ne pouvait pas utiliser cet estimateur, car le calcul serait irréalisable. Dans le travail nous avons proposé un estimateur-processus qui a la forme simple et peut être facilement calculé. Cet estimateur-processus est un estimateur asymptotiquementefficace et en utilisant cet estimateur on estime la solution de l’EDSR de manière efficace aussi
This work is devoted to the questions of the statistics of stochastic processes. Particularly, the first chapter is devoted to a non-parametric estimation problem for an inhomogeneous Poisson process. The estimation problem is non-parametric due to the fact that we estimate the mean function. We start with the definition of the asymptotic efficiency in non-parametric estimation problems and continue with examination of the existence of asymptotically efficient estimators. We consider a class of kernel-type estimators. In the thesis we prove that under some conditions on the coefficients of the kernel with respect to a trigonometric basis we have asymptotic efficiency in minimax sense over various sets. The obtained results highlight the phenomenon that imposing regularity conditions on the unknown function, we can widen the class ofasymptotically efficient estimators. To compare these (first order) efficient estimators, we prove an inequality which allows us to find an estimator which is asymptotically efficient of second order. We calculate also the rate of convergence of this estimator, which depends on the regularity of the unknown function, and finally the minimal value of the asymptotic variance for this estimator is calculated. This value plays the same role in the second order estimation as the Pinsker constant in the density estimation problem or the Fisher information in parametric estimation problems. The second chapter is dedicated to a problem of estimation of the solution of a Backward Stochastic Differential Equation (BSDE). We observe a diffusion process which is given by its stochastic differential equation with the diffusion coefficientdepending on an unknown parameter. The observations are discrete. To estimate the solution of a BSDE, we need an estimator-process for a parameter, which, for each given time, uses only the available part of observations. In the literature there exists a method of construction, which minimizes a functional. We could not use this estimator, because the calculations would not be feasible. We propose an estimator-process which has a simple form and can be easily computed. Using this estimator we estimate the solution of a BSDE in an asymptotically efficient way
APA, Harvard, Vancouver, ISO, and other styles
3

Lacot, Émilie. "L'évaluation psychotechnique des performances mnésiques : problèmes épistémologiques et méthodologiques." Thesis, Toulouse 2, 2014. http://www.theses.fr/2014TOU20099.

Full text
Abstract:
Si les scores psychotechniques ne sont pas des mesures, leur utilisation par les chercheurs an neuropsychologie pour tester des hypothèses de recherche et par les neuropsychologues pour effectuer des bilans mémoire manque de légitimité scientifique. Le chercheur en neuropsychologie qui, à l'aide d'une étude de cas, veut départager deux approches théoriques concurrentes, doit plutôt se demander si les théories prédisent des probabilités de réussite aux items des tests appartenant à des intervalles de valeurs disjoints. Cela suppose que la notion de probabilité de réussite d'un item par le patient soit empiriquement fondée (absence d'apprentissage). Si l'apprentissage a lieu, en particulier chez un patient cérébrolésé, le problème scientifique est différent : il s'agit de découvrir ce qui permet cet apprentissage. Le clinicien, praticien des tests neuropsychologiques, participe quant à lui à une institution diagnostique, contrainte à opérer une sélection des patients qui pourront bénéficier d'examens plus approfondis de leur cerveau. Dans cette perspective, les scores psychotechniques nourrissent un dispositif sociotechnique dont la légitimation ne devrait pas être seulement scientifique mais aussi politique. Le scientisme qui détermine les conditions actuelles de validation des tests non seulement masque la dimension politique de ce dispositif, mais encore empêche les chercheurs de réfléchir à ce que mesurer signifie (le scorage d'une performance n'est pas équivalent au mesurage d'une quantité théorique). La méthodologie de cette réflexion s'appuie (I) sur une série de travaux standards (validation de test, étude de cas) et (II) sur une analyse approfondie de la notion de testabilité des hypothèses de recherche utilisées par les chercheurs en neuropsychologie, ainsi que des hypothèses qui sous-tendent la mesurabilité d'une grandeur théorique
The use of psycho-technical scores by neuropsychology researchers to test research hypotheses and neuropsychologists to perform memory assessments lacks scientific legitimacy if these scores are not measurements. A neuropsychology researcher who wants to decide between two competing theoretical approaches, by means of a case study, rather should consider whether the theories predict the probability of success in test items belonging to disjoint ranges. This implies that the notion of probability of success of an item by the patient is empirically based (absence of any learning). If learning takes place, especially in a patient with brain-injury, the scientific problem is different since it is to discover what make learning possible. The clinician, the practitioner of neuropsychological tests, participates in his turn to a diagnostic institution obliges to make a selection of patients who will benefit from further examination of their brains. In this perspective, the psycho-technical scores feed a socio-technical system whose legitimacy not expected to be merely scientific but also political. Scientism determining the current conditions of test validation not only masks the political aspect of this system, but also prevents researchers to think about what measuring means (the scoring of a performance is not equivalent to measuring a theoretical quantity). The methodology for this reflection is based on (i) a series of standard studies (validation testing, case study) and (ii) a thorough analysis of the notion of testability of research hypotheses used by neuropsychology researchers, and assumptions underlying measurability of a theoretical quantity
APA, Harvard, Vancouver, ISO, and other styles
4

Chaumette, Eric. "Contribution à la caractérisation des performances des problèmes conjoints de détection et d'estimation." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2004. http://tel.archives-ouvertes.fr/tel-00132161.

Full text
Abstract:
Un grand nombre d'applications concrètes (Radar, Sonar, Télécoms ...) requièrent une étape de détection dont l'effet principal est de restreindre l'ensemble des observations disponibles pour l'estimation des paramètres inconnus. Par conséquent, nous établissons l'expression des bornes inférieures de l'Erreur Quadratique Moyenne (EQM) conditionnées par un test d'hypothèse binaire au moyen d'une approche didactique générale. Pour valider l'intérêt de cette démarche, nous montrons également à l'aide d'une application fondamentale, que le problème de la précision de prédiction de l'EQM vraie par une borne inférieure à faible RSB, peut provenir d'une formulation incorrecte de la borne inférieure ne prenant pas en compte la vraie problématique, à savoir les problèmes conjoints de détection-estimation.
APA, Harvard, Vancouver, ISO, and other styles
5

Chaumette, Éric. "Contribution à la caractérisation des performances des problèmes conjoints de détection et d'estimation." Cachan, Ecole normale supérieure, 2004. http://tel.archives-ouvertes.fr/tel-00132161.

Full text
Abstract:
Un grand nombre d'applications concrètes (Radar, Sonar, Télécoms. . . ) requièrent une étape de détection dont l'effet principal est de restreindre l'ensemble des observations disponibles pour l'estimation des paramètres inconnus. Par conséquent, nous établissons l'expression des bornes inférieures de l'Erreur Quadratique Moyenne (EQM) conditionnées par un test d'hypothèse binaire au moyen d'une approche didactique générale. Pour valider l'intérêt de cette démarche, nous montrons également à l'aide d'une application fondamentale, que le problème de la précision de prédiction de l'EQM vraie par une borne inférieure à faible RSB, peut provenir d'une formulation incorrecte de la borne inférieure ne prenant pas en compte la vraie problématique, à savoir les problèmes conjoints de détection-estimation
A wide variety of actual processing (Radar, Sonar, Telecoms. . . ) requires a detection step, who main effect is to restrict the set of observations available for unknown parameter estimation. Therefore, we address the derivation of Mean Square Error (MSE) lower bounds for determinii parameters conditioned by a binary hypothesis testing problem using a didactic approach of wi scope. To prove mat it is meaningful, we also show, with the help of a fundamental applicatior the problem of lower bound tightness at low SNR may arise from an incorrect lower bound formulation that does not take into account the true nature of the problem under investigation: joint detection-estimation problem
APA, Harvard, Vancouver, ISO, and other styles
6

Betencurte, da Silva Wellington. "Aplicação de filtros de partículas para a assimilação de dados em problemas de fronteira móvel." Phd thesis, Toulouse, INPT, 2012. http://oatao.univ-toulouse.fr/11752/1/betencurte.pdf.

Full text
Abstract:
Bon nombre de problèmes d’ingénierie requièrent l’estimation de l’état de systèmes dynamiques. La modélisation de l’espace des états du système est faite à travers un vecteur d’état qui contient toutes informations utiles pour la description du système. Les problèmes d’estimation d’état sont aussi connus comme problèmes inverses non stationnaires. Ils sont d'un grand intérêt dans de nombreuses applications pratiques, afin de produire une estimation séquentielle des variables souhaitées, à partir de modèles stochastiques et de mesures expérimentales. Ceci dans le but d’optimiser statistiquement l’erreur. Ce travail a pour objectif d’appliquer des méthodes de Filtres à Particules à des thermiques et de combustion. Ces algorithmes sont appliqués successivement à un problème de conduction de chaleur, à un problème de solidification et finalement à un problème de propagation d’incendies.
APA, Harvard, Vancouver, ISO, and other styles
7

Razafindralambo, Tahiry. "Performances des couches MAC dans les réseaux sans fil ad hoc : problèmes et solutions." Phd thesis, INSA de Lyon, 2007. http://tel.archives-ouvertes.fr/tel-00532658.

Full text
Abstract:
Un réseau ad hoc est une collection de stations communicant au travers d'un lien sans fil sans l'aide d'aucune autre infrastructure. L'un des principaux défis dans la conception de protocoles pour ce type de réseaux est l'accès au médium. Le standard IEEE 802.11 définit un mode pour les réseaux ad hoc. Cependant, le protocole MAC (Medium Access Control) décrit montre des problèmes d'équité et d'efficacité. Dans cette thèse j'ai d'abord évalué les performances d'algorithmes et de protocoles MAC existants et mis en évidence leurs problèmes de performance grâce à un modèle exploitant le formalisme des algèbres de processus stochastiques. Grâce à ces résultats j'ai proposé deux protocoles MAC (MadMac et PAS) pour les réseaux ad hoc et les réseaux locaux sans fil. Nos protocoles sont différents de ceux présentés dans la littérature car nous essayons de répondre au compromis équité-efficacité et les solutions que nous proposons sont à la fois équitables et efficaces
APA, Harvard, Vancouver, ISO, and other styles
8

Vert, Daniel. "Étude des performances des machines à recuit quantique pour la résolution de problèmes combinatoires." Electronic Thesis or Diss., université Paris-Saclay, 2021. http://www.theses.fr/2021UPASG026.

Full text
Abstract:
La principale contribution de cette thèse est d'étudier expérimentalement le comportement des ordinateurs quantiques analogiques tels que ceux commercialisés par D-Wave lorsqu'ils sont confrontés à des cas de problèmes de couplage biparti de cardinalité maximale spécifiquement conçus pour être difficiles à résoudre au moyen d'un recuit simulé. Nous comparons un "Washington" (2X) de D-Wave avec 1098 qubits utilisables sur différentes tailles d'instances et nous observons que pour tous ces cas, sauf les plus triviaux, la machine ne parvient pas à obtenir une solution optimale. Ainsi, nos résultats suggèrent que le recuit quantique, du moins tel qu'il est mis en œuvre dans un dispositif D-Wave, tombe dans les mêmes pièges que le recuit simulé et fournit donc des preuves supplémentaires suggérant qu'il existe des problèmes polynomiaux qu'une telle machine ne peut pas résoudre efficacement pour atteindre l'optimalité. En outre, nous étudions dans quelle mesure les topologies d'interconnexion des qubits expliquent ces derniers résultats expérimentaux
The main contribution of this thesis is to investigate the behavior of analog quantum computers as commercialized by D-Wave when confronted to instances of the maximum cardinality matching problem which is specifically designed to be hard to solve by means of simulated annealing. We benchmark a D-Wave “Washington” (2X) with 1098 operational qubits on various sizes of such instances and observe that for all but the most trivially small of these it fails to obtain an optimal solution. Thus, our results suggest that quantum annealing, at least as implemented in a D-Wave device, falls in the same pitfalls as simulated annealing and hence provides additional evidences suggesting that there exist polynomial-time problems that such a machine cannot solve efficiently to optimality. Additionally, we investigate the extent to which the qubits interconnection topologies explains these latter experimental results
APA, Harvard, Vancouver, ISO, and other styles
9

Norre, Sylvie. "Problèmes de placement de taches sur des architectures multiprocesseurs : méthodes stochastiques et évaluation des performances." Clermont-Ferrand 2, 1993. http://www.theses.fr/1993CLF21511.

Full text
Abstract:
Cette thèse traite du problème de placement de taches sur des architectures multiprocesseurs. Elle s'inscrit à la fois dans le cadre de la théorie de l'ordonnancement et dans le cadre de la modélisation et de l'évaluation des performances. Un ensemble de taches, non préemptives, de durées quelconques et liées par des contraintes de précédence, doit être éxecuté sur des processus identiques. Les coûts de communication inter-taches sont pris en compte ou non, le nombre de bus étant limite ou non. Dans tous les cas, le critère d'optimisation est la minimisation de la durée d'execution de l'ensemble des taches. Une première partie propose une méthodologie pour la modélisation des problèmes de placement à l'aide des réseaux de petri. Une seconde partie s'interesse a la résolution des problèmes de placement. Deux types d'ordonnancement sont étudiés: les ordonnancements déterministes (les durées d'exécution des taches et les coûts de communication inter-taches sont connus et constants) et les ordonnancements stochastiques (les durées d'exécution des taches et les coûts de communication inter-taches sont modelisés par des lois de probabilité). Pour chacun de ces problèmes, différentes méthodes de résolution sont proposées. Ces méthodes reposent sur le couplage d'algorithmes d'ordonnancement par liste et de méthodes stochastiques. Elles exploitent des modèles de simulation (déterministe ou stochastique) et des modèles markoviens. Ces modèles permettent d'évaluer à la fois la durée des ordonnancements et des modèles markoviens. Ces modèles permettent d'évaluer à la fois la durée des ordonnancements et les performances de l'architecture multiprocesseurs. L'outil retenu pour la construction et l'exploitation de ces modèles est le logiciel qnap2 (queueing network analysis package). Il faut remarquer que l'ensemble des méthodes et outils proposés peut s'appliquer à d'autres systèmes, tels que les systèmes de production
APA, Harvard, Vancouver, ISO, and other styles
10

Touati, Nora. "Amélioration des performances du schéma de la génération de colonnes : application aux problèmes de tournées de véhicules." Paris 13, 2008. http://www.theses.fr/2008PA132032.

Full text
Abstract:
La génération de colonnes est une méthode dédiée à la résolution de problèmes d'optimisation combinatoire de grande taille. Les méthodes utilisant cette approche de résolution ont souvent des problèmes de convergence, particulièrement quand elles sont utlisées pour résoudre des problèmes pratiques, de grandes dimensions. Nous nous intéressons dans cette thèse à l'accéleration de la méthode de génération de colonnes. Nous proposons des téchniques de diversification pour diminuer le nombre total de colonnes généreés ainsi que le temps de résolution des problèmes maîtres. Nous nous intéressons également à la résolution éfficace des sous-problèmes en utilisant des techniques de réoptimisation, mais aussi en proposant des améliorations de la méthode de programmation dynamique. Les approches sont validées expérimentalement sur le problème de tournées de véhicules avec fénêtre de temps
Columgeneration algorithms are instrumental in many areas of applied optimization where linear programs with an enormous number of variables need to be solued. Although success fully used in many applications, this method suffers from well-known "instability" issues, that somewhat limit its efficiency. This work focuses on accelerating strategies in a column generation algorithm. We propose some diversifiication methods in order to decrease the total number of generated columns and then master problems resolution time. We interest also to solving efficiently the pricing problems, by proposing an improning approch based on reoptimization principle and a new variant of the dynamic programming algorithm. The effectiveness of these approches is validated on vehicule routing problem with time windows
APA, Harvard, Vancouver, ISO, and other styles

Book chapters on the topic "Problèmes d’estimation de performances"

1

BENMAMMAR, Badr. "Optimisation des performances de l’IoT : une approche basée sur la radio intelligente." In La gestion et le contrôle intelligents des performances et de la sécurité dans l’IoT, 57–77. ISTE Group, 2022. http://dx.doi.org/10.51926/iste.9053.ch3.

Full text
Abstract:
Pour résoudre les problèmes de spectre, les objets IoT doivent avoir des capacités cognitives. Ainsi, les tendances évoluent vers l’adaptabilité de la radio intelligente à l’IoT. Ce chapitre présente une étude complète sur les défis et les technologies habilitantes de l’IoT. Il s’intéresse également aux motivations et aux défis de l’application de la radio intelligente dans l’IoT.
APA, Harvard, Vancouver, ISO, and other styles
2

PADAMA, Panya. "L’enseignement-apprentissage dans les écoles primaires et secondaires du Cameroun septentrional à l’ère de la COVID-19." In Les écoles africaines à l’ère du COVID-19, 259–74. Editions des archives contemporaines, 2024. http://dx.doi.org/10.17184/eac.7933.

Full text
Abstract:
Le présent chapitre interroge la qualité du processus d'enseignement-apprentissage dans les écoles primaires et secondaires du Cameroun septentrional à l'ère de la COVID-19. Il a été rédigé grâce à des données qualitatives et quantitatives issues de la recherche documentaire et empirique, et analysées sous le prisme des théories constructiviste et socioconstructiviste. Il ressort de cette étude que pour assurer la continuité pédagogique, les pouvoirs publics camerounais et leurs démembrements territoriaux ont mis en place des mécanismes nationaux et régionaux d'adaptation à la pandémie, consistant en des programmes alternatifs d'enseignement à distance synchrones et asynchrones. Ils ont été implémentés à travers la radio, la télévision, WhatsApp et les plateformes e-learning des ministères de l'éducation de base et des enseignements secondaires. Toutefois, la qualité de l'enseignement-apprentissage est restée aléatoire. Parmi les fragilités constatées, figurent la non-pertinence des méthodes transmissives adoptées, le suivi différé des devoirs à faire à la maison et les problèmes d'accessibilité, d'inclusion et d'équité liés à cette éducation à distance. Il en résulte une baisse des performances des élèves aux examens officiels de la session 2020. L'intérêt de cette réflexion se veut ainsi double~: améliorer la pertinence opérationnelle des programmes proposés et veiller à ce qu'ils favorisent effectivement le développement cognitif des apprenants.
APA, Harvard, Vancouver, ISO, and other styles
3

ALOIRD, J., J. P. FREIERMUTH, and J. BOISSIER. "Spécificités et contraintes du transport de patients lors des missions d’évacuations médicalisées par hélicoptère de manoeuvre." In Médecine et Armées Vol. 46 No.4, 331–38. Editions des archives contemporaines, 2018. http://dx.doi.org/10.17184/eac.7322.

Full text
Abstract:
Les évacuations médicalisées de l’avant par hélicoptère de manoeuvre sont des missions particulières aussi bien sur le plan organisationnel que sur le plan technique. Ce maillon de la chaîne d’évacuation se base sur une alerte permanente avec un équipage, une équipe médicale et un hélicoptère dédié. Lors du déclenchement d’une évacuation, quatre phases se succèdent. Celles-ci sont dans l’ordre : une préparation du vol succincte, une phase de vol aller vers le blessé, une phase au sol avec les transmissions des données médicales et une phase retour pendant laquelle le blessé doit bénéficier des meilleurs soins. Cette mission assez particulière est soumise à plusieurs contraintes qui doivent être appréhendées correctement pour la mener à bien : des contraintes aéronautiques notamment les performances de l’aéronef, la météo, le bruit, les cinétoses ; des défis tactiques comme les communications ou les problèmes de vision nocturne ; et enfin des problématiques médicales avec un exercice dans un milieu restreint pouvant inclure la prise en charge simultanée de plusieurs blessés. Les différentes pistes d’améliorations passent probablement par un entraînement spécifique avec le stage de médicalisation tactique en hélicoptère de manoeuvre, une évolution des moyens de communication, une standardisation des procédures de protection du médecin au sol, et enfin une avancée dans les équipements médicaux et les traitements disponibles en vol.
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography