Siga este enlace para ver otros tipos de publicaciones sobre el tema: Modélisation non paramétrique.

Tesis sobre el tema "Modélisation non paramétrique"

Crea una cita precisa en los estilos APA, MLA, Chicago, Harvard y otros

Elija tipo de fuente:

Consulte los 50 mejores tesis para su investigación sobre el tema "Modélisation non paramétrique".

Junto a cada fuente en la lista de referencias hay un botón "Agregar a la bibliografía". Pulsa este botón, y generaremos automáticamente la referencia bibliográfica para la obra elegida en el estilo de cita que necesites: APA, MLA, Harvard, Vancouver, Chicago, etc.

También puede descargar el texto completo de la publicación académica en formato pdf y leer en línea su resumen siempre que esté disponible en los metadatos.

Explore tesis sobre una amplia variedad de disciplinas y organice su bibliografía correctamente.

1

Chikhi, Mohamed. "Modélisation non paramétrique des processus stochastiques : analyse non paramétrique de la non linéarité de l'indice CAC40". Montpellier 1, 2001. http://www.theses.fr/2001MON10024.

Texto completo
Resumen
Dans ce travail, nous nous intéressons à la modélisation dynamique non paramétrique des processus stochastiques. Nous tentons de dépasser la vision traditionnelle traitant les fluctuations observées sur le marché boursier parisien en cherchant à identifier la série de l'indice CAC 40 tout en tenant compte de la méthode du noyau. Dans le chapitre 1, nous précisons la théorie de l'efficience informationnelle des marchés boursiers en distinguant les trois catégories usuelles de l'efficience et étudions les anomalies sur les marchés boursiers. Au chapitre 2, nous testons l'hypothèse d'efficience au sens faible par le biais de divers tests classiques de marché aléatoire et d'autocorrélation. Ensuite, nous appliquons deux tests non paramétriques plus puissants : le test de Mizrach et le test de BDS. Dans un dernier temps, nous testons s'il existe un type de dépendance à long terme en testant le coefficient d'intégration fractionnaire et la mémoire longue. Le chapitre 3 présente des résultats théoriques concernant les prédicteurs non paramétriques et la méthode du noyau. Au chapitre 4, l'étude est consacrée à une mise en œuvre pratique des processus autorégressifs fonctionnels et l'analyse de la volatilité des rendements boursiers avec la présence d'un effet ARCH non paramétrique qu fournit une estimation du risque. Plus spécifiquement, nous nous attachons à déterminer si le modèle NAR-ARCH non paramétrique peut battre la marche aléatoire
In this work, we are interested in the nonparametric dynamic modelling of the stochastic processes. We try to exceed the traditional vision treating the observed fluctuations on the Parisian stock exchange market while seeking to identify the stock exchange CAC 40 series while holding account of the kernel method. In chapter 1, we specify the informational efficiency theory of the stock exchange markets by distinguishing the three usual categories of efficiency and study the anomalies in the stock exchange markets. In chapter 2, we test the weak from efficiency hypothesis by the various traditional tests of random walk and autocorrelation. Then, we apply two more powerful nonparametric tests : Mizrach and BDS tests. In a last time, we test if there is a type of long-term dependence by testing the fractional coefficient of integration and the long memory. .
Los estilos APA, Harvard, Vancouver, ISO, etc.
2

Taramasco, Ollivier. "Modélisation non paramétrique du comportement des cours boursiers". Grenoble 1, 1993. http://www.theses.fr/1993GRE10038.

Texto completo
Resumen
Ce travail a pour objet d'eclairer le comportement des cours d'actions et indices de valeurs. Le processus des rentabilites boursieres est d'abord examine a l'aide des outils statistiques classiques puis des techniques empruntees a la theorie du chaos. L'etude se focalise ensuite sur la nature de la dependance entre les rentabilites consecutives. Celle-ci est decrite par l'analyse factorielle des correspondances et par l'analyse canonique entre deux vecteurs aleatoires. Les resultats montrent qu'il existe, outre la correlation lineaire, une dependance d'allure parabolique, que ces deux formes de dependance restent relativement stables dans le temps et qu'elles ont une interpretation financiere possible. Ces constats conduisent alors a une representation de type arch non parametrique du processus des rentabilites dont les moments conditionnels peuvent etre exprimes a l'aide des fonctions canoniques
Los estilos APA, Harvard, Vancouver, ISO, etc.
3

Rivoirard, Vincent. "Estimation bayésienne non paramétrique". Phd thesis, Université Paris-Diderot - Paris VII, 2002. http://tel.archives-ouvertes.fr/tel-00002149.

Texto completo
Resumen
Dans le cadre d'une analyse par ondelettes, nous nous intéressons à l'étude statistique d'une classe particulière d'espaces de Lorentz : les espaces de Besov faibles qui apparaissent naturellement dans le contexte de la théorie maxiset. Avec des hypothèses de type "bruit blanc gaussien", nous montrons, grâce à des techniques bayésiennes, que les vitesses minimax des espaces de Besov forts ou faibles sont les mêmes. Les distributions les plus défavorables que nous exhibons pour chaque espace de Besov faible sont construites à partir des lois de Pareto et diffèrent en cela de celles des espaces de Besov forts. Grâce aux simulations de ces distributions, nous construisons des représentations visuelles des "ennemis typiques". Enfin, nous exploitons ces distributions pour bâtir une procédure d'estimation minimax, de type "seuillage" appelée ParetoThresh, que nous étudions d'un point de vue pratique. Dans un deuxième temps, nous nous plaçons sous le modèle hétéroscédastique de bruit blanc gaussien et sous l'approche maxiset, nous établissons la sous-optimalité des estimateurs linéaires par rapport aux procédures adaptatives de type "seuillage". Puis, nous nous interrogeons sur la meilleure façon de modéliser le caractère "sparse" d'une suite à travers une approche bayésienne. À cet effet, nous étudions les maxisets des estimateurs bayésiens classiques - médiane, moyenne - associés à une modélisation construite sur des densités à queues lourdes. Les espaces maximaux pour ces estimateurs sont des espaces de Lorentz, et coïncident avec ceux associés aux estimateurs de type "seuillage". Nous prolongeons de manière naturelle ce résultat en obtenant une condition nécessaire et suffisante sur les paramètres du modèle pour que la loi a priori se concentre presque sûrement sur un espace de Lorentz précis.
Los estilos APA, Harvard, Vancouver, ISO, etc.
4

Fischer, Richard. "Modélisation de la dépendance pour des statistiques d'ordre et estimation non-paramétrique". Thesis, Paris Est, 2016. http://www.theses.fr/2016PESC1039/document.

Texto completo
Resumen
Dans cette thèse, on considère la modélisation de la loi jointe des statistiques d'ordre, c.à.d. des vecteurs aléatoires avec des composantes ordonnées presque sûrement. La première partie est dédiée à la modélisation probabiliste des statistiques d'ordre d'entropie maximale à marginales fixées. Les marginales étant fixées, la caractérisation de la loi jointe revient à considérer la copule associée. Dans le Chapitre 2, on présente un résultat auxiliaire sur les copules d'entropie maximale à diagonale fixée. Une condition nécessaire et suffisante est donnée pour l'existence d'une telle copule, ainsi qu'une formule explicite de sa densité et de son entropie. La solution du problème de maximisation d'entropie pour les statistiques d'ordre à marginales fixées est présentée dans le Chapitre 3. On donne des formules explicites pour sa copule et sa densité jointe. On applique le modèle obtenu pour modéliser des paramètres physiques dans le Chapitre 4.Dans la deuxième partie de la thèse, on étudie le problème d'estimation non-paramétrique des densités d'entropie maximale des statistiques d'ordre en distance de Kullback-Leibler. Le chapitre 5 décrit une méthode d'agrégation pour des densités de probabilité et des densités spectrales, basée sur une combinaison convexe de ses logarithmes, et montre des bornes optimales non-asymptotiques en déviation. Dans le Chapitre 6, on propose une méthode adaptative issue d'un modèle exponentiel log-additif pour estimer les densités considérées, et on démontre qu'elle atteint les vitesses connues minimax. L'application de cette méthode pour estimer des dimensions des défauts est présentée dans le Chapitre 7
In this thesis we consider the modelling of the joint distribution of order statistics, i.e. random vectors with almost surely ordered components. The first part is dedicated to the probabilistic modelling of order statistics of maximal entropy with marginal constraints. Given the marginal constraints, the characterization of the joint distribution can be given by the associated copula. Chapter 2 presents an auxiliary result giving the maximum entropy copula with a fixed diagonal section. We give a necessary and sufficient condition for its existence, and derive an explicit formula for its density and entropy. Chapter 3 provides the solution for the maximum entropy problem for order statistics with marginal constraints by identifying the copula of the maximum entropy distribution. We give explicit formulas for the copula and the joint density. An application for modelling physical parameters is given in Chapter 4.In the second part of the thesis, we consider the problem of nonparametric estimation of maximum entropy densities of order statistics in Kullback-Leibler distance. Chapter 5 presents an aggregation method for probability density and spectral density estimation, based on the convex combination of the logarithms of these functions, and gives non-asymptotic bounds on the aggregation rate. In Chapter 6, we propose an adaptive estimation method based on a log-additive exponential model to estimate maximum entropy densities of order statistics which achieves the known minimax convergence rates. The method is applied to estimating flaw dimensions in Chapter 7
Los estilos APA, Harvard, Vancouver, ISO, etc.
5

Duchereau, Jérôme. "Modélisation non paramétrique des incertitudes en dynamique transitoire des systèmes complexes avec incertitudes non homogènes". Paris, CNAM, 2004. http://www.theses.fr/2004CNAM0479.

Texto completo
Resumen
Ce papier est consacré à l’étude de modèles numériques de prévision de la réponse transitoire induite par des chocs sur des structures comprenant des zones d’incertitudes aléatoires non homogènes. Les méthodes classiques d’analyse de telles structures dans les domaines de la Basse et moyenne Fréquence utilisent des modèles matriciels réduits construit sur les modes élastiques. La contribution des modes d’ordre supérieur est très sensible aux erreurs de modélisation. Ici, une méthode probabiliste non paramétrique récente est appliquée pour construire le modèle matriciel d’incertitudes aléatoires. On présente une extension de la méthode non paramétrique au cas des structures complexes, modélisées par une méthode de sous-structuration dynamique, dans laquelle chaque sous-structure possède son propre niveau d’incertitude. Des exemples de prévision numérique des régions de confiance des réponses transitoires sont comparés à des mesures expérimentales et apportent une validation de l’approche proposée
This paper is devoted to numerical models for prediction of transient dynamical response induced by shocks upon structures with inhomogeneous random uncertainties. The usual numerical methods for analyzing such structures in the low- and medium- frequency ranges employ reduced matrix models based on the use of the elastic modes. The contribution of the higher modes is very sensitive to the modelling and data errors. Here, a recent nonparametric probabilistic method is applied to construct the random matrix model allowing modelling and data errors to be taken into account. The paper presents an extension of the nonparametric method for the case of inhomogeneous uncertainties in the structures. A dynamic substructuring method is used and every substructure gets its own uncertainty level. Experiments have been developed in order to validate the nonparametric probabilistic approach of random uncertainties for such dynamical systems
Los estilos APA, Harvard, Vancouver, ISO, etc.
6

Raoux, Jean-Jacques. "Modélisation non-linéaire des composants électroniques : du modèle analytique au modèle tabulaire paramétrique". Limoges, 1995. http://www.theses.fr/1995LIMO0006.

Texto completo
Resumen
Le but de notre travail est la modelisation electrique des composants actifs. Nous avons envisage deux types d'approches. La premiere est une approche analytique qui necessite la mise en uvre d'une methode d'optimisation. Nous avons choisi la methode du recuit simule qui permet de simuler un processus de minimisation d'une fonction en mettant en uvre le critere de metropolis-boltzmann. La seconde approche est plus abstraite: elle consiste a determiner, a partir de tables issues des mesures, des equations respectant un certain nombre de contraintes. On obtient un modele par table. Les methodes d'interpolation ne peuvent convenir pour notre probleme car les erreurs de mesures peuvent induire des erreurs importantes sur les derivees. Nous avons donc mis au point une methode de modelisation a partir de splines d'approximation exprimees dans la base des b-splines et dont les deux principales etapes sont d'une part le developpement d'un algorithme autoadaptatif permettant d'optimiser la repartition des mesures dans l'intervalle d'etude et d'autre part une approche parametrique du probleme. L'integration du modele dans des simulateurs montre la fiabilite de celui-ci et son association au concept de circuit parametrique equivalent permet de simplifier et d'accelerer la resolution de l'equation d'equilibrage harmonique
Los estilos APA, Harvard, Vancouver, ISO, etc.
7

Moreau, Sandrine. "Contribution à la modélisation et à l'estimation paramétrique des machines électriques à courant alternatif : application au diagnostic". Poitiers, 1999. http://www.theses.fr/1999POIT2327.

Texto completo
Resumen
Le travail de recherche relate dans ce memoire consiste a developper une methodologie generale d'estimation des parametres physiques des machines a courant alternatif, et en particulier de la machine asynchrone dans le but de realiser sa maintenance preventive en effectuant le suivi en temps reel de son etat de fonctionnement. Dans une premiere etape les differentes methodes d'estimation parametrique existantes ont ete recensees afin d'analyser leurs performances respectives. Ainsi, une etude theorique comparative du filtre de kalman etendu et des methodes a erreur de sortie en ligne a ete menee. Elle a permis de mettre en evidence leur profonde analogie. Celle-ci s'est ensuite confirmee experimentalement lors de l'application de ces deux familles d'algorithmes a l'identification du modele de park de la machine asynchrone. Une version hors-ligne du filtre de kalman, reposant sur un critere quadratique composite prenant en compte l'information a priori disponible sur le systeme, est egalement proposee. Une strategie de diagnostic de la machine asynchrone basee sur les algorithmes a erreur de sortie, en ligne et hors-ligne, est ensuite elaboree. Cette strategie s'appuie a la fois, sur le modele de park et sur une analyse frequentielle des residus d'estimation parametrique resultants pour detecter et discriminer un defaut stator d'un defaut rotor, et sur un modele triphase du stator pour permettre la localisation du defaut statorique. Afin de valider experimentalement la procedure de diagnostic ainsi definie, un certain nombre d'essais, en situation normale de fonctionnement et en situation de defauts (court-circuit entre spires au stator, rupture de barres au rotor), sont exploites. En parallele, une reflexion est engagee pour affiner la modelisation par la prise en compte du phenomene de saturation ferromagnetique et des pertes dans le fer. L'etude experimentale de la bobine a noyau de fer, structure de base des machines electriques, a alors permis de valider le modele non lineaire de saturation retenu ainsi que la methode d'identification developpee.
Los estilos APA, Harvard, Vancouver, ISO, etc.
8

Agbodan, Dago. "Nomination persistante dans un modèle paramétrique : identification non-ambigue͏̈ et appariement générique d'entités topologiques". Poitiers, 2002. http://www.theses.fr/2002POIT2313.

Texto completo
Resumen
Les modèles paramétriques ont une structure duale où une représentation abstraite (la spécification paramétrique) référence une représentation explicite (la géométrie). Le problème de la nomination persistante est de maintenir les références entre ces deux représentations afin de pouvoir réévaluer la seconde à partir de la première, malgré les modifications. Il s'agit d'identifier une entité dans un modèle initial puis de la retrouver dans un modèle réévalué. Nous proposons de représenter dans un graphe les évolutions des coques et faces des objets modélisés. Chaque entité référencée par la spécification est caractérisée en termes des nœuds du graphe, et d'un lien vers la géométrie courante. La mise en correspondance des graphes initial et réévalué, ainsi que leur parcours à la recherche d'éléments communs, permettent de réévaluer les références et donc de maintenir le lien entre la spécification et la géométrie dans l'objet réévalué, assurant de la sorte une nomination persistante
Parametric models have a dual structure where an abstract representation (the parametric specification) references an explicit representation (the geometry). The persistent naming problem is to maintain the references between these two representations in order to be able to reevaluate the second starting from the first, in spite of modifications. The problem is to identify an entity in an initial model, then to find it in a reevaluated model. We propose to represent evolutions of the shells and faces of the modeled objects in a graph. Each entity referenced by the specification is characterized in terms of the graph nodes, and by a link to the current geometry. Matching the initial graph and a reevaluated graph throughout a revaluation, and then, searching common elements in these graphs, allows us to interpret the references and thus to maintain the link between the parametric specification and the geometry in the reevaluated object, ensuring a persistent naming
Los estilos APA, Harvard, Vancouver, ISO, etc.
9

Villemur, Charles. "Modélisation paramétrique et classification automatique de signaux de forme transitoire : application au contrôle non-destructif". Toulouse, INPT, 1988. http://www.theses.fr/1988INPT082H.

Texto completo
Resumen
Le present document traite de l'application de techniques de modelisation parametrique au traitement d'un type particulier de signaux transitoires: signaux courants de foucault en controle non-destructif. L'expose a ete divise en trois parties: modelisation, segmentation et classification automatique. La premiere partie est essentiellement theorique: on donne de nouvelles formulations de la methode de prony en utilisant la fonction d'autocorrelation du signal. On etudie le fonctionnement d'un algorithme de soustraction de bruit dans le cas de signaux transitoires bruites et on montre que cet algorithme peut etre formule adaptativement. La seconde partie est consacree a l'evaluation des performances respectives de trois algorithmes de segmentation appliques aux signaux etudies. Ces algorithmes sont tous bases sur des modeles autoregressifs mais different quant au test de decision pour la detection d'un saut de parametres. Dans la troisieme partie, notre but est de definir un outil de classification automatique pour la reconnaissance de formes apparaissant dans des signaux de controle et detectees par l'algorithme de segmentation precedemment defini. Le travil consiste a definir le couple optimal vecteur modele parametrique plus metrique qui donne le meilleur pourcentage de bien-classes sur une base d'apprentissage. Afin de choisir les parametres les plus pertinents, nous proposons deux regles de selection. On verifie ensuite les qualites de cet outil de classification sur une base de donnees de test
Los estilos APA, Harvard, Vancouver, ISO, etc.
10

Boitard, Philippe. "Dynamique des véhicules industriels : modélisation non-linéaire pour l'application à la sécurité active et à l'identification paramétrique". Lyon, INSA, 1999. http://www.theses.fr/1999ISAL0081.

Texto completo
Resumen
Dans un contexte de raccourcissement des temps de développement, il devient indispensable pour les constructeurs automobiles, d'utiliser la simulation informatique comme outil de prédiction et de mise au point. Afin d'étudier le comportement des véhicules lourds, une modélisation a été mise au point. Une traduction mathématique du modèle a été réalisée grâce à un programme informatique de mise en équations semi-assistée, spécialement développé pour cette application. Cet outil est basé sur un logiciel de calcul formel : Maple. Un environnement informatique de simulation a été conçu. Il utilise la modularité de l'environnement Matlab. D'un point de vue expérimental, une méthode d'identification paramétrique est présentée. Celle-ci est utilisée pour paramétrer et pour aider à la corrélation des modèles. Une comparaison entre le calcul et la mesure est effectuée sur un véhicule de type Renault Midliner. Un exemple d'utilisation de la simulation est présenté dans le cas du freinage en courbe et du renversement
In a context of shortening the times of development, it becomes essential for the car manufacturers, to use data-processing simulation like prediction and development tools. In order to study the heavy vehicle handling, a modeling was developed. A mathematical translation of the model was carried out thanks to a program especially developed for this application. This tool is based on symbolic mathematical software called Maple. A data processing environment of simulation was conceived. It uses the modularity of the Matlab / Simulink environment. From an experimental point of view, a parametric identification method is presented. This one is used to parameterise and contribute to the correlation of the models. A comparison between calculation and measurement is carried out on a vehicle of the Renault Midliner type. An example of simulation is presented in the case of a braking in curve and rollover maneuvers
Los estilos APA, Harvard, Vancouver, ISO, etc.
11

Pugsley, Gareth. "Modélisation paramétrique non linéaire des machines asynchrones et démarche d'optimisation associée : application au dimensionnement dans les véhicules hybrides". Phd thesis, Grenoble INPG, 2004. http://tel.archives-ouvertes.fr/tel-00408322.

Texto completo
Resumen
Ce travail concerne l'étude des machines asynchrones à cage dans les applications de traction automobile, en particulier pour les véhicules hybrides. Nous avons développé des modèles et des méthodes utiles pour analyser et dimensionner de telles machines électriques. Nous avons tout d'abord mis au point un modèle électromagnétique non linéaire de la machine, déterminé à partir d'un nombre restreint de calculs "éléments finis". Ce modèle a ensuite été adapté pour réaliser des études de sensibilités sur quelques dimensions géométriques importantes. Il permet d'adapter rapidement une machine à un nouveau cahier des charges. Nous avons finalement étendu cette méthode de modélisation pour prendre en compte un plus grand nombre de paramètres géométriques. Ce dernier modèle paramétrique a été utilisé pour l'optimisation sous contrainte des dimensions d'une machine. Pour cela, nous avons proposé une nouvelle méthode "d'optimisation à modèle recalé" qui concilie précision, rapidité et simplicité. Cette démarche a été appliquée au cas concret d'un dimensionnement de machine asynchrone avec un cahier des charges typique d'un véhicule hybride.
Los estilos APA, Harvard, Vancouver, ISO, etc.
12

Rhaiem, Mehdi. "Efficience de la recherche dans les écoles de gestion au Canada : modélisation par des approches paramétriques et non-paramétriques". Doctoral thesis, Université Laval, 2018. http://hdl.handle.net/20.500.11794/36193.

Texto completo
Resumen
La production des connaissances revêt une grande valeur pour les gouvernements, les universités et les chercheurs. Pour ces derniers, aujourd’hui plus que jamais, la recherche prend de plus en plus d’importance dans leurs portefeuilles d’activités. Plusieurs facteurs motivent cette nouvelle tendance, notamment l’adoption, dans plusieurs pays, de systèmes de financement de la recherche axée sur la productivité, la concurrence en matière de recherche qui est devenue mondiale, la prolifération des outils uniformisés de mesure de l’excellence scientifique, et l’importance de la performance et de la productivité en recherche dans la réussite de la trajectoire de carrière des chercheurs. Cependant, la performance des chercheurs universitaires est très variable, tant entre les disciplines qu’au sein d’une même discipline. Ces constats renforcent la pertinence de questionner l’allocation et la gestion des ressources dans le domaine de la recherche universitaire. La présente étude s’attaque à cette problématique dans le cadre spécifique de la recherche dans les Écoles de gestion au Canada. Son objectif général est, d’une part, de dresser un portrait détaillé de l’avancement des connaissances sur le concept de l’efficience de la recherche académique et d’identifier les principaux jalons qui ont marqué son évolution au cours des deux dernières décennies et, d’autre part, d’évaluer l’efficience en matière de publications et de citations des chercheurs dans les Écoles de gestion au Canada et d’identifier les déterminants susceptibles d’expliquer les écarts d’efficience entre eux. La thèse est structurée en trois articles. Le premier article a préconisé la méthode de la revue systématique de la littérature et celle du « vote counting » pour édifier un cadre conceptuel intégrateur des intrants, des extrants et des déterminants de l’efficience de la recherche académique. Il a également permis d’identifier plusieurs opportunités de recherche pour contribuer à l’avancement des connaissances dans ce champ d’étude. Le deuxième article a utilisé une nouvelle méthode, « The Reference Publication Year Spectroscopy » pour étudier en profondeur le concept de l’efficience de la recherche académique en identifiant ses racines historiques ainsi que les contributions qui ont conditionné son évolution. Ces deux premiers articles ont permis de satisfaire à la première partie de l’objectif général de cette recherche : « dresser un portrait détaillé de l’avancement des connaissances sur le concept de l’efficience de la recherche académique et d’identifier les principaux jalons qui ont marqué son évolution au cours des deux dernières décennies ». Tirant profit des constats et des contributions potentielles à l’avancement des connaissances identifiés dans les deux premiers articles, le troisième article de la thèse a estimé des frontières paramétriques et nonparamétriques de l’efficience en matière de publications et de citations des chercheurs dans huit disciplines de recherche dans les Écoles de gestion au Canada. Il a également identifié plusieurs déterminants des écarts d’efficience entre les chercheurs affiliés à ces Écoles. Entre autres, les résultats de ce troisième article ont montré que les niveaux d’efficience diffèrent d’une manière significative d’un champ disciplinaire à un autre, et au sein même des champs disciplinaires, et que l'accréditation AACSB, l'affiliation à des universités prestigieuses, la taille de l'institution, les sources de financement et la séniorité sont positivement associées à des niveaux d’efficience élevés. Les résultats des trois articles ont permis de suggérer quelques pistes de réflexion et d’intervention pouvant améliorer l’efficience de la recherche académique des chercheurs en général, et de ceux affiliés aux Écoles de gestion au Canada, en particulier.
The production of knowledge is of great importance to governments, universities and researchers. For the latter, today more than ever, research is becoming more and more important in their portfolios of activities. A number of factors are driving this new trend, including the introduction of productivity-driven research funding systems in a number of countries, global competition for research, the proliferation of standardized tools for assessing scientific excellence, and the importance of research performance and productivity in researchers’ career path success. However, the performance of university researchers varies greatly between disciplines and within the same discipline. These findings reinforce the relevance of questioning the allocation and management of resources in the field of university research. This study addresses this issue in the specific context of research in Canadian Business Schools. Its aims, on the one hand, to draw a detailed portrait of the advancement of knowledge on the concept of the efficiency of academic research and to identify the main milestones that have marked its evolution over the last two decades and, on the other hand, to evaluate the efficiency of academic research of Canadian Business Schools’ scholars and to identify the determinants that may explain the differences in efficiency between them. The thesis allowed the production of three articles. The first one used the systematic review of the literature and the method of vote counting to build an integrative conceptual framework of inputs, outputs, and determinants of the efficiency of academic research. It has also identified several research opportunities to contribute to the advancement of knowledge in this field of study. The second article used a new method, The Reference Publication Year Spectroscopy, to study in depth the concept of the efficiency of academic research by identifying its historical roots as well as the contributions that marked its evolution. These first two articles made it possible to satisfy the first part of the general objective of this research: “to draw a detailed portrait of the advancement of knowledge on the concept of the efficiency of academic research and to identify the main milestones that have marked its evolution over the last two decades”. Taking advantage of the findings and potential contributions to the advancement of knowledge identified in the first two articles, the third article estimated parametric and non-parametric frontiers of efficiency of scholars’ publications and citations in eight research disciplines in Canadian Business schools. It also allowed to identify several levers of efficiency gaps among researchers affiliated with these schools. Among other things, the results of this third article showed that efficiency scores differ significantly from one disciplinary field to another, and even within disciplinary fields, and that AACSB accreditation, affiliation to prestigious universities, size of institution, sources of funding and seniority are positively associated with high levels of efficiency. The findings of the three articles devised some lines of action that might improve the efficiency of academic research for researchers in general and those affiliated with Canadian Business schools, in particular.
Los estilos APA, Harvard, Vancouver, ISO, etc.
13

Jabloun, Meryem. "Modélisation de signaux fortement non stationnaires à phase et à amplitude locales polynomiales". Phd thesis, Grenoble INPG, 2007. http://tel.archives-ouvertes.fr/tel-00176079.

Texto completo
Resumen
Ce travail de recherche est consacré à l'élaboration et le développement d'une nouvelle méthode d'estimation
et de reconstruction de signaux fortement non-stationnaires, modulés non-linéairement à la fois
en amplitude et en fréquence. L'estimation de tels signaux dans un contexte trés bruité est un problème
délicat et les méthodes existantes de la littérature présentent plusieurs inconvénients dans ce cas.
Nous avons montré comment une approche locale permet une meilleure adaptabilité du modèle à la
nature des variations locales des amplitudes et des fréquences instantanées. Les résultats de l'estimation
sont par conséquent améliorés. L'originalité de la méthode proposée tient à l'application de modèles paramétriques bien adaptés sur des segments temporels de courtes durées extraits du signal étudié. Nous
avons proposé une stratégie de segmentation puis une stratégie de fusion des segments estimés permettant
la reconstruction du signal dans la totalité de sa durée. L'approche proposée permet de s'affranchir d'un
modèle global du signal requérant un ordre d'approximation élevé.
La validation de l'efficacité de l'estimation a été effectuée au préalable sur un segment temporel court.
Le modèle considéré localement consiste en une approximation polynomiale de la fréquence et de l'amplitude
exprimée dans une base polynomiale discrète et orthonormale que nous avons calculée. Cette base
permet de réduire le couplage entre les paramètres du modèle. Nous proposons et comparons deux techniques
différentes pour estimer ces derniers. La première est fondée sur la maximisation de la fonction
de vraisemblance en utilisant la technique d'optimisation stochastique le recuit simulé. Tandis que la
deuxième se base sur une approche Bayésienne employant les méthodes MCMC simulées par l'algorithme
de Metroplois-Hastings.
Nous montrons, sur des simulations et également sur des signaux réels, que l'approche proposée fournit
de bons résultats d'estimation par comparaison à celles de la HAF.
Los estilos APA, Harvard, Vancouver, ISO, etc.
14

Jabloun, Meryem. "Modélisation de signaux fortement non stationnaires à phase et à amplitude locales polynomiales". Phd thesis, Grenoble INPG, 2007. http://www.theses.fr/2007INPG0077.

Texto completo
Resumen
Ce travail de recherche est consacré à l’élaboration et le développement d’une nouvelle méthode d’estimation et de reconstruction de signaux fortement non-stationnaires, modulés non-linéairement à la fois en amplitude et en fréquence. L’estimation de tels signaux dans un contexte trés bruité est un problème délicat et les méthodes existantes de la littérature présentent plusieurs inconvénients dans ce cas. Nous avons montré comment une approche locale permet une meilleure adaptabilité du modèle à la nature des variations locales des amplitudes et des fréquences instantanées. Les résultats de l’estimation sont par conséquent améliorés. L’originalité de la méthode proposée tient à l’application de modèles paramétriques bien adaptés sur des segments temporels de courtes durées extraits du signal étudié. Nous avons proposé une stratégie de segmentation puis une stratégie de fusion des segments estimés permettant la reconstruction du signal dans la totalité de sa durée. L’approche proposée permet de s’affranchir d’un modèle global du signal requérant un ordre d’approximation élevé. La validation de l’efficacité de l’estimation a été effectuée au préalable sur un segment temporel court. Le modèle considéré localement consiste en une approximation polynomiale de la fréquence et de l’amplitude exprimée dans une base polynomiale discrète et orthonormale que nous avons calculée. Cette base permet de réduire le couplage entre les paramètres du modèle. Nous proposons et comparons deux techniques différentes pour estimer ces derniers. La première est fondée sur la maximisation de la fonction de vraisemblance en utilisant la technique d’optimisation stochastique le recuit simulé. Tandis que la deuxième se base sur une approche Bayésienne employant les méthodes MCMC simulées par l’algorithme de Metropolis-Hastings. Nous montrons, sur des simulations et également sur des signaux réels, que l’approche proposée fournit de bons résultats d’estimation par comparaison à celles de la HAF
This work concentrates on the estimation and reconstruction of highly non-stationary signals having both non-linear amplitude and frequency modulations. We propose a new method for estimating the above mentioned signals with high additive noises. Most of the previously published work in this domain is plagued by shortcomings and at times even fails to address the problem of estimation. We have shown that by using a local approach, which provides flexibility to fit to the local variations of the instantaneous amplitude and frequency, the estimation results are improved significantly. The novelty of the presented work consists in the use of parametric models well-adapted and defined on short time segments. We have also proposed a new technique for obtaining short time segments from the entire signal. Finally, we propose a merging strategy to reconstruct the entire signal along with its modulations. The proposed estimation approach is great interest as it does not require a higher order model to estimate the entire signal. Initially, we validate the estimation effeciency of the local model considering a short time segment. This local model uses polynomial approximations of both local instantaneous amplitude and frequency, decomposed using a discrete orthonormal base which we derived. We also affirm that this base reduces the coupling of model parameters. Hence, the estimation accuracy is enhanced. Furthermore, we have compared two techniques to estimate the model parameters. The first approach is based upon the maximization of the likelihood function by means of an optimization stochastique technique named Simulated Annealing. The second approach uses the MCMC methods with Metropolis-Hastings algorithm. We demonstrate using simulations and real applications that the proposed approach improves both performance and robustness of signal estimation as compared to the existing Higher Ambiguity function based technique
Los estilos APA, Harvard, Vancouver, ISO, etc.
15

Poilleux-Milhem, Hélène. "Test de validation adaptatif dans un modèle de régression : modélisation et estimation de l'effet d'une discontinuité du couvert végétal sur la dispersion du pollen de colza". Paris 11, 2002. http://www.theses.fr/2002PA112297.

Texto completo
Resumen
L'étude de la dissémination de trans-gènes dans l'environnement constitue l'une des parties de la thèse. Plusieurs modélisations paramétriques de la fonction de dispersion de pollen ont déjà été élaborées en milieu homogène (plantes émettant du pollen marqué entourées de plantes identiques non marquées). Afin de prédire la "pollution génétique" dans des dispositifs de cultures variés, il convient de tenir compte de l'effet d'une discontinuité dans une culture ( e. G. Une route traversant un champ) sur la dispersion du pollen. Cet effet est modélisé et estimé pour deux expériences en champ sur le colza. Il correspond alors à une accélération de la dispersion du pollen qui dépend de la largeur de la discontinuité. Des méthodes graphiques de diagnostic ont permis de conclure que la modélisation par des fonctions constantes par morceaux, de la décroissance de la fonction de dispersion individuelle et de l'effet de la discontinuité, est celle ajustant au mieux les données. Avant d'utiliser les modèles paramétriques pour prédire la pollution génétique, il est indispensable de disposer d'outils de validation. Aussi nous proposons un test de validation de modèle paramétrique dans un cadre de régression non linéaire, les observations étant gaussiennes, indépendantes et de même variance. Ce test ne nécessite aucune connaissance a priori sur la fonction de régression et la variance des observations. Il généralise les tests d'hypothèses linéaires élaborés par Baraud et al (Ann. Statist. 2003, Vol. 31) au cadre non linéaire. Il est asymptotiquement de niveau α et asymptotiquement puissant sur une classe de fonctions que nous avons caractérisée. Il atteint la vitesse de séparation optimale au sens adaptatif minimax pour des classes de fonctions höldériennes, isotropes ou anisotropes. La vitesse de séparation pour des alternatives directionnelles est proche de la vitesse paramétrique. Une étude de simulation valide la procédure à distance finie
This thesis framework is the spread of genetically modified organisms in the environment. Several parametric models of the individual pollen dispersal distribution have already been proposed for homogeneous experiments (plants emitting marked pollen surrounded by the same unmarked plants). In order to predict the "genetic pollution" in an agricultural landscape, a discontinuity effect on pollen flows in a cultivated area (e. G. A road crosses a field) has to be taken into account. This effect was modelled and estimated: according to the size of the discontinuity, it may correspond to a significant acceleration of the pollen flow. Graphical diagnosis methods show that the modelling of the individual pollen dispersal distribution and of the discontinuity effect, is best fitting the data when using constant piecewise functions. Prior to using parametric models to predict genetic pollution, goodness-of-fit tools are essential. We therefore propose a goodness-of-fit test in a nonlinear Gaussian regression model, where the errors are independent and identically distributed. This test does not require any knowledge on the regression function and on the variance of the observations. It generalises the linear hypothesis tests proposed by Baraud et al (Ann. Statist. 2003, Vol. 31) to the nonlinear hypothesis. It is asymptotically of level α and a set of functions over which it is asymptotically powerful is characterized. It is rate optimal among adaptive procedures over isotropic and anisotropic Hölder classes of alternatives. It is consistent against directional alternatives that approach the null hypothesis at a rate close to the parametric rate. According to a simulation study, this test is powerful even for fixed sample sizes
Los estilos APA, Harvard, Vancouver, ISO, etc.
16

Ben, Salah Hanene. "Gestion des actifs financiers : de l’approche Classique à la modélisation non paramétrique en estimation du DownSide Risk pour la constitution d’un portefeuille efficient". Thesis, Lyon 1, 2015. http://www.theses.fr/2015LYO10249/document.

Texto completo
Resumen
La méthode d'optimisation d'un portefeuille issue de la minimisation du DownSide Risk a été mise au point pour suppléer les carences de la méthode classique de Markowitz dont l'hypothèse de la normalité de la distribution des rendements se trouve défaillante très souvent. Dans cette thèse, nous proposons d'introduire des estimateurs non paramétriques de la moyenne ou de la médiane conditionnelle pour remplacer les rendements observés d'un portefeuille ou des actifs constituant un portefeuille dans le cas du DownSide Risk. Ces estimateurs nous permettent d'obtenir des frontières efficientes lisses et facilement interprétables. Nous développons des algorithmes itératifs pour résoudre les différents problèmes d'optimisation permettant d'obtenir des portefeuilles optimaux. Nous proposons aussi une nouvelle mesure de risque dit risque conditionnel qui tient compte des anticipations des valeurs futures des différents rendements. Pour le définir nous avons fait appel aux prédicteurs non paramétriques basés sur l'estimation de la moyenne conditionnelle. Enfin, nous avons testé et validé toutes nos méthodes sur des données issues de différents marchés et nous avons montré leur performance et leur efficacité comparées aux méthodes classiques
The DownSide Risk (DSR) model for portfolio optimization allows to overcome the drawbacks of the classical Mean-Variance model concerning the asymmetry of returns and the risk perception of investors. This optimization model deals with a positive definite matrix that is endogenous with respect to the portfolio weights and hence leads to a non standard optimization problem. To bypass this hurdle, we developed a new recursive minimization procedure that ensures the convergence to the solution and gives a smooth portfolio efficient frontier. Our method consists in replacing all the returns by their nonparametric estimators counterpart using kernel mean or median regressions. This technique provides an effect similar to the case where an infinite number of observations is available. We also develop a new portfolio optimization model where the risks are measured through conditional variance or semivariance. This strategy allows us to take advantage from returns prediction which are obtained by nonparametric univariate methods. The prediction step uses kernel estimation of the conditional mean. Data from different markets are used to test and validate the proposed approaches, and results indicate better overall performance
Los estilos APA, Harvard, Vancouver, ISO, etc.
17

Mesnil, Florence. "Extension d'une méthode non paramétrique d'estimation dans les modèles mixtes pour l'analyse de données répétées : exemples en pharmacocinétique et en épidémiologie". Paris 11, 1999. http://www.theses.fr/1999PA11T037.

Texto completo
Resumen
L'analyse de données répétées constitue un champ d’investigation en plein développement dans le domaine des biostatistiques. Nous nous intéressons aux données de type continu, rencontrées par exemple en pharmacocinétique, et aux données de type binaire présentes en pharmacodynamie et en épidémiologie. Une première partie est consacrée aux modèles de régression non linéaire à effets mixtes en pharmacocinétique. Différentes méthodes d'estimation paramétriques ou non paramétriques sont d'abord présentées. Nous proposons ensuite une extension de la méthode non paramétrique de maximum de vraisemblance, NPML, pour l'estimation d'effets fixes. Cette méthode est évaluée sur des données simulées de concentration de quinidine. Ses performances, comparées à celles d'autres méthodes d'estimation, sont satisfaisantes. Une application à l'analyse de la pharmacocinétique de population de la mizolastine est également présentée. Ces deux exemples illustrent les différents intérêts de l'introduction d'effets fixes en modélisation pharmacocinétique. La deuxième partie concerne les modèles de régression logistique à effets mixtes en pharmacodynamie et en épidémiologie. Nous décrivons les différentes méthodes d'estimation, paramétriques et non paramétriques, déjà utilisées dans ce domaine. Nous proposons le développement de la méthode NPML pour l'estimation en régression logistique à effets mixtes. NPML est tout d'abord évaluée sur des données discrètes simulées à partir d'un exemple épidémiologique classique. Ses performances pour l'estimation des paramètres du modèle et pour la détection des relations avec, différentes covariables sont comparées à celles de la méthode paramétrique NONMEM. Enfin, l'application de NPML à l'analyse de données discrètes réelles montre comment cette méthode permet de détecter les relations avec les covariables, puis de mettre en place un modèle paramétrique décrivant ces relations.
Los estilos APA, Harvard, Vancouver, ISO, etc.
18

Boulanger, Jérôme. "Estimation non-paramétrique et contributions à l'analyse de séquences d'images : modélisation, simulation et estimation du trafic intra-cellulaire dans les séquences de vidéo-microscopie". Rennes 1, 2007. ftp://ftp.irisa.fr/techreports/theses/2007/boulanger.pdf.

Texto completo
Resumen
Cette thèse traite de l'analyse de séquences de vidéo-microscopie. Un premier volet concerne la restauration de séquences d'images. Dans notre approche de régression non-paramétrique adaptative, l'intensité est estimée au moyen de moyennes pondérées des observations sélectionnées dans un voisinage variable. L'utilisation d'une suite croissante de voisinages spatio-temporels emboîtés permet de contrôler l'équilibre biais-variance de l'estimateur en minimisant ainsi le risque quadratique local en vue de déterminer les dimensions optimales du voisinage. L'utilisation de motifs spatio-temporels nous permet de sélectionner les points participant à l'estimation préservant ainsi les textures. Le second volet porte sur l'analyse du trafic intracellulaire. Un modèle décrivant séparément les composantes à variations rapides et les composantes à variation lentes est construit. Une analogie avec les réseaux de communications nous a permis de définir un modèle capable de capter la dynamique des intermédiaires de transport
In this document, the problem of the restauration of videomicroscopy image sequences is first analyzed using an adaptive non-parametric estimation approach. A sequence of growing neighborhoods is thus design to control the bias-variance tradeoff of our estimator based on a weighted average of the data in a adapted neighborhood at the considered location. This procedure allows us to minimize the local quadratic risk in order to select the optimal extent of the neighborhood. The estimator selects points in this neighborhood using a similarity measure based on a distance computed between patches provides a way to better preserve the structures of the image. The analysis and the modelisation of the intracellular membrane trafficking is latter discussed distinguishing the slowy moving component and fast moving component of the sequence. A model based on the analogy between intracellular traffic and communication networks is used to capture the dynamic of the transport intermediates
Los estilos APA, Harvard, Vancouver, ISO, etc.
19

Victori, Stéphane. "Etude de l'affinement spectral d'un oscillateur paramétrique optique (OPO) en régime nanoseconde par insertion d'un cristal photoréfractif : Modélisation des OPO monomodes". Phd thesis, Université Pierre et Marie Curie - Paris VI, 2001. http://pastel.archives-ouvertes.fr/pastel-00714252.

Texto completo
Resumen
La première partie de ce travail concerne la théorie des Oscillateurs Paramétriques Optiques (OPO) en régime nanoseconde. On présente tout d'abord des rappels sur les milieux non-linéaires et anisotropes, permettant de caractériser le couplage non-linéaire. Ensuite, les équations paramétriques obtenues par prise en compte ou non de la dispersion des indices et de la divergence du champ électrique sont démontrées. Un état de l'art sur les modèles et sur les techniques d'affinement spectral clôt cette partie. La deuxième partie présente deux schémas numériques d'intégration des équations paramétriques. Le premier, basé sur le principe du " split-step ", consiste à intégrer successivement les équations liées aux effets non-linéaires et à la propagation. Il est possible de tenir compte de la fluorescence paramétrique afin de simuler le démarrage de l'OPO. Le second est basé sur une transformation des équations, permettant ainsi d'intégrer les équations de Schrödinger non-linéaires dérivées par la méthode du point fixe, pour des schémas aux différences finies, avec une discrétisation de type Crank-Nicolson. La troisième partie présente des comparaisons entre les simulations numériques et les réalisations expérimentales d'OPO vérifiant ou non les hypothèses des modèles. Puis, elle introduit le principe (nouveau) d'affinement spectral de sources cohérentes par insertion d'un cristal photoréfractif. Ce principe est appliqué à deux lasers continus, puis deux lasers et un OPO en régime nanoseconde. En régime continu, on observe un affinement du spectre d'émission qui devient monomode, accompagné d'une réduction de la largeur spectrale de la raie d'émission. Concernant le laser impulsionnel, on montre une stabilisation en fréquence d'émission et un affinement de la raie d'émission. Quant aux OPO en régime nanoseconde, on montre un affinement du spectre et un bon accord entre les simulations et les résultats expérimentaux.
Los estilos APA, Harvard, Vancouver, ISO, etc.
20

Belhedi, Amira. "Modélisation du bruit et étalonnage de la mesure de profondeur des caméras Temps-de-Vol". Thesis, Clermont-Ferrand 1, 2013. http://www.theses.fr/2013CLF1MM08/document.

Texto completo
Resumen
Avec l'apparition récente des caméras 3D, des perspectives nouvelles pour différentes applications de l'interprétation de scène se sont ouvertes. Cependant, ces caméras ont des limites qui affectent la précision de leurs mesures. En particulier pour les caméras Temps-de-Vol, deux types d'erreur peuvent être distingués : le bruit statistique de la caméra et la distorsion de la mesure de profondeur. Dans les travaux de la littérature des caméras Temps-de-Vol, le bruit est peu étudié et les modèles de distorsion de la mesure de profondeur sont généralement difficiles à mettre en œuvre et ne garantissent pas la précision requise pour certaines applications. L'objectif de cette thèse est donc d'étudier, modéliser et proposer un étalonnage précis et facile à mettre en œuvre de ces 2 types d'erreur des caméras Temps-de-Vol. Pour la modélisation du bruit comme pour la distorsion de la mesure de profondeur, deux solutions sont proposées présentant chacune une solution à un problème différent. La première vise à fournir un modèle précis alors que le second favorise la simplicité de la mise en œuvre. Ainsi, pour le bruit, alors que la majorité des modèles reposent uniquement sur l'information d'amplitude, nous proposons un premier modèle qui intègre aussi la position du pixel dans l'image. Pour encore une meilleure précision, nous proposons un modèle où l'amplitude est remplacée par la profondeur de l'objet et le temps d'intégration. S'agissant de la distorsion de la mesure de profondeur, nous proposons une première solution basée sur un modèle non-paramétrique garantissant une meilleure précision. Ensuite, pour fournir une solution plus facile à mettre en œuvre que la précédente et que celles de l'état de l'art, nous nous basons sur la connaissance à priori de la géométrie planaire de la scène observée
3D cameras open new possibilities in different fields such as 3D reconstruction, Augmented Reality and video-surveillance since they provide depth information at high frame-rates. However, they have limitations that affect the accuracy of their measures. In particular for TOF cameras, two types of error can be distinguished : the stochastic camera noise and the depth distortion. In state of the art of TOF cameras, the noise is not well studied and the depth distortion models are difficult to use and don't guarantee the accuracy required for some applications. The objective of this thesis is to study, to model and to propose a calibration method of these two errors of TOF cameras which is accurate and easy to set up. Both for the noise and for the depth distortion, two solutions are proposed. Each of them gives a solution for a different problem. The former aims to obtain an accurate model. The latter, promotes the simplicity of the set up. Thereby, for the noise, while the majority of the proposed models are only based on the amplitude information, we propose a first model which integrate also the pixel position in the image. For a better accuracy, we propose a second model where we replace the amplitude by the depth and the integration time. Regarding the depth distortion, we propose a first solution based on a non-parametric model which guarantee a better accuracy. Then, we use the prior knowledge of the planar geometry of the observed scene to provide a solution which is easier to use compared to the previous one and to those of the litterature
Los estilos APA, Harvard, Vancouver, ISO, etc.
21

Dumont, Thierry. "Contributions à la localisation intra-muros. De la modélisation à la calibration théorique et pratique d'estimateurs". Phd thesis, Université Paris Sud - Paris XI, 2012. http://tel.archives-ouvertes.fr/tel-00795685.

Texto completo
Resumen
Préfigurant la prochaine grande étape dans le domaine de la navigation, la géolocalisation intra-muros est un domaine de recherche très actif depuis quelques années. Alors que la géolocalisation est entrée dans le quotidien de nombreux professionnels et particuliers avec, notamment, le guidage routier assisté, les besoins d'étendre les applications à l'intérieur se font de plus en plus pressants. Cependant, les systèmes existants se heurtent à des contraintes techniques bien supérieures à celles rencontrées à l'extérieur, la faute, notamment, à la propagation chaotique des ondes électromagnétiques dans les environnements confinés et inhomogènes. Nous proposons dans ce manuscrit une approche statistique du problème de géolocalisation d'un mobile à l'intérieur d'un bâtiment utilisant les ondes WiFi environnantes. Ce manuscrit s'articule autour de deux questions centrales : celle de la détermination des cartes de propagation des ondes WiFi dans un bâtiment donné et celle de la construction d'estimateurs des positions du mobile à l'aide de ces cartes de propagation. Le cadre statistique utilisé dans cette thèse afin de répondre à ces questions est celui des modèles de Markov cachés. Nous proposons notamment, dans un cadre paramétrique, une méthode d'inférence permettant l'estimation en ligne des cartes de propagation, sur la base des informations relevées par le mobile. Dans un cadre non-paramétrique, nous avons étudié la possibilité d'estimer les cartes de propagation considérées comme simple fonction régulière sur l'environnement à géolocaliser. Nos résultats sur l'estimation non paramétrique dans les modèles de Markov cachés permettent d'exhiber un estimateur des fonctions de propagation dont la consistance est établie dans un cadre général. La dernière partie du manuscrit porte sur l'estimation de l'arbre de contextes dans les modèles de Markov cachés à longueur variable.
Los estilos APA, Harvard, Vancouver, ISO, etc.
22

Chentouf, Sid-Ahmed. "Simulation et essais dynamiques sur stators de moteurs de traction". Phd thesis, Université de Franche-Comté, 2011. http://tel.archives-ouvertes.fr/tel-00776475.

Texto completo
Resumen
La maîtrise du calcul prévisionnel du comportement dynamique des stators de machines de traction est un enjeu majeur pour le constructeur tant sur le plan de la compréhension de certains phénomènes physiques, que sur le plan de l amélioration de la conception en présence de facteurs mal maîtrisés. La démarche proposée dans ce travail a d abord consisté à construire et valider le modèle d un stator type en effectuant des corrélations calculs-essais et un recalage de modèle. Ceci a permis de caractériser le comportement moyen de cet assemblage hétérogène et surtout d établir des règles de modélisation transposables à d autres types d architectures. L étude s est poursuivie ensuite avec l investigation des incertitudes affectant cette modélisation ainsi que leur propagation. Afin de prendre en compte tous types d incertitudes, aléatoires ou épistémiques, sur une même procédure, une méthode hybride paramétrique non-paramétrique de modélisation et de propagation des incertitudes a été proposée. En raison de la taille importante des modèles industriels des stators, le problème est traité dans un contexte de sous-structuration et revient à réaliser une réanalyse approchée. Afin d assurer un compromis entre un coût de calcul raisonnable et une bonne prédiction des bases de réduction, la méthode des Approximations Combinées a été adaptée à la sous-structuration afin d être intégrée au processus de réanalyse. Outre ses avantages en termes de gain en temps de calcul parrapport à une réanalyse exacte, nous avons également montré sa robustesse par rapport à une méthode de réduction standard ou à une méthode améliorée de type enrichissement par résidus statique.
Los estilos APA, Harvard, Vancouver, ISO, etc.
23

Fernandez, Charles. "Modélisation et validation expérimentale des complexes insonorisants pour la prévision vibroacoustique numérique basse et moyenne fréquences des automobiles". Phd thesis, Université Paris-Est, 2008. http://tel.archives-ouvertes.fr/tel-00470535.

Texto completo
Resumen
Dans cette recherche, on construit un modèle simplifié en basses et moyennes fréquences de complexes insonorisants (habillages) de l'industrie automobile à partir d'un élément élastoacoustique stochastique. Le modèle simplifié moyen est issu d'une extension de la théorie des structures floues et dépend de trois paramètres physiques : densité modale, amortissement et masse participante. Le modèle simplifié stochastique qui prend en compte les incertitudes de modèle et de données est construit en utilisant une approche probabiliste non paramétrique et dépend de trois paramètres de dispersion. Le modèle simplifié de l'habillage est implémenté dans un modèle vibroacoustique stochastique industriel d'automobile. Deux problèmes inverses sont résolus à l'aide d'une base de données expérimentales sur véhicules construite en parallèle et permettent d'identifier les paramètres du modèle complet. L'analyse des résultats permet de valider les développements théoriques et la méthodologie proposée
Los estilos APA, Harvard, Vancouver, ISO, etc.
24

Ternynck, Camille. "Contributions à la modélisation de données spatiales et fonctionnelles : applications". Thesis, Lille 3, 2014. http://www.theses.fr/2014LIL30062/document.

Texto completo
Resumen
Dans ce mémoire de thèse, nous nous intéressons à la modélisation non paramétrique de données spatiales et/ou fonctionnelles, plus particulièrement basée sur la méthode à noyau. En général, les échantillons que nous avons considérés pour établir les propriétés asymptotiques des estimateurs proposés sont constitués de variables dépendantes. La spécificité des méthodes étudiées réside dans le fait que les estimateurs prennent en compte la structure de dépendance des données considérées.Dans une première partie, nous appréhendons l’étude de variables réelles spatialement dépendantes. Nous proposons une nouvelle approche à noyau pour estimer les fonctions de densité de probabilité et de régression spatiales ainsi que le mode. La particularité de cette approche est qu’elle permet de tenir compte à la fois de la proximité entre les observations et de celle entre les sites. Nous étudions les comportements asymptotiques des estimateurs proposés ainsi que leurs applications à des données simulées et réelles.Dans une seconde partie, nous nous intéressons à la modélisation de données à valeurs dans un espace de dimension infinie ou dites "données fonctionnelles". Dans un premier temps, nous adaptons le modèle de régression non paramétrique introduit en première partie au cadre de données fonctionnelles spatialement dépendantes. Nous donnons des résultats asymptotiques ainsi que numériques. Puis, dans un second temps, nous étudions un modèle de régression de séries temporelles dont les variables explicatives sont fonctionnelles et le processus des innovations est autorégressif. Nous proposons une procédure permettant de tenir compte de l’information contenue dans le processus des erreurs. Après avoir étudié le comportement asymptotique de l’estimateur à noyau proposé, nous analysons ses performances sur des données simulées puis réelles.La troisième partie est consacrée aux applications. Tout d’abord, nous présentons des résultats de classification non supervisée de données spatiales (multivariées), simulées et réelles. La méthode de classification considérée est basée sur l’estimation du mode spatial, obtenu à partir de l’estimateur de la fonction de densité spatiale introduit dans le cadre de la première partie de cette thèse. Puis, nous appliquons cette méthode de classification basée sur le mode ainsi que d’autres méthodes de classification non supervisée de la littérature sur des données hydrologiques de nature fonctionnelle. Enfin, cette classification des données hydrologiques nous a amené à appliquer des outils de détection de rupture sur ces données fonctionnelles
In this dissertation, we are interested in nonparametric modeling of spatial and/or functional data, more specifically based on kernel method. Generally, the samples we have considered for establishing asymptotic properties of the proposed estimators are constituted of dependent variables. The specificity of the studied methods lies in the fact that the estimators take into account the structure of the dependence of the considered data.In a first part, we study real variables spatially dependent. We propose a new kernel approach to estimating spatial probability density of the mode and regression functions. The distinctive feature of this approach is that it allows taking into account both the proximity between observations and that between sites. We study the asymptotic behaviors of the proposed estimates as well as their applications to simulated and real data. In a second part, we are interested in modeling data valued in a space of infinite dimension or so-called "functional data". As a first step, we adapt the nonparametric regression model, introduced in the first part, to spatially functional dependent data framework. We get convergence results as well as numerical results. Then, later, we study time series regression model in which explanatory variables are functional and the innovation process is autoregressive. We propose a procedure which allows us to take into account information contained in the error process. After showing asymptotic behavior of the proposed kernel estimate, we study its performance on simulated and real data.The third part is devoted to applications. First of all, we present unsupervised classificationresults of simulated and real spatial data (multivariate). The considered classification method is based on the estimation of spatial mode, obtained from the spatial density function introduced in the first part of this thesis. Then, we apply this classification method based on the mode as well as other unsupervised classification methods of the literature on hydrological data of functional nature. Lastly, this classification of hydrological data has led us to apply change point detection tools on these functional data
Los estilos APA, Harvard, Vancouver, ISO, etc.
25

Andrieu, Cindie. "Modélisation fonctionnelle de profils de vitesse en lien avec l'infrastructure et méthodologie de construction d'un profil agrégé". Phd thesis, Université Paul Sabatier - Toulouse III, 2013. http://tel.archives-ouvertes.fr/tel-00915420.

Texto completo
Resumen
La connaissance des vitesses pratiquées est une caractéristique essentielle du comportement des conducteurs et de leur usage du réseau routier. Cette information est rendue disponible grâce à la généralisation des véhicules connectés, mais aussi des smartphones, qui permettent d'accroître le nombre de "traceurs" susceptibles de renvoyer leur position et leur vitesse en temps réel. Dans cette thèse, nous proposons d'utiliser ces traces numériques et de développer une méthodologie, fondée sur une approche fonctionnelle, permettant d'extraire divers profils de vitesse caractéristiques. Dans une première partie, nous proposons une modélisation fonctionnelle des profils spatiaux de vitesse (i.e. vitesse vs distance parcourue) et nous étudions leurs propriétés (continuité, dérivabilité). Dans une seconde partie, nous proposons une méthodologie permettant de construire un estimateur d'un profil spatial de vitesse à partir de mesures bruitées de position et de vitesse, fondée sur les splines de lissage et la théorie des espaces de Hilbert à noyau reproduisant (RKHS). Enfin, la troisième partie est consacrée à la construction de divers profils agrégés (moyen, médian). Nous proposons notamment un alignement des profils par landmarks au niveau des arrêts, puis nous proposons la construction d'enveloppes de vitesse reflétant la dispersion des vitesses pratiquées.
Los estilos APA, Harvard, Vancouver, ISO, etc.
26

Khemane, Firas. "Estimation fréquentielle par modèle non entier et approche ensembliste : application à la modélisation de la dynamique du conducteur". Thesis, Bordeaux 1, 2011. http://www.theses.fr/2010BOR14282/document.

Texto completo
Resumen
Les travaux de cette thèse traite de la modélisation de systèmes par fonctions de transfert non entières à partir de données fréquentielles incertaines et bornées. A cet effet, les définitions d'intégration et de dérivation non entières sont d'abord étendues aux intervalles. Puis des approches ensemblistes sont appliquées pour l'estimation de l'ensemble des coefficients et des ordres de dérivation sous la forme d'intervalles. Ces approches s'appliquent pour l'estimation des paramètres de systèmes linéaires invariants dans le temps (LTI) certains, systèmes LTI incertains et systèmes linéaires à paramètres variant dans le temps (LPV). L'estimation paramétrique par approche ensembliste est particulièrement adaptée à la modélisation de la dynamique du conducteur, car les études sur un, voire plusieurs, individus montrent que les réactions recueillies ne sont jamais identiques mais varient d'une expérience à l'autre, voire d'un individu à l'autre
This thesis deals with system identification and modeling of fractional transfer functions using bounded and uncertain frequency responses. Therefor, both of fractional differentiation and integration definitions are extended into intervals. Set membership approaches are then applied to estimate coefficients and derivative orders as intervals. These methods are applied to estimate certain Linear Time Invariant systems (LTI), uncertain LTI systems and Linear Parameter Varying systems (LPV). They are notably adopted to model driver's dynamics, since most of studies on one or several individuals shave shown that the collected reactions are not identical and are varying from an experiment to another
Los estilos APA, Harvard, Vancouver, ISO, etc.
27

Viallefont, Valérie. "Analyses bayesiennes du choix de modèles en épidémiologie : sélection de variables et modélisation de l'hétérogénéité pour des évènements". Paris 11, 2000. http://www.theses.fr/2000PA11T023.

Texto completo
Resumen
Cette thèse se décompose en deux parties qui traitent la question du choix modèles dans deux problématiques différentes. Dans la première partie, on s'intéresse, pour les modèles de régression logis multivariée, à différentes stratégies de sélection de variables associées à l'apparition d'une maladie. Les méthodes les plus fréquemment mises en œuvre à l'heure actuelle consistent à sélectionner certaines variables dans un modèle final unique, modèle dans lequel sont ensuite estimés les paramètres et leur variance. Différents critères de sélection existent et la plupart d'entre eux reposent sur une comparaison du degré de signification de tests à une valeur seuil. On s'intéresse aux performances auc performances de ces approches par rapport à celles d'une méthode bayésienne dans laquelle on considère tout un ensemble de modèles. A chaque modèle est associé sa probabilité a posteriori. Cette approche permet d'estimer la probabilité de l'existence d'une association entre chaque variable et l'apparition de la maladie, et de calculer des estimations globale des paramètres. Deux schémas de simulations sont envisagés pour cette comparaison : l'un évoque un cas d'école où l'on s'intéresse à un facteur de risque en présence d'un unique facteur de confusion potentiel, l'autre caractérise une enquête épidémiologique avec un grand nombre de facteurs de risque possibles. Les critères de comparaison portent sur le biais moyen dans l'estimation des coefficients, les pourcentages d’erreurs de première et seconde espèces ou leur équivalent bayésien, et l'expression du degré d'incertitude. La méthode bayésienne fournit notamment une appréciation plus explicite de l'incertitude sur les conclusions. Dans la deuxième partie, on s'intéresse au cas où des données relatives à des événements rares présentent une trop forte hétérogénéité pour être modélisées par une seule distribution de Poisson. On fait alors l'hypothèse qu'elles sont issues de mélange de distributions de Poisson. On propose d'estimer conjointement, dans un modèle hiérarchique bayésien, le nombre de composantes du mélange et les proportions et paramètres de chacune, par les méthodes de Monte Carlo par Chaîne de Markov (MCMC). L'estimation du nombre de composantes nécessite que la dimension de l'espace des paramètres puisse varier : pour ceci on utilise le principe du "Saut Reversible". On illustre la difficulté de trouver une loi a priori faiblement informative pour les paramètres de Poisson en étudiant la sensibilité des résultats au choix de cette loi a priori et de ses paramètres. On propose différentes transformations lors du changement de dimension de l'espace des paramètres et on s'intéresse à leur influence sur les performances de l'algorithme, notamment son caractère mélangeant. Enfin on écrit deux modèles, de prise en compte de covariables, dont l'effet est soit homogène soit hétérogène sur les composantes du mélange. Les comparaisons sont menées sur des jeux de données simulés, et le modèle est finalement illustré sur des données réelles de nature épidémiologique concernant des cas de cancers digestifs en France, puis des données d'accidents de la route
This dissertation has two separated parts. In the first part, we compare different strategies for variable selection in a multi­variate logistic regression model. Covariate and confounder selection in case-control studies is often carried out using either a two-step method or a stepwise variable selection method. Inference is then carried out conditionally on the selected model, but this ignores the madel uncertainty implicit in the variable selection process, and so underestimates uncertainty about relative risks. It is well known, and showed again in our study, that the ρ-values computed after variable selection can greatly overstate the strength of conclusions. We propose Bayesian Model Averaging as a formal way of taking account of madel uncertainty in a logistic regression context. The BMA methods, that allows to take into account several models, each being associated with its posterior probability, yields an easily interpreted summary, the posterior probability that a variable is a risk factor, and its estimate averaged over the set of models. We conduct two comparative simulations studies : the first one has a simple design including only one risk factor and one confounder, the second one mimics a epidemiological cohort study dataset, with a large number of potential risk factors. Our criteria are the mean bias, the rate of type I and type II errors, and the assessment of uncertainty in the results, which is bath more accurate and explicit under the BMA analysis. The methods are applied and compared in the context of a previously published case-control study of cervical cancer. The choice of the prior distributions are discussed. In the second part, we focus on the modelling of rare events via a Poisson distribution, that sometimes reveals substantial over-dispersion, indicating that sorme un­ explained discontinuity arises in the data. We suggest to madel this over-dispersion by a Poisson mixture. In a hierarchical Bayesian model, the posterior distributions of he unknown quantities in the mixture (number of components, weights, and Poisson parameters) can be estimated by MCMC algorithms, including reversible jump algothms which allows to vary the dimension of the mixture. We focus on the difficulty of finding a weakly informative prior for the Poisson parameters : different priors are detailed and compared. Then, the performances of different maves created for changing dimension are investigated. The model is extended by the introduction of covariates, with homogeneous or heterogeneous effect. Simulated data sets are designed for the different comparisons, and the model is finally illustrated in two different contexts : an ecological analysis of digestive cancer mortality along the coasts of France, and a dataset concerning counts of accidents in road-junctions
Los estilos APA, Harvard, Vancouver, ISO, etc.
28

Hafidi, Ghizlane. "Application de la commande prédictive non-linéaire à la commande de culture de bactéries escherichia coli". Phd thesis, Université Paris Sud - Paris XI, 2008. http://tel.archives-ouvertes.fr/tel-00345850.

Texto completo
Resumen
Cette thèse propose une méthodologie de commande d'un bioréacteur fed-batch de culture E. coli. La stratégie consiste à maximiser la croissance de la bactérie, c'est-à-dire à maintenir le bioréacteur à un point de fonctionnement « optimal », caractérisé par la frontière entre les régimes oxydatif et oxydo-fermentatif. La démarche proposée comprend une première étape de modélisation mathématique et de détermination d'un modèle paramétrique simplifié. Une deuxième phase consiste en une identification paramétrique du modèle en se basant sur l'analyse de sensibilité du modèle vis-à-vis de ses paramètres. Un profil optimal d'alimentation est ensuite élaboré pour la maximisation de la croissance de la biomasse. A partir de toutes ces données, la synthèse et l'application de la commande prédictive non-linéaire au bioprocédé E. coli sont mises en œuvre. L'objectif est de réguler la concentration en acétate à une valeur faible donnée, tout en forçant le débit d'alimentation à suivre un profil de référence. La stratégie de commande proposée se base sur la transformation du problème de commande prédictive non-linéaire classique en un problème de programmation non-linéaire non contraint, résolu par des techniques de CVP. Pour une meilleure robustesse de la structure proposée, la différence entre le système et le modèle est explicitement incluse dans l'algorithme. Enfin, une étude de robustesse par une approche statistique de type Monte Carlo permet de juger de l'applicabilité de la loi de commande proposée sur le système réel. Ce travail constitue une étude préliminaire en vue d'une implantation de cette loi de commande à un bioréacteur à l'échelle du laboratoire ou industrielle
Los estilos APA, Harvard, Vancouver, ISO, etc.
29

Chentouf, Sid-Hamed Benabdallah. "Simulation et essais dynamiques sur stators de moteurs de traction". Thesis, Besançon, 2011. http://www.theses.fr/2011BESA2002/document.

Texto completo
Resumen
La maîtrise du calcul prévisionnel du comportement dynamique des stators de machines de traction est un enjeu majeur pour le constructeur tant sur le plan de la compréhension de certains phénomènes physiques, que sur le plan de l amélioration de la conception en présence de facteurs mal maîtrisés. La démarche proposée dans ce travail a d abord consisté à construire et valider le modèle d un stator type en effectuant des corrélations calculs-essais et un recalage de modèle. Ceci a permis de caractériser le comportement moyen de cet assemblage hétérogène et surtout d établir des règles de modélisation transposables à d autres types d architectures. L étude s est poursuivie ensuite avec l investigation des incertitudes affectant cette modélisation ainsi que leur propagation. Afin de prendre en compte tous types d incertitudes, aléatoires ou épistémiques, sur une même procédure, une méthode hybride paramétrique non-paramétrique de modélisation et de propagation des incertitudes a été proposée. En raison de la taille importante des modèles industriels des stators, le problème est traité dans un contexte de sous-structuration et revient à réaliser une réanalyse approchée. Afin d assurer un compromis entre un coût de calcul raisonnable et une bonne prédiction des bases de réduction, la méthode des Approximations Combinées a été adaptée à la sous-structuration afin d être intégrée au processus de réanalyse. Outre ses avantages en termes de gain en temps de calcul parrapport à une réanalyse exacte, nous avons également montré sa robustesse par rapport à une méthode de réduction standard ou à une méthode améliorée de type enrichissement par résidus statique
Mastering numerical simulations of the behaviour of railway stators remains an important challenge for designers. This allows both the understanding of some physical phenomena and the improvement of design in presence of different sources of uncertainties. The approach proposed in this work consists firstly on building and validating a numerical model of a typical design stator. By carrying out numerical-experimental confrontations and updating models, this first step allowed us to characterize the mean behavior of this heterogeneous assembling and mainly to establish generic modeling rules for other design stators. The second part of this work deals with the investigation of uncertainties affecting the structure or its model. In order to take into account all uncertainties types while performing a calculation of uncertainties propagation, a stochastic hybrid method, combining parametric and non-parametric models, was proposed. Because of the large sizes of finite element models of stators, the problem is treated in a component mode synthesis context. It amounts to carry out an approach reanalysis. In order to ensure a good compromise between reasonable calculation times and an acceptable precision, a generalized variant of the Combined Approximations method (VCA) has been introduced and adapted to component mode synthesis. The VCA method allows both a significant gain in computation time, comparing to an exact calculation, and a high robustness performance comparing to a standard reduction method or an improved method by static residual vectors
Los estilos APA, Harvard, Vancouver, ISO, etc.
30

Benadjaoud, Mohamed Amine. "Modélisation flexible du risque d’événements iatrogènes radio-induits". Thesis, Paris 11, 2015. http://www.theses.fr/2015PA11T017/document.

Texto completo
Resumen
La radiothérapie occupe une place majeure dans l’arsenal thérapeutique des cancers.Malgré des progrès technologiques importants depuis près de vingt ans, des tissus sains au voisinage ou à distance de la tumeur cible continuent à être inévitablement irradiés à des niveaux de doses très différents. Ces doses sont à l’origine d’effets secondaires précoces (Œdème, radionécrose, Dysphagie, Cystite) ou tardifs (rectorragies, télangiectasie, effets carcinogènes, les pathologie cérébrovasculaires).Il est donc primordial de quantifier et de prévenir ces effets secondaires afin d'améliorer la qualité de vie des patients pendant et après leur traitement.La modélisation du risque d'événements iatrogènes radio-induits repose sur la connaissance précise de la distribution de doses au tissu sain d'intérêt ainsi que sur un modèle de risque capable d'intégrer un maximum d'informations sur le profil d'irradiation et des autres facteurs de risques non dosimétriques. L'objectif de ce travail de thèse a été de développer des méthodes de modélisation capables de répondre à des questions spécifiques aux deux aspects, dosimétriques et statistiques, intervenant dans la modélisation du risque de survenue d'événements iatrogènes radio-induits.Nous nous sommes intéressé dans un premier temps au développement d'un modèle de calcul permettant de déterminer avec précision la dose à distance due au rayonnements de diffusion et de fuite lors d'un traitement par radiothérapie externe et ce, pour différentes tailles des champs et à différentes distances de l'axe du faisceau. Ensuite, nous avons utilisé des méthodes d'analyse de données fonctionnelles pour développer un modèle de risque de toxicité rectales après irradiation de la loge prostatique. Le modèle proposé a montré des performances supérieures aux modèles de risque existants particulièrement pour décrire le risque de toxicités rectales de grade 3. Dans le contexte d'une régression de Cox flexible sur données réelles, nous avons proposé une application originale des méthodes de statistique fonctionnelle permettant d'améliorer les performances d'une modélisation via fonctions B-splines de la relation dose-effet entre la dose de radiation à la thyroïde.Nous avons également proposé dans le domaine de la radiobiologie une méthodes basée sur l’analyse en composantes principales multiniveau pour quantifier la part de la variabilité expérimentale dans la variabilité des courbes de fluorescence mesurées
Radiotherapy plays a major role in the therapeutic arsenal against cancer. Despite significant advances in technology for nearly twenty years, healthy tissues near or away from the target tumor remain inevitably irradiated at very different levels of doses. These doses are at the origin of early side effects (edema, radiation necrosis, dysphagia, cystitis) or late (rectal bleeding, telangiectasia, carcinogenic, cerebrovascular diseases). It is therefore essential to quantify and prevent these side effects to improve the patient quality of life after their cancer treatment.The objective of this thesis was to propose modelling methods able to answer specific questions asked in both aspects, dosimetry and statistics, involved in the modeling risk of developing radiation-induced iatrogenic pathologies.Our purpose was firstly to assess the out-of-field dose component related to head scatter radiation in high-energy photon therapy beams and then derive a multisource model for this dose component. For measured doses under out-of-field conditions, the average local difference between the calculated and measured photon dose is 10%, including doses as low as 0.01% of the maximum dose on the beam axis. We secondly described a novel method to explore radiation dose-volume effects. Functional data analysis is used to investigate the information contained in differential dose-volume histograms. The method is applied to the normal tissue complication probability modeling of rectal bleeding for In the flexible Cox model context, we proposed a new dimension reduction technique based on a functional principal component analysis to estimate a dose-response relationship. A two-stage knots selection scheme was performed: a potential set of knots is chosen based on information from the rotated functional principal components and the final knots selection is then based on statistical model selection. Finally, a multilevel functional principal component analysis was applied to radiobiological data in order to quantify the experimental Variability for replicate measurements of fluorescence signals of telomere length
Los estilos APA, Harvard, Vancouver, ISO, etc.
31

Jemeï, Samir. "Modélisation d'une Pile à Combustible de type PEM par Réseaux de Neurones". Phd thesis, Université de Franche-Comté, 2004. http://tel.archives-ouvertes.fr/tel-00777611.

Texto completo
Resumen
Ce travail apporte une contribution à la modélisation des piles à combustible de type PEM. La modélisation fait ici appel aux réseaux artificiels de neurones et est appliquée à deux piles à combustible de puissances différentes. La première partie de ce mémoire rappelle les verrous technologiques liés à l'intégration des piles à combustibles dans un véhicule. Puis l'auteur s'interroge sur la nécessité de modéliser une pile à combustible avant de se pencher sur les différentes méthodes de modélisation existante. La réalisation d'un modèle neuronal décrivant le comportement statique d'une pile à combustible de type PEM est la première étape de cette étude. La deuxième partie décrit la démarche qui a permis de réaliser ce modèle. Elle se décompose en trois points essentiels : 1) choix d'une topologie adaptée, 2) choix d'essais expérimentaux pour établir une séquence d'apprentissage représentative du système et choix des entrées/sorties du modèle, 3) étude de différentes techniques d'apprentissage menant à une modélisation satisfaisante. Afin d'obtenir un modèle complet, le comportement dynamique de la pile doit être décrit. L'élaboration du modèle dynamique à l'aide de réseaux de neurones bouclés est exposée dans la troisième partie. Pour conclure ce mémoire, une méthode originale basée sur l'analyse de Fourier permet d'obtenir une boîte noire multi-modèle permettant de coupler les modèles dynamiques et statiques pour prédire l'évolution temporelle de la tension de la pile à combustible selon des sollicitations de courant à fréquence variable. Enfin, une étude de sensibilité paramétrique est réalisée.
Los estilos APA, Harvard, Vancouver, ISO, etc.
32

Ragot, Nicolas. "Conception d'un capteur de stéréovision omnidirectionnelle : architecture, étalonnage et applications à la reconstruction de scènes 3D". Phd thesis, Université de Rouen, 2009. http://tel.archives-ouvertes.fr/tel-00417963.

Texto completo
Resumen
Les travaux de thèse présentés dans ce mémoire ont pour objectif la conception et l'évaluation d'un système de vision 3D constitué de deux capteurs catadioptriques positionnés verticalement. Afin d'obtenir un modèle 3D, l'étalonnage des capteurs, c'est-à-dire l'estimation des relations entre l'espace 3D et le plan image, est un préalable indispensable. Une méthode, qualifiée de paramétrique a tout d'abord été implémentée. Elle utilise un modèle ad hoc et une mire 3D de forme cylindrique dont les points d'intérêt sont des diodes électroluminescentes. Cette méthode formule l'hypothèse d'un centre de projection unique qui peut s'avérer difficile à mettre oeuvre en pra- tique. Nous proposons donc une méthode non-paramétrique qui permet de s'affranchire des contraintes liées aux modèles. Les relations entre l'espace 3D et le plan image sont alors définies pour un nombre fini de points et des algorithmes d'interpolation numérique permettent d'approximer les fonctions de projection et rétro-projection pour tous les couples points 3D-points 2D. Nous proposons ensuite l'implémentation et l'évaluation d'une méthode de reconstruction 3D volumétrique qui modélise la scène sous forme d'un tableau 3D dont chaque cellule est un voxel. Une mesure de similarité colorimétrique des projections du voxel dans chaqu'une des images permet de statuer quant à l'appartenance du voxel à un objet de la scène. Cette méthode est évaluée pour une reconstruction statique de la scène 3D, c'est-à-dire pour une acquisition d'images simultanée. Puis cette méthode est étudiée pour des déplacements du capteur. Il s'agit d'une reconstruction dynamique définie comme l'intersection des reconstructions statiques réalisées à des instants successifs.
Los estilos APA, Harvard, Vancouver, ISO, etc.
33

Ragot, Nicolas. "Conception d'un capteur de stéréovision omnidirectionnelle : architecture, étalonnage et applications à la reconstruction de scènes 3D". Phd thesis, Rouen, 2009. http://www.theses.fr/2009ROUES035.

Texto completo
Resumen
Les travaux de thèse présentés dans ce mémoire ont pour objectif la conception et l'évaluation d'un système de vision 3D constitué de deux capteurs catadioptriques positionnés verticalement. Afin d'obtenir un modèle 3D, l'étalonnage des capteurs, c'est-à-dire l'estimation des relations entre l'espace 3D et le plan image, est un préalable indispensable. Une méthode, qualifiée de paramétrique a tout d'abord été implémentée. Elle utilise un modèle ad hoc et une mire 3D de forme cylindrique dont les points d'intérêt sont des diodes électroluminescentes. Cette méthode formule l'hypothèse d'un centre de projection unique qui peut s'avérer difficile à mettre oeuvre en pratique. Nous proposons donc une méthode non-paramétrique qui permet de s'affranchire des contraintes liées aux modèles. Les relations entre l'espace 3D et le plan image sont alors définies pour un nombre fini de points et des algorithmes d'interpolation numérique permettent d'approximer les fonctions de projection et rétro-projection pour tous les couples points 3D-points 2D. Nous proposons ensuite l'implémentation et l'évaluation d'une méthode de reconstruction 3D volumétrique qui modélise la scène sous forme d'un tableau 3D dont chaque cellule est un voxel. Une mesure de similarité colorimétrique des projections du voxel dans chacune des images permet de statuer quant à l'appartenance du voxel à un objet de la scène. Cette méthode est évaluée pour une reconstruction statique de la scène 3D, c’est-à-dire pour une acquisition d'images simultanée. Puis cette méthode est étudiée pour des déplacements du capteur. Il s'agit d'une reconstruction dynamique définie comme l'intersection des reconstructions statiques réalisées à des instants successifs
The work presented in this thesis deals with the design and the evaluation of a vision sensor made of two catadioptric sensors, one above the other. To obtain a 3D model, it is necessary to calibrate the sensors, that is to say to estimate the relationships between the 3D space and the image plane. A parametric method has been implemented. It uses an ad hoc model and a cylindrical 3D pattern whose points of interest are light-emetting diodes. This method is based on the assumption that the sensor respects the single effective viewpoint constraint, but which is difficult to put into practice. Thus, we propose a non-parametric method which eliminate the problem of model restrictions. The relationships are defined for a finite number of points and numerical interpolation algorithms allow us to approximate the projection and back-projection functions for all pairs of 3D points-2D points. Then, we propose the implementation and the evaluation of a 3D volumetric reconstruction method which models the scene by a 3D array whose cells are voxels. A colorimetric similarity measure of the voxel projections estimate whether or not the voxel is an object in 3D. This method is evaluated on a 3D static reconstruction, that is a simultaneous image acquisition. Then, this method is studied for sensor displacements. This is a 3D dynamic reconstruction which is defined as the intersection of 3D static reconstructions made at successive times
Los estilos APA, Harvard, Vancouver, ISO, etc.
34

Fall, Mame Diarra. "Modélisation stochastique de processus pharmaco-cinétiques, application à la reconstruction tomographique par émission de positrons (TEP) spatio-temporelle". Thesis, Paris 11, 2012. http://www.theses.fr/2012PA112035.

Texto completo
Resumen
L'objectif de ce travail est de développer de nouvelles méthodes statistiques de reconstruction d'image spatiale (3D) et spatio-temporelle (3D+t) en Tomographie par Émission de Positons (TEP). Le but est de proposer des méthodes efficaces, capables de reconstruire des images dans un contexte de faibles doses injectées tout en préservant la qualité de l'interprétation. Ainsi, nous avons abordé la reconstruction sous la forme d'un problème inverse spatial et spatio-temporel (à observations ponctuelles) dans un cadre bayésien non paramétrique. La modélisation bayésienne fournit un cadre pour la régularisation du problème inverse mal posé au travers de l'introduction d'une information dite a priori. De plus, elle caractérise les grandeurs à estimer par leur distribution a posteriori, ce qui rend accessible la distribution de l'incertitude associée à la reconstruction. L'approche non paramétrique quant à elle pourvoit la modélisation d'une grande robustesse et d'une grande flexibilité. Notre méthodologie consiste à considérer l'image comme une densité de probabilité dans (pour une reconstruction en k dimensions) et à chercher la solution parmi l'ensemble des densités de probabilité de . La grande dimensionalité des données à manipuler conduit à des estimateurs n'ayant pas de forme explicite. Cela implique l'utilisation de techniques d'approximation pour l'inférence. La plupart de ces techniques sont basées sur les méthodes de Monte-Carlo par chaînes de Markov (MCMC). Dans l'approche bayésienne non paramétrique, nous sommes confrontés à la difficulté majeure de générer aléatoirement des objets de dimension infinie sur un calculateur. Nous avons donc développé une nouvelle méthode d'échantillonnage qui allie à la fois bonnes capacités de mélange et possibilité d'être parallélisé afin de traiter de gros volumes de données. L'approche adoptée nous a permis d'obtenir des reconstructions spatiales 3D sans nécessiter de voxellisation de l'espace, et des reconstructions spatio-temporelles 4D sans discrétisation en amont ni dans l'espace ni dans le temps. De plus, on peut quantifier l'erreur associée à l'estimation statistique au travers des intervalles de crédibilité
The aim of this work is to develop new statistical methods for spatial (3D) and space-time (3D+t) Positron Emission Tomography (PET) reconstruction. The objective is to propose efficient reconstruction methods in a context of low injected doses while maintaining the quality of the interpretation. We tackle the reconstruction problem as a spatial or a space-time inverse problem for point observations in a \Bayesian nonparametric framework. The Bayesian modeling allows to regularize the ill-posed inverse problem via the introduction of a prior information. Furthermore, by characterizing the unknowns with their posterior distributions, the Bayesian context allows to handle the uncertainty associated to the reconstruction process. Being nonparametric offers a framework for robustness and flexibility to perform the modeling. In the proposed methodology, we view the image to reconstruct as a probability density in(for reconstruction in k dimensions) and seek the solution in the space of whole probability densities in . However, due to the size of the data, posterior estimators are intractable and approximation techniques are needed for posterior inference. Most of these techniques are based on Markov Chain Monte-Carlo methods (MCMC). In the Bayesian nonparametric approach, a major difficulty raises in randomly sampling infinite dimensional objects in a computer. We have developed a new sampling method which combines both good mixing properties and the possibility to be implemented on a parallel computer in order to deal with large data sets. Thanks to the taken approach, we obtain 3D spatial reconstructions without any ad hoc space voxellization and 4D space-time reconstructions without any discretization, neither in space nor in time. Furthermore, one can quantify the error associated to the statistical estimation using the credibility intervals
Los estilos APA, Harvard, Vancouver, ISO, etc.
35

Avalos, Marta. "Modèles additifs parcimonieux". Phd thesis, Université de Technologie de Compiègne, 2004. http://tel.archives-ouvertes.fr/tel-00008802.

Texto completo
Resumen
De nombreux algorithmes d'estimation fonctionnelle existent pour l'apprentissage statistique supervisé. Cependant, ils ont pour la plupart été développés dans le but de fournir des estimateurs précis, sans considérer l'interprétabilité de la solution. Les modèles additifs permettent d'expliquer les prédictions simplement, en ne faisant intervenir qu'une variable explicative à la fois, mais ils sont difficiles à mettre en ouvre. Cette thèse est consacrée au développement d'un algorithme d'estimation des modèles additifs. D'une part, leur utilisation y est simplifiée, car le réglage de la complexité est en grande partie intégré dans la phase d'estimation des paramètres. D'autre part, l'interprétabilité est favorisée par une tendance à éliminer automatiquement les variables les moins pertinentes. Des stratégies d'accélération des calculs sont également proposées. Une approximation du nombre effectif de paramètres permet l'utilisation de critères analytiques de sélection de modèle. Sa validité est testée par des simulations et sur des données réelles.
Los estilos APA, Harvard, Vancouver, ISO, etc.
36

Tran, Gia-Lac. "Advances in Deep Gaussian Processes : calibration and sparsification". Electronic Thesis or Diss., Sorbonne université, 2020. https://accesdistant.sorbonne-universite.fr/login?url=https://theses-intra.sorbonne-universite.fr/2020SORUS410.pdf.

Texto completo
Resumen
L'intégration des Convolutional Neural Networks (CNNs) et des GPs est une solution prometteuse pour améliorer le pouvoir de représentation des méthodes contemporaines. Dans notre première étude, nous utilisons des diagrammes de fiabilité pour montrer que les combinaisons actuelles de cnns et GPs sont mal calibrées, ce qui donne lieu à des prédictions trop confiantes. En utilisant des Random Feature et la technique d'inférence variationnelle, nous proposons une nouvelle solution correctement calibrée pour combinaisons des CNNs et des GPs. Nous proposons également une extension intuitive de cette solution, utilisant des Structured Random Features afin d'améliorer la précision du modèle et réduire la complexité des calculs. En termes de coût de calcul, la complexité du GPs exact est cubique en la taille de l'ensemble d'entrainement, ce qui le rend inutilisable lorsque celle-ci dépasse quelques milliers d'éléments. Afin de faciliter l'extension des GPs à des quantités massives de données, nous sélectionnons un petit ensemble de points actifs ou points d'induction par une distillation globale à partir de toutes les observations. Nous utilisons ensuite ces points actifs pour faire des prédictions. Plusieurs travaux similaires se basent sur l'étude Titsias et al en 2009 [5] and Hensman et al en 2015 [6]. Cependant, il est encore difficile de traiter le cas général, et il est toujours possible que le nombre de points actifs requis dépasse un budget de calcul donné. Dans notre deuxième étude, nous proposons Sparse-within-Sparse Gaussian Processes (SWSGP) qui permet l'approximation avec un grand nombre de points inducteurs sans cout de calcul prohibitif
Gaussian Processes (GPs) are an attractive specific way of doing non-parametric Bayesian modeling in a supervised learning problem. It is well-known that GPs are able to make inferences as well as predictive uncertainties with a firm mathematical background. However, GPs are often unfavorable by the practitioners due to their kernel's expressiveness and the computational requirements. Integration of (convolutional) neural networks and GPs are a promising solution to enhance the representational power. As our first contribution, we empirically show that these combinations are miscalibrated, which leads to over-confident predictions. We also propose a novel well-calibrated solution to merge neural structures and GPs by using random features and variational inference techniques. In addition, these frameworks can be intuitively extended to reduce the computational cost by using structural random features. In terms of computational cost, the exact Gaussian Processes require the cubic complexity to training size. Inducing point-based Gaussian Processes are a common choice to mitigate the bottleneck by selecting a small set of active points through a global distillation from available observations. However, the general case remains elusive and it is still possible that the required number of active points may exceed a certain computational budget. In our second study, we propose Sparse-within-Sparse Gaussian Processes which enable the approximation with a large number of inducing points without suffering a prohibitive computational cost
Los estilos APA, Harvard, Vancouver, ISO, etc.
37

Diouf, Cherif El Valid. "Modélisation comportementale de drivers de ligne de transmission pour des besoins d'intégrité du signal et de compatibilité électromagnétique". Thesis, Brest, 2014. http://www.theses.fr/2014BRES0040/document.

Texto completo
Resumen
La miniaturisation de circuits intégrés, les hautes fréquences de fonctionnement, la baisse des potentiels d'alimentation, les fortes densités d'intégration rendent les signaux numériques propagés sur les interconnexions très susceptibles à la dégradation voire à la corruption. En vue d’évaluer la compatibilité électromagnétique et l’intégrité du signal il est nécessaire de disposer dès les premières phases de développement de modèles précis de ces interconnexions pour les insérer dans les simulateurs temporels. Nos travaux s'inscrivent dans ce contexte et concernent plus particulièrement la modélisation comportementale des buffers et drivers de ligne de transmission. Ils ont abouti à une approche originale de modélisation notamment basée sur les séries de Volterra-Laguerre. Les modèles boites noires développés disposent d’une implémentation SPICE assez simple autorisant ainsi une très bonne portabilité. Ils sont faciles à identifier et disposent d’une complexité paramétrique permettant un gain important de temps de simulation vis-à-vis des modèles transistors des drivers. En outre les méthodes développées permettent une modélisation dynamique non linéaire plus précise du port de sortie, et une gestion plus générale des entrées autorisant notamment une très bonne prise en compte du régime de sur-cadencement ce que par exemple ne fait pas le standard IBIS
Integrated circuits miniaturization, high operating frequencies, lower supply voltages, high-density integration make digital signals propagating on interconnects highly vulnerable to degradation. Assessing EMC and signal integrity in the early stages of the design flow requires accurate interconnect models allowing for efficient time-domain simulations. In this context, our work addressed the issue of behavioral modeling of transmission line buffers, and particularly that of drivers. The main result is an original modeling approach partially based on Volterra-Laguerre series. The black box models we developed have a fairly simple implementation in SPICE thus allowing a very good portability. They are easy to identify and have a parametric complexity allowing a large gain in simulation time with respect to transistor driver models. In addition, the developed methods allow a more accurate output port nonlinear dynamics modeling, and a more general management of inputs. A very good reproduction of driver behaviour in overclocking conditions provides a significant advantage over standard IBIS models
Los estilos APA, Harvard, Vancouver, ISO, etc.
38

Andrieu, Cindie. "Modélisation fonctionnelle de profils de vitesse en lien avec l'infrastructure et méthodologie de construction d'un profil agrégé". Phd thesis, Toulouse 3, 2013. http://thesesups.ups-tlse.fr/2057/.

Texto completo
Resumen
La connaissance des vitesses pratiquées est une caractéristique essentielle du comportement des conducteurs et de leur usage du réseau routier. Cette information est rendue disponible grâce à la généralisation des véhicules connectés, mais aussi des smartphones, qui permettent d'accroître le nombre de "traceurs" susceptibles de renvoyer leur position et leur vitesse en temps réel. Dans cette thèse, nous proposons d'utiliser ces traces numériques et de développer une méthodologie, fondée sur une approche fonctionnelle, permettant d'extraire divers profils de vitesse caractéristiques. Dans une première partie, nous proposons une modélisation fonctionnelle des profils spatiaux de vitesse (i. E. Vitesse vs distance parcourue) et nous étudions leurs propriétés (continuité, dérivabilité). Dans une seconde partie, nous proposons une méthodologie permettant de construire un estimateur d'un profil spatial de vitesse à partir de mesures bruitées de position et de vitesse, fondée sur les splines de lissage et la théorie des espaces de Hilbert à noyau reproduisant (RKHS). Enfin, la troisième partie est consacrée à la construction de divers profils agrégés (moyen, médian). Nous proposons notamment un alignement des profils par landmarks au niveau des arrêts, puis nous proposons la construction d'enveloppes de vitesse reflétant la dispersion des vitesses pratiquées
The knowledge of the actual vehicle speeds is an essential characteristic of drivers behavior and their road usage. This information become available with the generalization of connected vehicles, but also smartphones, which increase the number of "tracers" likely to refer their position and speed in real time. In this thesis, we propose to use these digital traces and to develop a methodology, based on a functional approach, to produce several reference speed profiles. In a first part, we propose a functional modeling of space-speed profiles (i. E. Speed vs position) and we study their properties (continuity, differentiability). In a second part, we propose a methodology to construct an estimator of a space speed profile from noisy measurements of position and speed, based on smoothing splines and the theory of reproducing kernel Hilbert spaces (RKHS). The third part is devoted to the construction of several aggregated profiles (average, median). In particular, we propose a landmark-based registration of profiles at stops, and we propose the construction of speed corridors reflecting the dispersion of actual speeds
Los estilos APA, Harvard, Vancouver, ISO, etc.
39

Bassene, Aladji. "Contribution à la modélisation spatiale des événements extrêmes". Thesis, Lille 3, 2016. http://www.theses.fr/2016LIL30039/document.

Texto completo
Resumen
Dans cette de thèse, nous nous intéressons à la modélisation non paramétrique de données extrêmes spatiales. Nos résultats sont basés sur un cadre principal de la théorie des valeurs extrêmes, permettant ainsi d’englober les lois de type Pareto. Ce cadre permet aujourd’hui d’étendre l’étude des événements extrêmes au cas spatial à condition que les propriétés asymptotiques des estimateurs étudiés vérifient les conditions classiques de la Théorie des Valeurs Extrêmes (TVE) en plus des conditions locales sur la structure des données proprement dites. Dans la littérature, il existe un vaste panorama de modèles d’estimation d’événements extrêmes adaptés aux structures des données pour lesquelles on s’intéresse. Néanmoins, dans le cas de données extrêmes spatiales, hormis les modèles max stables,il n’en existe que peu ou presque pas de modèles qui s’intéressent à l’estimation fonctionnelle de l’indice de queue ou de quantiles extrêmes. Par conséquent, nous étendons les travaux existants sur l’estimation de l’indice de queue et des quantiles dans le cadre de données indépendantes ou temporellement dépendantes. La spécificité des méthodes étudiées réside sur le fait que les résultats asymptotiques des estimateurs prennent en compte la structure de dépendance spatiale des données considérées, ce qui est loin d’être trivial. Cette thèse s’inscrit donc dans le contexte de la statistique spatiale des valeurs extrêmes. Elle y apporte trois contributions principales. • Dans la première contribution de cette thèse permettant d’appréhender l’étude de variables réelles spatiales au cadre des valeurs extrêmes, nous proposons une estimation de l’indice de queue d’une distribution à queue lourde. Notre approche repose sur l’estimateur de Hill (1975). Les propriétés asymptotiques de l’estimateur introduit sont établies lorsque le processus spatial est adéquatement approximé par un processus M−dépendant, linéaire causal ou lorsqu'il satisfait une condition de mélange fort (a-mélange). • Dans la pratique, il est souvent utile de lier la variable d’intérêt Y avec une co-variable X. Dans cette situation, l’indice de queue dépend de la valeur observée x de la co-variable X et sera appelé indice de queue conditionnelle. Dans la plupart des applications, l’indice de queue des valeurs extrêmes n’est pas l’intérêt principal et est utilisé pour estimer par exemple des quantiles extrêmes. La contribution de ce chapitre consiste à adapter l’estimateur de l’indice de queue introduit dans la première partie au cadre conditionnel et d’utiliser ce dernier afin de proposer un estimateur des quantiles conditionnels extrêmes. Nous examinons les modèles dits "à plan fixe" ou "fixed design" qui correspondent à la situation où la variable explicative est déterministe et nous utlisons l’approche de la fenêtre mobile ou "window moving approach" pour capter la co-variable. Nous étudions le comportement asymptotique des estimateurs proposés et donnons des résultats numériques basés sur des données simulées avec le logiciel "R". • Dans la troisième partie de cette thèse, nous étendons les travaux de la deuxième partie au cadre des modèles dits "à plan aléatoire" ou "random design" pour lesquels les données sont des observations spatiales d’un couple (Y,X) de variables aléatoires réelles. Pour ce dernier modèle, nous proposons un estimateur de l’indice de queue lourde en utilisant la méthode des noyaux pour capter la co-variable. Nous utilisons un estimateur de l’indice de queue conditionnelle appartenant à la famille de l’estimateur introduit par Goegebeur et al. (2014b)
In this thesis, we investigate nonparametric modeling of spatial extremes. Our resultsare based on the main result of the theory of extreme values, thereby encompass Paretolaws. This framework allows today to extend the study of extreme events in the spatialcase provided if the asymptotic properties of the proposed estimators satisfy the standardconditions of the Extreme Value Theory (EVT) in addition to the local conditions on thedata structure themselves. In the literature, there exists a vast panorama of extreme events models, which are adapted to the structures of the data of interest. However, in the case ofextreme spatial data, except max-stables models, little or almost no models are interestedin non-parametric estimation of the tail index and/or extreme quantiles. Therefore, weextend existing works on estimating the tail index and quantile under independent ortime-dependent data. The specificity of the methods studied resides in the fact that theasymptotic results of the proposed estimators take into account the spatial dependence structure of the relevant data, which is far from trivial. This thesis is then written in thecontext of spatial statistics of extremes. She makes three main contributions.• In the first contribution of this thesis, we propose a new approach of the estimatorof the tail index of a heavy-tailed distribution within the framework of spatial data. This approach relies on the estimator of Hill (1975). The asymptotic properties of the estimator introduced are established when the spatial process is adequately approximated by aspatial M−dependent process, spatial linear causal process or when the process satisfies a strong mixing condition.• In practice, it is often useful to link the variable of interest Y with covariate X. Inthis situation, the tail index depends on the observed value x of the covariate X and theunknown fonction (.) will be called conditional tail index. In most applications, the tailindexof an extreme value is not the main attraction, but it is used to estimate for instance extreme quantiles. The contribution of this chapter is to adapt the estimator of the tail index introduced in the first part in the conditional framework and use it to propose an estimator of conditional extreme quantiles. We examine the models called "fixed design"which corresponds to the situation where the explanatory variable is deterministic. To tackle the covariate, since it is deterministic, we use the window moving approach. Westudy the asymptotic behavior of the estimators proposed and some numerical resultsusing simulated data with the software "R".• In the third part of this thesis, we extend the work of the second part of the framemodels called "random design" for which the data are spatial observations of a pair (Y,X) of real random variables . In this last model, we propose an estimator of heavy tail-indexusing the kernel method to tackle the covariate. We use an estimator of the conditional tail index belonging to the family of the estimators introduced by Goegebeur et al. (2014b)
Los estilos APA, Harvard, Vancouver, ISO, etc.
40

Cazenove, Jean de. "Développement des méthodes numériques et expérimentales pour la certification vibratoire des disques aubagés monoblocs". Thesis, Besançon, 2014. http://www.theses.fr/2014BESA2017.

Texto completo
Resumen
Les roues aubagées de turbomachines sont soumises en fonctionnement `a des sollicitations statiqueset dynamiques, qui peuvent conduire `a des situations de fatigue vibratoire pour des excitationsau voisinage des fréquences de résonance. Ce probléme est aggravé par le désaccordage involontaire,auquel sont sujets les ensembles aubagés notamment du fait des dispersions de fabrication.L’objectif de ce travail de recherche est de proposer une stratégie mixte numérique et expérimentalepermettant de caractériser le comportement dynamique d’une roue d’essai au sein des statistiquesdécrivant une flotte simulée de moteurs en service, en vue de la certification vibratoire. Un modèle numérique fidèle basée sur l’acquisition optique d’une roue expérimentale a été développé; une série d’essais en laboratoire a permis de vérifier sa représentativité. L’exploitation de mesures réalisées en configuration moteur a montré une bonne cohérence globale des niveaux d’amplitude prédits à l’aidedu modèle fidèle. Enfin, la simulation du comportement d’une population de roues désaccordées à l’aide d’une approche probabiliste non-Paramétrique a permis de positionner l’amplitude de réponse maximale rencontrée sur la pièce d’essai par rapport à la valeur théorique obtenue par simulation. La stratégie proposée permet une prédiction des niveaux vibratoires maximaux pour une flotte de rouesen service
Under operating conditions, turbomachinery blisks are subject to static and dynamic loads which mayresult in High-Cycle Fatigue situations when excited at the neighbourhood of resonant frequencies.Random mistuning, which affects blisks due to machining deviations, turns this issue even morecritical. The objective of the current study is to introduce a numerical-Experimental strategy allowingthe dynamic characterization of an experimental bladed disk with regard to the statistics representingthe simulated behaviour for a population of operating blisks. A high-Fidelity numerical model basedon the optical acquisition of an experimental blisk has been set up. Test series performed in labconditions allowed to verify its coherence. The comparison of the response amplitudes measuredunder operating conditions to the model predictions revealed an acceptable matching between testand simulation data. Finally, a non-Parametric probabilistic approach has been used to predict thetheoretical maximal amplification factor. The maximum amplification factor obtained by means ofsimulation was compared to the amplification factor of the test specimen. The strategy proposed inthis study allows maximum amplification factor predictions for a population of blisks
Los estilos APA, Harvard, Vancouver, ISO, etc.
41

Chiron, Guillaume. "Système complet d’acquisition vidéo, de suivi de trajectoires et de modélisation comportementale pour des environnements 3D naturellement encombrés : application à la surveillance apicole". Thesis, La Rochelle, 2014. http://www.theses.fr/2014LAROS030/document.

Texto completo
Resumen
Ce manuscrit propose une approche méthodologique pour la constitution d’une chaîne complète de vidéosurveillance pour des environnements naturellement encombrés. Nous identifions et levons un certain nombre de verrous méthodologiques et technologiques inhérents : 1) à l’acquisition de séquences vidéo en milieu naturel, 2) au traitement d’images, 3) au suivi multi-cibles, 4) à la découverte et la modélisation de motifs comportementaux récurrents, et 5) à la fusion de données. Le contexte applicatif de nos travaux est la surveillance apicole, et en particulier, l’étude des trajectoires des abeilles en vol devant la ruche. De ce fait, cette thèse se présente également comme une étude de faisabilité et de prototypage dans le cadre des deux projets interdisciplinaires EPERAS et RISQAPI (projets menées en collaboration avec l’INRA Magneraud et le Muséum National d’Histoire Naturelle). Il s’agit pour nous informaticiens et pour les biologistes qui nous ont accompagnés, d’un domaine d’investigation totalement nouveau, pour lequel les connaissances métiers, généralement essentielles à ce genre d’applications, restent encore à définir. Contrairement aux approches existantes de suivi d’insectes, nous proposons de nous attaquer au problème dans l’espace à trois dimensions grâce à l’utilisation d’une caméra stéréovision haute fréquence. Dans ce contexte, nous détaillons notre nouvelle méthode de détection de cibles appelée segmentation HIDS. Concernant le calcul des trajectoires, nous explorons plusieurs approches de suivi de cibles, s’appuyant sur plus ou moins d’a priori, susceptibles de supporter les conditions extrêmes de l’application (e.g. cibles nombreuses, de petite taille, présentant un mouvement chaotique). Une fois les trajectoires collectées, nous les organisons selon une structure de données hiérarchique et mettons en œuvre une approche Bayésienne non-paramétrique pour la découverte de comportements émergents au sein de la colonie d’insectes. L’analyse exploratoire des trajectoires issues de la scène encombrée s’effectue par classification non supervisée, simultanément sur des niveaux sémantiques différents, et où le nombre de clusters pour chaque niveau n’est pas défini a priori mais est estimé à partir des données. Cette approche est dans un premier temps validée à l’aide d’une pseudo-vérité terrain générée par un Système Multi-Agents, puis dans un deuxième temps appliquée sur des données réelles
This manuscript provides the basis for a complete chain of videosurveillence for naturally cluttered environments. In the latter, we identify and solve the wide spectrum of methodological and technological barriers inherent to : 1) the acquisition of video sequences in natural conditions, 2) the image processing problems, 3) the multi-target tracking ambiguities, 4) the discovery and the modeling of recurring behavioral patterns, and 5) the data fusion. The application context of our work is the monitoring of honeybees, and in particular the study of the trajectories bees in flight in front of their hive. In fact, this thesis is part a feasibility and prototyping study carried by the two interdisciplinary projects EPERAS and RISQAPI (projects undertaken in collaboration with INRA institute and the French National Museum of Natural History). It is for us, computer scientists, and for biologists who accompanied us, a completely new area of investigation for which the scientific knowledge, usually essential for such applications, are still in their infancy. Unlike existing approaches for monitoring insects, we propose to tackle the problem in the three-dimensional space through the use of a high frequency stereo camera. In this context, we detail our new target detection method which we called HIDS segmentation. Concerning the computation of trajectories, we explored several tracking approaches, relying on more or less a priori, which are able to deal with the extreme conditions of the application (e.g. many targets, small in size, following chaotic movements). Once the trajectories are collected, we organize them according to a given hierarchical data structure and apply a Bayesian nonparametric approach for discovering emergent behaviors within the colony of insects. The exploratory analysis of the trajectories generated by the crowded scene is performed following an unsupervised classification method simultaneously over different levels of semantic, and where the number of clusters for each level is not defined a priori, but rather estimated from the data only. This approach is has been validated thanks to a ground truth generated by a Multi-Agent System. Then we tested it in the context of real data
Los estilos APA, Harvard, Vancouver, ISO, etc.
42

Li, Shuxian. "Modélisation spatio-temporelle pour l'esca de la vigne à l'échelle de la parcelle". Thesis, Bordeaux, 2015. http://www.theses.fr/2015BORD0313/document.

Texto completo
Resumen
L'esca de la vigne fait partie des maladies de dépérissement incurables dont l'étiologie n'est pas complément élucidée. Elle représente un des problèmes majeurs en viticulture. L'objectif général de cette thèse est d'améliorer la compréhension des processus épidémiques et des facteurs de risque. Pour ce faire, nous avons mené une étude quantitative du développement spatio-temporel de l'esca à l'échelle de la parcelle. Dans un premier temps, pour détecter d'éventuelles corrélations spatiales entre les cas de maladie, des tests statistiques non paramétriques sont appliqués aux données spatio-temporelles d'expression foliaires de l'esca pour 15 parcelles du bordelais. Une diversité de profils spatiaux, allant d'une distribution aléatoire à fortement structurée est trouvée. Dans le cas de structures très agrégées, les tests n'ont pas montré d'augmentation significative de la taille des foyers, ni de propagation secondaire locale à partir de ceps symptomatiques, suggérant un effet de l'environnement dans l'explication de cette agrégation. Dans le but de modéliser l'occurrence des symptômes foliaires, nous avons développé des modèles logistiques hiérarchiques intégrant à la fois des covariables exogènes liées à l'environnement et des covariables de voisinage de ceps déjà malades mais aussi un processus latent pour l'auto-corrélation spatio-temporelle. Les inférences bayésiennes sont réalisées en utilisant la méthode INLA (Inverse Nested Laplace Approximation). Les résultats permettent de conforter l'hypothèse du rôle significatif des facteurs environnementaux dans l'augmentation du risque d'occurrence des symptômes. L'effet de propagation de l'esca à petite échelle à partir de ceps déjà atteints situés sur le rang ou hors rang n'est pas montré. Un modèle autologistique de régression, deux fois centré, qui prend en compte de façon plus explicite la structure spatio-temporelle de voisinage, est également développé. Enfin, une méthode géostatistique d'interpolation de données de nature anisotropique atypique est proposée. Elle permet d'interpoler la variable auxiliaire de résistivité électrique du sol pour estimer à l'échelle de chaque plante de la parcelle, la réserve en eau du sol disponible pour la vigne. Les méthodes géostatistique et spatio-temporelles développées dans cette thèse ouvrent des perspectives pour identifier les facteurs de risques et prédire le développement de l'esca de la vigne dans des contextes agronomiques variés
Esca grapevine disease is one of the incurable dieback disease with the etiology not completely elucidated. It represents one of the major threats for viticulture around the world. To better understand the underlying process of esca spread and the risk factors of this disease, we carried out quantitative analyses of the spatio-temporal development of esca at vineyard scale. In order to detect the spatial correlation among the diseased vines, the non-parametric statistical tests were applied to the spatio-temporal data of esca foliar symptom expression for 15 vineyards in Bordeaux region. Among vineyards, a large range of spatial patterns, from random to strongly structured, were found. In the vineyards with strongly aggregated patterns, no significant increase in the size of cluster and local spread from symptomatic vines was shown, suggesting an effect of the environment in the explanation of this aggregation. To model the foliar symptom occurrence, we developed hierarchical logistic regression models by integrating exogenous covariates, covariates of neighboring symptomatic vines already diseased, and also a latent process with spatio-temporal auto-correlation. The Bayesian inferences of these models were performed by INLA (Inverse Nested Laplace Approximation) approach. The results confirmed the effect of environmental factors on the occurrence risk of esca symptom. The secondary locally spread of esca from symptomatic vines located on the same row or out of row was not shown. A two-step centered auto-logistic regression model, which explicitly integrated the spatio-temporal neighboring structure, was also developed. At last, a geostatistical method was proposed to interpolate data with a particular anisotropic structure. It allowed interpolating the ancillary variable, electrical resistivity of soil, which were used to estimate the available soil water content at vine-scale. These geostatistical methods and spatio-temporal statistical methods developed in this thesis offered outlook to identify risk factors, and thereafter to predict the development of esca grapevine disease in different agronomical contexts
Los estilos APA, Harvard, Vancouver, ISO, etc.
43

Inou, Allal. "Modélisations numériques d'oscillateurs paramétriques optiques, en régime de fortes conversions, à l'échelle nanoseconde". Limoges, 1998. http://www.theses.fr/1998LIMO0013.

Texto completo
Resumen
Le developpement actuel des opos (oscillateurs parametriques optiques) ne saurait s'affranchir de la simulation numerique. Les travaux que nous presentons dans ce memoire contribuent a cet essor, d'abord en recensant et en classant les principales methodes numeriques et semi-analytiques applicables a l'opo pulse nanoseconde. Par la suite, nous avons procede a une etude theorique comparative qui nous a conduit a programmer plusieurs techniques numeriques representatives. Les codes sont alors valides en reference a un cas experimental completement caracterise. Les modeles sont de la categorie recente spatio-temporelle, ils prennent en compte la diffraction, la double refraction, et l'absorption des cristaux non lineaires, pour un accord de phase de type i ou ii parfait ou non. Ils permettent d'extraire les rendements energetiques, d'observer les evolutions spatio-temporelles des champs intra-cavite, d'apprecier la qualite spatiale des faisceaux emergeants (coefficient de qualite m2), de tracer les spectres temporels et les champs lointains. Les methodes numeriques - differences finies explicites et implicites, transformees de fourier rapides - sont comparees entre elles dans leurs performances lors de la modelisation d'une propagation lineaire ou non. Puis, le logiciel que nous avons adopte a ete mis a profit pour retrouver la courbe de rendement energetique pour un cas experimental autre que celui de reference. Nous avons ensuite observe le comportement du modele en dehors du cadre des hypotheses d'ondes monomodes longitudinales et a variation transverse lente des champs complexes. En outre, le logiciel a ete exploite pour mieux cerner certains phenomenes concernant un opo pompe par un mode tem01. Enfin, nous nous sommes appuyes sur le logiciel pour effectuer des previsions de performances pour un opo alimente par une pompe a profil transverse super-gaussien.
Los estilos APA, Harvard, Vancouver, ISO, etc.
44

Bendjoudi, Aniss. "Contrôle non destructif ultrasonore de tubes métalliques : modélisation, simulation, confrontation à l'expérience et études paramétriques". Paris 7, 2013. http://www.theses.fr/2013PA077002.

Texto completo
Resumen
Les contrôles non destructifs jouent un rôle essentiel dans la production industrielle, en particulier dans les domaines où la qualité des produits est critique pour la sécurité, comme le nucléaire. La modélisation numérique est l'un des moyens utilisés pour mieux comprendre et maîtriser les contrôles. La société CEZUS poursuit un projet de modélisation des contrôles ultrasonores de tubes métalliques destinés à former des unités de combustible nucléaire. L'étude expérimentale des différents éléments du contrôle est indispensable pour établir l'influence des différents paramètres sur la variabilité et la précision des résultats. Cette étude permet par la suite de guider les choix réalisés pour la modélisation. A ce titre, une reproduction expérimentale en laboratoire du contrôle pratiqué en usine est réalisée. La modélisation du contrôle ultrasonore doit être suffisamment précise tout en conservant un temps de calcul raisonnable. Pour cela, un modèle hybride associant une méthode semi-analytique utilisant l'intégrale de Rayleigh à une méthode de différences finies est développée. Enfin le modèle hybride est implémenté au sein d'une plateforme de simulation industrielle opérationnelle. La démarche de validation des résultats de simulation repose sur la confrontation aux mesures expérimentales dans des configurations remarquables. Les comparaisons des signaux montrent une bonne prédiction qualitative mais une prédiction quantitative incomplète, notamment concernant les amplitudes relatives. Enfin, l'exploitation de l'outil de simulation permet d'explorer des configurations de contrôle incaccessibles expérimentalement
Non destructive testings play an essential role in industrial production, in particular in the areas where products quality is critical to safety, such as nuclear. Numerical modeling is one of the means used to understand and master controls. The company CEZUS pursues a project of modeling of its ultrasonic testing for metal tubes used in nuclear fuel assembly. The experimental study of the control is necessary to establish the influence of the various parameters on variability and accuracy. This study also guides the choices made for modeling. To accomplish this, an experimental reproduction of the factory control is realised in the laboratory. Modeling of ultrasonic testing must be sufficiently precise while retaining reasonable computation time. For this, a hybrid model combining a semi-analytical method using the Rayleigh integral with a finite difference method is developed. Finally, the hybrid model is implemented in an operational industrial simulation plaltform. The validation process of simulation results is based on the confrontation with experimental measurements in specific configurations. Signals comparisons show a good qualitative prediction but an incomplete quantitative prediction, especially concerning the relative amplitudes. Finally, the simulation platform allows the exploration of control configurations experimentally incaccessible
Los estilos APA, Harvard, Vancouver, ISO, etc.
45

Laurain, Vincent. "Contributions à l'identification de modèles paramétriques non linéaires. Application à la modélisation de bassins versants ruraux". Phd thesis, Université Henri Poincaré - Nancy I, 2010. http://tel.archives-ouvertes.fr/tel-00550515.

Texto completo
Resumen
La procédure d'identification consiste à rechercher un modèle mathématique adéquat pour un système dynamique donné à partir de données expérimentales. Alors que l'identification de système est orientée majoritairement pour répondre aux problèmes de commande depuis les années 90, l'identification de systèmes naturels reste cruciale pour une meilleure compréhension de notre environnement. Cette thèse vise à apporter une solution au problème de modélisation de la relation pluie/débit dans un bassin versant rural. Un bassin versant est défini comme la portion de territoire délimitée par des lignes de crête, dont les eaux alimentent un exutoire commun : cours d'eau, lac, mer, etc. L'identification de la relation pluie/débit est un problème stimulant, de par la complexité à trouver une structure de modèle définissant le comportement du bassin dans son ensemble. De plus, dans les bassins ruraux, il y a une grande variabilité spatio-temporelle des propriétés du sol tant au niveau de la végétation, du type de sol ou de l'évapotranspiration et seulement une partie de la pluie totale ruisselle et contribue au débit à l'exutoire. Dans ce cas, les modèles linéaires ne sont pas adaptés et ne peuvent délivrer de modèle acceptable pour la relation pluie/débit. A cet effet, deux structures de modèles non-linéaires sont étudiées : les modèles Hammerstein et les modèles Linéaires à Paramètres variants (LPV). La contribution principale de cette thèse réside dans le développement de méthodes dédiées à l'estimation de ces modèles, à temps discret ou continu, opérant en boucle ouverte ou fermée, en se concentrant sur le cas réaliste où le bruit de sortie est coloré et indépendant du processus étudié : le cas Box--Jenkins (BJ). De plus, les méthodes proposées ont été conçues spécialement pour fournir des résultats utiles dans le cas réel où le modèle de bruit est inconnu ou mal évalué. Finalement, ces méthodes sont utilisées sur des données réelles, acquises sur un bassin versant rural situé à Rouffach, Alsace, France et un processus d'identification innovant est proposé pour la modélisation de la relation pluie/débit.
Los estilos APA, Harvard, Vancouver, ISO, etc.
46

Fontaine, Charles. "Utilisation de copules paramétriques en présence de données observationnelles : cadre théorique et modélisations". Thesis, Montpellier, 2016. http://www.theses.fr/2016MONTT009/document.

Texto completo
Resumen
Les études observationnelles (non-randomisées) sont principalement constituées de données ayant des particularités qui sont en fait contraignantes dans un cadre statistique classique. En effet, dans ce type d'études, les données sont rarement continues, complètes et indépendantes du bras thérapeutique dans lequel les observations se situent. Cette thèse aborde l'utilisation d'un outil statistique paramétrique fondé sur la dépendance entre les données à travers plusieurs scénarios liés aux études observationnelles. En effet, grâce au théorème de Sklar (1959), les copules paramétriques sont devenues un sujet d'actualité en biostatistique. Pour commencer, nous présentons les concepts de base relatifs aux copules et aux principales mesures d'association basées sur la concordance retrouvées dans la littérature. Ensuite, nous donnons trois exemples d'application des modèles de copules paramétriques pour autant de cas de données particulières retrouvées dans des études observationnelles. Nous proposons d’abord une stratégie de modélisation de l'analyse coût-efficacité basée uniquement sur une réécriture des fonctions de distribution jointes et évitant les modèles de régression linéaire. Nous étudions ensuite, les contraintes relatives aux données discrètes, particulièrement dans un contexte de non-unicité de la fonction copule, nous réécrivons le score de propension grâce à une approche novatrice basée sur l'extension d'une sous-copule. Enfin, nous évoquons un type particulier de données manquantes : les données censurées à droite, dans un contexte de régression, grâce à l'utilisation de copules semi-paramétriques
Observational studies (non-randomized) consist primarily of data with features that are in fact constraining within a classical statistical framework. Indeed, in this type of study, data are rarely continuous, complete, and independent of the therapeutic arm the observations are belonging to. This thesis deals with the use of a parametric statistical tool based on the dependence between the data, using several scenarios related to observational studies. Indeed, thanks to the theorem of Sklar (1959), parametric copulas have become a topic of interest in biostatistics. To begin with, we present the basic concepts of copulas, as well as the main measures of association based on the concordance founded on an analysis of the literature. Then, we give three examples of application of models of parametric copulas for as many cases of specific data found in observational studies. We first propose a strategy of modeling cost-effectiveness analysis based essentially on rewriting the joint distribution functions, while discarding the use of linear regression models. We then study the constraints relative to discrete data, particularly in a context of non-unicity of the copula function. We rewrite the propensity score, thanks to an innovative approach based on the extension of a sub-copula. Finally, we introduce a particular type of missing data: right censored data, in a regression context, through the use of semi-parametric copulas
Los estilos APA, Harvard, Vancouver, ISO, etc.
47

Sandu, Leontina. "Inversion de modèles paramétriques : application aux mesures indirectes de températures". Paris 11, 1996. http://www.theses.fr/1996PA112343.

Texto completo
Resumen
Ce travail porte sur la résolution d'un problème inverse de conduction de la chaleur. Il s'agit de l'estimation des températures sur la paroi interne d'un corps cylindrique à partir d'un nombre restreint d'observations de température en paroi externe. Nous construisons dans une première partie différents types de modèles directs susceptibles de nous aider à résoudre ce problème de mesure : modèle direct analytique, numérique et paramétrique. Les résultats prometteurs de l'estimation du profil de températures à l'intérieur du corps en utilisant des modèles paramétriques de comportement motivent l'étude plus approfondie de ces dernières. Par ailleurs, des travaux antérieurs qui portent sur d'autres applications avaient démontré que l'utilisation des fonctions paramétriques de comportement comme modèle direct peut conduire à des résultats très performants. La deuxième partie du travail est dédiée à la construction et à la discrimination entre plusieurs fonctions paramétriques candidates. Nous avançons quelques notions théoriques en vue de la construction des fonctions modèles. Nous démontrons l'intérêt de choisir une fonction modèle suivant l'objectif d'inversion dicté par l'application : estimation des paramètres, de la fonction modèle aux "points" inaccessihles ou d'une autre fonction des paramètres. Les critères proposés choisissent le "meilleur" modèle pour un objectif d'inversion fixé utilisant la notion d'information apportée par une expérience. Ces modèles de comportement pouraient être integrés dans les instruments de mesure utilisés dans l'évaluation non-destructive des températures ou d'autres grandeurs physiques
The general context of this work is the non-linear reconstruction of a mesurand or so-called the non-linear inverse problem with a very small data set. We are concerned with an inverse problem of heat conduction that deals with the determination of the internaI temperature from measured temperatures outside a heat conducting body. Ln order to solve this measurement problem, we propose different modelling techniques: analytical, numerical and the tehnique using external parametric models. Good existing results obtained from parametric estimation of temperature profiles lead us to study more deeply the external parametric models. Previous work has also demonstrated the interest of parametric functions as forward model for other applications. Those functions are simple to implement and result in good pelformance of the inversion process. We study the problem of construction of some candidates for parametric models. The discrimination between candidates is studied. Some theoretical notions for construction of parametric functions are advanced. We demonstrate that the choice of the parametric function depends on the significant quantity to estimate. This quantity could be the parameter vector, the model function in some points "inaccessible" to observation or an other parametric function. The proposed criteria choose the "best" function with respect to the inversion goal using the information gained in the experiment. The best model will be specific to the measurement goal and must be "sufficiently" close to real observations. Instruments for temperature measurement or other physical quantities measurement could include this type of model
Los estilos APA, Harvard, Vancouver, ISO, etc.
48

Argoul, Pierre. "Identification des structures vibrantes". Marne-la-vallée, ENPC, 1990. https://hal-enpc.archives-ouvertes.fr/tel-04010926.

Texto completo
Resumen
L’étude de l’identification des structures mécaniques vibrantes induit une double démarche : la recherche de modèles mécaniques représentatifs des phénomènes observés, et conjointement la recherche de techniques d’identification de ces modèles à partir d’essais vibratoires appropriés. La première partie de ce travail définit donc les deux formes externe et interne de la représentation du comportement des structures. Si la représentation externe repose sur des théorèmes mathématiques généraux précisant la forme de l’opérateur de comportement, la représentation interne se rattache aux lois de la dynamique des milieux continus, rappelées sous forme continue, puis discrétisée dans le cadre d’une formulation variationnelle. La modélisation des effets dissipatifs est ensuite étudiée sous forme de viscoélasticité linéaire. On retiendra que le modèle associé au facteur de qualité constant et le modèle hystérétique peuvent être définis à l’aide de l’élément de base des modèles utilisant les dérivées fractionnaires. La deuxième partie présente une vision d’ensemble des procédures d’identification. Elles sont classées suivant les propriétés des modèles et la distinction entre paramétrique et non-paramétrique. On met l’accent sur la causalité des systèmes identifiés, et sur le risque de relier la perte de causalité d’un système mécanique à la présence éventuelle d’une non-linéarité. Deux méthodes nouvelles d’identification sont exposées et testées sur des exemples numériques. La première, adaptée au cas de systèmes linéaires fortement amortis, s’appuie sur la propriété d’amplification d’une transformation intégrale pondérée. Son calcul permet d’estimer les pôles et les zéros d’une fonction de transfert sans nécessiter d’hypothèse sur le modèle d’amortissement de la structure. La deuxième méthode recherche la meilleure approximation des forces internes comme somme double de polynômes de Chebyshev. Cette technique ne fait pas d’hypothèse à priori sur le comportement de la structure. Les améliorations proposées des procédés de lissage des forces internes dans l’espace d’état fournissent de bons résultats lorsque l’expression de ces forces contient des termes de couplage vitesse-déplacement ou modal
The study of the identification of mechanical structures under vibration involves a double approach : the search for mechanical models representative of the observed phenomena and the search for identification techniques for these models from adapted vibratory tests. The first part of this work gives the definition of the external and internal representations of the behaviour of structures. If the external representation is based on basic mathematical theorems, which precise the form of the operator of the behaviour, the internal representation is linked to the rules of the continuum media dynamics which are recalled in a continuous form and then discretized within the frame of a variational formulation. The modelization of the linear dissipative effects is then studied using linear viscoelasticity theory. We note that the model with constant quality factor and the hysteretic one can be defined with the basic element of models using fractionnal derivatives. The second part gives an overview of some identification procedures which are classified according to the properties of the model and particularly the distinction made between parametric and non-parametric. The causality of identified systems and the risk of linking the loss of causality for a mechanical system to the possible presence of a non-linearity are amphasized. Two new identification methods are presented and tested on numerical example. The first, suitable for linear strongly damped systems, is based on the property of dynamic ampliciation of a weighted integral transform. Its computation allows an estimation of the poles and zeros of a transfer function without making any assumption on the type of real damping. The second one seeks for the best approximation of the restoring forces as a double sum of Chebyshev polynomials. This technique doesn’t make any « a priori » assumption on the structural behaviour. The proposed improvements of the interpolation and extrapolation procedures in the space yield good results when the expression of the restoring forces contains displacements-velocity or modal coupling terms
Das Studium der vibrierenden mechanischen Strukturen beinhaltet zwei Forschungsrichtungen : Die Suche nachden die beobachteten Phänomene repräsentierenden mechanischen Modellen, und die Suche nach Identifikationstechniken dieser Modelle ausgehend von experimentellen Tests. Im ersten Teil dieser Arbeit werden die externen un internen Repräsentationsformen des Strukturverhaltens definiers. Die externe Darstellung basiers auf mathematischen Grundsätzen, die die Form der Verhaltensfunktion bestimmen : wohingegen sich die interne Darstellund durch die Gesetze der Dynamik kontinuierlicher Système ausdrückt, die im Rahmen der Variationstheorie in diskretisierter Form angewendet werden. Dis Modellisierung der Streuungseffekte wird in der Form von linear Viskoelastizität studiert. Es wird gezeigt, daß hysteretische Modelle und Modelle, die konstante Qualitätsfaktoren benutzen, auf der Basis von Modellen definiert werder können, die gebrochenrationale Ableitungsfunktionen benutzen. Der zweite Teil bietet einen Überblick über die Menge der Identifikationsprozeduren. Die Klassifizierung wird gemäß der Eigenschaften der Modelle und der Unterscheidung zwischen parametrisierten und nicht parametrisierten Modellen vorgenommen. Der Schwerpunkt liegt auf den kausalen Zusammenhängen der identifizierten Systeme und auf dem Risiko der Verbindung eines Kausalitätsverlustes mit einer evtl. Vorhandenen Nichtlinearität. Zwei neue Identifikationsmethoden werden vorgestellt und an numerischen Beispielen getestet. Das erste Beispiel, der Fall eines stark gedämpften linearen Systems, basiert auf der Verstärkungseigenschaft einer integralen gewichteten Transformation. Seine Berechnung ermöglicht die Abschätzung der Pole und Nullstellen einer Übertragungsfunktion, ohne daß eine Hypothese des Dämpfungsmodells der Struktur benötiget wird. Die zweite Methode sucht nach der besten zweidimensionalen Approximation der inneren Kräfte durch Tchebyscheff Polynome. Diese Technik macht keine a priori Annahme über das Verhalten der Struktur. Die vorgeschlagenen Verbesserungen des Glättungsprozesses der inneren Kräfte im Zustandsraum ergeben gute Resultate, wenn die Beschreibung dieser Kräfte Terme enthält, die Geschwindigkeit une Deplazierung verbinden
Los estilos APA, Harvard, Vancouver, ISO, etc.
49

Laouti, Nassim. "Diagnostic de défauts par les Machines à Vecteurs Supports : application à différents systèmes mutivariables nonlinéaires". Phd thesis, Université Claude Bernard - Lyon I, 2012. http://tel.archives-ouvertes.fr/tel-00985437.

Texto completo
Resumen
Les systèmes réels sont généralement de nature non-linéaire, et leurs modélisations etsurveillance restent une tâche difficile à accomplir. Néanmoins, avec les progrès technologiqueson dispose maintenant d'un atout de taille sur ces systèmes qui est les données.Ce travail présente une technique de diagnostic de défaut et de modélisation basée en grandepartie sur la méthode d'apprentissage automatique " Les Machines à Vecteurs de Support,SVM " qui est basée sur les données. La méthodologie proposée est appliquée à différentessystèmes multivariables et non linéaires, à savoir : un procédé de traitement des eaux usées, unsystème éolien et un réacteur chimique parfaitement agité.L'objectif de cette thèse de doctorat est d'examiner la possibilité d'extraire le maximumd'information à partir de données afin de surveiller efficacement le comportement de systèmesréels et de détecter rapidement tout défaut qui peut compromettre leur bon fonctionnement. Lamême méthode est utilisée pour la modélisation des différents systèmes. Plusieurs défis ont étérelevés tels que la complexité du comportement des systèmes, le grand nombre de mesuresvariant à différentes échelles de temps, la présence de bruit et les perturbations. Une méthodegénérique de diagnostic de défauts est proposée par la génération des caractéristiques de chaquedéfaut suivie d'une étape d'évaluation de ces caractéristiques avec une amélioration du transfertde connaissances en modélisation.Dans cette thèse ont a démontré l'utilité de l'outil Machines à Vecteurs de Support, enclassification par la construction de modèles de décision SVM dédiés à l'évaluation descaractéristiques de défaut, et aussi en tant qu'estimateur non linéaire/ou pour la modélisation parl'utilisation des machines à vecteurs de support dédiés pour la régression (SVR).La combinaison de SVM et d'une méthode basée sur le modèle "observateur" a été aussi étudiéeet a été nécessaire dans certains cas pour garantir un bon diagnostic de défauts.
Los estilos APA, Harvard, Vancouver, ISO, etc.
50

Boumegoura, Tarek. "Recherche de signature électromagnétique des défauts dans une machine synchrone et synthèse d'observateurs en vue du diagnostic". Ecully, Ecole centrale de Lyon, 2001. http://www.theses.fr/2001ECDL0008.

Texto completo
Resumen
Les entraînements électriques utilisent de plus en plus les moteurs asynchrones à cause de leur robustesse, de leur puissance massique et de leur coût. Leur maintenance et leur diagnostic deviennent donc un enjeu économique. Il est important de détecter de manière précoce les défauts qui peuvent apparaître dans ces machines et donc de développer des méthodes de surveillance de fonctionnement ou de maintenance préventive. Ainsi, un modèle fin de la machine a été développé et a permis d'analyser l'impact des défauts sur le comportement du moteur. Il a permis d'obtenir des signatures spécifiques aux défaillances électriques et de prévoir l'évolution de ces dernières. Notre approche repose sur la surveillance de paramètres de modèles comportementaux de la machine, sensibles aux défauts : les résistances rotoriques d'un modèle triphasé, l'inductance magnétisante et la résistance rotorique d'un modèle diphasé. Des outils de détection des défauts rotoriques, basés sur des observateurs de Kalman et grand gain étendus adaptés aux systèmes non-linéaires, ont été synthétisés pour tracer les paramètres précédents
Electrical traction use more and more the asynchronous machines because of their robustness, their power weight ratio. Their maintenance as well as their diagnosis then became an economic state. It is important to early detect the faults likely to appear in those motors and therefor to implement a preventive maintenance. Thus, a detailed model of the machine was developed in order to analyse the impact of those faults on the machine performance. We could then get specific signatures for electrical faults and foresee their evolution. Our approach is based on keeping a close watch over parameters of the performance model of the machine perticularly sensitive to faults : the rotor resistances of three phase model, the magetising inductance and the rotoric resistance of a two phase model. Some tools for detecting motor faults, based on extended Kalman and High Gain observes adapted to non-linear systems, were workout to record these parameters. They were successfully tested on data from a motor bench as well as on data from finite element model
Los estilos APA, Harvard, Vancouver, ISO, etc.
Ofrecemos descuentos en todos los planes premium para autores cuyas obras están incluidas en selecciones literarias temáticas. ¡Contáctenos para obtener un código promocional único!

Pasar a la bibliografía