Dissertations / Theses on the topic 'Filtrage (mathématiques)'

To see the other types of publications on this topic, follow the link: Filtrage (mathématiques).

Create a spot-on reference in APA, MLA, Chicago, Harvard, and other styles

Select a source type:

Consult the top 50 dissertations / theses for your research on the topic 'Filtrage (mathématiques).'

Next to every source in the list of references, there is an 'Add to bibliography' button. Press on it, and we will generate automatically the bibliographic reference to the chosen work in the citation style you need: APA, MLA, Harvard, Chicago, Vancouver, etc.

You can also download the full text of the academic publication as pdf and read online its abstract whenever available in the metadata.

Browse dissertations / theses on a wide variety of disciplines and organise your bibliography correctly.

1

Rabut, Christophe. "B-splines polyharmoniques cardinales : interpolation, quasi-interpolation, filtrage." Toulouse 3, 1990. http://www.theses.fr/1990TOU30046.

Full text
Abstract:
Les B-splines polynomiales sont couramment utilisées pour définir simplement une fonction spline qui passe "près" de points donnés. Dans le cas où les données sont régulièrement réparties, on apporte, par un traitement préalable des données (convolution avec certains vecteurs à support borné), plus de souplesse à cette opération : on peut alors obtenir une fonction qui passe très près des points -on parle alors de quasi-interpolation- ou au contraire qui filtre les bruits inhérents à ces données on parle alors de filtrage. On montre comment utiliser la méthode de validation croisée pour choisir de façon optimale la force d'un filtrage, qui peut être adaptative, et on propose une méthode de réduction de données, le taux de réduction étant lié à la bande passante du filtre. Ces notions sont ensuite généralisées en dimension quelconque par l'utilisation des B-splines polyharmoniques : après avoir defini les splines polyharmoniques pour des données qui peuvent être en nombre infini, on en donne une expression numériquement plus stable que celle généralement utilisée, et on montre un lien entre splines polyharmoniques d'ordre ou de dimension différents. On définit alors les B-splines polyharmoniques, et on présente leurs propriétés essentielles, très voisines de celles des B-splines polynomiales. On propose l'utilisation de ces B-splines d'une part pour quasi-interpoler ou filtrer des données régulièrement réparties, d'autre part pour déterminer rapidement, par une méthode de subdivision, la spline d'interpolation de ces données. On envisage enfin la généralisation de cette notion de B-spline à des noeuds quelconques et à toute famille de fonctions satisfaisant certaines équations différentielles.
APA, Harvard, Vancouver, ISO, and other styles
2

Oliveira, Paula Manuela L. P. Milheiro de. "Etudes asymptotiques en filtrage non linéaire avec petit bruit d'observation." Aix-Marseille 1, 1990. http://www.theses.fr/1990AIX11313.

Full text
Abstract:
Cette these est consacree a l'etude de trois problemes asymptotiques concernant le filtrage non lineaire. Plus exactement, on analyse le comportement de certains filtres sous-optimaux lorsque le bruit d'observation tend vers zero. Dans un premier probleme on considere un systeme non lineaire unidimensionnel en temps discret, ou la fonction d'observation est injective. Dans un deuxieme probleme on traite un cas ou la fonction d'observation n'est pas injective. Il s'agit du cas d'un systeme lineaire par morceaux, unidimensionnel, en temps discret. En particulier, la situation ou on a une fonction d'observation symetrique est consideree. Le dernier travail est consacre a l'etude d'un systeme en temps continu dans lequel l'equation d'etat est de dimension deux et l'equation d'observation est de dimension un. On s'interesse specialement aux methodes qui permettent d'obtenir des estimations sur la vitesse de convergence
APA, Harvard, Vancouver, ISO, and other styles
3

Cérou, Frédéric. "Filtrage non linéaire sans bruit de dynamique : comportement en temps long et algorithmes numériques." Aix-Marseille 1, 1995. http://www.theses.fr/1995AIX11076.

Full text
Abstract:
Dans la premiere partie de cette these, nous considerons un probleme crucial en filtrage stochastique et encore tres ouvert concernant la concentration de la loi conditionnelle dans un voisinage arbitraire de l'etat courant (inconnu) lorsque le temps croit vers +. Nous nous sommes restreint a une classe de systemes dont l'equation d'etat est deterministe, en mettant l'accent sur certaines notions d'observabilite, et non d'ergodicite comme dans les travaux precedents. Nous montrons egalement certaines connexions avec la theorie des systemes dynamiques, notamment la notion de phase asymptotique. Dans la deuxieme partie, nous considerons la meme classe de problemes sans bruit de dynamique, mais du point de vue numerique. En particulier les algorithmes numeriques (approximations particulaires et cellulaires), particulierement bien adaptes a un traitement parallele, sont decrits en detail. On donne egalement des mesures de performances sur divers calculateurs paralleles et vectoriels sur un probleme reel de trajectographie passive par mesure d'angle seul
APA, Harvard, Vancouver, ISO, and other styles
4

Klaine, Luc. "Filtrage et restauration myopes des images numériques." Rennes 1, 2004. http://www.theses.fr/2004REN10161.

Full text
Abstract:
Les images numériques sont souvent dégradées par un flou et/ou un bruit lors de l'acquisition. L'objectif de cette thèse est de contribuer à un système adaptatif de restauration des images pour en faciliter l'exploitation. La première partie est un travail de synthèse sur les méthodes de filtrage (classiques, semi-automatiques) et de restauration (variationelles). Le contexte est myope car le bruit inconnu est supposé additif, multiplicatif ou impulsionnel. Le seconde partie reprend le schéma des méthodes semi-automatiques. La recherche des zones homogènes est optimisée à partir des critères d'évaluation de la méthode. Les statistiques locales sont intégrées pour améliorer l'identification de la nature du bruit et l'estimation de sa variance. Le filtrage est basé sur la resolution numérique d'une équation d'évolution, le filtre de Lee et des statistiques locales adaptatives. Les statistiques locales et l'optimisation de l'erreur quadratique moyenne sont reprises pour la restauration.
APA, Harvard, Vancouver, ISO, and other styles
5

Gégout-Petit, Anne. "Filtrage d'un processus partiellement observé et équations différentielles stochastiques rétrogrades réfléchies." Aix-Marseille 1, 1995. http://www.theses.fr/1995AIX11006.

Full text
Abstract:
Cette these comprend deux parties independantes. La premiere partie etudie un probleme de perturbation singuliere en filtrage non lineaire lorsque le processus est partiellement observe. Nous proposons un filtre approche de dimension finie pour la partie observee. A l'aide de ce filtre nous construisons un filtre approche de dimension infinie pour la partie non-observee. Il verifie cependant une equation de type zakai ou la dimension de la variable spatiale est plus petite que celle de l'equation de zakai verifiee par le filtre exact. La methode utilisee donne l'erreur d'approximation entre les deux filtres. La deuxieme partie etablit un theoreme d'existence et d'unicite pour la solution des equations differentielles stochastiques retrogrades (e. D. S. R. ) reflechies dans un convexe sans hypotheses de regularite sur celui-ci. Des conditions suffisantes sont d'abord donnees pour que la solution d'une e. D. S. R. Au sens classique reste dans un convexe donne. Nous montrons ensuite que s'il existe une solution au probleme reflechi, alors celle-ci est unique et le processus de reflexion est absolument continu. Nous montrons enfin l'existence par une methode de penalisation
APA, Harvard, Vancouver, ISO, and other styles
6

Rahmani, Pejman. "Restauration avec filtrage explicite des images multicomposantes." Rennes 1, 2008. http://www.theses.fr/2008REN1S182.

Full text
Abstract:
L'objectif principal de cette thèse est de mettre en œuvre un schéma automatique de restauration des images multispectrales aériennes, dégradées par un flou de défocalisation et un bruit additif, blanc et gaussien. Un intérêt a été accordé à l'aspect automatique, en utilisant le minimum d'informations a priori et offrant une meilleure qualité d'images restaurées. Le traitement est adapté à chaque bande spectrale en décomposant le problème de restauration en deux étapes séquentielles optimisées : débruitage et déconvolution régularisée. Pour le débruitage, un filtre itératif, associé à une procédure d’estimation du nombre optimal d’itérations, réalise le meilleur compromis entre la valeur des critères usuels et la préservation de la PSF. La déconvolution régularisée est ensuite appliquée sur l’image débruitée. Un procédé d'estimation du paramètre de régularisation est intégré. La performance du schéma proposé est vérifiée sur des images dégradées artificiellement ainsi que sur des images réelles multicomposantes aériennes acquises par les capteurs CASI et AISA
The main purpose of this thesis is to implement an automatic image processing scheme for restoring the degraded multispectral aerial images. In this work, the considered degradations are defocusing blur and additive, white and gaussian noise. Image processing is adapted to each spectral band by decomposing the image restoration process into two optimized sequential steps: Denoising and Deconvolution. In the first step, an iterative filter which is controlled by an optimal iteration number estimation, achieves the best compromise between the value of the usual criteria and PSF preservation. In the second step, a regularized deconvolution is performed on the almost noiseless version of observed image which is obtained from first step. A regularization parameter estimation method is introduced in order to make the scheme fully automatic. Finally, the performance of the proposed scheme is illustrated on degraded synthetic images and also on real aerial images acquired by the multi-hyper spectral CASI and AISA sensors
APA, Harvard, Vancouver, ISO, and other styles
7

Rossi, Vivien. "Filtrage non linéaire par noyaux de convolution : application à un procédé de dépollution biologique." Montpellier, ENSA, 2004. http://www.theses.fr/2004ENSA0013.

Full text
Abstract:
Cette thèse considère le problème du filtrage non linéaire, c'est à dire l'estimation au cours du temps de l'état, indirectement observé, d'un système dynamique non linéaire. Ce type de problématique concerne une large gamme de modèles relatifs à divers domaines scientifiques. Une approche originale utilisant les noyaux de convolution et des simulations d'un grand nombre de variables aléatoires est développée. Le cas des modèles contenant des paramètres inconnus à estimer est aussi traité. Des propriétés théoriques de convergence sont établies pour ces nouvelles approches. Afin de compléter l'étude de nos techniques, des comparaisons avec les méthodes traditionnelles, notamment avec les différents filtres particulaires, sont réalisées en simulation. Puis nos nouvelles approches sont appliquées sur un problème réel, un bioréacteur de retraitement d'eaux usées. Les performances obtenues, sur données réelles, permettent d'apprécier la robustesse de la méthode par rapport aux erreurs de modèles et aux données de mauvaises qualités.
APA, Harvard, Vancouver, ISO, and other styles
8

Daumail, Laurent. "Étude de quelques problèmes de stabilisation stochastique et de filtrage non linéaire." Metz, 2002. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/2002/Daumail.Laurent.SMZ0224.pdf.

Full text
Abstract:
Cette thèse est consacrée à l'étude de différentes questions concernant le contrôle de systèmes différentiels stochastiques au sens d'Itô ainsi qu'à certains problèmes de filtrage non linéaire. Dans une première partie, sont rassemblés des résultats de stabilisation asymptotique en probabilité de systèmes différentiels stochastiques. Ces résultats sont obtenus dans la cadre de la théorie développée à partir de la fin des années 1960, principalement par Khasminskii et Kushner. Le principal but est de généraliser divers résultats de stabilisation par retours d'état obtenus par différents auteurs pour des systèmes différentiels stochastiques où le contrôle n'est pas bruité, à des situations où un même bruit affecte à la fois la dynamique du système en régime libre et le contrôle rétroactif. Le chapitre 2 est consacré à une extension au contexte stochastique au théorème d'Arstein. Le résultat du chapitre 3 concerne la stabilization adaptative de systèmes différentiens stochastiques. Le chapitre 4 est consacré à la stabilisation de systèmes différentiels stochastiques passifs en cascade. Dans une second epartie sont rassemblés des résultats de filtrage non linéaire en dimension finie ou infinie. Le chapitre 7 concerne l'existence de filtres approchés pour des systèmes dont le signal est de dimension deux lorsque une seule composante de ce signal est observée. Le chapitre 8 concerne l'existence de filtres de dimension finie. Les chapitres 9 et 10 concernent les problèmes de filtrage en dimension infinie. Dans une troisième partie, on étudie, grâce au calcul de Malliavin, l'existence d'une densité régulière pour la solution d'une équation différentielle stochastique à coefficients dépendant du temps avec une infinité de termes de diffusion
APA, Harvard, Vancouver, ISO, and other styles
9

Dietsch, Marie-Noëlle. "Sur quelques problèmes de filtrage non linéaire." Metz, 2000. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/2000/Dietsch.Marie_Noelle.SMZ0035.pdf.

Full text
Abstract:
Cette thèse est consacrée à l'étude de quelques problèmes de filtrage non linéaire à valeurs dans des espaces de dimension finie ou de dimension infinie. Le problème de filtrage consiste à estimer au mieux les trajectoires d'un signal aléatoire connaissant une observation partielle et entachée d'erreur sur celui-ci. Nous étudions tout d'abord un problème de filtrage ayant un signal de dimension deux et une observation unidimensionnelle dans le cas d'un grand rapport signal/bruit lorsqu'une seule composante du signal est observée, les bruits du signal et de l'observation étant dépendants. Nous montrons que pour ce problème il existe un filtre approché satisfaisant une équation aux dérivées partielles stochastique de dimension réduite par rapport à l'équation vérifiée par le filtre associé au problème de filtrage. Puis nous nous intéressons à un problème de filtrage non linéaire avec bruits dépendants lorsque le signal et l'observation sont à valeurs dans des espaces de Hilbert de dimension infinie. Nous montrons tout d'abord que le filtre et le filtre non normalisé associés à ce problème sont solution d'équations aux dérivées partielles stochastiques, les équations de Zakai et de Kushner-Stratonovitch respectivement. Puis nous prouvons que le filtre non normalisé est absolument continu par rapport à une mesure de référence définie sur l'espace des états du signal et nous montrons que la densité du filtre est solution d'une équation aux dérivées partielles stochastique parabolique déduite de l'équation de Zakai par dualité. Finalement, dans le cas où les bruits du problème de filtrage sont indépendants, nous montrons que le filtre est continu sur l'espace des mesures positives définies sur l'espace des états du signal, muni de la convergence étroite
APA, Harvard, Vancouver, ISO, and other styles
10

Sekko, Edgar. "Quelques applications du filtrage optimal à la déconvolution." Lyon 1, 1998. http://www.theses.fr/1998LYO10028.

Full text
Abstract:
Notre travail a eu pour objectif l'elaboration et a la mise en uvre de quelques applications du filtrage optimal a la deconvolution. Dans plusieurs disciplines telles l'astronomie, la physique, la biologie, la chimie,, on procede souvent a des mesures. Bien qu'une instrumentation adaptee soit utilisee, les mesures effectuees restent neanmoins limitees par la performance de la chaine d'acquisition qui entraine une degradation des signaux experimentaux. Dans la grande majorite des cas, la deformation subie par le signal original peut etre modelisee par une convolution avec la fonction d'appareil. Extraire l'information utile du signal deforme et bruite a l'aide de techniques numeriques permet d'ameliorer les performances des instruments de mesure. Cela explique le grand interet que revet de telles techniques. Ce traitement appele deconvolution puisqu'il permet de reduire (si ce n'est d'annuler) l'effet de la convolution, presentent certaines difficultes. Celles-ci ont donc suscite de nombreuses etudes depuis quelques decennies. Dans un premier temps, les signaux a restaurer ont ete consideres comme des signaux aleatoires. Cela nous a permis de developper des techniques de filtrage optimal. En particulier nous avons mise en uvres des techniques reposant sur l'optimisation h avec et sans contraintes. Dans un second temps, les signaux a restaurer sont consideres comme deterministes mais bruites. Cette nouvelle modelisation permet de combiner le filtrage optimal avec les techniques existantes de deconvolution rendant ainsi ces dernieres plus robustes vis a vis du bruit de mesure. Toutes ces methodes que nous avons developpees sont validees sur des signaux synthetiques puis sur des signaux experimentaux issus d'un reacteur calorimetrique. Ainsi nous montrons que ces methodes sont utilisables en presence d'erreur de modelisation aussi bien du procede que des bruits.
APA, Harvard, Vancouver, ISO, and other styles
11

Lenoir, Philippe. "Développement de méthodes et d'outils dédiés à la conception des dispositifs de filtrage microonde complexes." Limoges, 2005. https://aurore.unilim.fr/theses/nxfile/default/15b5565c-b4e4-4129-a043-ee952ad9b708/blobholder:0/2005LIMO0047.pdf.

Full text
Abstract:
Le travail présenté dans ce mémoire concerne le développement de méthodes et d’outils dédiés à la conception de dispositifs de filtrage microonde complexes. La conception des systèmes de multiplexage dans les satellites de télécommunications nécessite une modélisation rigoureuse et rapide des différents éléments le constituant. Dans ce cadre, un modèle d’inverseur dynamique est développé, permettant de remplacer la modélisation électromagnétique globale de chaque canal, en associant au modèle circuit du filtre, un modèle électromagnétique simplifié. Dans un second temps, une méthodologie est mise en place pour la conception de filtres réalisant des fonctions de transfert symétriques et dissymétriques à deux bandes passantes. Cette méthode est associée à une technique de synthèse approchée, permettant de simplifier la réalisation du filtre. L’ensemble des travaux réalisés dans le cadre d’une collaboration avec la société Alcatel Space a été validé par la réalisation de maquettes
The work presented in this manuscript concerns the development of methods and tools dedicated to the design of complex microwave filtering devices. The design of telecommunication satellite multiplexing systems requires a rigorous and fast modeling of each of its components. In this framework, a dynamic inverter model is developed, which makes possible to replace the global electromagnetic modeling of each channel, by associating the circuit model of the filter with a simplified electromagnetic model. In a second time, a methodology is developped for the design of filters realising symetrical and assymmetrical transfer functions with two pass bands. This method is associated to an approximate synthesis technique, which allows to simplify the filter realization. These works done in collaboration with the company Alcatel Space has been validated by the realization of experimental models
APA, Harvard, Vancouver, ISO, and other styles
12

Said, Salem. "Estimation et filtrage des processus dans les groupes de Lie matriciels." Grenoble INPG, 2009. http://www.theses.fr/2009INPG0102.

Full text
Abstract:
Les signaux sujets à des contraintes non linéaires apparaissent dans un grand nombre d'applications physiques et techniques. Les travaux récents expriment une conscience croissante de l'importance des méthodes géométriques intrinsèques pour le traitement de tels signaux. La présente thèse s'inscrit dans cette orientation. Nous avons envisagé et résolu un certain nombre de problèmes en physique des ondes et en capture de mouvement. Les signaux sujets à des contraintes nonlinéaires sont modélisés comme des processus à valeurs dans les groupes de Lie matriciels. Nos problèmes correspondent alors à des problèmes d'estimation nonparamétrique et de filtrage. Afin de les résoudre nous avons mis en place des méthodes probabilistes et dynamiques, en particulier basées sur la notion de stabilité
Signals subject to nonlinear constraints are numerous in Physics and Engineering applications. Recent work have pointed the necessity of intrinsic geometrical methods to process such signals. The work presented in this thesis aims at providing new algorithm within this framework. Some problems in wave Physics and motion capture have been formalised and resolved. Signals subject to nonlinear constraints are modelled like processes taking values in matrix Lie groups. The problems considered in this work are filtering and nonparametric estimation problems. In order to propose new solutions, we have proposed new methods based on probability theory and processes dynamics, mainly based on the important property of stability
APA, Harvard, Vancouver, ISO, and other styles
13

Loiseau, Yannick. "Recherche flexible d'information par filtrage flou qualitatif." Toulouse 3, 2004. http://www.theses.fr/2004TOU30263.

Full text
Abstract:
Avec le flot des données informatique, des systèmes de recherche efficaces sont précieux et requièrent une représentation des information et des besoins homogène entre humain et machine. Notre approche, basée sur le filtrage flou, représente les données linguistiques comme des classes imprécises de termes, reliées pour représenter les relations et l'ambiguïté du langage, définissant une ontologie possibiliste de concepts. Représentés de même, les besoins s'apparient aux informations, exploitant ces liens dans des recherches vagues pour obtenir des résultats plus pertinents. Tous ces besoins sont utilisé pour discriminer les documents à l'aide de méthodes issues des techniques multicritères. Nous présentons différents aspect des bases de données et de la recherche documentaire et leur union à la logique floue, puis la modélisation théorique de notre approche et son application à ces deux domaines. Nous illustrerons le système et en évaluerons les performances réelles et les apports
With the raise of electronic data, efficient information retrieval systems become necessary. To represent these information and the user needs, a better agreement between human and computer is needed. Our approach uses the fuzzy pattern matching to define a linguistic data representation, based on linked vague terms classes to model relations and ambiguity in language, defining a possibilistic concepts ontology. By representing user needs likewise, we match them with the information, and exploit links to evaluate vague searches with more relevant results. Lastly, all needs are kept in the final evaluation to discriminate documents using methods from multicriteria techniques. We first present several database and information retrieval aspects, and their integration with fuzzy techniques. The theoretic model of this approach is exposed, and applied to these two fields. Lastly, we illustrate the system and evaluate its real performances and advantages
APA, Harvard, Vancouver, ISO, and other styles
14

Favetto, Benjamin. "Observations bruitées d'une diffusion : estimation, filtrage, applications." Phd thesis, Université René Descartes - Paris V, 2010. http://tel.archives-ouvertes.fr/tel-00524565.

Full text
Abstract:
Les modèles aléatoires basés sur l'observation bruitée de diffusions discrétisées sont couramment utilisés en biologie ou en finance pour rendre compte de la présence d'erreur (ou bruit) entâchant la mesure d'un phénomène dont le comportement est dirigé par une équation différentielle stochastique. Deux questions statistiques sont liées à ces modèles : l'estimation d'un paramètre theta déterminant le comportement de la diffusion cachée, et le calcul du filtre optimal, ou d'une approximation. La première partie de cette thèse porte sur l'étude d'un modèle d'Ornstein-Uhlenbeck bidimensionnel partiellement observé et bruité, en lien avec l'estimation de paramètres de microvascularisation pour un modèle pharmacocinétique stochastique. Plusieurs résultats sur données médicales sont présentés. Dans la seconde partie, des estimateurs pour les paramètres de la diffusion cachée, sont obtenus dans un contexte de données haute fréquence, comme minima de fonctions de contraste ou comme zéros de fonctions d'estimation basées sur des moyennes locales d'observations bruitées. On montre en particulier la consistence et la normalité asymptotique de ces estimateurs. Enfin, la troisième partie étudie la tension de la suite des variances asymptotiques obtenues dans le théorème central limite associé à l'approximation particulaire du filtre et de la prédiction dans un modèle de Markov caché.
APA, Harvard, Vancouver, ISO, and other styles
15

El, Kolei Salima. "Estimation des modèles à volatilité stochastique par filtrage et déconvolution." Nice, 2012. http://www.theses.fr/2012NICE4095.

Full text
Abstract:
Cette thèse porte sur l’estimation des paramètres et/ou de l’état de modèles à espace d’états. Les motivations de ce travail sont financières : il s’agit d’estimer la volatilité stochastique d’une action ainsi que les paramètres qui régissent sa dynamique. Deux modèles sont étudiés : le modèle de Taylor et celui d’Heston. Après avoir rappelé et exposé les méthodes de filtrage, on présente une nouvelle méthode de M-Estimation par déconvolution pour des modèles linéaires. L’estimateur ainsi obtenu est consistant, asymptotiquement normal et admet une forme explicite pour la matrice de variance, permettant ainsi le calcul d’intervalle de confiance. Pour l’estimation dans le modèle de Taylor, ces deux approches sont mises en compétition. Les calculs sont explicités, une étude comparative est menée sur données simulées et réelles et illustre les performances de notre estimateur. Le modèle d’Heston est un exemple typique de modèle complexe et, l’espace d’états étant non linéaire on peut appliquer notre M-Estimateur. On montre comment les méthodes de filtrage permettent l’estimation de la volatilité et de ses paramètres par le biais des prix d’options. Ceci illustre la performance et la grande flexibilité de ces méthodes. Finalement, on s’intéresse au risque de modèle et à ses impacts sur l’estimation par filtrage en regardant comment se propage une erreur d’initialisation des paramètres de la dynamique de la volatilité dans le filtre. L’étude est menée dans un modèle à espace d’états linéaire ou faiblement non linéaire estimé par le filtre de Kalman ou de Kalman Etendu. Ceci est illustré dans le cas du modèle d’Heston
This thesis deals with the estimation of the state and/or the parameters of state-space models. The motivations come from financial applications, namely, from the estimation of the stochastic volatility and the parameters of its dynamics. Here, we consider two models : the Taylor SV model and the Heston model. After presenting the filtering methods, we propose a new approach of M-estimation based on a déconvolution strategy for linear state space models. We show that this method leads to a consistent and asymptotically normal estimator with an explicit variance, allowing constructing asymptotic confidence interval in practice. For the SV model, a thorough comparison with filtering methods and other classical methods is given on simulated and real data. This study shows the performance of our new approach. The Heston model is an example of complex state space models and, due to the nonlinearity, we cannot apply our approach. Nevertheless, filtering methods can be used for this model and we show how the filters update the estimation of the volatility and the parameters thanks to the observation of option prices. This illustrates the flexibility of these methods. Finally, we analyze the model risk induces by an error in the estimation of the parameters. Our objective consists in understanding the behavior of the filtering methods when the model is not well parameterized. A theoretical analysis consists in isolating the model risk due to the uncertainty of the parameters from the error of estimation for linear (and weakly nonlinear) models. An application of this result is given for the Heston model
APA, Harvard, Vancouver, ISO, and other styles
16

Busvelle, Eric. "Immersion des systèmes stochastiques et filtres finis; filtrage particulaire." Rouen, 1991. http://www.theses.fr/1991ROUES043.

Full text
Abstract:
Cette thèse est consacrée à la recherche de systèmes admettant un filtre de dimension finie. Les outils utilisés sont issus de la théorie des probabilités et de la géométrie différentielle. Il est surtout donné des conditions suffisantes d'existence de filtres finis pour des systèmes non linéaires, conditions évidemment très fortes, mais explicites et constructives. Une utilisation simple et originale de l'équation de Zakai discrète est ensuite présentée, qui permet d'approcher numériquement sa solution pour une très large classe de systèmes. Des simulations de ces différentes approches ont été effectuées et sont présentées à la fin de cette étude
APA, Harvard, Vancouver, ISO, and other styles
17

Rius, Éric. "Modélisation de la technologie uniplanaire par la méthode des différences finies : application au couplage et au filtrage." Brest, 1994. http://www.theses.fr/1994BRES2021.

Full text
Abstract:
Le but de cette etude est d'apporter une contribution a la modelisation et a la valorisation de la technologie uniplanaire. Elle s'inscrit dans le cadre d'une politique de recherche organisee au l. E. S. T au sein duquel differentes etudes sont engagees sur ce sujet actuellement. Misant sur le caractere peu dispersif de la technologie uniplanaire, nous avons engage une etude utilisant une methode statique tres souple d'emploi, permettant de traiter des structures a geometrie complexe. Le memoire de these comprend cinq parties. La premiere partie est consacree a la modelisation de structures a deux dimensions, il s'agit essentiellement de lignes de transmission. Nous decrivons les modeles analytiques existant et la methode des differences finies. Nous comparons differents resultats obtenus par l'une et l'autre des methodes sur differents exemples. La seconde partie traite de la modelisation de structures a trois dimensions. Nous exposons de quelle maniere appliquer la methode des differences finies a la caracterisation et a la modelisation de discontinuites. Les resultats sont compares a des mesures effectuees sous pointes. Nous consacrons les parties iii et iv a quelques applications realisees en technologie uniplanaire et etudiees a l'aide de la methode des differences finies. La souplesse de conception des dispositifs en technologie uniplanaire se retrouve notamment au niveau des couplages entre lignes et l'on peut montrer qu'il est possible d'obtenir de grandes variations du coefficient de couplage. Nous avons exploite cette propriete pour realiser des coupleurs 3 db a large bande et des filtres a bande etroite. Les coupleurs et les filtres etudies ne peuvent fonctionner sans ponts a air qui malheureusement se pretent mal a une industrialisation. Nous envisagerons donc dans la cinquieme partie la possibilite de realiser des ponts dielectriques se pretant mieux a une fabrication en serie. Ce travail nous permet de jeter les bases d'une nouvelle technologie integree que l'on appelle technologie uniplanaire multicouche entierement integree. Nous presentons l'approche de mwdelisation associee
APA, Harvard, Vancouver, ISO, and other styles
18

Quertier-Dagorn, Benjamin. "Systéme de filtrage numérique pour le corrélateur de l'interféromètre ALMA." Bordeaux 1, 2004. http://www.theses.fr/2004BOR12814.

Full text
Abstract:
Le projet ALMA vise à construire un grand réseau interférométrique pour la radioastronomie en onde millimétrique et sub-millimétrique. Installés dans le désert d'Atacama (Chili) à 5000m d'altitude, les 64 antennes du réseau et les systèmes électroniques associés conféreront à cet interféromètre une sensibilité et une précision d'image uniques. Une architecture innovante a été adoptée pour le corrélateur qui permet la détection du signal radioastronomique. Le sous-système de filtrage numérique est au cœur de la souplesse et des performances du corrélateur parce qu'il offre des hautes résolutions spectrales dans divers modes d'observation. Au cours de la thèse, deux prototypes de filtrage numérique ont été développés et testés, puis diverses architectures ont été étudiées et comparées. L'architecture retenue intègre un module " oscillateur local – mélangeur " et repose sur une optimisation à deux étages de la fonction de filtrage. Cette architecture a été adoptée pour le corrélateur ALMA
The ALMA project is a large interferometric array for radio astronomy at millimeter and sub-millimeter wavelengths. The 64-antenna array which will operate in the Atacama desert (Chile) at an elevation of 5000m will make ALMA a unique instrument in terms of sensitivity and image precision. An innovative architecture has been selected for the correlator that performs the detection of radio astronomic signals. The digital filtering sub-system is at the heart of the correlator versatility and performances because it offers high spectral resolutions for different observing modes. During the thesis work, two digital filtering prototypes have been built and tested, then several architectures have been studied and compared. The selected architecture implements a “local oscillator – mixer” device and is based on an optimized 2-stage design of the filtering function. This architecture has been adopted for the ALMA correlator
APA, Harvard, Vancouver, ISO, and other styles
19

Guilmart, Christophe. "Filtrage de segments informatifs dans des vidéos." Phd thesis, École normale supérieure de Cachan - ENS Cachan, 2011. http://tel.archives-ouvertes.fr/tel-00668307.

Full text
Abstract:
Les travaux réalisés dans le cadre de cette thèse ont pour objectif d'extraire les différents segments informatifs au sein de séquences vidéo, plus particulièrement aériennes. L'interprétation manuelle de telles vidéos dans une optique de renseignement se heurte en effet au volume des données disponibles. Une assistance algorithmique fondée sur diverses modalités d'indexation est donc envisagée, dans l'objectif de repérer les "segments d'intérêt" et éviter un parcours intégral de la vidéo. Deux approches particulières ont été retenues et respectivement développées au sein de chaque partie. La partie 1 propose une utilisation des conditions de prise de vue (CPDV) comme modalités d'indexation. Une évaluation de la qualité image permet ainsi de filtrer les segments temporels de mauvaise qualité et donc inexploitables. La classification du mouvement image apparent directement lié au mouvement caméra, fournit une indexation de séquences vidéo en soulignant notamment les segments potentiels d'intérêt ou au contraire les segments difficiles présentant un mouvement très rapide ou oscillant. La partie 2 explore le contenu dynamique de la séquence vidéo, plus précisément la présence d'objets en mouvement. Une première approche locale en temps est présentée. Elle filtre les résultats d'une première classification par apprentissage supervisé en exploitant les informations de contexte, spatial puis sémantique. Différentes approches globales en temps sont par la suite explorées. De telles approches permettent de garantir la cohérence temporelle des résultats et réduire les fausses alarmes.
APA, Harvard, Vancouver, ISO, and other styles
20

Njonkou, Fankam Marc-Aurèle. "Analyse du mouvement dans les séquences d'images et filtrage linéaire récursif." Rouen, 1997. http://www.theses.fr/1997ROUES046.

Full text
Abstract:
Le cadre général de cette thèse est l'analyse du mouvement dans les séquences d'images. Elle se compose de deux parties : la première partie s'intéresse au filtrage linéaire récursif. La deuxième et principale partie aborde l'étude du mouvement à travers ses principaux thèmes : estimation, détection et segmentation. La première partie s'ouvre sur un rappel des principes de base du filtrage linéaire récursif qui constitue un préalable pour l'étude du mouvement et conditionne fortement la qualité des traitements effectués en aval. Nous décrivons ensuite une méthode originale de traitement du problème des effets des bords qu'il engendre. Elle est fondée sur l'utilisation des propriétés des suites récurrentes convergentes. Les résultats présentés montrent que l'élimination des effets de bords a un effet bénéfique sur la performance des filtres. Dans la seconde partie, nous motivons tout d'abord l'intérêt de l'étude du mouvement et rappelons diverses méthodes existantes. Pour l'estimation du mouvement, nous proposons une approche multirésolution fondée sur la définition d'un modèle d'énergie minimisée à chaque niveau de résolution par une méthode variationnelle. Ce modèle prend en compte les discontinuités par l'introduction d'une variable de contrôle. Le troisième chapitre présente la méthode que nous avons développée, qui permet de reconstruire les masques des objets mobiles dans la scène, à partir du champ des vecteurs vitesses estimé précédemment. Cette approche combine des techniques de détection de contours, de morphologie mathématique binaire et de remplissage de formes. Dans le chapitre quatre, l'approche de segmentation du mouvement que nous avons retenue est liée aux phases du flux optique. Elle est réalisée en deux étapes : une segmentation grossière fondée sur la mesure des concavités de l'histogramme des phases du flux optique, suivie d'une segmentation fine fondée sur une modélisation markovienne du champ des étiquettes précédemment grossièrement estimé.
APA, Harvard, Vancouver, ISO, and other styles
21

Ambellouis, Sébastien. "Analyse du mouvement dans les séquences d'images par une méthode récursive de filtrage spatio-temporel sélectif." Lille 1, 2000. https://pepite-depot.univ-lille.fr/LIBRE/Th_Num/2000/50376-2000-77-78.pdf.

Full text
Abstract:
Dans cette these, nous presentons la forme generale d'un filtre recursif oriente vitesse dont les parametres permettent de regler sa selectivite vis-a-vis d'une vitesse donnee. Une architecture de filtrage, composee d'un ensemble de filtres orientes pour un ensemble de vitesses donnees, est appliquee a une sequence d'images. L'analyse des reponses de chaque filtre nous permet de definir le champ des vitesses apparentes de la sequence. Dans un premier temps, en rapprochant les methodes d'estimation du mouvement qui exploitent le principe de correlation et la structure biologique du systeme visuel animal, nous decrivons la structure non recursive d'un filtre selectif. Nous validons de maniere theorique la propriete de selectivite du filtre en etudiant la transformee de fourier de son expression mathematique. Afin de reduire le nombre d'operations elementaires necessaires au calcul de la reponse d'un filtre, nous modifions la definition precedente afin d'aboutir a une formulation recursive. Nous implantons une architecture de filtrage fonde sur une structure particuliere des filtres recursifs. Nous precisons les demarches a suivre pour concevoir un banc de filtres qui nous permette de rechercher un ensemble fini de vitesses. Nous appliquons la methode sur plusieurs sequences d'images de synthese dont certains champs des vitesses apparentes presentent des discontinuites.
APA, Harvard, Vancouver, ISO, and other styles
22

Schiltz, René Jean. "Sur quelques problèmes concernant le calcul de Malliavin et son application à la théorie du filtrage non linéaire." Metz, 1997. http://docnum.univ-lorraine.fr/public/UPV-M/Theses/1997/Schiltz.Jean.SMZ9726.pdf.

Full text
Abstract:
Le présent travail est consacré à l'étude de quelques problèmes de calcul de Malliavin et à l'application de cette théorie au filtrage non linéaire. Elle est divisée en cinq chapitres et une annexe. Le chapitre i est consacré à des généralités sur le calcul de Malliavin et la théorie du filtrage non linéaire. On y expose les idées essentielles de ces deux théories et on rappelle, sans démonstrations, les résultats classiques nécessaires à la lecture des chapitres suivants. Le but des chapitres ii, iii et v est l'étude de diffusions à coefficients dépendant du temps sous certaines conditions. Dans le chapitre ii, on suppose une condition de non dégénérescence exponentielle moins forte que la condition de Hörmander dans une sous-variété de codimension 1. Dans le chapitre iii, on étudie des diffusions engendrées par une infinité de processus de Wiener et dans le chapitre v on considère des diffusions sur des variétés riemanniennes. A chaque fois, on établit un calcul de Malliavin permettant de montrer l'existence d'une densité régulière pour ces diffusions. Les résultats de calcul de Malliavin sont de plus à chaque fois utilisés pour montrer que le filtre non normalisé associé à un système de filtrage non linéaire admettant comme signal la diffusion étudiée dans le chapitre respectif admet une densité régulière. Dans le chapitre iv, on considère un système de filtrage non linéaire ou l'observation dépend d'un bruit blanc d'ordre E. On définit un filtre presque optimal de dimension finie et on montre que l'erreur commise en remplaçant le filtre par le filtre presque optimal est d' ordre E. Dans l'annexe, on établit les équations de filtrage associées à un système de filtrage non linéaire avec un signal de dimension infinie et on donne une forme robuste de l'équation de Zakai, dans le cas où les bruits sont indépendants
The aim of this work is to some problems of Malliavin calculus and its application to nonlinear filtering theory. It is divided in five chapters and one appendix. In chapter I we present some generalities on the Malliavin calculus and the theory of nonlinear filtering. We give the main ideas of these two theories and we recall the classical results that we need in the following chapters. The aim of chapters II, III and V is to study diffusions with time dependent coefficients under different conditions. In chapter II we suppose that on a sub-manifold of codimension 1 we have an exponential degenerencence condition, weaker than the general Hörmander condition. In chapter III we study diffusions generated by an infinity of Brownian motions and in chapter V we consider diffusions on riemannian manifolds. In the latter chapters, we establish a Malliavin calculus permitting to prove the existence of a smooth density for these diffusions. Furthermore, the results of Malliavin calculus are used to show that the unnormalized filter associated with a nonlinear filtering system, which admits the diffusion studied in the previous chapter as signal process, has a smooth density. In chapter IV we consider a nonlinear filtering system with an observation process depending on a white noise of order E. We define a suboptimal filter of finite dimension and we show that the error commited by replacing the filter by the suboptimal filter is of order E. In the appendix we derive the filtering equations associated with a nonlinear filering system with an infinite dimensional signal process and we give a robust form of the Zakai equation in the case of non correlated noises
APA, Harvard, Vancouver, ISO, and other styles
23

Neveux, Philippe. "Restauration de signaux pour systèmes incertains." Lyon 1, 2000. http://www.theses.fr/2000LYO10012.

Full text
APA, Harvard, Vancouver, ISO, and other styles
24

Albert, Luc. "Quelques analyses de complexité en moyenne sur les algorithmes de multi-filtrage, d'unification et de requête multiple." Paris 11, 1990. http://www.theses.fr/1990PA112226.

Full text
Abstract:
L'objet de cette these est l'etude de la performance des algorithmes fondamentaux que sont le multi-filtrage dans les generateurs de systemes experts, les algorithmes d'unification de termes du premier ordre en programmation logique et les algorithmes de requetes multiples dans les bases de donnees. Notre approche est celle de la complexite en moyenne. En effet ces algorithmes ont en general une variation importante de complexite entre le cas le meilleur et le cas le pire. Nous effectuons notre analyse a l'aide principalement de la theorie combinatoire des series generatrices et de l'analyse asymptotique complexe pour l'approximation de leurs coefficients. Ceci nous permet d'obtenir des resultats avec differents modeles d'etude (notamment pour la distribution des donnees) et de confirmer, voire de proposer, des optimisations pour ces algorithmes. L'usage d'un outil de calcul formel a ete indispensable pour mener a bien nos calculs. Nous avons confronte a l'experimentation ces resultats theoriques sur un generateur de systemes experts temps reel et developpe un analyseur automatique de performance en moyenne pour systemes de regles de production
APA, Harvard, Vancouver, ISO, and other styles
25

Gagnon, Ludovick. "Méthode de Legendre-Galerkin appliquée au contrôle de l'équation des ondes. Filtrage des hautes fréquences." Thesis, Université Laval, 2012. http://www.theses.ulaval.ca/2012/29513/29513.pdf.

Full text
APA, Harvard, Vancouver, ISO, and other styles
26

Florchinger, Patrick. "Filtrage non linéaire avec bruits corrélés et observation non bornée : étude numérique d'une équation de Zakaï." Metz, 1989. http://www.theses.fr/1989METZ001S.

Full text
Abstract:
Cette thèse a pour objet l'étude de problèmes de filtrage non linéaire avec bruits corrélés. Dans les trois premiers chapitres de ce travail, nous étudions certaines propriétés du filtre associé à un système corrélé à observation unidimensionnelle et coefficients non bornés. Dans le premier chapitre, sous certaines hypothèses sur les coefficients du système, nous prouvons la continuité par rapport aux trajectoires de l'observation, pour la norme de banach, du filtre associé à un tel système. Pour cela, nous définissons de manière formelle un filtre non normalisé, puis nous établissons une formule de Kallianpur-Striebel. Dans le second chapitre, nous prouvons, à l'aide du calcul des variations stochastique ou calcul de Malliavin, l'existence d'une densité régulière pour la loi d'une diffusion solution d'une équation différentielle stochastique à coefficients dépendants du temps. Ce résultat est ensuite appliqué à la preuve de l'existence d'une densité régulière pour le filtre, sous la condition d'hypoellipticité de Hormander. Dans le troisième chapitre, nous montrons que le filtre non normalisé défini dans le premier chapitre est solution d'une équation de Zakai pour laquelle des résultats d'existence et d'unicité des solutions ont été établis par ailleurs. Le quatrième chapitre de cette thèse est l'exposé d'un travail effectué en collaboration avec François Le Gland de l'Inria à Sophia Antipolis. Nous étudions un schéma de discrétisation en temps, pour l'équation de Zakai associée à un système corrélé à coefficients bornés, et nous calculons la vitesse de convergence de l'algorithme que nous présentons
APA, Harvard, Vancouver, ISO, and other styles
27

Wang, Xiao-Min. "Contribution à l'étude de la commande et du filtrage optimaux des systèmes implicites singuliers." Nice, 1988. http://www.theses.fr/1988NICE4235.

Full text
APA, Harvard, Vancouver, ISO, and other styles
28

Borges, Geovany Araujo. "Cartographie de l'environnement et localisation robuste pour la navigation de robots mobiles." Montpellier 2, 2002. http://www.theses.fr/2002MON20034.

Full text
APA, Harvard, Vancouver, ISO, and other styles
29

Ouzina, Mostafa. "Théorème du support en théorie du filtrage non-linéaire." Rouen, 1998. http://www.theses.fr/1998ROUES029.

Full text
Abstract:
La thèse comporte essentiellement quatre parties. Dans la première partie, la preuve simple de A. Millet et Marta-Sanz-Sole du théorème du support de Stroock-Varadhan dans le cas indépendant du temps est étendue au cas dépendant du temps. Dans la seconde partie, soit (x#t) la solution de l'équation différentielle stochastique x#t = x + #r#i# #=# #1#t#0#i(x#s)dw#i#s + #l#j# #=# #1#t#0$$#j(x#s)odw$$#j#s + #t#0b(x#s)ds nous considérons cette solution comme fonction de w a valeurs dans l'espace l#p des fonctions de w$$ a valeurs dans l'espace des fonctions continues. Le résultat concernant le théorème du support dans ce contexte est établi. Le reste de la thèse est une application de ces idées au filtrage non linéaire : le support de l’espérance conditionnelle déterminée soit par l'équation de Zakai soit par l'équation de Stratonovich est établi, puis nous donnons également le support de la loi conditionnelle du signal x sachant l'observation y, ou le couple (x,y) est donne par dx#t = #r#i# #=# #1#i(x#t)odw#i#t + #l#j# #=# #1$$#j(x#t)ody#j#t + b(x#t)dt dy#t = (x#t)dt + d$$#t, x#0 = x, y#0 = 0, t , 0. 1; dans deux situations différentes. Dans la première on suppose que l'algèbre de lie l($$#1,,$$#l) est commutative. Dans la seconde on suppose que les champs de vecteurs $$#j sont à support compact. Dans la dernière partie on étudie le principe de grandes déviations pour le filtre normalise perturbe obtenu en remplaçant y par y avec tend vers zero.
APA, Harvard, Vancouver, ISO, and other styles
30

Barkaoui, Ahmed. "La désagrégation temporelle des séries d'observations économiques." Paris 10, 1995. http://www.theses.fr/1995PA100055.

Full text
Abstract:
Cette thèse traite le problème rencontre en modélisation économétrique lorsque les séries d'observations sur certaines variables ne sont disponibles qu'en valeurs agrégées dans le temps. Les solutions pratiques consistent à estimer les valeurs non observées en respectant la comptabilité avec les observations agrégées (procédures de désagrégation temporelle). Cette estimation peut se faire à partir des observations agrèges uniquement ou en utilisant, quand elles sont disponibles, des indicateurs économiques observées dans la bonne temporalité. L'étude des principales procédures utilisées dans les organismes de statistique ou dans les logiciels d'économétrie a permis de proposer -pour un problème donne- un critère de sélection base sur l'information connue a priori sur les séries et sur des tests statistiques. Le problème de la désagrégation temporelle a été étendu au cas d'un vecteur de variables lorsque leur somme est observée en données désagrégées. Deux applications ont été effectuées : l'une sur la construction de séries trimestrielles de la fbcf productif par branche d'activité, et l'autre sur l'estimation du PIB marchand mensuel. Si l'un considère que la série désagrégée peut être générée à partir d'un modèle dynamique quelconque complètement spécifié, de nouvelles procédures permettant de résoudre le problème en utilisant la représentation dans l'espace des états et les techniques du filtre e kalman et du lissage
This thesis treats the problem encountered in econometric modeling when temporal observations on certain variables are available only in a temporally aggregated fora. The practical solution consists of estimating disaggregated series which are consistent with the observed data (temporal disaggregation procedures). This estimation can be done only by aggregated series or by using some related series -if available- observed in the suit time periods. The analysis of the principal procedures used in statistic organisms or in econometric software’s, has allowed to propose -for a given problem- a criterion of selection based on a priori known on time series and on statistical tests. The problem of temporal disaggregation was extended to the case of a vector of variables when the sum of the latters is observed in disaggregated data. Two applications were performed: the first was performed on the construction of the quarterly series of productive investment (fbcf) by activity branch. The second on the estimation of monthly merchant gdp. If we assume that the disaggregated series can be generated by whatever completely specified dynamic model, new methods can resolve the problem using the states space representation and the kalean filter and smoothing technics
APA, Harvard, Vancouver, ISO, and other styles
31

Sellami, Afef. "Méthodes de quantification optimale pour le filtrage et applications à la finance." Phd thesis, Université Paris Dauphine - Paris IX, 2005. http://tel.archives-ouvertes.fr/tel-00011586.

Full text
Abstract:
Nous développons une approche de résolution numérique du filtrage par méthode de grille, en utilisant des résultats de quantification optimale de variables aléatoires. Nous mettons en oeuvre deux algorithmes de calcul de filtres utilisant les techniques d'approximation du type ordre 0 et ordre 1. Nous proposons les versions implémentables de ces algorithmes et étudions le comportement de l'erreur des approximations en fonction de la taille des quantifieurs en s'appuyant sur la propriété de stationnarité des quantifieurs optimaux. Nous positionnons cette approche par grille par rapport à l'approche particulaire du type Monte Carlo à travers la comparaison des deux méthodes et leur expérimentation sur différents modèles d'états. Dans une seconde partie, nous nous intéressons à l'avantage qu'offre la quantification pour le prétraitement des données offline pour développer un algorithme de filtrage par quantification des observations (et du signal). L'erreur est là aussi étudiée et un taux de convergence est établi en fonction de la taille des quantifieurs. Enfin, la quantification du filtre en tant que variable aléatoire est étudiée dans le but de la résolution d'un problème d'évaluation d'option américaine dans un marché à volatilité stochastique non observée. Tous les résultats sont illustrés à travers des exemples numériques.
APA, Harvard, Vancouver, ISO, and other styles
32

Neycenssac, Franck. "Segmentation d'images : intérêt d'un filtrage multi-échelle calculé par intégration du Laplacien d'une Gaussienne sur son écart-type." Toulouse 3, 1991. http://www.theses.fr/1991TOU30203.

Full text
Abstract:
Les etudes sur la vision et la segmentation en traitement d'images numeriques trouvent un interet commun dans l'utilisation du laplacien d'une gaussienne. Le filtre lgfti, construit par integration de la transformee de fourier du laplacien d'une gaussienne dans l'espace des echelles, complete l'arsenal des filtrages du type laplacien. Le filtre lgfti offre des possibilites puissantes, car selon les bornes d'integration choisies on peut selectionner differemment les frequences utiles; il est donc plus adapte que le laplacien d'une gaussienne a la segmentation primitive. Nous avons montre qu'il etait necessaire d'avoir des images de reference pour effectuer les comparaisons. Les bases d'un tel ensemble de reference sont proposees. L'automatisation a montre l'importance d'analyser la sensibilite d'une methode a ses parametres. Nous suggerons donc un schema d'analyse des methodes de segmentation, en fonction de leurs parametres et de leurs resultats
APA, Harvard, Vancouver, ISO, and other styles
33

Bui, Quang Paul. "Approximation particulaire et méthode de Laplace pour le filtrage bayésien." Phd thesis, Université Rennes 1, 2013. http://tel.archives-ouvertes.fr/tel-00910173.

Full text
Abstract:
La thèse porte sur l'apport de la méthode de Laplace pour l'approximation du filtre bayésien dans des modèles de Markov cachés généraux, c'est-à-dire dans un cadre séquentiel, avec comme domaine d'application privilégié la poursuite de cibles mobiles. A la base, la méthode de Laplace est une méthode asymptotique pour le calcul d'intégrales, c'est-à-dire dans un cadre statique, valide en théorie dès que la fonction à intégrer présente un maximum de plus en plus significatif, lequel apporte la contribution essentielle au résultat. En pratique, cette méthode donne des résultats souvent très précis même en dehors de ce cadre de validité théorique. Les deux contributions principales de la thèse sont les suivantes. Premièrement, nous avons utilisé la méthode de Laplace en complément du filtrage particulaire : on sait en effet que les méthodes de Monte Carlo séquentielles basées sur l'échantillonnage pondéré sont mises en difficulté quand la fonction de pondération (ici la fonction de vraisemblance) est trop localisée, par exemple quand la variance du bruit d'observation est trop faible, or c'est précisément là le domaine où la méthode de Laplace est efficace et justifiée théoriquement, d'où l'idée naturelle de combiner les deux points de vue. Nous proposons ainsi un algorithme associant la méthode de Laplace et le filtrage particulaire, appelé le Laplace particle filter. Deuxièmement, nous avons analysé l'approximation du filtre bayésien grâce à la méthode de Laplace seulement (c'est-à-dire sans génération d'échantillons aléatoires) : il s'agit ici de contrôler la propagation de l'erreur d'approximation d'un pas de temps au pas de temps suivant, dans un cadre asymptotique approprié, par exemple quand le bruit d'observation tend vers zéro, ou quand le bruit d'état et le bruit d'observation tendent conjointement (et à la même vitesse) vers zéro, ou plus généralement quand l'information contenue dans le système tend vers l'infini, avec une interprétation en terme d'identifiabilité.
APA, Harvard, Vancouver, ISO, and other styles
34

Kaafar, Mohamed Ali. "Securiting Internet coordinates systems." Nice, 2007. http://www.theses.fr/2007NICE4023.

Full text
Abstract:
Dans ce type de systèmes, l’idée principale est que si les distances réseau entre différents nœuds Internet peuvent être plongées dans un espace approprié, alors les distances non mesurées peuvent être estimées en utilisant une simple opération de calcul de distance géométrique dans cet espace. Récemment, on a pu prouver que ces systèmes `a base de coordonnées étaient précis, avec une faible erreur de prédiction. Cependant, ces systèmes se basent souvent sur une coordination entre les nœuds, et font l’ hypothèse que les informations reportées par les nœuds sont correctes. Dans cette thèse, nous avons identifie plusieurs attaques, exploitant cette hypothèse d’honnêteté des nœuds, et pouvant être lancées contre des systèmes de positionnement Internet `a base de coordonnées. Nous avons en l’occurrence étudié l’impact qu’ avaient de telles attaques sur deux systèmes représentatifs des systèmes de positionnement actuels : NPS et Vivaldi. Nous avons entre autres montre que ces attaques, pouvaient dangereusement mettre en péril le bon fonctionnement de ces systèmes de coordonnées, et par la même les applications se basant sur ce système pour les estimations de distances. `A travers les simulations de plusieurs attaques, menées par des nœuds malhonnêtes, fournissant des coordonnées biaisées ou retardant les mesures, nous avons expérimenté plusieurs stratégies d’attaques qui ont pour objectifs: (i) d’introduire du désordre dans le système, (ii) de tromper les nœuds honnêtes afin qu’ils se positionnent loin de leurs coordonnées correctes et (iii) d’isoler certains nœuds cibles `a travers des collusions. Nos résultats confirment la vulnérabilité de tels systèmes à ces attaques. Notre contribution majeure a été par la suite de proposer un modèle de détection des comportements malicieux au sein de ces systèmes de positionnement durant le calcul des cordonnées. Nous avons montré en premier lieu que la dynamique d’un nœud, dans un système de coordonnées, exempt de comportements anormaux ou malhonnêtes, peut être modélisée par un modèle d’états linéaire, et traqué par un filtre de Kalman. De plus, les paramètres d’un filtre calibre au niveau d’un nœud donne, peuvent être utilises pour modéliser et prédire le comportement dynamique d’un autre nœud, tant que ces deux nœuds sont proches l’un de l’autre dans le réseau. Nous avons d`es lors propose une infrastructure de nœuds experts : des nœuds de confiance, se positionnant dans l’espace des coordonnées, en utilisant exclusivement d’autres nœuds experts. Ils sont alors immunisés contre n’importe quel comportement malicieux dans le système. Pendant le calcul de leurs propres coordonnées, les autres nœuds utilisent les paramètres du filtre d’un nœud expert proche, comme étant une représentation d’un comportement normal, pour détecter et filtrer toute activité malicieuse ou anormale. Une combinaison de simulations et d’expérimentations PlanetLab a été utilisée pour démontrer la validité, la généralité et l’efficacité de l’approche proposée pour chacun des deux systèmes Vivaldi et NPS. Enfin, nous nous sommes penchés sur le problème de la validité des coordonnées Internet telles qu’ annoncées par les nœuds d’un système de coordonnées durant la phase d’estimation des distances. En effet, certains nœuds peuvent délibérément mentir quant `a la valeur exacte de leurs coordonnées afin de lancer diverses attaques contre les applications et les réseaux de couverture. La méthode proposée se divise en deux étapes : 1)établir l’exactitude des coordonnées annoncées en utilisant l’infrastructure des nœuds experts et la méthode de détection des nœuds malicieux, et 2) délivrer un certificat `a validité limitée pour chaque coordonnée vérifiée. Les périodes de validité sont calculées `a partir d’une analyse des temps d’inter changement observés par les nœuds experts. En faisant cela, chaque nœud expert, peut estimer le temps jusqu’au prochain changement de coordonnées, et ainsi, peut limiter le temps de validité du certificat qu’il délivrerait aux nœuds normaux. Notre méthode est illustrée en utilisant une trace recueillie a partir d’un système Vivaldi déployé sur PlanetLab, ou les distributions de temps d’inter changements suivent des distributions longue traîne (distribution log-normale dans la plupart des cas, et distribution Weilbull sinon). Nous montrons l’efficacité de notre méthode en mesurant l’impact de plusieurs attaques sur les estimations de distance, expérimentées sur PlanetLab
Idea is that if network distances between Internet nodes can be embedded in an appropriate space, unmeasured distances can be estimated using a simple distance computation in that space. Recently, these coordinates-based systems have been shown to be accurate, with very low distance prediction error. However, most, if not all, of current proposals for coordinate systems assume that the nodes partaking in the system cooperate fully and honestly with each other – that is that the information reported by probed nodes is correct – this could also make them quite vulnerable to malicious attacks. In particular, insider attacks executed by potentially colluding) legitimate users or nodes infiltrating the system could prove very effective. As the use of overlays and applications relying on coordinates increases, one could imagine the release of worms and other malware, exploiting such cooperation, which could seriously disrupt the operations of these systems and therefore the virtual networks and applications relying on them for distance measurements. In this thesis, we first identify such attacks, and through a simulation study, we observed their impact on two recently proposed positioning systems, namely Vivaldi and NPS. We experimented with attack strategies, carried out by malicious nodes that provide biased coordinates information and delay measurement probes, and that aim to (i) introduce disorder in the system, (ii) fool honest nodes to move far away from their correct positions and (iii) isolate particular target nodes in the system through collusion. Our findings confirm the susceptibility of the coordinate systems to such attacks. Our major contribution is therefore a model for malicious behavior detection during coordinates embedding. We first show that the dynamics of a node, in a coordinate system without abnormal or malicious behavior, can be modeled by a Linear State Space model and tracked by a Kalman filter. Then we show, that the obtained model can be generalized in the sense that the parameters of a filter calibrated at a node can be used effectively to model and predict the dynamic behavior at another node, as long as the two nodes are not too far apart in the network. This leads to the proposal of a Surveyor infrastructure: Surveyor nodes are trusted, honest nodes that use each other exclusively to position themselves in the coordinate space, and are therefore immune to malicious behavior in the system. During their own coordinate embedding, other nodes can then use the filter parameters of a nearby Surveyor as a representation of normal, clean system behavior to detect and filter out abnormal or malicious activity. A combination of simulations and PlanetLab experiments are used to demonstrate the validity, generality, and effectiveness of the proposed approach for both Vivaldi and NPS. Finally, we address the issue of asserting the accuracy of Internet coordinates advertised by nodes of Internet coordinate systems during distance estimations. Indeed, some nodes may even lie deliberately about their coordinates to mount various attacks against applications and overlays. Our proposed method consists in two steps: 1) establish the correctness of a node’s claimed coordinate by using the Surveyor infrastructure and malicious embedding neighbor detection; and 2) issue a time limited validity certificate for each verified coordinate. Validity periods are computed based on an analysis of coordinate inter-shift times observed by Surveyors. By doing this, each surveyor can estimate the time until the next shift and thus, can limit the validity of the certificate it issues to regular nodes for their calculated coordinates. Our method is illustrated using a trace collected from a Vivaldi system deployed on PlanetLab, where intershift times are shown to follow long-tail distribution (log-normal distribution in most cases, or Weibull distribution otherwise). We show the effectiveness of our method by measuring the impact of a variety of attacks, experimented on PlanetLab, on distance estimates
APA, Harvard, Vancouver, ISO, and other styles
35

Souilah, Noureddine. "Contribution au problème de déconvolution." Ecully, Ecole centrale de Lyon, 1993. http://www.theses.fr/1993ECDL0021.

Full text
Abstract:
Ce travail s'inscrit dans le cadre de l'étude des problèmes inverses. Il s'agit de restaurer un signal inconnu ayant été dégradé par un système dynamique linéaire invariant et un bruit. Ce problème constitue un thème important en traitement du signal et des images. En effet, il apparait dans de nombreuses disciplines comme la spectroscopie, la sismologie, la calorimétrie, l'imagerie médicale ultrasonore, etc. La déconvolution nécessite la résolution d'une équation intégrale de première espèce dont la solution est loin d'être triviale. En effet, c'est un problème inverse mal pose ou la présence inévitable du bruit de mesure rend difficile l'obtention d'une solution stable. Afin d'obtenir une solution acceptable a ce problème, nous devons utiliser diverses régularisations. Celles-ci, dépendent des applications envisagées et reposent sur des propriétés déterministes des signaux traites et/ou sur leurs propriétés statistiques. Dans ce cadre, nous avons développé deux classes de méthodes. La première repose sur l'utilisation des méthodes itératives déterministes. La seconde repose sur l'utilisation des techniques de filtrage optimal de Kalman. Dans un contexte déterministe, nous avons propose deux méthodes d'optimisation avec contraintes basées sur l'emploi des techniques des fonctions de pénalité et des multiplicateurs de Lagrange. Cette dernière a été étendue au cas de la restauration d'images avec contraintes. Ces méthodes présentent une grande souplesse vis-à-vis de l'utilisation de multiples contraintes, mais ne permettent pas la prise en compte explicite de l'incertitude sur les données expérimentales (bruit). Dans le cas probabiliste, notre approche consiste en l'utilisation du filtrage de Kalman et de l'information a priori de type déterministe sur le signal à restaurer telle que la positivité. Le problème de déconvolution devient celui du filtrage non linéaire que nous avons résolu par deux méthodes. L'une d'entre elles repose sur une version itérative du filtrage de Kalman; l'autre est basée sur le filtre de Kalman étendu mais dont l'état est généré par une modélisation markovienne autorégressive permettant ainsi de réduire le volume de calculs et d'offrir un traitement en ligne de la restauration nécessaire dans les applications en temps réel. Les différentes simulations numériques et comparaisons effectuées, montrent que nos méthodes possèdent de nombreuses performances et un pouvoir super-résolvant
APA, Harvard, Vancouver, ISO, and other styles
36

Marangé, Pascale. "Synthèse et filtrage robuste de la commande pour des systèmes manufacturiers sûrs de fonctionnement." Reims, 2008. http://theses.univ-reims.fr/exl-doc/GED00000826.pdf.

Full text
Abstract:
Les travaux présentés dans cette thèse portent sur la conception de la commande de systèmes manufacturiers par des automaticiens au niveau de compétence variable. L’utilisation de PO réelles, soulève des problèmes à la fois théoriques de validation et de vérification de la commande mais aussi de prise en compte du concepteur. Ces problèmes nécessitent une approche prenant en compte la composante humaine du SHM. Les contributions développées dans cette thèse portent sur l’adaptation et la sécurisation de l’installation. Concernant le premier point, il est mis en évidence l’importance pédagogique de travailler sur toute l’installation plutôt que sur une partie. Une approche méthodologique consiste à décomposer fonctionnellement la PO en vue de pouvoir l’adapter au concepteur, tout en conservant la vision globale du système. Concernant le second point, deux approches sont envisagées. La première, hors ligne, repose sur des travaux antérieurs dans le domaine de la synthèse pour l’obtention d’une commande sûre, robuste et sans blocage. La seconde approche, en ligne, utilise un filtre, qui consiste à n’envoyer vers la PO que des commandes validées. La principale difficulté de ce type d’approche réside dans les spécifications du filtre. Une structure de filtre à 2 niveaux, ayant des capacités explicatives, est proposée. Le premier : filtre de validation système permet de sécuriser la PO. Le second : filtre de validation fonctionnel permet de vérifier le respect du cahier des charges. Une approche vérifie formellement que les contraintes sont suffisantes pour éviter toutes détériorations, avant l’implémentation au moyen du model-checker. Deux applications sont présentées
The work presented in this thesis, focuses on the control design by automatic control engineers who can have different levels of competence. The use of real plant can involve control design errors. This raises two original problems; the validation and verification of the control and the requirement to take into the designer. These problems require an approach taking into account the human part. The contributions developed in this thesis focuse on adapting the system to designer knowledge and on the system safety. On the first point, it highlights the educational importance to work on the global system rather than a part. An approach is based on the functional decomposition of the plant to adapt the specifications. This approach helps maintain the global vision of system. On the second point 2 approaches are envisaged to ensure the safety. The first, offline, is based on previous work performed. Supervisory control allows to obtain a sure, robust and without deadlock controller. The second approach, online, uses a filter. This approach allows sending to the plant only validated outputs. The main difficulties of filter lie firstly in its specifications, and secondly in its explanatory capabilities for the designer. A filter structure with 2 levels is proposed. The first one: system validation filter, assuring the plant safety. The second one: functional validation filter enables to verify if specifications are conformed. The proposed approach to ensure that the constraints are properly defined is to formally verify, using the model-checker. The verification procedure determines the sufficient constraints set to avoid deterioration situations. Two applications are presented
APA, Harvard, Vancouver, ISO, and other styles
37

Dugas, Olivier. "Localisation relative à six degrés de liberté basée sur les angles et sur le filtrage probabiliste." Master's thesis, Université Laval, 2014. http://hdl.handle.net/20.500.11794/25607.

Full text
Abstract:
Lorsque des robots travaillent en équipe, il est avantageux de permettre à ceux-ci de se localiser mutuellement pour faire, par exemple, de la navigation en formation. La résolution de la localisation relative est d'une importance particulière pour des équipes de robots aériens ou sous-marins lorsque ceux-ci opèrent dans des environnements dépourvus de points de repère. Ce problème se complexifie davantage lorsque le système de localisation permet seulement l'utilisation de caméras légères et bon marché. Cette étude présente une solution analytique au problème de localisation relative à six degrés de liberté basée sur des mesures d'angle. Cette solution est intégrée à des filtres probabilistes pour augmenter sa précision. En utilisant deux robots mutuellement observables possédant chacun deux marqueurs et une caméra colinéaires, nous pouvons retrouver les transformations qui expriment la pose du premier dans le référentiel du second. Notre technique se distingue du fait qu'elle nécessite uniquement la mesure de deux paires d'angles, au lieu d'un mélange de mesures d'angles et de distances. La précision des résultats est vérifiée par des simulations ainsi que par des expérimentations concrètes. Suite à des expérimentations à des distances variant entre 3:0 m et 15:0 m, nous montrons que la position relative est estimée avec moins de 0:5 % d'erreur et que l'erreur moyenne sur l'orientation relative est maintenue sous 2:2 deg. Une généralisation approximative est formulée et simulée pour le cas où la caméra de chaque robot n'est pas colinéaire avec les marqueurs de celui-ci. Au-delà de la précision des caméras, nous montrons qu'un filtre non parfumé de Kalman permet d'adoucir l'erreur sur les estimations de la position relative, et qu'un filtre étendu de Kalman basé sur les quaternions peut faire de même pour l'orientation relative. Cela rend notre solution particulièrement adaptée pour le déploiement de flottes de robots à six degrés de liberté comme des dirigeables.
When a team of robots have to collaborate, it is useful to allow them to localize each other in order to maintain flight formations, for example. The solution of cooperative localization is of particular importance to teams of aerial or underwater robots operating in areas devoid of landmarks. The problem becomes harder if the localization system must be low-cost and lightweight enough that only consumer-grade cameras can be used. This paper presents an analytical solution to the six degrees of freedom cooperative localization problem using bearing only measurements. Probabilistic filters are integrated to this solution to increase it's accuracy. Given two mutually observing robots, each one equipped with a camera and two markers, and given that they each take a picture at the same moment, we can recover the coordinate transformation that expresses the pose of one robot in the frame of reference of the other. The novelty of our approach is the use of two pairs of bearing measurements for the pose estimation instead of using both bearing and range measurements. The accuracy of the results is verified in extensive simulations and in experiments with real hardware. In experiments at distances between 3:0 m and 15:0 m, we show that the relative position is estimated with less than 0:5 % error and that the mean orientation error is kept below 2:2 deg. An approximate generalization is formulated and simulated for the case where each robot's camera is not colinear with the same robot's markers. Passed the precision limit of the cameras, we show that an unscented Kalman filter can soften the error on the relative position estimations, and that an quaternion-based extended Kalman filter can do the same to the error on the relative orientation estimations. This makes our solution particularly well suited for deployment on fleets of inexpensive robots moving in 6 DoF such as blimps.
APA, Harvard, Vancouver, ISO, and other styles
38

Ben, Amor Selwa. "Observation et commande de systèmes non linéaires temps-discret." Lyon 1, 1997. http://www.theses.fr/1997LYO10124.

Full text
Abstract:
Le travail presente dans ce memoire porte sur les themes suivants : i) le probleme de stabilisation des systemes non lineaires temps-discret : dans le cas temps-continu, ce probleme a ete aborde par plusieurs auteurs (kawski, hermes, coron,. . . ). Le probleme consiste a trouver des lois de commande permettant de stabiliser globalement le systeme non lineaire homogene. Apres avoir introduit et discute le caractere intrinseque de l'homogeneite, on a montre qu'un systeme homogene localement stabilisable l'est globalement, soit par un retour d'etat statique ou encore par un retour d'etat dynamique. Ii) la synthese des observateurs des systemes non lineaires temps-discret : nous avons caracterise une classe de systemes possedant une structure d'observabilite uniforme. Cette classe de systemes possede une forme canonique d'observabilite. L'interet de cette forme canonique reside dans le fait que son linearise tangent le long des trajectoires est completement uniformement observable (au sens de kalman). Ceci nous a permis de synthetiser deux types d'observateurs (de type kalman ou encore de type luenberger) et enfin de montrer leur convergence. Pour les systemes qui ne sont pas uniformement observables, le synthese de l'observateur est plus complexe. Toutefois, si le systeme est affine en l'etat modulo une injection de sortie, une synthese de l'observateur consiste a appliquer le filtre de kalman. Pour cela, nous avons caracterise les systemes qui sont transformables par changement de variables en des systemes affines en l'etat modulo une injection de sortie. Un algorithme constructif a ete propose.
APA, Harvard, Vancouver, ISO, and other styles
39

Calmettes, Vincent. "Étude d'adoucissement de spectre pour récepteur GPS." École nationale supérieure de l'aéronautique et de l'espace (Toulouse ; 1972-2007), 2001. http://www.theses.fr/2001ESAE0016.

Full text
Abstract:
Les récepteurs GPS sont soumis à de nombreux signaux d'interférence bande étroite. Cette étude concerne des techniques d'adoucissement de spectre, dites de précorrélation. Elles s'appliquent au signal complexe à l'entrée du récepteur numérique. La première partie de ce mémoire présente le récepteur optimum. Il est déduit de la théorie de la détection appliquée en présence de bruits blancs et gaussiens. L'étude met en évidence les dégradations des performances de ce récepteur, lorsqu'il est soumis à des signaux d'interférence. La deuxième partie traite de l'amélioration des performnces du récepteur, sous l'hypothèse de bruits non blancs. Elle décrit des filtres de blanchiment implantés à l'entrée du récepteur numérique conventionnel. Pour des signaux à spectre étalé et des bruits bande étroite, ces techniques utilisent des filtres à encoche adaptatifs appliqués dans le domaine temporel ou dans le domaine fréquentiel. Dans la troisième partie, le récepteur optimum est dérivé en présence de bruits non gaussiens, sous l'hypothèse simplificatrice d'indépendance du bruit. L'approche de Neyman-Pearson est utilisée. Lorsque cette théorie est appliquée au signal GPS, caractérisé par des rapports signal sur bruit très petits devant l'unité, cette technique conduit à définir le récepteur localement optimum. Il est obtenu en linéarisant la loi de densité de probabilité du bruit autour de l'hypothèse H₀. Le détecteur optimum diffère alors du détecteur défini en présence de bruits gaussiens de par la présence, en entrée, d'un opérateur non linéaire déduit de cette loi. Lorsque cette technique est appliquée au signal complexe, elle consiste au traitement de l'amplitude du signal représenté par ses coordonnées polaires. Elle peut être appliquée dans le domaine temporel, ou dans le domaine fréquentiel lorque le nombre de sources d'interférence augmente.
APA, Harvard, Vancouver, ISO, and other styles
40

Seaux, Jean-François. "Conception, optimisation et test de dispositifs intégrant des matériaux en couche mince supraconducteurs ou ferroélectriques pour des applications de filtrage dans le domaine spatial." Limoges, 2005. http://aurore.unilim.fr/theses/nxfile/default/41920dfd-a8ee-4cd3-8ed9-7dcfa9d61606/blobholder:0/2005LIMO0048.pdf.

Full text
Abstract:
Les travaux de recherche présentés dans ce mémoire concernent la réalisation de dispositifs de filtrage micro-ondes innovants à partir de matériaux supraconducteurs ou ferroélectriques en couche mince pour des applications spatiales. La technologie planaire associée à la supraconductivité permet à la fois d'obtenir des circuits compacts et d'atteindre d'excellentes performances électriques. D'une part, nous avons conçu des filtres quasi-elliptiques huit pôles en bande C avec un temps de propagation de groupe autocorrigé destinés à un démultiplexeur d'entrée (IMUX). D'autre part, nous avons étudié un filtre de présélection fonctionnant en bande Ka. Nous avons également cherché à régler les filtres supraconducteurs après leur fabrication en utilisant les matériaux ferroélectriques. Avant d'envisager la réalisation de dispositifs reconfigurables ou accordables en fréquence, nous avons développé une méthode pour caractériser en hyperfréquence des dépôts de BST sur des substrats adaptés
The research work presented in this memory relates to the realization of innovating microwave filtering devices from thin layer superconductors or ferroelectrics for space applications. The high-temperature superconductor planar technology makes it possible to obtain at the same time compact circuits and excellent electric performances. C-band eight-pole self-equalized quasi-elliptic filters for an input multiplexer (IMUX) have been designed. Moreover, a Ka-band preselect filter has been studied. We have also searched to tune the superconductive filters after their manufacture using ferroelectric materials. An electromagnetic method has been developed to characterize BST deposits on adapted substrates. The goal was to realize reconfigurable or tunable devices
APA, Harvard, Vancouver, ISO, and other styles
41

Akkoul, Smaïl. "Filtrage et déconvolution en imagerie de bioluminescence chez le petit animal." Phd thesis, Université d'Orléans, 2010. http://tel.archives-ouvertes.fr/tel-00585392.

Full text
Abstract:
Cette thèse est consacrée au traitement d'images de bioluminescence chez le petit animal. Ce type d'imagerie, bien qu'utilisé en routine pour la recherche en cancérologie par exemple, présente néanmoins des problèmes liés aux phénomènes de diffusion et d'absorption par les tissus internes à l'animal. Il s'ajoute à cela le bruit du système d'acquisition ainsi que le bruit lié aux rayonnements cosmiques. Ceci influe sur la qualité des images acquises et rend leur exploitation délicate. Le but de cette thèse est de compenser ces effets perturbateurs. Les travaux menés ont abouti à la proposition d'un modèle de formation des images de bioluminescence ainsi qu'à une chaîne de traitement adaptée composée d'une étape de filtrage suivie d'une étape de déconvolution. Après étude de la nature des différents bruits liés à l'acquisition, nous avons mis au point un nouveau filtre médian pour la suppression du bruit impulsionnel aléatoire présent sur les images acquises ; ce filtre représente le premier bloc de la chaîne proposée. Pour l'étape de déconvolution, nous avons mené une étude comparative de différents algorithmes de déconvolution. Cela a conduit à choisir un algorithme de déconvolution aveugle initialisé avec la réponse impulsionnelle estimée du système d'acquisition. Nous avons validé notre approche globale en comparant les résultats à la réalité terrain. Au travers de différents essais cliniques, nous avons montré que le traitement que nous proposons permet une amélioration significative de la mesure des sources bioluminescentes et une meilleure distinction de sources très proches, ce qui représente un apport non négligeable pour les utilisateurs d'images de bioluminescence.
APA, Harvard, Vancouver, ISO, and other styles
42

Giremus, Audrey. "Apport des techniques de filtrage particulaire pour la navigation avec les systèmes de navigation inertiels et le GPS." Toulouse, ENSAE, 2005. http://www.theses.fr/2005ESAE0026.

Full text
Abstract:
Longtemps l'apanage du domaine militaire, la navigation s'ouvre aujourd'hui au grand public et se décline en de nombreuses applications. Le développement de systèmes de positionnement fiables et robustes revêt un aspect stratégique notamment pour les applications critiques du point de vue sécurité (aviation civile). Cette thèse explore deux pistes de recherche pour améliorer les performances de navigation. D'une part sont étudiées les techniques de couplage, qui mettent à profit la complémentarité de différents systèmes de positionnement. D'autre part, une partie du travail de thèse est consacrée au développement d'algorithmes plus robustes et plus précis pour retrouver la trajectoire d'un mobile à partir d'un jeu de mesure capteurs. Les filtres particulaires forment une alternative intéressante au classique filtre de Kalman car ils n'imposent aucune contrainte a priori sur le modèle de filtrage. Il s'agit de méthodes séquentielles de Monte Carlo qui font évoluer un ensemble de particules, chacune représentant un état possible du système à un instant donné. Nous avons ainsi étudié l'opportunité de les appliquer aux problèmes non linéaires de l'hybridation serrée et très serrée du GPS et des systèmes de navigation inertielle. Enfin, une seconde contribution de la thèse est le développement d'algorithmes de filtrage particulaires capables de détecter et corriger les perturbations affectant les mesures GPS (multitrajets, interférences) tout en estimant la trajectoire du véhicule.
APA, Harvard, Vancouver, ISO, and other styles
43

Chen, Mingkun. "Classification de variables autour de variables latentes avec filtrage de l’information : application à des données en grande dimension." Nantes, 2014. http://archive.bu.univ-nantes.fr/pollux/show.action?id=dc97aa41-ffd6-432b-a740-06382adaca0a.

Full text
Abstract:
Avec le développement des techniques d'analyse à haut débit, les chercheurs ont adopté des démarches de profilage systémique qui permettent l'analyse descriptive simultanée d'un grand nombre de variables. Une des diffcultés réside dans la synthèse et l'interprétation de ces nombreuses informations. Nous adoptons ici une approche de classiffcation de variables (CLV) qui permet de mettre en lumière des structures disjonctives pour la réduction de la dimensionnalité du problème, facilitant ainsi l'interprétation des données. Cependant, afin d'améliorer davantage la pertinence de ce type d'approches, deux directions d'investigation sont proposées. La première consiste à filtrer les données de sorte à écarter les variables isolées ouassociées à du bruit de fond. Une stratégie qui consiste à créer un groupe supplémentaire de variables, appelé « noise cluster", ainsi qu'une stratégie fondée sur la définition de variables latentes de groupe creuses (ou sparse) sont proposées et comparées. La seconde direction d'investigation est le développement d'une procédure de classification de variables dirigée vers l'explication d'une variable de réponse. Un algorithme itératif de classification/extraction est proposé. Il fournit une séquence de variables latentes de groupes ayant de bonnes performances en prédiction. Elles sont également simples à interpréter dans la mesure ou chaque composante prédictrice n'est associée qu'à un sous-ensemble de variables exploratoires conçu pour avoir une structure pratiquement unidimensionnelle
With the development of high-throughput analysis techniques, researchers have adopted systematic approaches to describe simultaneously a large number of variables. However, one of the important challenges lies in the diffculty to summarise and interpret this enormous quantity of information. We adopt a clustering of variables approach (CLV) which allows us to highlight disjunctive structures, and therefore, reduce the dimensionality of the problem and facilitate the interpretation of the data at hand. However, in order to further improve the relevance of such approaches, two directions of investigation are proposed. The first direction involves filtering the data by setting aside atypical variables or variables associated with noise. For this purpose, a strategy to create an additional group of variables, called noise cluster, and a strategy based on the definition of sparse latent variables are proposed and compared. The second direction concerns the development of a clustering of variables procedure directed to the explanation of a response variable. The implementation of iterative algorithms provides a sequence of group latent variables with good predictive performance. These latent variables are also easy to interpret since each predictive component is associated with a subset of variables assumed to have a one-dimensional structure
APA, Harvard, Vancouver, ISO, and other styles
44

Chorot, Thierry. "Modélisation commande et observation des systèmes mécaniques hamiltoniens : application à un pont roulant." Lyon 1, 1991. http://www.theses.fr/1991LYO10200.

Full text
Abstract:
Les systèmes mécaniques constituent une part importante des applications de l'automatique. De plus, leur intérêt a connu un développement considérable depuis l'avènement de la robotique. Les modèles mathématiques de ces systèmes sont des équations différentielles tirées des équations d'Euler-Lagrange ou de Hamilton-Jacobi. Ceux-ci ont la propriété d'être affine en le vecteur de commande, celui-ci étant constitué des forces ou couples extérieurs appliqués au procédé. De tels systèmes ont déjà été largement étudiés à l'aide des outils géométriques de la géométrie différentielle. Notre travail présente, dans sa première partie, les techniques de modélisation et propriétés des systèmes mécaniques, en les appliquant à un exemple concret. On rappelle ensuite les critères d'observabilité et de commandabilité avec leurs spécificités dans le cas des systèmes mécaniques. Différentes lois de commande sont alors étudiées et comparées à l'aide de simulations numériques. Enfin, on étudie plusieurs types d'observateurs pour systèmes mécaniques, dans le but d'obtenir une estimation des vitesses, car leur connaissance est impérative pour construire une commande par retour d'états.
APA, Harvard, Vancouver, ISO, and other styles
45

Sentenac, Thierry. "Surveillance de scènes dynamiques avec une caméra CCD dans le proche infrarouge : application à la détection couplée de feu et de déplacements d'objets." Toulouse, INPT, 2002. http://www.theses.fr/2002INPT042H.

Full text
Abstract:
La surveillance de scènes dynamiques est généralement abordée selon deux axes : la protection des biens et des personnes (surveillance de déplacements d'objets) et la protection incendie (surveillance feu). Même si ces deux domaines d'application présentent des thématiques communes, ils sont généralement traités séparément en raison de l'exploitation de deux phénomènes à partir d'une approche mono-technologie : une caméra noir et blanc courante, non stabilisée en température et exploitée dans le domaine spectral proche infrarouge. De plus, ces phénomènes sont à surveiller dans une scènes d'intérieur soumise à des fluctuations notables de la température ambiante (cas d'applications aéronautiques et spatiales). Notre contribution principale concerne la détection et la mesure couplée de phénomènes dimensionnels (déplacements d'objets) et thermiques (points chauds et flammes) à des température inférieures à 1000°C avec une caméra CCD non stabilisée en température. Pour cela, nous avons pris en compte la température de dérive du détecteur dans le modèle sténopé, utilisé pour la mesure de déplacement, et dans le modèle radiométrique, nécessaire pour relier l'intensité de l'image à la température du phénomène. A partir de cette mesure couplée de température et de déplacements, nous avons ensuite développé une méthode d'estimation robuste afin de prévenir au plus tôt l'apparition d'anomalies dans la scène. L'originalité de la méthode proposée est un mécanisme de détection de changements abrupts et sporadiques dans l'évolution des phénomènes régie par différents modèles non linéaires. Les résultats de cette thèse ont été validés dans une application de surveillance de soutes d'avion, première expérience embarquée de détection des feux et de déplacements de charges. La validation selon des normes internationales en application dans le transport aérien fait du dispositif développé un système de détection générique exploitable dans d'autres applications.
APA, Harvard, Vancouver, ISO, and other styles
46

Bourennane, El-Bay. "Conception et implantation d'un détecteur de contours optimisé sous forme d'un circuit Asic." Dijon, 1994. http://www.theses.fr/1994DIJOS012.

Full text
Abstract:
Dans cette thèse, nous abordons d'abord le problème d'extraction de contours d'un point de vue algorithmique. Puis, nous développons une technique d'accélération d'un algorithme particulier pour aboutir à sa réalisation sous forme d'un circuit ASIC. Nous présentons un nouvel algorithme de détection de contours sous forme de rampe. Cet algorithme que nous avons développé a été optimisé au sens des trois critères donnés par Cannv. En effet, tous les travaux cités au premier chapitre, ont montré leurs performances sur un modèle de contour idéal bien que dans la réalité, les contours ont des fronts de transition plutôt lents (images floues). Cet algorithme est implanté sous forme d'un filtre à réponse impulsionnelle infinie, stable d'ordre 3. Nous exposons aussi les différentes techniques d'accélération des filtres numériques linéaires et invariants (filtres récursifs ou non). Plusieurs solutions ont été proposées pour l'accélération des calculs depuis une dizaine d'années. Cependant, si ces solutions sont adaptées à des implantations type multiprocesseurs, elles demeurent de loin non intégrables sur un circuit intégré spécifique ASIC. Ainsi, nous détaillons une technique de calcul par anticipation très adaptée à l'accélération des filtres récursifs et à l'intégration du filtre anticipé sous forme d'un ASIC et nous appliquons cette technique de restructuration d'algorithmes à l'algorithme de Rachid Deriche et au nouvel algorithme que nous avons étudié. Enfin, nous présentons la partie consacrée au choix de l'algorithme de multiplication. Nous passons en revue certains algorithmes rapides et nous détaillons l'algorithme de Baugh-Wooley. Nous traitons la partie implantation du filtre anticipé (nouvel algorithme) sous forme d'un ASIC sous l'environnement SOLO2030. Puis nous présentons les différents schémas bloc de circuit ainsi que son masque «Layout». Ce circuit a été réalisé avec la technologie 1. 2 mm et répond à une fréquence de 20 MHz.
APA, Harvard, Vancouver, ISO, and other styles
47

Zerubia, Josiane. "La représentation et le traitement de signaux bruités." Nice, 1988. http://www.theses.fr/1988NICE4207.

Full text
APA, Harvard, Vancouver, ISO, and other styles
48

Chebira, Abdennasser. "Détection d'obstacles en temps réel par reconstruction de l'environnement 2d à partir de capteurs infrarouges id : modélisation capteur et scène, représentation d'imprécisions et incertitudes par des modèles probalistes et flous." Paris 11, 1994. http://www.theses.fr/1994PA112042.

Full text
Abstract:
Cette thèse décrit un système de détection d'obstacles qui utilise des capteurs de faibles coûts. Ces capteurs fournissent une faible quantité de données a traiter. Des capteurs infrarouges permettent le développement d'algorithmes rapides de reconstruction. Le système de détection d'obstacles faible coût est constitue de capteurs infrarouges 1d, d'un réseau embarque et de processeurs standards. Une structure algorithmique générique est utilisée pour la construction d'un modèle géométrique 2d de l'environnement perçu par les capteurs. Dans une première étape, un filtrage de signaux binaires fournis par les capteurs est opéré, elle est suivie par une phase d'extraction de primitives. L'appariement des primitives est ensuite effectue, cela permet une construction d'un modèle 2d en utilisant le principe de triangulation. La corrélation et le suivi temporel sont nécessaires pour prendre en compte les variations dynamiques de l'environnement observe. Un algorithme base sur le principe du maximum de vraisemblance est utilise pour estimer la vitesse des obstacles présents dans la scène. Les résultats des étapes précédentes sont transmis à un système expert qui analyse la configuration de l'environnement dans un but d'assistance au conducteur. Plus précisément, un algorithme original de filtrage binaire a été développé. Cet algorithme utilise un formalisme probabiliste pour représenter l'incertitude et manipule des chaînes de Markov commandées pour imposer un modèle d'évolution de la scène. Une modélisation floue des incertitudes est utilisée dans l'étape d'appariement. Des modèles flous et probabilistes sont utilisés pour représenter et manipuler les imprécisions de reconstruction
APA, Harvard, Vancouver, ISO, and other styles
49

Jridi, Maher. "Etude, modélisation et amélioration des performances des convertisseurs analogique numérique entrelacés dans le temps." Bordeaux 1, 2007. http://www.theses.fr/2007BOR13517.

Full text
Abstract:
Dans un contexte où les systèmes communicants fleurissent, les Convertisseurs Analogique Numérique CAN doivent suivre les demandes des nouveaux standards de télécommunications. Un convertisseur seul, ne peut pas allier rapidité, précision et faible consommation de puissance. Dans le cadre de nos travaux, nous nous sommes intéressés à une structure prometteuse de CAN basée sur l'entrelacement temporel de plusieurs convertisseurs, TIADC. Le taux d'échantillonage augmente proportionnellement avec le nombre de CAN mais des problèmes de disparité entre les différents CAN réduisent la résolution effective du TIADC. Dans ce mémoire, nous avons contribuer à l'étude de ces convertisseurs, notamment aux pertes engendrées par les disparités entre les différents convertisseurs. La structure du TIADC a été modélisé dans un environnement de description matérielle. Plusieurs solutions de calibrations existantes ont été simulé afin de vérifier leur fonctionnement et de pouvoir proposer deux méthodes de correction. Une première méthode en différée visant le domaine de l'instrumentation et une seconde, en ligne visant des applications de télécommunications. La première méthode a été vérifiée par des données expérimentales, la seconde a été implémentée dans un FPGA et ensuite vérifiée par des tests et des mesures.
APA, Harvard, Vancouver, ISO, and other styles
50

Létienne, Antoine. "Super-Résolution : Développement d'algorithmes rapides et évaluation de performance." Paris 13, 2010. http://www.theses.fr/2010PA132020.

Full text
Abstract:
La super-résolution (SR) vise à améliorer la qualité d’une image en exploitant les variations entre les images d’une même séquence. Les algorithmes les plus précis consistent après recalage, à construire puis à inverser un gros système linéaire par des méthodes itératives et coûteuses. Pour réduire la complexité des calculs, une supposition classique est de restreindre à des translations les mouvements entre les images. Nous considérons le contexte original de la reconstruction rapide de petits objets en mouvement dans une scène, où les mouvements ne peuvent être restreints à des translations. Notre approche a été d’étendre à des mouvements complexes la méthode Shift & Add, l’une des plus rapides mais dont la justification théorique est restreinte à des translations discrètes en pixel haute-résolution et au cas non-régularisé. Nos travaux ont tout d’abord consisté à caractériser finement le comportement de cette technique, puis à généraliser la justification théorique à des translations non-discrètes dans le contexte régularisé. Nous avons ensuite réalisé une évaluation de performance permettant d’identifier les régimes de fonctionnement et les limites de notre approche, et de justifier empiriquement de sa pertinence pour des mouvements plus complexes que la translation quand on dispose de suffisamment d’images. Nous avons développé une chaîne complète de traitements permettant la reconstruction automatique rapide d’une imagette SR à partir de la sélection d’un objet dans une vidéo, et intégrant l’étape de recalage qui représente alors 80% du temps d’exécution. Nous illustrons qualitativement notre méthode sur des données réelles
Abstract The super-resolution (SR) aims at improving the quality of an image by ex-ploiting variations between images of the same sequence. After registration, the most accurate algorithms consist in the construction of a large linear system and the inversion by iterative and costly techniques. In order to reduce the computational cost, a usual assumption is to consider only translation motion between images. We consider the original context of fast reconstruction of small moving objects in a scene, where motions are not restricted to translations. We extended to complex motion the Shift & Add method, one of the fastest but whose the theoretical justification is restricted to discrete translations of high-resolution pixel, and to the non-regularized case. First, our work provided a detailed characterization of the behaviour of this technique, and a generalization of its justification to non-discrete translations in a regularized context. We then evaluated the performance of our approach to identify its working domain and its limits, and to justify empirically its use for motions more complex than translation when we have enough images. We have developed a complete processing chain for the fast automatic reconstruction of a SR frame from a selected object in a video, and integrating the registration step that represents 80% of the execution time. We qualitatively illustrate our method on real data
APA, Harvard, Vancouver, ISO, and other styles
We offer discounts on all premium plans for authors whose works are included in thematic literature selections. Contact us to get a unique promo code!

To the bibliography